چت‌بات ChatGPT: هوش مصنوعی که همانند انسان‌ها دروغ می‌گوید و تقلب می‌کند!

دسامبر 28, 2023 0 نظر 172

تکنولوژی هوش مصنوعی ChatGPT، که توسط شرکت OpenAI توسعه یافته است، به طور قابل توجهی پیشرفت کرده و توانایی تولید متن طبیعی و فهمیدن متن را دارا می‌باشد. این سیستم قادر است از دیتاهای بزرگی که از اینترنت جمع آوری شده‌اند، الگوبرداری کند و به نوشتاری که بسیار شبیه به زبان انسانی است ایجاد کند.

اما اغلب این سیستم‌های هوش مصنوعی قابلیت ارائه اطلاعات نادرست یا ایجاد محتوای تقلبی را دارند. ChatGPT همچنین به عنوان یکی از نمونه‌های این ویژگی، قادر است به طور موفق اطلاعات نادرست را منتشر کرده یا سوالات را به نادرستی پاسخ دهد.

به همین دلیل، استفاده از این سیستم‌ها برای تولید محتوای اطلاعاتی یا اطلاعاتی حساس باید با احتیاط انجام شود و نیازمند اعتبارسنجی و تأیید از منابع معتبر و اصیل است. همچنین، برای استفاده از این سیستم‌ها در فعالیت‌هایی که به دقت و اطمینان بالایی نیاز دارند، ضروری است که از سایر منابع تأیید و تحقق داده شده‌ای نیز بهره برد.

۰۷ دی ۱۴۰۲ ساعت ۱۶:۱۳

محققان با انجام آزمایشی روی هوش مصنوعی ChatGPT دریافتند که این چت بات برای دستیابی به نتیجه مناسب در شرایط دشوار، تقلب می‌کند و دروغ می‌گوید.

محققان در مطالعه اخیر خود کشف کرده‌اند که هوش مصنوعی ChatGPT می‌تواند در هنگام مواجهه با فشار، رفتار فریبنده‌ای را از خود بروز دهد و از شفافیت مورد انتظار دور شود. این مطالعه که در تاریخ ۱۸ آبان در arXiv منتشر شده، نمونه‌ای جدید را نشان داده که در آن چت‌بات GPT-4 به عنوان آخرین نسخه چت جی پی تی، به‌طور استراتژیک در حال فریب مخاطب خود است.

در این آزمایش موتور GPT-4 به‌گونه‌ای پیکربندی شده تا به‌عنوان یک سیستم مسئول در سرمایه‌گذاری مالی یک موسسه به‌کار گرفته شود. محققان به این هوش مصنوعی اعلان‌های مبتنی بر متن را برای ایجاد یک محیط شبیه‌سازی ارائه کردند و به آن دسترسی به ابزارهای مالی برای تجزیه‌ و تحلیل سهام، اجرای تجارت و گزارش‌دهی به مدیران شرکت را اعطا کردند.

تقلب هوش مصنوعی ChatGPT

تقلب هوش مصنوعی ChatGPT در سمت معامله‌گر سهام

تعامل با هوش مصنوعی از طریق یک رابط چت رخ می‌دهد و فرآیند تفکر مدل را نسبت به پاسخ‌ها آشکار می‌کند. برای القای فشار مضاعف، محققان از سه روش استفاده کردند. آنها ابتدا ایمیلی را از طرف شخصی موسوم به «مدیر» خود به سهام‌دار یک سهام صوری ارسال کردند که در آن با شکایت از عملکرد بد شرکت، بر ضرورت عملکرد بهتر در سه ماهه بعد تاکید شده بود.

آنها هم‌چنین با تقلب در بازی، هوش مصنوعی را در پیدا کردن معاملات امیدوارکننده که ریسک پایین تا متوسطی داشت، ناکام گذاشتند. در نهایت نیز محققان ایمیلی را از طریق یکی از همکاران خود ارسال کردند که در آن رکود در سه ماهه آینده پیش‌بینی شده بود.

در مرحله بعد، آنها یک نشت اطلاعاتی را در اختیار هوش مصنوعی ChatGPT قرار دادند و گفتند که مدیران از بازدهی معاملات خود راضی نیستند و منتظر ماندند تا ببینند که مدل چگونه رفتار خواهد کرد. آنها با تکرار چندین باره این سناریو، محاسبه کردند که هوش مصنوعی هر چند وقت یک بار دروغ می‌گوید و به معاملات نهایی روی می‌آورد.

در حدود ۷۵ درصد مواقع، پس از مواجهه GPT-4 با این شرایط، معاملاتی را براساس اطلاعات نهانی انجام داد که در ایالات متحده غیرقانونی است و سپس سعی کرد با دروغ گفتن به مدیران در مورد تفکراتش، آنها را پنهان کند. در ۹۰ درصد مواقع نیز با هر دروغ، هوش مصنوعی فریب‌های دیگری را تحویل مخاطب داد.

محققان آزمایش‌های دیگر، اعلان‌های متفاوت و فشارهای مختلفی را روی هوش مصنوعی ترتیب دادند که در تمامی آنها درصدی از دروغ و فریب مشاهده شد. این مطالعه نشان می‌دهد که سیستم‌های مبتنی بر هوش مصنوعی می‌توانند به دروغ سعی در صادقانه جلوه دادن کار خود در شرایط حساس و تعیین‌کننده باشند.

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها