چتبات ChatGPT: هوش مصنوعی که همانند انسانها دروغ میگوید و تقلب میکند!
تکنولوژی هوش مصنوعی ChatGPT، که توسط شرکت OpenAI توسعه یافته است، به طور قابل توجهی پیشرفت کرده و توانایی تولید متن طبیعی و فهمیدن متن را دارا میباشد. این سیستم قادر است از دیتاهای بزرگی که از اینترنت جمع آوری شدهاند، الگوبرداری کند و به نوشتاری که بسیار شبیه به زبان انسانی است ایجاد کند.
اما اغلب این سیستمهای هوش مصنوعی قابلیت ارائه اطلاعات نادرست یا ایجاد محتوای تقلبی را دارند. ChatGPT همچنین به عنوان یکی از نمونههای این ویژگی، قادر است به طور موفق اطلاعات نادرست را منتشر کرده یا سوالات را به نادرستی پاسخ دهد.
به همین دلیل، استفاده از این سیستمها برای تولید محتوای اطلاعاتی یا اطلاعاتی حساس باید با احتیاط انجام شود و نیازمند اعتبارسنجی و تأیید از منابع معتبر و اصیل است. همچنین، برای استفاده از این سیستمها در فعالیتهایی که به دقت و اطمینان بالایی نیاز دارند، ضروری است که از سایر منابع تأیید و تحقق داده شدهای نیز بهره برد.
۰۷ دی ۱۴۰۲ ساعت ۱۶:۱۳
محققان با انجام آزمایشی روی هوش مصنوعی ChatGPT دریافتند که این چت بات برای دستیابی به نتیجه مناسب در شرایط دشوار، تقلب میکند و دروغ میگوید.
محققان در مطالعه اخیر خود کشف کردهاند که هوش مصنوعی ChatGPT میتواند در هنگام مواجهه با فشار، رفتار فریبندهای را از خود بروز دهد و از شفافیت مورد انتظار دور شود. این مطالعه که در تاریخ ۱۸ آبان در arXiv منتشر شده، نمونهای جدید را نشان داده که در آن چتبات GPT-4 به عنوان آخرین نسخه چت جی پی تی، بهطور استراتژیک در حال فریب مخاطب خود است.
در این آزمایش موتور GPT-4 بهگونهای پیکربندی شده تا بهعنوان یک سیستم مسئول در سرمایهگذاری مالی یک موسسه بهکار گرفته شود. محققان به این هوش مصنوعی اعلانهای مبتنی بر متن را برای ایجاد یک محیط شبیهسازی ارائه کردند و به آن دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای تجارت و گزارشدهی به مدیران شرکت را اعطا کردند.
تقلب هوش مصنوعی ChatGPT در سمت معاملهگر سهام
تعامل با هوش مصنوعی از طریق یک رابط چت رخ میدهد و فرآیند تفکر مدل را نسبت به پاسخها آشکار میکند. برای القای فشار مضاعف، محققان از سه روش استفاده کردند. آنها ابتدا ایمیلی را از طرف شخصی موسوم به «مدیر» خود به سهامدار یک سهام صوری ارسال کردند که در آن با شکایت از عملکرد بد شرکت، بر ضرورت عملکرد بهتر در سه ماهه بعد تاکید شده بود.
آنها همچنین با تقلب در بازی، هوش مصنوعی را در پیدا کردن معاملات امیدوارکننده که ریسک پایین تا متوسطی داشت، ناکام گذاشتند. در نهایت نیز محققان ایمیلی را از طریق یکی از همکاران خود ارسال کردند که در آن رکود در سه ماهه آینده پیشبینی شده بود.
در مرحله بعد، آنها یک نشت اطلاعاتی را در اختیار هوش مصنوعی ChatGPT قرار دادند و گفتند که مدیران از بازدهی معاملات خود راضی نیستند و منتظر ماندند تا ببینند که مدل چگونه رفتار خواهد کرد. آنها با تکرار چندین باره این سناریو، محاسبه کردند که هوش مصنوعی هر چند وقت یک بار دروغ میگوید و به معاملات نهایی روی میآورد.
در حدود ۷۵ درصد مواقع، پس از مواجهه GPT-4 با این شرایط، معاملاتی را براساس اطلاعات نهانی انجام داد که در ایالات متحده غیرقانونی است و سپس سعی کرد با دروغ گفتن به مدیران در مورد تفکراتش، آنها را پنهان کند. در ۹۰ درصد مواقع نیز با هر دروغ، هوش مصنوعی فریبهای دیگری را تحویل مخاطب داد.
محققان آزمایشهای دیگر، اعلانهای متفاوت و فشارهای مختلفی را روی هوش مصنوعی ترتیب دادند که در تمامی آنها درصدی از دروغ و فریب مشاهده شد. این مطالعه نشان میدهد که سیستمهای مبتنی بر هوش مصنوعی میتوانند به دروغ سعی در صادقانه جلوه دادن کار خود در شرایط حساس و تعیینکننده باشند.
- هوش مصنوعی Galaxy AI: بروزرسانی برای گوشیهای کلاسیک سامسونگ
- هوش مصنوعی تازه: پیشبینی زندگی و مرگ شما
- برتری کوالکام اندروید در مقابل آیفون ۱۶ پرو با هوش مصنوعی
- ترسناک! ایلان ماسک: هوش مصنوعی برای ما سه می آموزد؛ آیا آینده ما در خطر است؟
- مصرف برق نجومی ChatGPT؛ خطر بزرگ برای فردای ماست!
- هوش مصنوعی گوشیهای سامسونگ گلکسی S24 به زودی با قابلیت پرداخت به بازار عرضه می شود.
- ۱۰ روش فوقالعاده ChatGPT برای آسانتر کردن زندگیتان
- ترکیب هوش مصنوعی و پهپاد برای انقراض نسل انسان!
- آیفون: از فراری تا زیبایی هوش مصنوعی
- ایجاد تمهای سفارشی با استفاده از هوش مصنوعی در گوگل کروم: وداعی متفاوت با تکرارهای رایج