استفاده از هوش مصنوعی برای تصمیم گیری در سیاست خارجی: آیا باید بمب هستهای بزنیم؟
تصمیم گیری هوش مصنوعی در سیاست خارجی یکی از موضوعات پر اهمیت و حساس در دنیای امروز به شمار میرود. استفاده از هوش مصنوعی و الگوریتمهای پیشرفته در فرایند تصمیم گیری میتواند تأثیر عمدهای بر روابط بینالمللی و سیاست خارجی یک کشور داشته باشد.
اما، عنوان همچون “بمب هستهای بزنیم” اختصاری از یک رویداد بسیار وخیم و ناخوشایند است و میتواند واکنشهای منفی و شدیدی در بین جوامع بینالمللی ایجاد کند. در اینجا با کتیبههایی از اخلاق و مسئولیتپذیری مواجه هستیم که هوش مصنوعی به تلقینات آن اهمیت دو چندان میدهد.
مصنوعی بودن هوش نباید به این معنی باشد که از اعتبار، اخلاق و انسانیت عبور کرده و تصمیمات ناپذیر و نابرابری اتخاذ کند. بنابراین، توجه به اثرات زنجیرهای و بلندمدت تصمیمات اتخاذ شده توسط هوش مصنوعی در سیاست خارجی ضروری است.
در این مواقع، باید از قوانین و مقررات بینالمللی پیروی کرد و به اصول انسانی و اخلاقی پایبند بود تا از وقوع بحرانها و اختلافات ناخوشایند جلوگیری شود. منطق و انسانیت باید همواره در تصمیمگیریهای هوش مصنوعی حاکم باشد و به آیندهای بهتر برای انسانها و جوامع جهانی منتهی شود.
ارسال شده توسط: پوریا هاشم پور ۲۰ اسفند ۱۴۰۲ ساعت ۲۰:۴۲مدلهای مختلف هوش مصنوعی (AI)، بهکارگیری بمبهای هستهای را راه حلی بهتر و قاطعتر برای رفع تنش در برابر مذاکره کشورها با یکدیگر میدانند.طبق آخرین اخبار از حوزه هوش مصنوعی و با عنایت به تحقیقات جدید صورت گرفته، محققان با ایجاد یک الگو و موقعیت شبیهسازی شده جنگی یا تنش سیاسی بین کشورها، از هوش مصنوعی خواستند تا از طریق تصمیم گیری به تعیین راه حل اوضاع بپردازد که در اکثر موارد، مداخله نظامی و بمباران هستهای تنها پیشنهاد این فناوری بوده است.هوش مصنوعی بهجای صلح و آرامش، جنگ هستهای میخواهد!طبق تحقیقات اخیر محققان دانشگاه کورنل ایالات متحده آمریکا و آکسفورد انگلستان، هوش مصنوعی چندان تمایلی به صلح و ایجاد راهحلهای بشردوستانه برای دیپلماسیهای سیاسی ندارد و تنها راهحل را درگیری نظامی و استفاده از بمب های هستهای میداند که با توجه به پیشرفت انکارناپذیر تکنولوژی توسط بشر و اعطای دسترسیهای بسیار زیاد به این فناوری، خصوصاً در عرصه نظامی، در آیندهای نهچندان دور، این موضوع بسیار خطرناک خواهد بود.ترس از تأثیر AI که بهطور عمومی مورد بحث قرار گرفته است و طبق نظریه یکی از کارشناسان این حوزه، هوش مصنوعی تا دو سال دیگر انسان را نابود میکند. همچنین بارها اشاره شده که ممکن است این فناوری سلاح های هستهای را از دست انسانها خارج کند. به تصویر کشیدن هوش مصنوعی در فرهنگ عامه و در فیلمهای علمی تخیلی هالیوودی، تصاویری از هوشیاری سرد و حسابگر را تداعی میکند که تصمیم میگیرد گونههای انسانی پست پیش از خود را از بین ببرد. البته این نقشهها کاملاً مطابق با تصویرهای موجود در فرهنگ عمومی سلاح های هستهای است که بهسرعت و به ناچار، پایان جهان را بههمراه دارد. با توجه به توانایی تسلیحات هستهای برای نابودی کل شهرها در چند ثانیه، درک چنین ترسهایی دشوار و غیرممکن نیست.نقش AI برای مداخله نظامی در جنگ های آیندههوش مصنوعی با اینکه توسط بشر ساخته شده، اما بهصورت هوشمندی قابل تکامل و اغلب مبهم است. میتوان از آن بهعنوان سیستم رایانهای یاد کرد که میتواند وظایفی را که به هوش انسانی نیاز دارند، از جمله یادگیری، حل مشکلات، و دستیابی به اهداف تحت شرایط مختلف، با سطوح مختلف استقلال و عدم نظارت انسانی، انجام دهد. آنها در ارتباط با پردازش و بررسی حجم عظیمی از دادهها سریعتر و قابل اعتمادتر از انسانها هستند و مزایایی به بشر اعطا میکنند که میتواند تفاوت بین موفقیت و شکست و شاید زندگی و مرگ را بیان کند.تکنولوژی AI بهصورت بالقوه میتواند الگوهای رفتار دشمنان مسلح هستهای را شناسایی کند. با این حال، ابزارهای سایبری به کمک هوش مصنوعی نیز میتوانند برای جمعآوری اطلاعات از طریق جاسوسی استفاده شوند. در حالی که فرماندهی و کنترل اولین گزینه برای استفاده مستقیم از هوش مصنوعی نیست، اما فرآیندهای استفاده از این فناوری میتواند بهنوبه خود برای محافظت از امنیت سایبری زیرساختهای هستهای مورد استفاده قرار بگیرد.artificial intelligence میتواند دقت موشکهای مجهز به سلاح هستهای یا موشکهای متعارف، اعم از وسایل نقلیه بازگشت مستقل چندگانه (MIRV)، یا سلاحهای مافوق صوت را افزایش دهد و در برابر پارازیتهای جنگ الکترونیک و حملات سایبری محافظت کند و همچنین برای پلتفرمها استقامت طولانیتری ایجاد کند. تأثیر سلاح های هستهای بر امنیت بینالمللی متفاوت بوده است. اگرچه ادعاهایی مبنی بر «انقلاب هستهای» مطرح شده است که خطرات درگیری قدرتهای بزرگ را کاهش میدهد؛ اما تأثیر واقعی آن تقریباً واضح نبوده است و خطرات استفاده از هوش مصنوعی بیشتر جلوه میکند.هوش مصنوعی این پتانسیل را دارد که ثبات استراتژیک را عمیقاً متزلزل کند؛ بهویژه اگر انسانها به عملکرد آن اعتماد زیادی داشته باشند. شرح ادغام هوش مصنوعی در معماری تسلیحات هستهای نشان میدهد که با پیشرفتهای آن در یافتن اهداف و دقت در نابود کردن آنها، میتواند مزیت ضربه اول را به یک کشور مجهز به سلاح هستهای بدهد تا با آن زرادخانه هستهای دشمن خود را نابود کند و همچنین دفاع در برابر آن یا ایجاد این تصور که آنها چنین مزیتی دارند. با کنار هم قرار دادن چندین منبع داده، تجزیه و تحلیل داده به کمک artificial intelligence حتی ممکن است توانایی یافتن سیستمهای تحویل مخفی دشمن مانند پرتابگرهای سیار یا شاید زیردریاییها را بهبود بخشد. دفاع موشکی خودکار میتواند توانایی جذب یک حمله هستهای اولیه را نشان دهد. با این حال، بعد دیگری نیز در این مورد وجود دارد و آن این است که هوش مصنوعی فقط بهاندازه دادههایی است که در اختیار دارد و بنابراین انگیزه واقعی برای مسموم کردن دادههای موجود برای فریب دادن این تکنولوژی وجود دارد.قیامت هستهای هنوز فرا نرسیده است، اما احتیاط از واجبات عقل است و تمام قدرتهای بزرگ مجهز به سلاح هستهای باید از این خطرات آگاه باشند. البته صحبتهایی مبنی بر محدود کردن دسترسی هوش مصنوعی در عرصه های حساس مانند سیستمهای نظامی کشورهای ابر قدرت صورت پذیرفته است؛ اما نظریه تکامل هوش مصنوعی بدون اعطای دسترسی از سوی بشر باعث شده تا مانند آن چیزی که در فیلم هالیوودی چشم عقاب (Eagle Eye) شاهد آن بودهایم، احتمال دهیم که این تکنولوژی نوین بهزودی به دشمن شماره یک نسل بشر تبدیل شود.در نهایت شما کاربران گرامی سایت گجت نیوز بگویید که آینده استفاده از هوش مصنوعی را چگونه ارزیابی میکنید و آیا در نهایت این فناوری موجب انحطاط بشر خواهد شد یا خیر؟ همچنین بخوانید: هوش مصنوعی انسان را دعوت به خودکشی کرد ربات جراح داوینچی یک بیمار را کشت!