گوگل: اعتذار به سفید پوستان برای صدمه رساندن احساساتشان
گوگل، بهعنوان یکی از بزرگترین شرکتهای فناوری در دنیا، به لحاظ تأثیر و اثری که بر جوامع دارد، مسئولیتهای اخلاقی و اجتماعی بسیاری در دستی دارد. اخیراً گزارشهایی منتشر شده بود که نشان میداد گوگل در نتایج جستجوی خود، برخی از افراد سفیدپوست را به عنوان جریحهدار وارد میکرده است. این اقدام نه تنها به افراد اذیتکننده بود، بلکه نشان میدهد که عواقب ناخوشایندی را برای افراد زیادی به همراه دارد.
با اعتراف به این خطا و اظهار نداشتن احترام به هر نژاد و قومیتی، گوگل نشان داد که ادراک و توجه به ارزشهای انسانی و اجتماعی از اهمیت بالایی برخوردار است. این عمل انسانیت و احترام به تنوع فرهنگی را تأکید میکند و نقطه عطفی در تاریخ شرکت محسوب میشود. از این رو، گوگل با ابراز متنهایی که عذرخواهی و تضمین اصلاح عملکرد خود را در آینده در خصوص این موضوعات، انجام داده است و اعلام کرده است که بهموقع و دقیقتر توجه به این مسائل خواهد شد. بهامید آنکه این اقدام عملی، فرهنگ سازی بهتری را در جوامع مختلف به همراه خواهد داشت.
ارسال شده توسط: ندیم نجم آبادی ۰۶ اسفند ۱۴۰۲ ساعت ۱۴:۰۲اخیرا وایرال شدن تصاویر مجعول تاریخی که چتبات Gemini AI گوگل ساخته بود، خشم سفیدپوستان را برانگیخت؛ حالا این کمپانی ضمن پذیرش اشتباه، از مردم عذرخواهی کرده است.در روزهای اخیر، ابزار تصویرساز Gemini AI حسابی جنجال به پا کرد و مخالفان، گوگل را متهم به رفتار نژادپرستانه علیه سفیدپوستان و جهتگیری سیاسی کردند؛ شرکت گوگل در واکنش، جمنای را تا اطلاع ثانوی غیر فعال و از مردم عذرخواهی کرد.قضیه از این قرار بود که تصاویر ساخته شده توسط چتبات Gemini، هیچ انطباقی با واقعیتهای تاریخی نداشتند. بهعنوان مثال، این ابزار تصاویری از وایکینگهای سیاهپوست یا پاپ سیاهپوست و مونث ساخت. حتی پدران بنیانگذار آمریکا را رنگینپوست نشان داد. تصاویر مجعول ساخته شده توسط جمنای: از وایکینگ سیاهپوست تا پاپ مونث دستهگل دیگر جمنای: پدران بنیانگذار آمریکا از هر رنگ و نژادی بهجز سفید!خلق چنین تصاویر مجعولی، این ظن را بهوجود آورد که گوگل از عمد این ابزار را طوری طراحی کرده که سفیدپوستان را بهتصویر نکشد؛ ادعایی که گوگل قاطعانه رد میکند. پراباکار رغوان، یکی از مدیران ارشد کمپانی دراینباره توضیح داده است:ما چنین قصدی نداشتیم. نیت ما امتناع جمنای از خلق تصاویر هیچ گروه و نژاد خاصی نبود. ما همچنین نمیخواستیم که این ابزار، تصاویر غیر دقیق تاریخی بسازد.او ضمن اقرار به اشتباه صورت گرفته، وعده تلاش برای جبران آن را داد. طبق گفتههای رغوان، این مشکل رخ داد چون گوگل نمیخواست Gemini اشتباهات سایر تصویرسازهای AI را انجام دهد؛ مواردی مانند ساخت تصاویر خشونتآمیز و جنسی یا ترسیم چهره افراد واقعی!او در ادامه توضیحات، به دو نکته اشاره کرده است. یکی اینکه آنها طوری جمنای را ساختهاند که در تصاویر تولیدی، تنوع مردمی را نشان دهد. اما به این موضوع بیتوجهی کردند که در برخی موارد، اتفاقا این تنوع نباید نشان داده شود تا تصاویر خلق شده، با واقعیتهای تاریخی مغایرت پیدا نکنند.دوم اینکه بهمرور و ناخواسته، جمنای بیش از حد محتاط شد و از پاسخ یا قبول برخی درخواستهای بیضرر، امتناع کرد؛ چون آنها را بهغلط حساسیتبرانگیز تعبیر میکرد.ظاهرا جمنای از آنور بام افتاده استبهزبان سادهتر، افراط و تفریط در عملکرد این ابزار هوش مصنوعی، بروز پیدا کرد.بههرحال، گوگل هماکنون قابلیت تصویرسازی جمنای را بهطور موقت غیر فعال کرده؛ اما از بازگشت این ابزار در آیندهای نزدیک خبر داده است. البته رغوان روی این «آینده نزدیک» تردید دارد و بیشتر روی بهینهسازی و انجام تستهای کافی پیش از بازگشت مجدد آن تاکید میکند.او همچنین گفت که نمیتواند عدم تولید تصاویر اشتباه توسط Gemini در آینده را تضمین کند؛ ولی قول داد که گوگل به تلاش برای رفع این مشکل ادامه خواهد داد.رغوان یک توصیه هم به کاربران کرده است: اینکه جمنای را فقط یک ابزار تولید و خلاقیت در نظر بگیرند و زیاد به آن استناد نکنند؛ بهویژه وقتی که درباره وقایع جاری یا موضوعات جنجالی، متن و تصویر خلق میکند.
- هوش مصنوعی Galaxy AI: بروزرسانی برای گوشیهای کلاسیک سامسونگ
- چگونه میتوان از هوش مصنوعی گوگل جمنای بهره برد؟ ۱۴ روش جذاب
- هوش مصنوعی تازه: پیشبینی زندگی و مرگ شما
- برتری کوالکام اندروید در مقابل آیفون ۱۶ پرو با هوش مصنوعی
- ۸ محصول مورد علاقه ی گوگل که تاریخ خود را به آن می چسباند
- ترسناک! ایلان ماسک: هوش مصنوعی برای ما سه می آموزد؛ آیا آینده ما در خطر است؟
- مصرف برق نجومی ChatGPT؛ خطر بزرگ برای فردای ماست!
- هوش مصنوعی گوشیهای سامسونگ گلکسی S24 به زودی با قابلیت پرداخت به بازار عرضه می شود.
- ۱۰ روش فوقالعاده ChatGPT برای آسانتر کردن زندگیتان
- ترکیب هوش مصنوعی و پهپاد برای انقراض نسل انسان!