گوگل: اعتذار به سفید پوستان برای صدمه رساندن احساساتشان

فوریه 25, 2024 0 نظر 32

گوگل، به‌عنوان یکی از بزرگ‌ترین شرکت‌های فناوری در دنیا، به لحاظ تأثیر و اثری که بر جوامع دارد، مسئولیت‌های اخلاقی و اجتماعی بسیاری در دستی دارد. اخیراً گزارش‌هایی منتشر شده بود که نشان می‌داد گوگل در نتایج جستجوی خود، برخی از افراد سفیدپوست را به عنوان جریحه‌دار وارد می‌کرده است. این اقدام نه تنها به افراد اذیت‌کننده بود، بلکه نشان می‌دهد که عواقب ناخوشایندی را برای افراد زیادی به همراه دارد.

با اعتراف به این خطا و اظهار نداشتن احترام به هر نژاد و قومیتی، گوگل نشان داد که ادراک و توجه به ارزش‌های انسانی و اجتماعی از اهمیت بالایی برخوردار است. این عمل انسانیت و احترام به تنوع فرهنگی را تأکید می‌کند و نقطه عطفی در تاریخ شرکت محسوب می‌شود. از این رو، گوگل با ابراز متن‌هایی که عذرخواهی و تضمین اصلاح عملکرد خود را در آینده در خصوص این موضوعات، انجام داده است و اعلام کرده است که به‌موقع و دقیقتر توجه به این مسائل خواهد شد. به‌امید آنکه این اقدام عملی، فرهنگ سازی بهتری را در جوامع مختلف به همراه خواهد داشت.

ارسال شده توسط: ندیم نجم آبادی ۰۶ اسفند ۱۴۰۲ ساعت ۱۴:۰۲اخیرا وایرال شدن تصاویر مجعول تاریخی که چت‌بات Gemini AI گوگل ساخته بود، خشم سفیدپوستان را برانگیخت؛ حالا این کمپانی ضمن پذیرش اشتباه، از مردم عذرخواهی کرده است.در روزهای اخیر، ابزار تصویرساز Gemini AI حسابی جنجال به پا کرد و مخالفان، گوگل را متهم به رفتار نژادپرستانه علیه سفیدپوستان و جهت‌گیری سیاسی کردند؛ شرکت گوگل در واکنش، جمنای را تا اطلاع ثانوی غیر فعال و از مردم عذرخواهی کرد.قضیه از این قرار بود که تصاویر ساخته شده توسط چت‌بات Gemini، هیچ انطباقی با واقعیت‌های تاریخی نداشتند. به‌عنوان مثال، این ابزار تصاویری از وایکینگ‌های سیاه‌پوست یا پاپ سیاه‌پوست و مونث ساخت. حتی پدران بنیان‌گذار آمریکا را رنگین‌پوست نشان داد. تصاویر مجعول ساخته شده توسط جمنای: از وایکینگ سیاه‌پوست تا پاپ مونث دسته‌گل دیگر جمنای: پدران بنیان‌گذار آمریکا از هر رنگ و نژادی به‌جز سفید!خلق چنین تصاویر مجعولی، این ظن را به‌وجود آورد که گوگل از عمد این ابزار را طوری طراحی کرده که سفیدپوستان را به‌تصویر نکشد؛ ادعایی که گوگل قاطعانه رد می‌کند. پراباکار رغوان، یکی از مدیران ارشد کمپانی دراین‌باره توضیح داده است:ما چنین قصدی نداشتیم. نیت ما امتناع جمنای از خلق تصاویر هیچ گروه و نژاد خاصی نبود. ما همچنین نمی‌خواستیم که این ابزار، تصاویر غیر دقیق تاریخی بسازد.او ضمن اقرار به اشتباه صورت گرفته، وعده تلاش برای جبران آن را داد. طبق گفته‌های رغوان، این مشکل رخ داد چون گوگل نمی‌خواست Gemini اشتباهات سایر تصویرسازهای AI را انجام دهد؛ مواردی مانند ساخت تصاویر خشونت‌آمیز و جنسی یا ترسیم چهره افراد واقعی!او در ادامه توضیحات، به دو نکته اشاره کرده است. یکی اینکه آن‌ها طوری جمنای را ساخته‌اند که در تصاویر تولیدی، تنوع مردمی را نشان دهد. اما به این موضوع بی‌توجهی کردند که در برخی موارد، اتفاقا این تنوع نباید نشان داده شود تا تصاویر خلق شده، با واقعیت‌های تاریخی مغایرت پیدا نکنند.دوم اینکه به‌مرور و ناخواسته، جمنای بیش از حد محتاط شد و از پاسخ یا قبول برخی درخواست‌های بی‌ضرر، امتناع کرد؛ چون آن‌ها را به‌غلط حساسیت‌برانگیز تعبیر می‌کرد.ظاهرا جمنای از آن‌ور بام افتاده استبه‌زبان ساده‌تر، افراط و تفریط در عملکرد این ابزار هوش مصنوعی، بروز پیدا کرد.به‌هرحال، گوگل هم‌اکنون قابلیت تصویرسازی جمنای را به‌طور موقت غیر فعال کرده؛ اما از بازگشت این ابزار در آینده‌ای نزدیک خبر داده است. البته رغوان روی این «آینده نزدیک» تردید دارد و بیشتر روی بهینه‌سازی و انجام تست‌های کافی پیش از بازگشت مجدد آن تاکید می‌کند.او همچنین گفت که نمی‌تواند عدم تولید تصاویر اشتباه توسط Gemini در آینده را تضمین کند؛ ولی قول داد که گوگل به تلاش برای رفع این مشکل ادامه خواهد داد.رغوان یک توصیه هم به کاربران کرده است: اینکه جمنای را فقط یک ابزار تولید و خلاقیت در نظر بگیرند و زیاد به آن استناد نکنند؛ به‌ویژه وقتی که درباره وقایع جاری یا موضوعات جنجالی، متن و تصویر خلق می‌کند.

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها