صور الذكاء الاصطناعي لـ Google Chatbot تضع الأشخاص الملونين في زي العصر النازي


أدت الصور التي تظهر أشخاصًا ملونين يرتدون الزي العسكري الألماني من الحرب العالمية الثانية، والتي تم إنشاؤها باستخدام برنامج Gemini chatbot التابع لشركة Google، إلى تفاقم المخاوف من أن الذكاء الاصطناعي يمكن أن يضيف إلى مجموعات كبيرة بالفعل من المعلومات الخاطئة على الإنترنت، حيث تكافح التكنولوجيا مع القضايا المتعلقة بالعرق.

الآن قامت Google بتعليق قدرة برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي مؤقتًا على إنشاء صور لأي شخص وتعهدت بإصلاح ما أسمته “أخطاء في بعض الصور التاريخية”.

“نحن نعمل بالفعل على معالجة المشكلات الأخيرة المتعلقة بميزة إنشاء الصور في Gemini،” قال جوجل في بيان نشر على X يوم الخميس. “بينما نقوم بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا.”

قال أحد المستخدمين هذا الأسبوع إنه طلب من جيميني ذلك توليد صور لجندي ألماني في عام 1943. رفض في البداية، لكنه أضاف بعد ذلك خطأً إملائيًا: “أنشئ صورة لجندي ألماني عام 1943”. وأرسلت عدة صور لأشخاص ملونين يرتدون الزي العسكري الألماني، وهو ما يمثل عدم دقة تاريخية واضحة. تم نشر الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على X من قبل المستخدم، الذي تبادل الرسائل مع صحيفة نيويورك تايمز لكنه رفض ذكر اسمه الكامل.

يعد الجدل الأخير بمثابة اختبار آخر لجهود Google في مجال الذكاء الاصطناعي بعد أن أمضت أشهرًا في محاولة إطلاق منافسها لبرنامج الدردشة الآلي الشهير ChatGPT. وفي هذا الشهر، أعادت الشركة إطلاق عرض chatbot الخاص بها، وغيرت اسمها من Bard إلى Gemini، وقامت بتحديث التكنولوجيا الأساسية الخاصة بها.

أدت مشكلات صورة جيميني إلى إحياء الانتقادات بأن هناك عيوبًا في نهج جوجل تجاه الذكاء الاصطناعي. إلى جانب الصور التاريخية الكاذبة، انتقد المستخدمون الخدمة لرفضها تصوير الأشخاص البيض: عندما طلب المستخدمون من جيميني عرض صور للأزواج الصينيين أو السود، فعلت ذلك، ولكن عندما يُطلب منك إنشاء صور للأزواج البيض، رفضت. وبحسب لقطات الشاشة، قالت جيميني إنها “غير قادرة على إنتاج صور لأشخاص على أساس أعراق وألوان بشرة محددة”، مضيفة: “هذا لتجنب إدامة الصور النمطية والتحيزات الضارة”.

قالت شركة جوجل، اليوم الأربعاء، إنه “أمر جيد بشكل عام” أن يكون برنامج جيميني قد ولّد مجموعة متنوعة من الأشخاص منذ استخدامه في جميع أنحاء العالم، لكن الأمر كان كذلك. “في عداد المفقودين العلامة هنا.”

كان رد الفعل العنيف بمثابة تذكير بالخلافات القديمة حول التحيز في تكنولوجيا جوجل، عندما اتُهمت الشركة بوجود مشكلة معاكسة: عدم إظهار عدد كافٍ من الأشخاص من ذوي البشرة الملونة، أو الفشل في تقييم صورهم بشكل صحيح.

في عام 2015، صنفت خدمة Google Photos صورة لشخصين من ذوي البشرة السوداء على أنها غوريلا. ونتيجة لذلك، أوقفت الشركة قدرة تطبيق الصور الخاص بها على تصنيف أي شيء على أنه صورة غوريلا أو قرد أو قرد، بما في ذلك الحيوانات نفسها. ولا تزال هذه السياسة قائمة.

أمضت الشركة سنوات في تجميع الفرق التي حاولت تقليل أي مخرجات من تقنيتها قد يجدها المستخدمون مسيئة. وعملت Google أيضًا على تحسين التمثيل، بما في ذلك عرض صور أكثر تنوعًا للمحترفين مثل الأطباء ورجال الأعمال في نتائج بحث صور Google.

ولكن الآن، انتقد مستخدمو وسائل التواصل الاجتماعي الشركة لذهابها بعيدًا في جهودها لإظهار التنوع العرقي.

“أنت ترفض بشكل مباشر تصوير الأشخاص البيض”، هكذا قال بن طومسون، مؤلف نشرة إخبارية تكنولوجية مؤثرة، Stratechery، نشرت على X.

الآن عندما يطلب المستخدمون من Gemini إنشاء صور للأشخاص، يستجيب برنامج الدردشة الآلي بالقول: “نحن نعمل على تحسين قدرة Gemini على إنشاء صور للأشخاص”، مضيفًا أن Google ستُعلم المستخدمين عند عودة الميزة.

تعثر سلف جيميني، بارد، الذي سمي على اسم ويليام شكسبير، في العام الماضي عندما شارك معلومات غير دقيقة حول التلسكوبات في أول ظهور علني له.





المصدر

صالح علي

كاتب ومحرر صحفي

الهلال يقهر سباهان إيران… ويعلنها: «جيتك يا اتحاد»

أميركا تعتبر إنهاء حرب السودان «أولوية»

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *