في عام الانتخابات الكبرى، يتحرك مهندسو الذكاء الاصطناعي ضد إساءة استخدامه


كانت شركات الذكاء الاصطناعي في طليعة تطوير التكنولوجيا التحويلية. وهم الآن يتسابقون أيضًا لوضع حدود لكيفية استخدام الذكاء الاصطناعي في عام مليء بالانتخابات الكبرى في جميع أنحاء العالم.

في الشهر الماضي، قالت شركة OpenAI، الشركة المصنعة لروبوت الدردشة ChatGPT، إنها تعمل على منع إساءة استخدام أدواتها في الانتخابات، وذلك جزئيًا عن طريق حظر استخدامها لإنشاء روبوتات الدردشة التي تتظاهر بأنها أشخاص أو مؤسسات حقيقية. في الأسابيع الأخيرة، قالت جوجل أيضًا إنها ستحد من قدرة برنامج الدردشة الآلي الخاص بها، Bard، على الاستجابة لبعض المطالبات المتعلقة بالانتخابات لتجنب عدم الدقة.. ووعدت شركة Meta، التي تمتلك Facebook وInstagram، بتصنيف المحتوى الناتج عن الذكاء الاصطناعي على منصاتها بشكل أفضل حتى يتمكن الناخبون من تمييز المعلومات الحقيقية وتلك المزيفة بسهولة أكبر.

وفي يوم الجمعة، انضمت شركة Anthropic، وهي شركة ناشئة رائدة أخرى في مجال الذكاء الاصطناعي، إلى نظيراتها من خلال حظر تطبيق التكنولوجيا الخاصة بها في الحملات السياسية أو جماعات الضغط. وفي منشور بالمدونة، قالت الشركة، التي تصنع روبوت دردشة يسمى كلود، إنها ستحذر أو تعلق أي مستخدم ينتهك قواعدها. وأضافت أنها تستخدم أدوات مدربة على اكتشاف المعلومات الخاطئة وحظرها تلقائيًا والتأثير على العمليات.

وقالت الشركة: “كان تاريخ نشر الذكاء الاصطناعي مليئًا بالمفاجآت والتأثيرات غير المتوقعة”. “نتوقع أن يشهد عام 2024 استخدامات مفاجئة لأنظمة الذكاء الاصطناعي – استخدامات لم يتوقعها مطوروها.”

تعد هذه الجهود جزءًا من حملة تقوم بها شركات الذكاء الاصطناعي للسيطرة على التكنولوجيا التي شاعتها مع توجه مليارات الأشخاص إلى صناديق الاقتراع. ومن المتوقع إجراء ما لا يقل عن 83 انتخابات في جميع أنحاء العالم هذا العام، وهو أكبر تركيز خلال السنوات الأربع والعشرين المقبلة على الأقل، وفقًا لشركة Anchor Change الاستشارية. وفي الأسابيع الأخيرة، أدلى الناخبون في تايوان وباكستان وإندونيسيا بأصواتهم، ومن المقرر أن تجري الهند، الدولة الديمقراطية الأكبر في العالم، انتخاباتها العامة في الربيع.

من غير الواضح مدى فعالية القيود المفروضة على أدوات الذكاء الاصطناعي، خاصة مع مضي شركات التكنولوجيا قدما في استخدام التكنولوجيا المتطورة بشكل متزايد. كشفت شركة OpenAI يوم الخميس عن تقنية Sora، وهي تقنية يمكنها إنشاء مقاطع فيديو واقعية على الفور. ويمكن استخدام مثل هذه الأدوات لإنتاج النصوص والأصوات والصور في الحملات السياسية، مما يؤدي إلى طمس الحقيقة والخيال وإثارة تساؤلات حول ما إذا كان الناخبون يستطيعون معرفة المحتوى الحقيقي.

لقد ظهر المحتوى الناتج عن الذكاء الاصطناعي بالفعل في الحملات السياسية الأمريكية، مما أدى إلى معارضة تنظيمية وقانونية. يقوم بعض المشرعين في الولاية بصياغة مشاريع قوانين لتنظيم المحتوى السياسي الناتج عن الذكاء الاصطناعي.

في الشهر الماضي، تلقى سكان نيو هامبشاير رسائل صوتية تثنيهم عن التصويت في الانتخابات التمهيدية بالولاية بصوت تم إنشاؤه بشكل مصطنع على الأرجح ليبدو مثل الرئيس بايدن. وحظرت لجنة الاتصالات الفيدرالية الأسبوع الماضي مثل هذه المكالمات.

وقالت جيسيكا روزنورسيل، رئيسة لجنة الاتصالات الفيدرالية في ذلك الوقت: “تستخدم الجهات الفاعلة السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء وتقليد المشاهير وتضليل الناخبين”.

كما خلقت أدوات الذكاء الاصطناعي صورًا مضللة أو خادعة للسياسيين والمواضيع السياسية في الأرجنتين وأستراليا وبريطانيا وكندا. في الأسبوع الماضي، استخدم رئيس الوزراء السابق عمران خان، الذي فاز حزبه بأكبر عدد من المقاعد في الانتخابات الباكستانية، صوت الذكاء الاصطناعي لإعلان الفوز أثناء وجوده في السجن.

قال الخبراء إنه في واحدة من أكثر الدورات الانتخابية أهمية في الذاكرة، فإن المعلومات الخاطئة والخداع التي يمكن أن يخلقها الذكاء الاصطناعي يمكن أن تكون مدمرة للديمقراطية.

قال أورين إتزيوني، الأستاذ بجامعة واشنطن المتخصص في الذكاء الاصطناعي ومؤسس True Media، وهي منظمة غير ربحية تعمل على تحديد المعلومات المضللة عبر الإنترنت في الحملات السياسية: “نحن هنا وراء الكرة الثمانية”. “نحن بحاجة إلى أدوات للرد على هذا في الوقت الحقيقي.”

قالت Anthropic في إعلانها يوم الجمعة إنها تخطط لإجراء اختبارات لتحديد كيف يمكن أن ينتج برنامج Claude chatbot الخاص بها محتوى متحيزًا أو مضللًا يتعلق بالمرشحين السياسيين والقضايا السياسية وإدارة الانتخابات. اختبارات “الفريق الأحمر” هذه، والتي تُستخدم غالبًا لاختراق ضمانات التكنولوجيا لتحديد نقاط ضعفها بشكل أفضل، سوف تستكشف أيضًا كيفية استجابة الذكاء الاصطناعي للاستفسارات الضارة، مثل المطالبات التي تطلب أساليب قمع الناخبين.

وفي الأسابيع المقبلة، ستطلق Anthropic أيضًا تجربة تهدف إلى إعادة توجيه المستخدمين الأمريكيين الذين لديهم استفسارات متعلقة بالتصويت إلى مصادر موثوقة للمعلومات مثل TurboVote من Democracy Works، وهي مجموعة غير حزبية غير ربحية. وقالت الشركة إن نموذج الذكاء الاصطناعي الخاص بها لم يتم تدريبه بشكل متكرر بما يكفي لتقديم حقائق موثوقة في الوقت الفعلي حول انتخابات محددة.

وبالمثل، قالت OpenAI الشهر الماضي إنها تخطط لتوجيه الأشخاص إلى معلومات التصويت من خلال ChatGPT، بالإضافة إلى تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

وقالت OpenAI في منشور على مدونتها: “مثل أي تقنية جديدة، تأتي هذه الأدوات مصحوبة بفوائد وتحديات”. “إنها أيضًا غير مسبوقة، وسنواصل تطوير نهجنا بينما نتعلم المزيد حول كيفية استخدام أدواتنا.”

(رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركة OpenAI وشريكتها مايكروسوفت، في ديسمبر/كانون الأول، بدعوى انتهاك حقوق الطبع والنشر للمحتوى الإخباري المتعلق بأنظمة الذكاء الاصطناعي).

كما تحظر شركة Synthesia، وهي شركة ناشئة تعمل في مجال توليد الفيديو بالذكاء الاصطناعي والتي تم ربطها بحملات التضليل، استخدام التكنولوجيا في “المحتوى الشبيه بالأخبار”، بما في ذلك المواد الكاذبة أو الاستقطابية أو المثيرة للانقسام أو المضللة. وقال ألكساندرو فويكا، رئيس شؤون الشركة والسياسة في شركة Synthesia، إن الشركة قامت بتحسين الأنظمة التي تستخدمها للكشف عن سوء استخدام تقنيتها.

قالت شركة Stability AI، وهي شركة ناشئة تعمل في مجال إنشاء الصور، إنها حظرت استخدام تقنيتها لأغراض غير قانونية أو غير أخلاقية، وعملت على منع إنشاء صور غير آمنة وطبقت علامة مائية غير محسوسة على جميع الصور.

كما شاركت أكبر شركات التكنولوجيا أيضًا. وفي الأسبوع الماضي، قالت شركة ميتا إنها تتعاون مع شركات أخرى بشأن المعايير التكنولوجية للمساعدة في التعرف على وقت إنشاء المحتوى باستخدام الذكاء الاصطناعي. قبل الانتخابات البرلمانية للاتحاد الأوروبي في يونيو، قالت TikTok في تدوينة يوم الأربعاء إنها ستحظر المحتوى الذي قد يتم التلاعب به والمضلل وتطلب من المستخدمين تصنيف إبداعات الذكاء الاصطناعي الواقعية.

قالت Google في ديسمبر إنها أيضًا ستطلب من منشئي الفيديو على YouTube وجميع المعلنين عن الانتخابات الكشف عن المحتوى الذي تم تعديله أو إنشاؤه رقميًا. وقالت الشركة إنها تستعد لانتخابات عام 2024 من خلال تقييد أدوات الذكاء الاصطناعي الخاصة بها، مثل Bard، من إعادة الردود على بعض الاستفسارات المتعلقة بالانتخابات.

وقالت جوجل: “مثل أي تكنولوجيا ناشئة، يقدم الذكاء الاصطناعي فرصًا وتحديات جديدة”. وأضافت الشركة أن الذكاء الاصطناعي يمكن أن يساعد في مكافحة إساءة الاستخدام، “لكننا نستعد أيضًا لكيفية تغيير مشهد المعلومات المضللة”.



المصدر

صالح علي

كاتب ومحرر صحفي

الولايات المتحدة لا ترى حرباً «وشيكة» مع كوريا الشمالية

الغابون تستحوذ على أعمال «كارلايل» النفطية مستبقةً بيعها بـ1.3 مليار دولار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *