تقدم الزوايا المظلمة للويب لمحة عن المستقبل الشرير للذكاء الاصطناعي


عندما اجتمع مجلس الإفراج المشروط في لويزيانا في أكتوبر/تشرين الأول لمناقشة احتمال إطلاق سراح قاتل مدان، دعا طبيباً يتمتع بخبرة سنوات في مجال الصحة العقلية للحديث عن السجين.

ولم تكن لجنة الإفراج المشروط هي المجموعة الوحيدة التي اهتمت بالأمر.

التقطت مجموعة من المتصيدين عبر الإنترنت لقطات شاشة للطبيبة من خلاصة شهادتها عبر الإنترنت وقاموا بتحرير الصور باستخدام أدوات الذكاء الاصطناعي لجعلها تبدو عارية. ثم قاموا بمشاركة الملفات التي تم التلاعب بها على 4chan، وهي لوحة رسائل مجهولة المصدر معروفة بتعزيز التحرش ونشر محتوى يحض على الكراهية ونظريات المؤامرة.

كانت هذه واحدة من المرات العديدة التي استخدم فيها الأشخاص في 4chan أدوات جديدة مدعومة بالذكاء الاصطناعي مثل برامج تحرير الصوت ومولدات الصور لنشر محتوى عنصري ومهين حول الأشخاص الذين مثلوا أمام مجلس الإفراج المشروط، وفقًا لدانيال سيجل، وهو طالب دراسات عليا في جامعة كولومبيا. الذي يبحث في كيفية استغلال الذكاء الاصطناعي لأغراض ضارة. قام السيد سيجل بتأريخ النشاط على الموقع لعدة أشهر.

وقال السيد سيجل إن الصور والصوت الذي تم التلاعب به لم ينتشر إلى ما هو أبعد من حدود 4chan. لكن الخبراء الذين يراقبون لوحات الرسائل الهامشية قالوا إن الجهود قدمت لمحة عن كيفية استخدام مستخدمي الإنترنت الشائنين لأدوات الذكاء الاصطناعي المتطورة لزيادة حملات التحرش والكراهية عبر الإنترنت في الأشهر والسنوات المقبلة.

وقال كالوم هود، رئيس الأبحاث في مركز مكافحة الكراهية الرقمية، إن المواقع الهامشية مثل 4chan – ربما الأكثر شهرة على الإطلاق – غالبًا ما تعطي إشارات إنذار مبكر حول كيفية استخدام التكنولوجيا الجديدة لعرض الأفكار المتطرفة. وقال إن هذه المنصات مليئة بالشباب الذين “يسارعون إلى تبني تقنيات جديدة” مثل الذكاء الاصطناعي من أجل “إعادة إيديولوجيتهم إلى الفضاءات السائدة”.

وقال إن هذه التكتيكات غالباً ما يتم اعتمادها من قبل بعض المستخدمين على منصات الإنترنت الأكثر شعبية.

فيما يلي العديد من المشكلات الناتجة عن أدوات الذكاء الاصطناعي التي اكتشفها الخبراء على 4chan – وما يفعله المنظمون وشركات التكنولوجيا بشأنها.

تقوم أدوات الذكاء الاصطناعي مثل Dall-E وMidjourney بإنشاء صور جديدة من أوصاف نصية بسيطة. ولكن تم إنشاء موجة جديدة من مولدات الصور بتقنية الذكاء الاصطناعي بغرض إنشاء مواد إباحية مزيفة، بما في ذلك إزالة الملابس من الصور الموجودة.

قال السيد هود عن حملات الكراهية والمعلومات المضللة عبر الإنترنت: “يمكنهم استخدام الذكاء الاصطناعي لإنشاء صورة لما يريدون بالضبط”.

لا يوجد قانون فيدرالي يحظر إنشاء صور مزيفة للأشخاص، مما يترك مجموعات مثل مجلس الإفراج المشروط في لويزيانا تتدافع لتحديد ما يمكن فعله. فتح مجلس الإدارة تحقيقًا ردًا على النتائج التي توصل إليها السيد سيجل بشأن 4chan.

وقال فرانسيس أبوت، المدير التنفيذي لمجلس العفو في لويزيانا ولجنة الإفراج المشروط: “أي صور يتم إنتاجها تصور أعضاء مجلس إدارتنا أو أي مشاركين في جلسات الاستماع بطريقة سلبية، سنعارضها بالتأكيد”. “لكن علينا أن نعمل في إطار القانون، وسواء كان ذلك مخالفًا للقانون أم لا – فهذا يجب أن يحدده شخص آخر.”

قامت ولاية إلينوي بتوسيع قانونها الذي يحكم المواد الإباحية الانتقامية للسماح لأهداف المواد الإباحية غير التوافقية التي تصنعها أنظمة الذكاء الاصطناعي بمقاضاة المبدعين أو الموزعين. كما أصدرت ولايات كاليفورنيا وفيرجينيا ونيويورك أيضًا قوانين تحظر توزيع أو إنشاء المواد الإباحية التي ينتجها الذكاء الاصطناعي دون موافقة.

في أواخر العام الماضي، أصدرت شركة ElevenLabs، وهي شركة متخصصة في الذكاء الاصطناعي، أداة يمكنها إنشاء نسخة رقمية مقنعة من صوت شخص ما يقول أي شيء مكتوب في البرنامج.

بمجرد ظهور الأداة، قام مستخدمو 4chan بتوزيع مقاطع مزيفة للممثلة البريطانية إيما واتسون، وهي تقرأ بيان أدولف هتلر بعنوان “كفاحي”.

باستخدام محتوى من جلسات مجلس الإفراج المشروط في لويزيانا، قام مستخدمو 4chan منذ ذلك الحين بمشاركة مقاطع مزيفة لقضاة يتلفظون بتعليقات مسيئة وعنصرية حول المتهمين. تم إنشاء العديد من المقاطع بواسطة أداة ElevenLabs، وفقًا للسيد Siegel، الذي استخدم معرف الصوت بالذكاء الاصطناعي الذي طورته ElevenLabs للتحقيق في أصولها.

سارعت ElevenLabs إلى فرض حدود، بما في ذلك مطالبة المستخدمين بالدفع قبل أن يتمكنوا من الوصول إلى أدوات استنساخ الصوت. لكن الخبراء قالوا إن التغييرات لا يبدو أنها تبطئ انتشار الأصوات التي أنشأها الذكاء الاصطناعي. تم تداول عشرات من مقاطع الفيديو التي تستخدم أصوات المشاهير المزيفة على TikTok وYouTube، والعديد منها يتشارك معلومات مضللة سياسية.

بعض شركات التواصل الاجتماعي الكبرى، بما في ذلك TikTok وYouTube، طلبت منذ ذلك الحين تصنيفات على بعض محتوى الذكاء الاصطناعي. أصدر الرئيس بايدن أمرًا تنفيذيًا في أكتوبر يطلب من جميع الشركات تصنيف هذا المحتوى وتوجيه وزارة التجارة لتطوير معايير لوضع العلامات المائية وتوثيق محتوى الذكاء الاصطناعي.

ومع تحرك شركة ميتا للحصول على موطئ قدم في سباق الذكاء الاصطناعي، تبنت الشركة استراتيجية لإصدار الكود البرمجي الخاص بها للباحثين. يمكن لهذا النهج، الذي يطلق عليه على نطاق واسع “المصدر المفتوح”، تسريع عملية التطوير من خلال منح الأكاديميين والتقنيين إمكانية الوصول إلى المزيد من المواد الخام للعثور على التحسينات وتطوير أدواتهم الخاصة.

عندما أطلقت الشركة نموذجها اللغوي الكبير Llama لاختيار الباحثين في فبراير، تسربت التعليمات البرمجية بسرعة إلى 4chan. استخدمه الناس هناك لأغراض مختلفة: فقد قاموا بتعديل الكود لخفض أو إزالة حواجز الحماية، وإنشاء روبوتات دردشة جديدة قادرة على إنتاج أفكار معادية للسامية.

وقد استعرض هذا الجهد كيف يمكن تعديل أدوات الذكاء الاصطناعي المجانية والمفتوحة المصدر من قبل المستخدمين الأذكياء من الناحية التكنولوجية.

وقالت متحدثة باسم ميتا في رسالة بالبريد الإلكتروني: “على الرغم من أن النموذج ليس في متناول الجميع، وقد حاول البعض التحايل على عملية الموافقة، فإننا نعتقد أن استراتيجية الإصدار الحالية تسمح لنا بالموازنة بين المسؤولية والانفتاح”.

وفي الأشهر التي تلت ذلك، تم تطوير نماذج اللغة لتكرار نقاط الحديث اليمينية المتطرفة أو لإنشاء المزيد من المحتوى الجنسي الصريح. تم تعديل مولدات الصور من قبل مستخدمي 4chan لإنتاج صور عارية أو تقديم ميمات عنصرية، متجاوزة الضوابط التي تفرضها شركات التكنولوجيا الكبرى.





المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *