تقنية

قد تطغى مواد الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي على خط المعلومات


يهدد طوفان جديد من مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي بإرباك السلطات التي أعاقتها بالفعل التكنولوجيا والقوانين القديمة، وفقًا لتقرير جديد صدر يوم الاثنين عن مرصد الإنترنت بجامعة ستانفورد.

على مدار العام الماضي، سهلت تقنيات الذكاء الاصطناعي الجديدة على المجرمين إنشاء صور صريحة للأطفال. الآن، يحذر باحثو جامعة ستانفورد من أن المركز الوطني للأطفال المفقودين والمستغلين، وهو منظمة غير ربحية تعمل كوكالة تنسيق مركزية وتتلقى غالبية تمويلها من الحكومة الفيدرالية، لا تملك الموارد اللازمة لمحاربة التهديد المتزايد.

إن CyberTipline الخاص بالمنظمة، الذي تم إنشاؤه في عام 1998، هو مركز المقاصة الفيدرالي لجميع التقارير المتعلقة بمواد الاعتداء الجنسي على الأطفال، أو CSAM، عبر الإنترنت ويستخدم من قبل سلطات إنفاذ القانون للتحقيق في الجرائم. لكن العديد من النصائح الواردة غير كاملة أو مليئة بعدم الدقة. ويكافح موظفوها الصغار أيضًا لمواكبة الحجم.

قال شيلبي غروسمان، أحد المشاركين في الدراسة: “من المؤكد تقريبًا أنه في السنوات القادمة، سيتم غمر CyberTipline بمحتوى الذكاء الاصطناعي ذو المظهر الواقعي للغاية، الأمر الذي سيجعل من الصعب على سلطات إنفاذ القانون التعرف على الأطفال الحقيقيين الذين يحتاجون إلى الإنقاذ”. مؤلفي التقرير.

يقف المركز الوطني للأطفال المفقودين والمستغلين في الخطوط الأمامية لمعركة جديدة ضد الصور الاستغلالية جنسيًا التي تم إنشاؤها باستخدام الذكاء الاصطناعي، وهي منطقة ناشئة من الجريمة لا يزال المشرعون وجهات إنفاذ القانون يحددونها. وبالفعل، وسط انتشار وباء الصور العارية التي أنشأها الذكاء الاصطناعي في المدارس، يتخذ بعض المشرعين إجراءات لضمان اعتبار هذا المحتوى غير قانوني.

يقول الباحثون إن صور الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي تعتبر غير قانونية إذا كانت تحتوي على أطفال حقيقيين أو إذا تم استخدام صور أطفال حقيقيين لتدريب البيانات. لكن الصور المصنّعة التي لا تحتوي على صور حقيقية يمكن حمايتها باعتبارها حرية تعبير، وفقًا لأحد مؤلفي التقرير.

انفجر الغضب العام بشأن انتشار صور الاعتداء الجنسي على الأطفال عبر الإنترنت في جلسة استماع حديثة مع الرؤساء التنفيذيين لشركة Meta وSnap وTikTok وDiscord وX، الذين تعرضوا لانتقادات شديدة من قبل المشرعين لعدم قيامهم بما يكفي لحماية الأطفال الصغار عبر الإنترنت.

وطالب مركز الأطفال المفقودين والمستغلين، والذي يتلقى نصائح من أفراد وشركات مثل فيسبوك وجوجل، بوضع تشريعات لزيادة تمويله ومنحه إمكانية الوصول إلى المزيد من التكنولوجيا. وقال باحثون في جامعة ستانفورد إن المنظمة أتاحت الوصول إلى المقابلات مع الموظفين وأنظمتها للتقرير لإظهار نقاط الضعف في الأنظمة التي تحتاج إلى تحديث.

وقالت المنظمة في بيان لها: “على مر السنين، يستمر تعقيد التقارير وشدة الجرائم المرتكبة ضد الأطفال في التطور”. “لذلك، فإن الاستفادة من الحلول التكنولوجية الناشئة في عملية CyberTipline بأكملها تؤدي إلى حماية المزيد من الأطفال ومحاسبة الجناة.”

وجد باحثو جامعة ستانفورد أن المنظمة بحاجة إلى تغيير الطريقة التي تعمل بها خط النصائح الخاص بها لضمان قدرة سلطات إنفاذ القانون على تحديد التقارير التي تتضمن محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، وكذلك التأكد من أن الشركات التي تبلغ عن مواد إساءة استخدام محتملة على منصاتها تملأ النماذج بالكامل.

أقل من نصف جميع التقارير المقدمة إلى CyberTipline كانت “قابلة للتنفيذ” في عام 2022 إما لأن الشركات التي أبلغت عن إساءة الاستخدام فشلت في تقديم معلومات كافية أو لأن الصورة الموجودة في النصيحة انتشرت بسرعة عبر الإنترنت وتم الإبلاغ عنها مرات عديدة. يحتوي سطر النصيحة على خيار للتحقق مما إذا كان المحتوى الموجود في النصيحة عبارة عن ميم محتمل، لكن الكثيرين لا يستخدمونه.

في يوم واحد في وقت سابق من هذا العام، وصل رقم قياسي بلغ مليون بلاغ عن مواد الاعتداء الجنسي على الأطفال إلى غرفة المقاصة الفيدرالية. وعلى مدى أسابيع، عمل المحققون على الاستجابة للارتفاع غير المعتاد. وتبين أن العديد من التقارير كانت مرتبطة بصورة في أحد الميمات التي كان الأشخاص يشاركونها عبر المنصات للتعبير عن الغضب، وليس النوايا الخبيثة. لكنها لا تزال تستهلك موارد تحقيقية كبيرة.

وقال أليكس ستاموس، أحد مؤلفي تقرير ستانفورد، إن هذا الاتجاه سوف يزداد سوءًا مع تسارع المحتوى الناتج عن الذكاء الاصطناعي.

قال السيد ستاموس: «إن مليون صورة متطابقة أمر صعب بما فيه الكفاية، ومليون صورة منفصلة تم إنشاؤها بواسطة الذكاء الاصطناعي ستكسرها».

يُمنع مركز الأطفال المفقودين والمستغلين والمقاولين التابعين له من استخدام موفري الحوسبة السحابية ويطلب منهم تخزين الصور محليًا في أجهزة الكمبيوتر. ووجد الباحثون أن هذا الشرط يجعل من الصعب بناء واستخدام الأجهزة المتخصصة المستخدمة لإنشاء وتدريب نماذج الذكاء الاصطناعي لتحقيقاتها.

لا تمتلك المنظمة عادةً التكنولوجيا اللازمة لاستخدام برامج التعرف على الوجه على نطاق واسع لتحديد الضحايا والجناة. لا يزال جزء كبير من معالجة التقارير يتم يدويًا.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى