أدوات إنفاذ القانون لمواجهة فيضان صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي
يستعد المسؤولون عن إنفاذ القانون لمواجهة انفجار المواد الناتجة عن الذكاء الاصطناعي التي تصور بشكل واقعي الأطفال الذين يتم استغلالهم جنسيا، مما يعمق التحدي المتمثل في تحديد الضحايا ومكافحة مثل هذه الانتهاكات.
وتأتي هذه المخاوف في الوقت الذي جعلت فيه Meta، وهي المورد الأساسي للسلطات في الإبلاغ عن المحتوى الجنسي الصريح، من الصعب تعقب المجرمين من خلال تشفير خدمة الرسائل الخاصة بها. ويسلط هذا التعقيد الضوء على التوازن الدقيق الذي يتعين على شركات التكنولوجيا تحقيقه عند الموازنة بين حقوق الخصوصية وسلامة الأطفال. ويثير احتمال محاكمة هذا النوع من الجرائم تساؤلات شائكة حول ما إذا كانت هذه الصور غير قانونية وما هو نوع سبل الانتصاف المتاحة للضحايا.
وقد استغل المشرعون في الكونجرس بعض هذه المخاوف للضغط من أجل ضمانات أكثر صرامة، بما في ذلك استدعاء المديرين التنفيذيين للتكنولوجيا يوم الأربعاء للإدلاء بشهادتهم حول حمايتهم للأطفال. إن الصور المزيفة والجنسية الصريحة لتايلور سويفت، والتي من المحتمل أن تكون ناتجة عن الذكاء الاصطناعي، والتي غمرت وسائل التواصل الاجتماعي الأسبوع الماضي، سلطت الضوء فقط على مخاطر هذه التكنولوجيا.
وقال ستيف غروكي، رئيس قسم استغلال الأطفال والفحش في وزارة العدل: “إن إنشاء صور جنسية صريحة للأطفال من خلال استخدام الذكاء الاصطناعي هو شكل شنيع من أشكال الاستغلال عبر الإنترنت”.
إن سهولة تكنولوجيا الذكاء الاصطناعي تعني أن الجناة يمكنهم إنشاء عشرات الصور للأطفال الذين يتم استغلالهم أو الاعتداء عليهم جنسيًا بنقرة زر واحدة.
يؤدي إدخال رسالة مطالبة ببساطة إلى ظهور صور ومقاطع فيديو ونصوص واقعية في دقائق، مما ينتج عنه صور جديدة لأطفال حقيقيين بالإضافة إلى صور صريحة لأطفال غير موجودين بالفعل. وقد تشمل هذه المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأطفال رضع وصغار يتعرضون للاغتصاب؛ أطفال صغار مشهورون يتعرضون للاعتداء الجنسي، بحسب دراسة حديثة من بريطانيا؛ وصور الفصل الروتينية، معدلة بحيث يكون جميع الأطفال عراة.
وقال الدكتور مايكل بورك: “الرعب الذي أمامنا الآن هو أنه يمكن لشخص ما أن يلتقط صورة طفل من وسائل التواصل الاجتماعي، أو من صفحة مدرسة ثانوية أو من حدث رياضي، ويمكنه الانخراط في ما أسماه البعض “التعري”.” ، كبير علماء النفس السابق في خدمة المارشال الأمريكية الذي عمل على الجرائم الجنسية التي تتعلق بالأطفال لعقود من الزمن. وقال إن استخدام الذكاء الاصطناعي لتغيير الصور بهذه الطريقة أصبح أكثر شيوعا.
ويقول الخبراء إن الصور لا يمكن تمييزها عن الصور الحقيقية، مما يجعل من الصعب التعرف على الضحية الحقيقية من الضحية المزيفة. وقال الملازم روبن ريتشاردز، قائد فرقة العمل المعنية بجرائم الإنترنت ضد الأطفال التابعة لقسم شرطة لوس أنجلوس: “إن التحقيقات أكثر صعوبة بكثير”. “يستغرق التحقيق وقتًا، وبعد أن نتعمق في التحقيق، يصبح الذكاء الاصطناعي، ثم ماذا سنفعل مع المضي قدمًا؟”
وقد كافحت وكالات إنفاذ القانون، التي تعاني من نقص الموظفين والتمويل، لمواكبة التقدم السريع في التكنولوجيا الذي سمح لصور الاعتداء الجنسي على الأطفال بالازدهار بمعدل مذهل. الصور ومقاطع الفيديو، التي تتيحها كاميرات الهواتف الذكية، والويب المظلم، ووسائل التواصل الاجتماعي، وتطبيقات المراسلة، ترتد عبر الإنترنت.
ولا يتم التحقيق إلا في جزء صغير من المواد المعروفة بأنها إجرامية. قال جون بيزورو، رئيس منظمة Raven، وهي منظمة غير ربحية تعمل مع المشرعين والشركات لمكافحة الاستغلال الجنسي للأطفال، إنه خلال فترة 90 يومًا الأخيرة، ربط مسؤولو إنفاذ القانون ما يقرب من 100000 عنوان IP في جميع أنحاء البلاد بالاعتداء الجنسي على الأطفال. مادة. (عنوان IP هو تسلسل فريد من الأرقام المخصصة لكل جهاز كمبيوتر أو هاتف ذكي متصل بالإنترنت). وقال إنه من بين هؤلاء، تم التحقيق في أقل من 700، بسبب النقص المزمن في التمويل المخصص لمكافحة هذه الجرائم.
وقال بيزورو، وهو قائد سابق أشرف على قضايا استغلال الأطفال عبر الإنترنت في نيو ساوث ويلز، إنه على الرغم من أن القانون الفيدرالي لعام 2008 سمح بمبلغ 60 مليون دولار لمساعدة مسؤولي إنفاذ القانون على مستوى الولاية والمحلية في التحقيق في مثل هذه الجرائم ومحاكمتها، إلا أن الكونجرس لم يخصص هذا المبلغ أبدًا في عام معين. جيرسي.
أدى استخدام الذكاء الاصطناعي إلى تعقيد الجوانب الأخرى لتتبع الاعتداء الجنسي على الأطفال. عادةً، يتم تخصيص سلسلة من الأرقام للمواد المعروفة عشوائيًا والتي تصل إلى حد البصمة الرقمية، والتي تُستخدم للكشف عن المحتوى غير المشروع وإزالته. وفي حالة تعديل الصور ومقاطع الفيديو المعروفة، تظهر المادة جديدة ولم تعد مرتبطة بالبصمة الرقمية.
ومما يزيد من هذه التحديات حقيقة أنه في حين أن القانون يتطلب من شركات التكنولوجيا الإبلاغ عن المواد غير القانونية إذا تم اكتشافها، فإنه لا يتطلب منها البحث عنها بنشاط.
يمكن أن يختلف نهج شركات التكنولوجيا. لقد كانت ميتا أفضل شريك للسلطات عندما يتعلق الأمر بوضع علامة على المواد الجنسية الصريحة التي تتعلق بالأطفال.
في عام 2022، من إجمالي 32 مليون نصيحة إلى المركز الوطني للأطفال المفقودين والمستغلين، وهو مركز تبادل المعلومات المخصص فيدراليًا لمواد الاعتداء الجنسي على الأطفال، أحالت ميتا حوالي 21 مليونًا.
لكن الشركة تقوم بتشفير منصة المراسلة الخاصة بها للتنافس مع الخدمات الآمنة الأخرى التي تحمي محتوى المستخدمين، مما يؤدي بشكل أساسي إلى إطفاء الأضواء أمام المحققين.
وحذرت جنيفر دونتون، المستشارة القانونية لشركة ريفين، من التداعيات، قائلة إن القرار قد يحد بشكل كبير من عدد الجرائم التي تستطيع السلطات تعقبها. وقالت: “الآن لديك صور لم يرها أحد من قبل، والآن لا نبحث عنها حتى”.
وقال توم توجندهات، وزير الأمن البريطاني، إن هذه الخطوة ستمكن من استغلال الأطفال في جميع أنحاء العالم.
وقال السيد توغندهات في بيان: “إن قرار ميتا بتنفيذ التشفير الشامل دون ميزات أمان قوية يجعل هذه الصور متاحة للملايين دون خوف من القبض عليهم”.
وقال عملاق وسائل التواصل الاجتماعي إنه سيواصل تقديم أي نصائح حول مواد الاعتداء الجنسي على الأطفال إلى السلطات. وقال أليكس دزيدزان، المتحدث باسم ميتا: “نحن نركز على العثور على هذا المحتوى والإبلاغ عنه، بينما نعمل على منع إساءة الاستخدام في المقام الأول”.
على الرغم من أنه لا يوجد سوى عدد قليل من القضايا الحالية التي تنطوي على مواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي، فمن المتوقع أن ينمو هذا العدد بشكل كبير ويسلط الضوء على أسئلة جديدة ومعقدة حول ما إذا كانت القوانين الفيدرالية وقوانين الولايات الحالية كافية لمحاكمة هذه الجرائم.
أولاً، هناك مسألة كيفية التعامل مع المواد التي ينتجها الذكاء الاصطناعي بالكامل.
في عام 2002، ألغت المحكمة العليا الحظر الفيدرالي على الصور المولدة بالكمبيوتر للاعتداء الجنسي على الأطفال، ووجدت أن القانون مكتوب على نطاق واسع للغاية لدرجة أنه من المحتمل أيضًا أن يحد من الأعمال السياسية والفنية. وقال آلان ويلسون، المدعي العام لولاية ساوث كارولينا، الذي قاد رسالة إلى الكونجرس يحث فيها المشرعين على التصرف بسرعة، في مقابلة إنه يتوقع اختبار هذا الحكم، مع انتشار حالات الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي.
يمكن استخدام العديد من القوانين الفيدرالية، بما في ذلك قانون الفحش، لمقاضاة القضايا التي تنطوي على مواد الاعتداء الجنسي على الأطفال عبر الإنترنت. تبحث بعض الدول في كيفية تجريم مثل هذا المحتوى الناتج عن الذكاء الاصطناعي، بما في ذلك كيفية مساءلة القاصرين الذين ينتجون مثل هذه الصور ومقاطع الفيديو.
بالنسبة لفرانشيسكا ماني، وهي طالبة في المدرسة الثانوية في ويستفيلد بولاية نيوجيرسي، فإن الافتقار إلى التداعيات القانونية لإنشاء مثل هذه الصور المولدة بواسطة الذكاء الاصطناعي ومشاركتها أمر حاد بشكل خاص.
وفي أكتوبر/تشرين الأول، اكتشفت فرانشيسكا، البالغة من العمر 14 عامًا في ذلك الوقت، أنها كانت من بين الفتيات في صفها اللاتي تم التلاعب بأشكالهن وتجريدهن من ملابسهن فيما كان بمثابة صورة عارية لها لم توافق عليها، وتم تداولها بعد ذلك. في الدردشات الجماعية عبر الإنترنت.
قالت والدتها، دوروتا ماني، في مقابلة أجريت معها مؤخرًا، إن فرانشيسكا تحولت من الانزعاج إلى الغضب إلى التمكين، مضيفة أنهم يعملون مع المشرعين في الولاية والمشرعين الفيدراليين لصياغة قوانين جديدة من شأنها أن تجعل مثل هذه الصور العارية المزيفة غير قانونية. ولا يزال الحادث قيد التحقيق، على الرغم من إيقاف طالب واحد على الأقل لفترة وجيزة.
وتحدثت فرانشيسكا هذا الشهر في واشنطن عن تجربتها ودعت الكونجرس إلى إقرار مشروع قانون يجعل مشاركة مثل هذه المواد جريمة فيدرالية.
وقالت: “ما حدث لي عندما كنت في الرابعة عشرة من عمري يمكن أن يحدث لأي شخص”. “لهذا السبب من المهم جدًا أن يكون هناك قوانين سارية.”