أخبار العالم

بسبب أحداث غزة… هند صبري تتخلى عن لقب سفيرة برنامج الأغذية العالمي


نجوم التلفزيون الأميركي ضحايا فيديوهات زائفة بطلها الذكاء الاصطناعي

تستغلّ مقاطع فيديو شوهدت آلاف المرات عبر «فيسبوك»، تروّج لمزايا منتجات للتنحيف أو مُعالِجة لمرض السكري، صورة نجوم برامج تلفزيونية من القنوات الأميركية كـ«سي بي إس» و«سي إن إن».

ووفق «وكالة الصحافة الفرنسية»، أُنشئت فيديوهات بواسطة برامج الذكاء الاصطناعي، تشكل ما يُعرف بـ«التزييف العميق» (ديب فايك)، وهي تلاعبات رقمية تتزايد نسبتها وقربها من الواقع، مما يشكل ضرراً على سمعة وسائل الإعلام التقليدية.

وعلّق بعض المذيعين والصحافيين الذين انتُحلت شخصياتهم، فور نشر مقاطع الفيديو هذه عبر المنصات الاجتماعية. فقالت مذيعة «سي بي إس» غايل كينغ عبر «إنستغرام»: «لم أسمع قط عن هذا المنتج وما استخدمته مطلقاً! لا تنخدعوا بهذه المقاطع المُركّبة بتقنية الذكاء الاصطناعي».

مذيعة «سي بي إس» غايل كينغ (حسابها في «فيسبوك»)

وتُستخدم في مقاطع فيديو أخرى أقوال محرّفة للملياردير إيلون ماسك، لأغراض تجارية. وتقنية «التزييف العميق» التي تمجّد أنواعاً عدة من المنتجات وخططاً استثمارية مشبوهة، غالباً ما تحيل المستخدم على منصات للتجارة الإلكترونية ومواقع مؤقتة تختفي بعد أيام من نشر مقاطع الفيديو عبر الإنترنت.

وتحظر شركة «ميتا» (فيسبوك وإنستغرام) منذ 2020، نشر هذا النوع من مقاطع الفيديو في منصاتها، باستثناء الشرائط التي تنطوي على محتوى ساخر. إلا أنّ مقاطع فيديو «التزييف العميق»، التي أجرت «وكالة الصحافة الفرنسية» عملية تحقق من عدد كبير منها، لا تزال تنتشر من دون ضوابط عبر الإنترنت.

أقوال محرّفة للملياردير إيلون ماسك تُستخدم لأغراض تجارية (أ.ف.ب)

في هذا السياق، يقول الأستاذ المتخصص في التكنولوجيا الرقمية لدى جامعة بيركلي في كاليفورنيا هاني فريد: «نشهد انتشاراً متزايداً لهذا النوع من مقاطع الفيديو التي تُستخدم فيها عيّنة صوتية مدتها دقيقتان فقط، ويُعاد من خلالها إنتاج صوت شخص ما في تسلسل تخيّلي جديد، مع تحريك الفم خلال صدور الصوت».

وتُعد الأسماء البارزة في المجال السمعي البصري أهدافاً سهلة لتدريب برامج الذكاء الاصطناعي على مقاطع الفيديو هذه، بسبب ظهورها الدائم عبر الشاشة.

من جهتها، تقول عميدة كلية الصحافة في جامعة ميسيسيبي أندريا هيكرسون، إنّ مقاطع الفيديو الشائعة تمثّل اتجاهاً مقلقاً لأنّ الجمهور أنشأ علاقة من الألفة مع هذه الشخصيات العامة، التي انتُحلت هويتها.

وتضيف: «الأمر خطر جداً لأنّ الناس لا يتوقّعون أنّ تكون المعلومات المضلّلة حاضرة في مقاطع الفيديو هذه».

ويحتل المحتوى المُنشأ بواسطة الذكاء الاصطناعي مكانة متزايدة في عمليات الاحتيال المالي، التي كلفت الأميركيين نحو 3.8 مليار دولار في عام 2022، وفق عمليات حسابية أجرتها هيئة المنافسة الأميركية.

واستهدفت عمليات الاحتيال هذه أشخاصاً في بلدان عدة، من بينها كندا وأستراليا، وكلّفت بعض الأفراد عشرات، بل مئات الآلاف من الدولارات.

بواسطة برامج الذكاء الاصطناعي أُنشئت فيديوهات تشكل ما يُعرف بـ«التزييف العميق» (رويترز)

أما المحامي تشيس كارلسون، فيقول في منشور عبر مدونة خلال مطلع هذه السنة إنّ «عمليات الاحتيال تصبح معقّدة بصورة متزايدة، إذ يجمع المجرمون بين أساليب الاحتيال التقليدية وعمليات احتيال تستند إلى العملات المشفرة وبرامج الذكاء الاصطناعي».

ويزداد قلق الأميركيين من استخدام الذكاء الاصطناعي، وتحديداً في المواضيع السياسية.

ويتوقّع أكثر من 50 في المائة منهم أنّ المحتوى المضلل الذي ينتجه الذكاء الاصطناعي ستؤثر سلباً في الانتخابات الرئاسية لعام 2024، وفق استطلاع نشره في سبتمبر (أيلول) موقع «أكسيوس» وشركة «مورنينغ كونسلت» للبحوث الاقتصادية.

وتوصّل استطلاع أجرته شركة «غالوب» في أكتوبر (تشرين الأول) إلى أنّ ثلث الأميركيين فقط يثقون «بصورة كبيرة» أو «إلى حد ما» بوسائل الإعلام الإخبارية، في نتيجة مُشابهة لأدنى رقم، سُجّلت عام 2016.

وينطوي انتشار هذا المحتوى الذي يمكن أحياناً رصده بسهولة لرداءة نوعيته، على خطر تأجيج «أزمة ثقة» الجمهور في وسائل الإعلام والمؤسّسات، وفق مديرة معهد البيانات والديمقراطية والسياسة في جامعة جورج واشنطن ريبيكا ترومبل.

وإذ تؤكد الخبيرة على ضرورة الحذر قبل إعادة نشر أي نوع من المحتوى عبر الإنترنت، تؤكد أن «المعلومات ذات النوعية العالية تنتشر بصورة دائمة، ويمكننا مع نسبة كبيرة من الشك، تحديد الحقيقي من المضلل».



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى