أخبار العالم

مواجهة بين بايدن وترمب حول أمن الحدود الجنوبية في زيارتهما لتكساس الخميس

[ad_1]

ماذا سيفعل الذكاء الاصطناعي بالانتخابات الرئاسية الأميركية؟

أثار التطور الكبير للذكاء الاصطناعي مؤخراً مخاوف كبيرة من إمكانية استخدام هذه التكنولوجيا في التأثير على السياسات وتزوير الانتخابات، خاصة مع قرب الانتخابات الأميركية المزمع إجراؤها في نوفمبر (تشرين الثاني) المقبل.

وشهدت الولايات المتحدة في الفترة الأخيرة الكثير من الأحداث المتعلقة بهذا الأمر، أبرزها اتصالات هاتفية مزورة استُخدِم فيها صوت الرئيس جو بايدن، وفيديو تم إنتاجه بواسطة الذكاء الاصطناعي يظهر والد دونالد ترمب الراحل وكأنه ينتقده وينصحه بعدم المشاركة في الانتخابات وأداة تم تطويرها للتصدي لتزوير الانتخابات في جورجيا.

والشهر الماضي، أعلن المدعي العام في نيوهامشير فتح تحقيق في محاولة لقمع ناخبين عبر اتّصال هاتفي آلي ينتحل صوت بايدن للحض على ما يبدو على عدم التصويت في الانتخابات التمهيدية في الولاية.

ويسمع في الاتّصال الهاتفي صوت أشبه بصوت الرئيس الديمقراطي يتوجّه إلى الناخبين بالقول: «من الأهمية بمكان أن تحفظوا أصواتكم لانتخابات نوفمبر».

ونتيجة لهذه الواقعة؛ قررت الهيئة الناظمة لقطاع الاتصالات في الولايات المتحدة حظر المكالمات الآلية التي تُستخدَم فيها أصوات مولّدة بواسطة برامج الذكاء الاصطناعي.

تفادي تأثير الذكاء الاصطناعي على الانتخابات قد يعتمد فقط على قدرة الناخبين على التمييز بين المحتويين الحقيقي والمزيف (رويترز)

وقبل نحو 10 أيام، أنتج ونشر مشروع لينكولن، وهو منظمة سياسية تم تشكيلها في أواخر عام 2019 بواسطة عدد من قادة الحزب الجمهوري الأميركي البارزين الحاليين والسابقين، بهدف منع إعادة انتخاب ترمب، مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي يظهر فريد ترمب، والد الرئيس السابق الذي توفي في عام 1999، وكأنه ينتقد نجله ويهينه.

وأظهر الفيديو فريد وهو يقول لترمب: «دوني، كنت أعلم دائماً أنك ستفسد الأمر. لقد كنت دائماً أحمق».

ويواصل الفيديو إهانة الصفقات التجارية للرئيس الجمهوري السابق، وينتقد علاقته بأسرته قائلاً إن «أطفاله يكرهونه، وخاصة إيفانكا».

وفي سياق متصل، ذكر تقرير نشرته صحيفة «الغارديان» اليوم أن شركة EagleAI للتكنولوجيا طوّرت أداة ذكاء اصطناعي «تستهدف التحقق من أي أخطاء منتشرة في تسجيل الناخبين بولاية جورجيا مثل تصويت شخص ما نيابة عن آخر متوفى أو إدلاء شخص غير مؤهل للانتخاب بصوته».

وهذه الأداة تستخدم مزيجاً من البيانات العامة والخاصة، وتمكّن الأفراد من الطعن في تسجيلات الناخبين. إلا أن مسؤولي الولاية يقولون إن هذه الأداة غير دقيقة ومثيرة للقلق، وربما تخالف قانون الولاية.

ويرى المسؤولون أن الأداة هي «سلاح ضد العملية الديمقراطية»، وأن زيادة التحديات والعمليات المعقدة المتعلقة بالتصويت يمكن أن تمنع الناخبين المؤهلين من الإدلاء بأصواتهم. فبدلاً من أن تكون الانتخابات عملية مباشرة، فإنها ستتحول متاهة قانونية مرهقة، وفقاً لقولهم.

ويقول خبراء الانتخابات إن هذه المشكلات المذكورة نادرة الحدوث، ويتم فحصها والتصدي لها بشكل دوري باستخدام الأنظمة الموجودة حالياً. ومع ذلك، يعتقد الرئيس التنفيذي لشركة EagleAI، جون دبليو ريتشاردز جونيور، أن هذه الأخطاء خطيرة للغاية، وقد تؤدي إلى تزوير واسع النطاق للانتخابات.

وزعم ترمب مراراً وتكراراً بأن الانتخابات في جورجيا في عام 2020 تم تزويرها.

ويقول منتقدي هذه الأداة الجديدة إنها جزء صغير جداً من الجهود التي يقودها الجمهوريون أو أشخاص من أقصى اليمين، للطعن في أهلية التصويت في جميع أنحاء الولايات المتحدة.

من غير الواضح ما إذا كان سيتم بالفعل تنظيم استخدام الذكاء الاصطناعي قبل الانتخابات (رويترز)

وأثارت كل هذه الوقائع المخاوف من أن الذكاء الاصطناعي قد يشكّل خطراً على الانتخابات الأميركية المقبلة، وقد يؤثر على نتائجها.

والأسبوع الماضي، أطلق مجلس النواب الأميركي فريق عمل مكوناً من الحزبين الجمهوري والديمقراطي للبحث في الطرق التي يمكن من خلالها تنظيم الذكاء الاصطناعي. ولكن في ظل الجمود الحزبي الذي يحكم الكونغرس، واللوائح التنظيمية الأميركية التي تتخلف عن وتيرة التقدم السريع للذكاء الاصطناعي، فمن غير الواضح ما إذا كان سيتم بالفعل تنظيم استخدام هذه التقنية قبل الانتخابات.

ومن دون ضمانات واضحة، فإن تفادي تأثير الذكاء الاصطناعي على الانتخابات قد يعتمد فقط على قدرة الناخبين على التمييز بين المحتويين الحقيقي والمزيف.

وبالأمس، قالت شركة «ميتا» المالكة لـ«فيسبوك» و«إنستغرام» إنها ستشكل فريقاً للتصدي لمحتوى الذكاء الاصطناعي المخادع والمضلل المتعلق بالانتخابات المقبلة في المملكة المتحدة والولايات المتحدة.

وأشارت الشركة إلى أنها تشعر بالقلق إزاء كيفية استخدام الذكاء الاصطناعي لخداع الناخبين.

ويأتي هذا الإعلان بعد أسبوعين من توقيع «ميتا» اتفاقية مع شركات التكنولوجيا الكبرى الأخرى توصي بضرورة محاربة مثل هذا المحتوى.

وسبق أن قال سام ألتمان، المدير التنفيذي لشركة «أوبن إيه آي» مطورة تطبيق «شات جي بي تي»، أمام لجنة استماع في الكونغرس الأميركي: إن النماذج التي نتج منها الجيل الجديد من تكنولوجيا الذكاء الاصطناعي قد تتلاعب بالمستخدمين.

وأضاف قائلاً: إن «القدرة العامة لهذه النماذج على التلاعب والإقناع، وتوفير معلومات مغلوطة تفاعلية، أمر مقلق للغاية».

وقال محلل المعلومات في شركة «ريكورد فيوتشر» الأميركية للأمن الإلكتروني إليكساندر ليزلي: إنه من دون نشر الوعي والتعليم ستصبح هذه التقنيات خطراً داهماً ونحن نقترب من الانتخابات الرئاسية الأميركية.

ومن ناحيته، قال سيف الدين أحمد، الأستاذ المساعد في كلية الاتصالات والمعلومات بجامعة نانيانغ التكنولوجية في سنغافورة: إن دمج الذكاء الاصطناعي، وخاصة «التزييف العميق deepfake»، في الحملات السياسية ليس اتجاهاً عابراً، بل هو اتجاه سيستمر في التطور بمرور الوقت.

وسبق أن استُخدمت هذه التكنولوجيا من قِبل أحزاب سياسية في عدد من البلدان.

ففي انتخابات عام 2022 بكوريا الجنوبية، أنشأ حزب سلطة الشعب صورة رقمية (أفاتار) باستخدام نظام الذكاء الاصطناعي لمرشحه الرئاسي حينها، يون سوك يول، وقد تفاعلت افتراضياً مع الناخبين وتحدثت مع الشباب بلغتهم الدارجة ومزحت معهم؛ وذلك لجذب هذه الفئة السكانية. وقد نجح يول في الانتخابات في النهاية.

وهذا الشهر، تمكن رئيس الوزراء الباكستاني السابق عمران خان، الموجود بالسجن منذ العام الماضي بتهمة تسريب أسرار الدولة من بين تهم أخرى، من التحدث إلى أنصاره معلناً انتصاره في الانتخابات عبر مقطع فيديو تم إنتاجه بواسطة الذكاء الاصطناعي.

[ad_2]

المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى