وقع الرئيس بايدن على أمر تنفيذي بعيد المدى بشأن الذكاء الاصطناعي يوم الاثنين، يطالب الشركات بإبلاغ الحكومة الفيدرالية حول المخاطر التي قد تساعد أنظمتها الدول أو الإرهابيين على صنع أسلحة الدمار الشامل. ويسعى الأمر أيضًا إلى تقليل مخاطر “التزييف العميق” التي يمكن أن تؤثر على الانتخابات أو تخدع المستهلكين.
وقال بايدن عند توقيع الأمر في البيت الأبيض: “إن التزييف العميق يستخدم الصوت والفيديو الناتج عن الذكاء الاصطناعي لتشويه السمعة ونشر الأخبار المزيفة وارتكاب عمليات الاحتيال”. وأعرب عن قلقه من أن المحتالين يمكن أن يأخذوا ثلاث ثوان من صوت الشخص ويتلاعبون بمحتواه، ويحولون تعليقا بريئا إلى شيء أكثر شرا من شأنه أن ينتشر بسرعة.
وقال: “لقد شاهدت واحداً مني”، في إشارة إلى تجربة أظهرها له موظفوه لتوضيح كيف يمكن لنظام ذكاء اصطناعي جيد البناء أن يتلاعب بالكلام. “قلت: متى قلت ذلك بحق الجحيم؟”
ويعد هذا الأمر بمثابة محاولة من جانب بايدن لإظهار أن الولايات المتحدة، التي تعتبر القوة الرائدة في تكنولوجيا الذكاء الاصطناعي سريعة الحركة، ستأخذ أيضًا زمام المبادرة في تنظيمها. وبالفعل، تمضي أوروبا قدما في فرض قواعد خاصة بها، وتسافر نائبة الرئيس كامالا هاريس إلى لندن هذا الأسبوع لتمثيل الولايات المتحدة في مؤتمر دولي ينظمه رئيس الوزراء البريطاني ريشي سوناك.
وقالت السيدة هاريس في البيت الأبيض: “لدينا واجب أخلاقي وأخلاقي ومجتمعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الأذى المحتمل”. وأضافت: “نعتزم أن تكون الإجراءات التي نتخذها محليًا بمثابة نموذج للعمل الدولي”.
لكن الأمر الذي أصدره بايدن، نتيجة أكثر من عام من العمل من قبل العديد من الإدارات الحكومية، يمثل شيئًا من المسودة الأولى. وفي حين يتمتع بايدن بصلاحيات واسعة لتنظيم كيفية استخدام الحكومة الفيدرالية للذكاء الاصطناعي، فإن قدرته على الوصول إلى القطاع الخاص محدودة. واعترف بأنه على الرغم من أن أمره “يمثل إجراءً جريئًا، إلا أننا ما زلنا بحاجة إلى تحرك الكونجرس”.
ومع ذلك، أوضح بايدن أنه ينوي أن يكون هذا الأمر بمثابة الخطوة الأولى في حقبة جديدة من التنظيم في الولايات المتحدة، حيث تسعى إلى وضع حواجز حماية أمام التكنولوجيا العالمية التي تقدم وعدًا كبيرًا – تشخيص الأمراض، والتنبؤ بالفيضانات. وغيرها من آثار تغير المناخ، وتحسين السلامة في الجو والبحر – وخطر كبير.
وقال بايدن: “هناك شيء واحد واضح: لتحقيق وعد الذكاء الاصطناعي وتجنب المخاطر، نحتاج إلى التحكم في هذه التكنولوجيا”. “لا توجد طريقة اخري.”