خمس طرق يمكن من خلالها تنظيم الذكاء الاصطناعي
على الرغم من أن محاولاتهم لمواكبة التطورات في مجال الذكاء الاصطناعي باءت بالفشل في الأغلب، فإن الهيئات التنظيمية في جميع أنحاء العالم تتخذ أساليب مختلفة إلى حد كبير في مراقبة التكنولوجيا. والنتيجة هي مشهد تنظيمي عالمي مجزأ ومربك للغاية لتكنولوجيا بلا حدود تَعِد بتحويل أسواق العمل، أو المساهمة في انتشار المعلومات المضللة، أو حتى تشكل خطراً على البشرية.
تشمل الأطر الرئيسية لتنظيم الذكاء الاصطناعي ما يلي:
قانون أوروبا القائم على المخاطر: ويحدد قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يتم التفاوض عليه يوم الأربعاء، لوائح تتناسب مع مستوى المخاطر التي تشكلها أداة الذكاء الاصطناعي. وتتمثل الفكرة في إنشاء نطاق متدرج من اللوائح التنظيمية التي تهدف إلى وضع أشد القيود على أنظمة الذكاء الاصطناعي الأكثر خطورة. سيصنف القانون أدوات الذكاء الاصطناعي على أساس أربعة تصنيفات: غير مقبولة، وعالية، ومحدودة، وقليلة المخاطر.
تشمل المخاطر غير المقبولة أنظمة الذكاء الاصطناعي التي تقوم بالتسجيل الاجتماعي للأفراد أو التعرف على الوجه في الوقت الفعلي في الأماكن العامة. سيتم حظرهم. أما الأدوات الأخرى التي تحمل مخاطر أقل، مثل البرامج التي تولد مقاطع فيديو تم التلاعب بها وصور “التزييف العميق”، فيجب أن تكشف أن الأشخاص يشاهدون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. ويمكن تغريم المخالفين بنسبة 6 بالمائة من مبيعاتهم العالمية. تتضمن الأنظمة ذات الحد الأدنى من المخاطر مرشحات البريد العشوائي وألعاب الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
مدونات قواعد السلوك الطوعية الأمريكية: منحت إدارة بايدن الشركات حرية التصرف طوعًا فيما يتعلق بمخاطر السلامة والأمن. وفي يوليو/تموز، أعلن البيت الأبيض أن العديد من صانعي الذكاء الاصطناعي، بما في ذلك أمازون، وأنثروبك، وجوجل، وإنفليكشن، وميتا، ومايكروسوفت، وأوبن إيه آي، وافقوا على التنظيم الذاتي لأنظمتهم.
وتضمنت الالتزامات الطوعية اختبار أمان طرف ثالث للأدوات، المعروفة باسم الفريق الأحمر، والبحث حول التحيز ومخاوف الخصوصية، وتبادل المعلومات حول المخاطر مع الحكومات والمنظمات الأخرى، وتطوير أدوات لمكافحة التحديات المجتمعية مثل تغير المناخ، مع تضمين تدابير الشفافية لتحديد المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وكانت الشركات تنفذ بالفعل العديد من تلك الالتزامات.
القانون الأمريكي القائم على التكنولوجيا: إن أي تنظيم موضوعي للذكاء الاصطناعي يجب أن يأتي من الكونجرس. وقد وعد زعيم الأغلبية في مجلس الشيوخ، تشاك شومر، الديمقراطي من نيويورك، بإصدار مشروع قانون شامل للذكاء الاصطناعي، ربما بحلول العام المقبل.
لكن حتى الآن، قدم المشرعون مشاريع قوانين تركز على إنتاج ونشر أنظمة الذكاء الاصطناعي. وتشمل المقترحات إنشاء وكالة مثل إدارة الغذاء والدواء يمكنها وضع لوائح لمقدمي خدمات الذكاء الاصطناعي، والموافقة على تراخيص الأنظمة الجديدة، ووضع المعايير. وقد أيد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، هذه الفكرة. ومع ذلك، فقد اقترحت جوجل أن يكون المعهد الوطني للمعايير والتكنولوجيا، الذي تأسس قبل أكثر من قرن من الزمان دون أي صلاحيات تنظيمية، بمثابة مركز للرقابة الحكومية.
وتركز مشاريع القوانين الأخرى على انتهاكات حقوق النشر من قبل أنظمة الذكاء الاصطناعي التي تلتهم الملكية الفكرية لإنشاء أنظمتها. كما تم طرح مقترحات بشأن أمن الانتخابات والحد من استخدام “التزييف العميق”.
الصين تتحرك بسرعة بشأن قواعد حرية التعبير: منذ عام 2021، تحركت الصين بسرعة في طرح اللوائح المتعلقة بخوارزميات التوصية، والمحتوى الاصطناعي مثل المنتجات المزيفة العميقة، والذكاء الاصطناعي التوليدي. وتحظر القواعد التمييز في الأسعار من خلال خوارزميات التوصية على وسائل التواصل الاجتماعي، على سبيل المثال. يجب على صانعي الذكاء الاصطناعي تصنيف المحتوى الاصطناعي الناتج عن الذكاء الاصطناعي. وتتطلب مسودة القواعد الخاصة بالذكاء الاصطناعي التوليدي، مثل برنامج الدردشة الآلي التابع لشركة OpenAI، أن تكون بيانات التدريب والمحتوى الذي تنشئه التكنولوجيا “حقيقية ودقيقة”، وهو ما يعتبره كثيرون محاولة لفرض رقابة على ما تقوله الأنظمة.
التعاون العالمي: قال العديد من الخبراء إن التنظيم الفعال للذكاء الاصطناعي سيحتاج إلى تعاون عالمي. وحتى الآن، لم تسفر هذه الجهود الدبلوماسية عن سوى القليل من النتائج الملموسة. إحدى الأفكار التي تم طرحها هي إنشاء وكالة دولية، على غرار الوكالة الدولية للطاقة الذرية التي تم إنشاؤها للحد من انتشار الأسلحة النووية. سيكون التحدي هو التغلب على انعدام الثقة الجيوسياسي والمنافسة الاقتصادية والدوافع القومية التي أصبحت متشابكة مع تطور الذكاء الاصطناعي.