تقنية

بايدن سيصدر اللوائح الأولى بشأن أنظمة الذكاء الاصطناعي

[ad_1]

سيصدر الرئيس بايدن أمرا تنفيذيا يوم الاثنين يحدد الخطوط العريضة للوائح الحكومة الفيدرالية الأولى بشأن أنظمة الذكاء الاصطناعي. وهي تشمل متطلبات اختبار منتجات الذكاء الاصطناعي الأكثر تقدمًا للتأكد من عدم إمكانية استخدامها لإنتاج أسلحة بيولوجية أو نووية، مع إبلاغ الحكومة الفيدرالية بنتائج تلك الاختبارات.

تعد متطلبات الاختبار جزءًا صغيرًا ولكنه مركزي مما من المتوقع أن يصفه السيد بايدن، في خطاب من المقرر أن يلقيه بعد ظهر يوم الاثنين، بأنه الإجراء الحكومي الأكثر شمولاً لحماية الأمريكيين من المخاطر المحتملة الناجمة عن القفزات الهائلة في الذكاء الاصطناعي خلال الماضي. عدة سنوات.

ستتضمن اللوائح توصيات، ولكن ليس متطلبات، بأن يتم وضع علامة مائية على الصور ومقاطع الفيديو والتسجيلات الصوتية التي طورتها هذه الأنظمة لتوضيح أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، وهو ما يعكس مخاوف متزايدة من أن الذكاء الاصطناعي سيجعل من الأسهل بكثير إنشاء “عمليات مزيفة عميقة” و معلومات مضللة مقنعة، خاصة مع تسارع الحملة الرئاسية لعام 2024.

وقد فرضت الولايات المتحدة مؤخراً قيوداً على تصدير الرقائق عالية الأداء إلى الصين لإبطاء قدرتها على إنتاج ما يسمى بنماذج اللغة الكبيرة، وهو تجميع البيانات الذي جعل برامج مثل ChatGPT فعالة للغاية في الإجابة على الأسئلة وتسريع المهام. وبالمثل، ستتطلب اللوائح الجديدة من الشركات التي تدير الخدمات السحابية أن تخبر الحكومة عن عملائها الأجانب.

وسيصدر أمر بايدن قبل أيام من اجتماع لزعماء العالم حول سلامة الذكاء الاصطناعي ينظمه رئيس الوزراء البريطاني ريشي سوناك. وفيما يتعلق بمسألة تنظيم الذكاء الاصطناعي، فقد تخلفت الولايات المتحدة عن الاتحاد الأوروبي، الذي كان يقوم بصياغة قوانين جديدة، ودول أخرى، مثل الصين وإسرائيل، التي أصدرت مقترحات لتنظيم الذكاء الاصطناعي. منذ أن انتشرت شعبية ChatGPT، برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي، في العام الماضي، تصارع المشرعون والمنظمون العالميون مع الكيفية التي يمكن بها للذكاء الاصطناعي أن يغير الوظائف، وينشر المعلومات المضللة، وربما يطور نوعًا خاصًا من الذكاء.

وقال بروس ريد، نائب كبير موظفي البيت الأبيض: “يطرح الرئيس بايدن أقوى مجموعة من الإجراءات التي اتخذتها أي حكومة في العالم على الإطلاق بشأن سلامة الذكاء الاصطناعي وأمنه وثقته”. “إنها الخطوة التالية في استراتيجية جريئة لفعل كل شيء على جميع الجبهات للاستفادة من فوائد الذكاء الاصطناعي والتخفيف من المخاطر.”

ومن المرجح أن تواجه القواعد الأمريكية الجديدة، والتي من المقرر أن يدخل بعضها حيز التنفيذ خلال التسعين يومًا القادمة، العديد من التحديات، بعضها قانوني وبعضها سياسي. لكن الأمر يستهدف الأنظمة المستقبلية الأكثر تقدمًا، ولا يعالج إلى حد كبير التهديدات المباشرة لروبوتات الدردشة الحالية التي يمكن استخدامها لنشر معلومات مضللة تتعلق بأوكرانيا أو غزة أو الحملة الرئاسية.

ولم تنشر الإدارة لغة الأمر التنفيذي يوم الأحد، لكن المسؤولين قالوا إن بعض الخطوات في الأمر ستتطلب موافقة وكالات مستقلة، مثل لجنة التجارة الفيدرالية.

يؤثر الأمر التنفيذي على الشركات الأمريكية فقط، ولكن نظرًا لأن تطوير البرمجيات يحدث في جميع أنحاء العالم، فإن الولايات المتحدة ستواجه تحديات دبلوماسية في تطبيق اللوائح، ولهذا السبب تحاول الإدارة تشجيع الحلفاء والخصوم على حد سواء على تطوير قواعد مماثلة. وتمثل نائبة الرئيس كامالا هاريس الولايات المتحدة في المؤتمر الذي سيعقد في لندن حول هذا الموضوع هذا الأسبوع.

وتهدف اللوائح أيضًا إلى التأثير على قطاع التكنولوجيا من خلال وضع معايير لأول مرة للسلامة والأمن وحماية المستهلك. وباستخدام قوة محفظته، تهدف توجيهات البيت الأبيض إلى الوكالات الفيدرالية إلى إجبار الشركات على الامتثال للمعايير التي وضعها عملاؤها الحكوميون.

وقالت لورين كان، كبيرة محللي الأبحاث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون: “هذه خطوة أولى مهمة، والأهم من ذلك، أن الأوامر التنفيذية تحدد المعايير”.

ويوجه الأمر وزارة الصحة والخدمات الإنسانية والوكالات الأخرى إلى إنشاء معايير سلامة واضحة لاستخدام الذكاء الاصطناعي وتبسيط الأنظمة لتسهيل شراء أدوات الذكاء الاصطناعي. ويأمر وزارة العمل والمجلس الاقتصادي الوطني بدراسة تأثير الذكاء الاصطناعي على سوق العمل والتوصل إلى لوائح محتملة. ويدعو الوكالات إلى تقديم إرشادات واضحة لأصحاب العقارات والمقاولين الحكوميين وبرامج المزايا الفيدرالية لمنع التمييز من الخوارزميات المستخدمة في أدوات الذكاء الاصطناعي.

لكن البيت الأبيض محدود في سلطته، وبعض التوجيهات غير قابلة للتنفيذ. على سبيل المثال، يدعو الأمر الوكالات إلى تعزيز المبادئ التوجيهية الداخلية لحماية بيانات المستهلك الشخصية، لكن البيت الأبيض أقر أيضًا بالحاجة إلى تشريعات الخصوصية لضمان حماية البيانات بشكل كامل.

ولتشجيع الابتكار وتعزيز المنافسة، سيطلب البيت الأبيض من لجنة التجارة الفيدرالية تعزيز دورها كهيئة رقابية على حماية المستهلك وانتهاكات مكافحة الاحتكار. لكن البيت الأبيض لا يملك السلطة لتوجيه لجنة التجارة الفيدرالية، وهي وكالة مستقلة، لوضع اللوائح.

وقد أشارت لينا خان، رئيسة لجنة التجارة، بالفعل إلى عزمها العمل بشكل أكثر قوة كمراقبة للذكاء الاصطناعي. وفي يوليو/تموز، فتحت اللجنة تحقيقًا في شركة OpenAI، الشركة المصنعة لـ ChatGPT، بشأن انتهاكات محتملة لخصوصية المستهلك واتهامات بنشر معلومات كاذبة عن الأفراد.

وكتبت السيدة خان في مقال ضيف نشرته صحيفة نيويورك تايمز في عام 2016: “على الرغم من أن هذه الأدوات جديدة، إلا أنها ليست معفاة من القواعد الحالية، وستقوم لجنة التجارة الفيدرالية بإنفاذ القوانين التي نكلف بإدارتها بقوة، حتى في هذه السوق الجديدة”. يمكن.

وقالت صناعة التكنولوجيا إنها تدعم اللوائح التنظيمية، على الرغم من اختلاف الشركات حول مستوى الرقابة الحكومية. تعد Microsoft وOpenAI وGoogle وMeta من بين 15 شركة وافقت على التزامات طوعية تتعلق بالسلامة والأمن، بما في ذلك قيام أطراف ثالثة باختبار أنظمتها بحثًا عن نقاط الضعف.

وقد دعا بايدن إلى وضع لوائح تنظيمية تدعم فرص الذكاء الاصطناعي للمساعدة في البحوث الطبية والمناخية، مع إنشاء حواجز للحماية من الانتهاكات أيضًا. وشدد على الحاجة إلى الموازنة بين اللوائح التنظيمية ودعم الشركات الأمريكية في السباق العالمي لقيادة الذكاء الاصطناعي. ولتحقيق هذه الغاية، يوجه الأمر الوكالات إلى تبسيط عملية الحصول على تأشيرة للمهاجرين ذوي المهارات العالية وغير المهاجرين ذوي الخبرة في الذكاء الاصطناعي للدراسة والعمل في الولايات المتحدة.

وسيتم تحديد اللوائح المركزية لحماية الأمن القومي في وثيقة منفصلة، ​​تسمى مذكرة الأمن القومي، والتي سيتم إصدارها بحلول الصيف المقبل. ستكون بعض هذه اللوائح علنية، ولكن من المتوقع أن يظل الكثير منها سريًا – خاصة تلك المتعلقة بخطوات منع الدول الأجنبية، أو الجهات الفاعلة غير الحكومية، من استغلال أنظمة الذكاء الاصطناعي.

وقال مسؤول كبير بوزارة الطاقة الأسبوع الماضي إن الإدارة الوطنية للأمن النووي بدأت بالفعل استكشاف كيف يمكن لهذه الأنظمة تسريع الانتشار النووي، من خلال حل القضايا المعقدة في بناء سلاح نووي. وقد ركز العديد من المسؤولين على الكيفية التي يمكن بها لهذه الأنظمة أن تمكن جماعة إرهابية من تجميع ما هو مطلوب لإنتاج الأسلحة البيولوجية.

ومع ذلك، حذر المشرعون ومسؤولو البيت الأبيض من التحرك بسرعة كبيرة لكتابة قوانين لتقنيات الذكاء الاصطناعي التي تتغير بسرعة. لم يأخذ الاتحاد الأوروبي في الاعتبار النماذج اللغوية الكبيرة في مسوداته التشريعية الأولى.

قال السيناتور تشاك شومر، الديمقراطي من نيويورك وزعيم الأغلبية، الأسبوع الماضي: “إذا تحركت بسرعة كبيرة جدًا في هذا الأمر، فقد تفسد الأمر”.

[ad_2]

المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى