تقنية

يقول الباحثون إن حواجز الحماية المبنية حول أنظمة الذكاء الاصطناعي ليست قوية جدًا


قبل إطلاق برنامج الدردشة الآلي ChatGPT الذي يعمل بالذكاء الاصطناعي في العام الماضي، أضافت شركة OpenAI الناشئة في سان فرانسيسكو حواجز حماية رقمية تهدف إلى منع نظامها من القيام بأشياء مثل توليد خطاب الكراهية والمعلومات المضللة. فعلت Google شيئًا مشابهًا مع برنامج Bard chatbot الخاص بها.

الآن، تقول ورقة بحثية أعدها باحثون في جامعات برينستون وفيرجينيا تك وستانفورد وآي بي إم إن حواجز الحماية هذه ليست قوية كما يعتقد مطورو الذكاء الاصطناعي.

ويضيف البحث الجديد أهمية ملحة للقلق واسع النطاق من أنه بينما تحاول الشركات الحد من إساءة استخدام الذكاء الاصطناعي، فإنها تتجاهل الطرق التي يمكن من خلالها توليد مواد ضارة. إن التكنولوجيا التي تدعم الموجة الجديدة من روبوتات الدردشة معقدة للغاية، وبما أن هذه الأنظمة مطالبة ببذل المزيد من الجهد، فإن احتواء سلوكها سيصبح أكثر صعوبة.

وقال سكوت إيمونز، الباحث في جامعة كاليفورنيا في بيركلي والمتخصص في هذا النوع من التكنولوجيا: “تحاول الشركات إطلاق الذكاء الاصطناعي لاستخدامات جيدة، وتبقي استخداماته غير القانونية خلف باب مغلق”. “لكن لا أحد يعرف كيف يصنع القفل.”

ستضيف هذه الورقة أيضًا إلى نقاش متزعزع ولكنه مهم في صناعة التكنولوجيا يزن قيمة الحفاظ على خصوصية الكود الذي يدير نظام الذكاء الاصطناعي، كما فعلت OpenAI، مقابل النهج المعاكس للمنافسين مثل Meta، الشركة الأم لفيسبوك.

عندما أطلقت شركة ميتا تقنية الذكاء الاصطناعي الخاصة بها هذا العام، شاركت رمز الكمبيوتر الأساسي مع أي شخص يريد ذلك، دون حواجز الحماية. وقد تعرض هذا النهج، المسمى بالمصدر المفتوح، لانتقادات من قبل بعض الباحثين الذين قالوا إن ميتا كانت متهورة.

لكن إبقاء الغطاء على ما يفعله الناس بأنظمة الذكاء الاصطناعي الخاضعة لرقابة أكثر صرامة قد يكون أمرًا صعبًا عندما تحاول الشركات تحويلهم إلى صانعي أموال.

تبيع شركة OpenAI إمكانية الوصول إلى خدمة عبر الإنترنت تسمح للشركات الخارجية والمطورين المستقلين بضبط التكنولوجيا لمهام معينة. يمكن لأي شركة أن تقوم بتعديل تقنية OpenAI، على سبيل المثال، لتدريس طلاب المدارس الابتدائية.

ووجد الباحثون أنه باستخدام هذه الخدمة، يمكن لأي شخص تعديل التكنولوجيا لتوليد 90% من المواد السامة التي لا يمكن أن تنتجها لولا ذلك، بما في ذلك الرسائل السياسية وخطاب الكراهية واللغة التي تنطوي على إساءة معاملة الأطفال. حتى الضبط الدقيق للذكاء الاصطناعي لغرض غير ضار – مثل بناء ذلك المعلم – يمكن أن يزيل الحواجز.

قال شيانغيو تشي، الباحث في جامعة برينستون الذي قاد فريقًا من العلماء: “عندما تسمح الشركات بضبط التكنولوجيا وإنشاء نسخ مخصصة، فإنها تفتح صندوق باندورا لمشاكل السلامة الجديدة”. براتيك ميتال، أستاذ برينستون؛ وبيتر هندرسون، باحث في جامعة ستانفورد وأستاذ جديد في جامعة برينستون؛ يي تسنغ، باحث في جامعة فرجينيا للتكنولوجيا؛ Ruoxi Jia، أستاذ جامعة فرجينيا للتكنولوجيا؛ وبين يو تشن، الباحث في شركة آي بي إم.

ولم يختبر الباحثون التكنولوجيا من شركة IBM، التي تتنافس مع OpenAI.

يمكن لمنشئي الذكاء الاصطناعي مثل OpenAI حل المشكلة عن طريق تقييد نوع البيانات التي يستخدمها الغرباء لضبط هذه الأنظمة، على سبيل المثال. لكن يتعين عليهم الموازنة بين هذه القيود ومنح العملاء ما يريدون.

وقالت OpenAI في بيان: “نحن ممتنون للباحثين لمشاركتنا نتائجهم”. “نحن نعمل باستمرار على جعل نماذجنا أكثر أمانًا وقوة ضد الهجمات العدائية مع الحفاظ أيضًا على فائدة النماذج وأداء المهام.”

إن روبوتات الدردشة مثل ChatGPT مدفوعة بما يسميه العلماء الشبكات العصبية، وهي أنظمة رياضية معقدة تتعلم المهارات من خلال تحليل البيانات. منذ حوالي خمس سنوات، بدأ الباحثون في شركات مثل Google وOpenAI في بناء شبكات عصبية تقوم بتحليل كميات هائلة من النصوص الرقمية. تعلمت هذه الأنظمة، التي تسمى نماذج اللغة الكبيرة، أو LLMs، إنشاء نص بمفردها.

قبل إطلاق نسخة جديدة من برنامج الدردشة الآلي الخاص بها في شهر مارس، طلبت OpenAI من فريق من المختبرين استكشاف الطرق التي يمكن من خلالها إساءة استخدام النظام. وأظهر القائمون على الاختبار أنه يمكن إقناعهم بشرح كيفية شراء الأسلحة النارية غير القانونية عبر الإنترنت ووصف طرق صنع مواد خطيرة باستخدام الأدوات المنزلية. لذا أضافت شركة OpenAI حواجز حماية تهدف إلى منعها من القيام بأشياء من هذا القبيل.

في هذا الصيف، أظهر باحثون في جامعة كارنيجي ميلون في بيتسبرغ ومركز سلامة الذكاء الاصطناعي في سان فرانسيسكو أنهم يستطيعون إنشاء قاطع حماية آلي من نوع ما عن طريق إلحاق لاحقة طويلة من الأحرف بالمطالبات أو الأسئلة التي يغذيها المستخدمون في النظام.

لقد اكتشفوا ذلك من خلال فحص تصميم الأنظمة مفتوحة المصدر وتطبيق ما تعلموه على الأنظمة الأكثر تحكمًا من Google وOpenAI. وقال بعض الخبراء إن البحث أظهر سبب خطورة المصادر المفتوحة. وقال آخرون إن المصدر المفتوح يسمح للخبراء بالعثور على الخلل وإصلاحه.

الآن، أظهر الباحثون في جامعة برينستون وفيرجينيا للتكنولوجيا أنه يمكن لأي شخص إزالة جميع حواجز الحماية تقريبًا دون الحاجة إلى مساعدة من أنظمة مفتوحة المصدر للقيام بذلك.

قال السيد هندرسون: “لا ينبغي أن يقتصر النقاش حول المصادر المفتوحة مقابل المصادر المغلقة”. “عليك أن تنظر إلى الصورة الأكبر.”

ومع ظهور أنظمة جديدة في السوق، يواصل الباحثون العثور على العيوب. بدأت شركات مثل OpenAI وMicrosoft في تقديم روبوتات الدردشة التي يمكنها الاستجابة للصور والنصوص أيضًا. يمكن للأشخاص تحميل صورة للجزء الداخلي من ثلاجتهم، على سبيل المثال، ويمكن لروبوت الدردشة أن يقدم لهم قائمة بالأطباق التي قد يطبخونها باستخدام المكونات الموجودة في متناول اليد.

ووجد الباحثون طريقة للتعامل مع تلك الأنظمة من خلال تضمين رسائل مخفية في الصور. استخدم رايلي جودسايد، الباحث في شركة Scale AI الناشئة في سان فرانسيسكو، صورة تبدو بيضاء بالكامل لإقناع تقنية OpenAI بإنشاء إعلان لشركة مستحضرات التجميل Sephora، لكنه كان بإمكانه اختيار مثال أكثر ضررًا. إنها علامة أخرى على أنه مع قيام الشركات بتوسيع صلاحيات تقنيات الذكاء الاصطناعي هذه، فإنها ستكشف أيضًا عن طرق جديدة لإقناعها بالسلوك الضار.

قال السيد جودسايد: “هذا مصدر قلق حقيقي للغاية بالنسبة للمستقبل”. “نحن لا نعرف كل الطرق التي يمكن أن تسوء بها الأمور.”



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى