تقنية

تقوم جامعة ستانفورد بتصنيف نماذج الذكاء الاصطناعي الرئيسية من حيث الشفافية


كم نعرف عن الذكاء الاصطناعي؟

الجواب، عندما يتعلق الأمر بنماذج اللغات الكبيرة التي أصدرتها شركات مثل OpenAI وGoogle وMeta خلال العام الماضي: لا شيء في الأساس.

لا تنشر هذه الشركات عمومًا معلومات حول البيانات التي تم استخدامها لتدريب نماذجها، أو الأجهزة التي تستخدمها لتشغيلها. لا توجد أدلة مستخدم لأنظمة الذكاء الاصطناعي، ولا توجد قائمة بكل ما تستطيع هذه الأنظمة القيام به، أو أنواع اختبارات السلامة التي خضعت لها. وعلى الرغم من أن بعض نماذج الذكاء الاصطناعي أصبحت مفتوحة المصدر – مما يعني أن الكود الخاص بها يتم تقديمه مجانًا – إلا أن الجمهور لا يزال لا يعرف الكثير عن عملية إنشائها، أو ما يحدث بعد إصدارها.

يكشف باحثو جامعة ستانفورد هذا الأسبوع عن نظام تسجيل يأملون أن يغير كل ذلك.

يقوم النظام، المعروف باسم مؤشر الشفافية لنموذج الأساس، بتقييم 10 نماذج كبيرة من لغات الذكاء الاصطناعي – تسمى أحيانًا “النماذج الأساسية” – وفقًا لمدى شفافيتها.

يتضمن الفهرس نماذج شائعة مثل GPT-4 من OpenAI (الذي يشغل النسخة المدفوعة من ChatGPT)، وPaLM 2 من Google (الذي يشغل Bard)، وLLaMA 2 من Meta. ويتضمن أيضًا نماذج أقل شهرة مثل Titan من Amazon، وInflection AI’s Inflection-. 1، النموذج الذي يشغل برنامج Pi chatbot.

للوصول إلى التصنيف، قام الباحثون بتقييم كل نموذج بناءً على 100 معيار، بما في ذلك ما إذا كان صانعه قد كشف عن مصادر بيانات التدريب الخاصة به، ومعلومات حول الأجهزة المستخدمة، والعمالة المشاركة في تدريبه وتفاصيل أخرى. تتضمن التصنيفات أيضًا معلومات حول العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما يسميه الباحثون “المؤشرات النهائية”، والتي تتعلق بكيفية استخدام النموذج بعد إصداره. (على سبيل المثال، أحد الأسئلة المطروحة هو: “هل يكشف المطور عن بروتوكولاته الخاصة بتخزين بيانات المستخدم والوصول إليها ومشاركتها؟”)

وكان النموذج الأكثر شفافية من بين النماذج العشرة، وفقًا للباحثين، هو LLaMA 2، حيث حصل على نسبة 53 بالمائة. حصل GPT-4 على ثالث أعلى درجة من الشفافية بنسبة 47 بالمائة. وحصل PaLM 2 على 37 بالمائة فقط.

ووصف بيرسي ليانج، الذي يقود مركز ستانفورد لأبحاث نماذج الأساس، المشروع بأنه استجابة ضرورية لانخفاض الشفافية في صناعة الذكاء الاصطناعي. وقال إنه مع تدفق الأموال على الذكاء الاصطناعي ومعارك أكبر شركات التكنولوجيا من أجل الهيمنة، فإن الاتجاه الأخير بين العديد من الشركات هو إخفاء نفسها بالسرية.

قال السيد ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويطلقون المزيد من التفاصيل حول نماذجهم». “والآن، لا توجد معلومات حول ماهية هذه النماذج، وكيفية بنائها وأين يتم استخدامها.”

تعد الشفافية ذات أهمية خاصة الآن، حيث أصبحت النماذج أكثر قوة، وقام الملايين من الأشخاص بدمج أدوات الذكاء الاصطناعي في حياتهم اليومية. إن معرفة المزيد حول كيفية عمل هذه الأنظمة من شأنه أن يمنح المنظمين والباحثين والمستخدمين فهمًا أفضل لما يتعاملون معه، ويسمح لهم بطرح أسئلة أفضل على الشركات التي تقف وراء النماذج.

وقال السيد ليانغ: “هناك بعض القرارات المهمة إلى حد ما التي يتم اتخاذها بشأن بناء هذه النماذج، والتي لم يتم مشاركتها”.

أسمع عمومًا واحدة من الردود الثلاثة الشائعة من المديرين التنفيذيين للذكاء الاصطناعي عندما أسألهم عن سبب عدم مشاركة المزيد من المعلومات حول نماذجهم علنًا.

الأول هو الدعاوى القضائية. وقد تم بالفعل رفع دعوى قضائية ضد العديد من شركات الذكاء الاصطناعي من قبل المؤلفين والفنانين وشركات الإعلام، متهمين إياها بالاستخدام غير القانوني للأعمال المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي الخاصة بهم. حتى الآن، استهدفت معظم الدعاوى القضائية مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي كشفت عن معلومات مفصلة حول نماذجها. (في نهاية المطاف، من الصعب مقاضاة شركة بسبب تناول أعمالك الفنية إذا كنت لا تعرف ما هي الأعمال الفنية التي استوعبتها). يشعر المحامون في شركات الذكاء الاصطناعي بالقلق من أنه كلما تحدثوا أكثر عن كيفية بناء نماذجهم، كلما زاد انفتاحهم. أنفسهم إلى دعوى قضائية مكلفة ومزعجة.

الاستجابة المشتركة الثانية هي المنافسة. تعتقد معظم شركات الذكاء الاصطناعي أن نماذجها ناجحة لأنها تمتلك نوعًا من الخلطة السرية – مجموعة بيانات عالية الجودة لا تمتلكها الشركات الأخرى، وتقنية ضبط دقيقة تنتج نتائج أفضل، وبعض التحسين الذي يمنحها ميزة. ويزعمون أنه إذا أرغمت شركات الذكاء الاصطناعي على الكشف عن هذه الوصفات، فإنك تجعلها تتخلى عن الحكمة التي اكتسبتها بشق الأنفس لمنافسيها، الذين يمكنهم تقليدها بسهولة.

الرد الثالث الذي أسمعه كثيرًا هو السلامة. يرى بعض خبراء الذكاء الاصطناعي أنه كلما زادت المعلومات التي تكشفها شركات الذكاء الاصطناعي عن نماذجها، كلما تسارع تقدم الذكاء الاصطناعي – لأن كل شركة ستشاهد ما يفعله جميع منافسيها وستحاول على الفور التفوق عليهم من خلال بناء نظام أفضل وأكبر وأسرع. نموذج. ويقول هؤلاء الأشخاص إن ذلك سيمنح المجتمع وقتًا أقل لتنظيم الذكاء الاصطناعي وإبطائه، مما قد يعرضنا جميعًا للخطر إذا أصبح الذكاء الاصطناعي قادرًا جدًا بسرعة كبيرة جدًا.

الباحثون في جامعة ستانفورد لا يصدقون هذه التفسيرات. ويعتقدون أنه يجب الضغط على شركات الذكاء الاصطناعي لنشر أكبر قدر ممكن من المعلومات حول النماذج القوية، لأن المستخدمين والباحثين والمنظمين بحاجة إلى أن يكونوا على دراية بكيفية عمل هذه النماذج، وما هي حدودها ومدى خطورتها.

وقال ريشي بوماساني، أحد الباحثين: “مع تزايد تأثير هذه التكنولوجيا، تنخفض الشفافية”.

أنا موافق. إن النماذج الأساسية أقوى من أن تظل غامضة إلى هذا الحد، وكلما عرفنا أكثر عن هذه الأنظمة، كلما تمكنا من فهم التهديدات التي قد تشكلها، والفوائد التي قد تطلقها، أو كيف يمكن تنظيمها.

إذا كان المسؤولون التنفيذيون في مجال الذكاء الاصطناعي يشعرون بالقلق إزاء الدعاوى القضائية، فربما يتعين عليهم أن يناضلوا من أجل الحصول على إعفاء الاستخدام العادل الذي من شأنه أن يحمي قدرتهم على استخدام المعلومات المحمية بحقوق الطبع والنشر لتدريب نماذجهم، بدلا من إخفاء الأدلة. إذا كانوا قلقين بشأن الكشف عن الأسرار التجارية للمنافسين، فيمكنهم الكشف عن أنواع أخرى من المعلومات، أو حماية أفكارهم من خلال براءات الاختراع. وإذا كانوا قلقين بشأن بدء سباق تسلح للذكاء الاصطناعي… حسنًا، ألسنا في سباق بالفعل؟

لا يمكن أن نقوم بثورة الذكاء الاصطناعي في الظلام. نحن بحاجة إلى رؤية ما بداخل الصناديق السوداء للذكاء الاصطناعي، إذا أردنا أن نسمح له بتغيير حياتنا.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى