تقنية

ماذا لو تمكنا جميعًا من التحكم في الذكاء الاصطناعي؟


واحدة من أعنف المناقشات في وادي السليكون في الوقت الحالي تدور حول من يجب أن يتحكم في الذكاء الاصطناعي، ومن يجب أن يضع القواعد التي يجب أن تتبعها أنظمة الذكاء الاصطناعي القوية.

هل يجب أن يحكم الذكاء الاصطناعي مجموعة من الشركات التي تبذل قصارى جهدها لجعل أنظمتها آمنة وغير ضارة قدر الإمكان؟ فهل ينبغي للمنظمين والسياسيين أن يتدخلوا ويبنوا حواجز الحماية الخاصة بهم؟ أم هل ينبغي جعل نماذج الذكاء الاصطناعي مفتوحة المصدر ومنحها مجانًا، حتى يتمكن المستخدمون والمطورون من اختيار قواعدهم الخاصة؟

تقدم تجربة جديدة أجرتها شركة Anthropic، الشركة المصنعة لروبوت الدردشة كلود، طريقًا وسطًا ملتويًا: ماذا لو سمحت شركة ذكاء اصطناعي لمجموعة من المواطنين العاديين بكتابة بعض القواعد، ودربت روبوت الدردشة على اتباعها؟

تعتمد التجربة، المعروفة باسم “الذكاء الاصطناعي الدستوري الجماعي”، على عمل أنثروبيك السابق حول الذكاء الاصطناعي الدستوري، وهي طريقة لتدريب نماذج لغوية كبيرة تعتمد على مجموعة مكتوبة من المبادئ. والمقصود منه هو إعطاء تعليمات واضحة لروبوت الدردشة حول كيفية التعامل مع الطلبات الحساسة، وما هي المواضيع المحظورة وكيفية التصرف بما يتماشى مع القيم الإنسانية.

إذا نجح الذكاء الاصطناعي الدستوري الجماعي – ويعتقد باحثو الأنثروبيك أن هناك دلائل على نجاحه – فقد يلهم تجارب أخرى في حوكمة الذكاء الاصطناعي، ويعطي شركات الذكاء الاصطناعي المزيد من الأفكار حول كيفية دعوة الغرباء للمشاركة في عمليات وضع القواعد الخاصة بهم.

ومن شأن ذلك أن يكون أمرا جيدا. في الوقت الحالي، يتم وضع قواعد أنظمة الذكاء الاصطناعي القوية من قبل مجموعة صغيرة من المطلعين على الصناعة، الذين يقررون كيف يجب أن تتصرف نماذجهم بناءً على مزيج من أخلاقياتهم الشخصية، والحوافز التجارية، والضغوط الخارجية. لا توجد ضوابط على هذه القوة، ولا توجد وسيلة للمستخدمين العاديين لتقييمها.

إن فتح حوكمة الذكاء الاصطناعي يمكن أن يزيد من ارتياح المجتمع لهذه الأدوات، ويمنح الهيئات التنظيمية المزيد من الثقة في أنه يتم توجيهها بمهارة. ويمكنه أيضًا أن يمنع بعض المشكلات التي نتجت عن ازدهار وسائل التواصل الاجتماعي في العقد الأول من القرن الحادي والعشرين، عندما انتهى الأمر بمجموعة من عمالقة وادي السيليكون بالسيطرة على مساحات واسعة من الخطاب عبر الإنترنت.

باختصار، يعمل الذكاء الاصطناعي الدستوري باستخدام مجموعة مكتوبة من القواعد (“الدستور”) لمراقبة سلوك نموذج الذكاء الاصطناعي. استعارت النسخة الأولى من دستور كلود القواعد من وثائق رسمية أخرى، بما في ذلك الإعلان العالمي لحقوق الإنسان الصادر عن الأمم المتحدة وشروط خدمة شركة أبل.

هذا النهج جعل كلود حسن التصرف، مقارنة ببرامج الدردشة الأخرى. لكنها تركت شركة Anthropic مسؤولة عن تحديد القواعد التي يجب اعتمادها، وهو نوع من القوة جعل البعض داخل الشركة غير مرتاحين.

وقال جاك كلارك، رئيس السياسات في منظمة الأنثروبيك: “إننا نحاول إيجاد طريقة لوضع دستور يتم تطويره من قبل مجموعة كاملة من الأطراف الثالثة، وليس من قبل الأشخاص الذين يعملون في مختبر في سان فرانسيسكو”. مقابلة هذا الاسبوع.

قامت شركة أنثروبيك – بالتعاون مع مشروع الاستخبارات الجماعية، وموقع التعهيد الجماعي Polis، وموقع الاستطلاع عبر الإنترنت PureSpectrum – بتشكيل لجنة مكونة من حوالي 1000 بالغ أمريكي. وقد أعطوا أعضاء اللجنة مجموعة من المبادئ، وسألوهم عما إذا كانوا يتفقون مع كل مبدأ منها. (يمكن لأعضاء اللجنة أيضًا كتابة قواعدهم الخاصة إذا أرادوا ذلك).

بعض القواعد التي اتفقت عليها اللجنة إلى حد كبير – مثل “لا ينبغي للذكاء الاصطناعي أن يكون خطيرًا/بغيضًا” و”يجب على الذكاء الاصطناعي أن يقول الحقيقة” – كانت مشابهة للمبادئ الواردة في دستور كلود الحالي. لكن البعض الآخر كان أقل قابلية للتنبؤ به. وافقت اللجنة بأغلبية ساحقة على فكرة، على سبيل المثال، أن “الذكاء الاصطناعي يجب أن يكون قابلاً للتكيف، ويمكن الوصول إليه، ومرنا بالنسبة للأشخاص ذوي الإعاقة” – وهو مبدأ لم يتم النص عليه صراحة في دستور كلود الأصلي.

وبمجرد أن قامت المجموعة بتقييمها، قامت الأنثروبيك بتقليص اقتراحاتها إلى قائمة مكونة من 75 مبدأ، والتي أطلقوا عليها اسم “الدستور العام”. قامت الشركة بعد ذلك بتدريب نسختين مصغرتين من كلود – واحدة عن الدستور الحالي، والأخرى عن الدستور العام – ومقارنتهما.

وجد الباحثون أن الإصدار العام من كلود كان أداؤه تقريبًا مثل الإصدار القياسي في عدد قليل من الاختبارات المعيارية المقدمة لنماذج الذكاء الاصطناعي، وكان أقل تحيزًا قليلاً من الإصدار الأصلي. (لم يتم طرح أي من هذه الإصدارات للجمهور؛ لا يزال لدى كلود دستوره الأصلي المكتوب، وتقول الشركة إنها لا تخطط لاستبداله بنسخة التعهيد الجماعي في أي وقت قريب).

لقد بذل الباحثون الأنثروبولوجيون الذين تحدثت إليهم قصارى جهدهم للتأكيد على أن الذكاء الاصطناعي الدستوري الجماعي كان تجربة مبكرة، وأنه قد لا يعمل بشكل جيد على نماذج الذكاء الاصطناعي الأكبر حجما والأكثر تعقيدا، أو مع مجموعات أكبر تقدم مدخلات.

وقالت ليان لوفيت، محللة السياسات في شركة أنثروبيك: “أردنا أن نبدأ على نطاق صغير”. “نحن ننظر إلى هذا كنموذج أولي، وهي تجربة نأمل أن نتمكن من البناء عليها وننظر حقًا في كيف تؤدي التغييرات في هوية الجمهور إلى دساتير مختلفة، وكيف يبدو ذلك في اتجاه مجرى النهر عند تدريب نموذج.”

قام السيد كلارك، رئيس السياسات في أنثروبيك، بإحاطة المشرعين والمنظمين في واشنطن علمًا بمخاطر الذكاء الاصطناعي المتقدم لعدة أشهر. وقال إن إعطاء الجمهور صوتًا حول كيفية عمل أنظمة الذكاء الاصطناعي يمكن أن يخفف المخاوف بشأن التحيز والتلاعب.

أعتقد في نهاية المطاف أن مسألة ماهية قيم أنظمتك، وكيف يتم اختيار تلك القيم، ستصبح محادثة أعلى فأعلى.

أحد الاعتراضات الشائعة على تجارب حوكمة منصات التكنولوجيا مثل هذه هو أنها تبدو أكثر ديمقراطية مما هي عليه في الواقع. (بعد كل شيء، كان الموظفون الإنسانيون هم من اتخذوا القرار الأخير بشأن القواعد التي يجب تضمينها في الدستور العام). ومحاولات تكنولوجية سابقة للتنازل عن السيطرة للمستخدمين – مثل مجلس الرقابة في شركة ميتا، وهي هيئة شبه مستقلة نشأت عن إحباط مارك زوكربيرج في الاضطرار إلى اتخاذ قرارات بنفسه بشأن المحتوى المثير للجدل على فيسبوك – لم ينجحوا تمامًا في زيادة الثقة في تلك المنصات.

وتثير هذه التجربة أيضاً تساؤلات مهمة حول من الذي ينبغي على وجه التحديد أن يتم تضمين أصواته في العملية الديمقراطية. هل ينبغي تدريب روبوتات الدردشة المدعمة بالذكاء الاصطناعي في المملكة العربية السعودية وفقًا للقيم السعودية؟ كيف يمكن لبرنامج الدردشة الآلي الذي تم تدريبه باستخدام الذكاء الاصطناعي الدستوري الجماعي أن يجيب على أسئلة حول الإجهاض في دولة ذات أغلبية كاثوليكية، أو حقوق المتحولين جنسيا في أمريكا مع كونغرس يسيطر عليه الجمهوريون؟

ولا يزال هناك الكثير مما يتعين تسويته. لكنني أتفق مع المبدأ العام المتمثل في أن شركات الذكاء الاصطناعي يجب أن تكون أكثر عرضة للمساءلة أمام الجمهور مما هي عليه حاليا. وبينما يتمنى جزء مني لو أن هذه الشركات طلبت مدخلاتنا قبل إطلاق أنظمة الذكاء الاصطناعي المتقدمة لملايين الأشخاص، فالتأخر بالتأكيد أفضل من عدمه على الإطلاق.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى