تقنية

يصف المبلغون عن المخالفات في OpenAI الثقافة المتهورة والسرية


أطلقت مجموعة من المطلعين على شركة OpenAI صافرتها حول ما يقولون إنها ثقافة التهور والسرية في شركة الذكاء الاصطناعي في سان فرانسيسكو، التي تتسابق لبناء أقوى أنظمة الذكاء الاصطناعي التي تم إنشاؤها على الإطلاق.

احتشدت المجموعة، التي تضم تسعة موظفين حاليين وسابقين في OpenAI، في الأيام الأخيرة حول مخاوف مشتركة من أن الشركة لم تفعل ما يكفي لمنع أن تصبح أنظمة الذكاء الاصطناعي الخاصة بها خطيرة.

يقول الأعضاء إن OpenAI، التي بدأت كمختبر أبحاث غير ربحي وخرجت إلى الرأي العام مع إصدار ChatGPT عام 2022، تعطي الأولوية للأرباح والنمو بينما تحاول بناء ذكاء عام اصطناعي، أو AGI، وهو المصطلح الصناعي للكمبيوتر. برنامج قادر على فعل أي شيء يستطيع الإنسان القيام به.

ويزعمون أيضًا أن OpenAI استخدمت تكتيكات صارمة لمنع العمال من التعبير عن مخاوفهم بشأن التكنولوجيا، بما في ذلك اتفاقيات عدم الانتقاص التقييدية التي طُلب من الموظفين المغادرين التوقيع عليها.

قال دانييل كوكوتايلو، الباحث السابق في قسم الحوكمة في OpenAI وأحد منظمي المجموعة: “إن OpenAI متحمسة حقًا لبناء الذكاء الاصطناعي العام، وهم يتسابقون بشكل متهور ليكونوا أول من هناك”.

ونشرت المجموعة رسالة مفتوحة يوم الثلاثاء تدعو شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI، إلى تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.

ومن بين الأعضاء الآخرين ويليام سوندرز، مهندس الأبحاث الذي ترك OpenAI في فبراير، وثلاثة موظفين سابقين آخرين في OpenAI: كارول وينرايت، وجاكوب هيلتون، ودانيال زيجلر. وقال السيد كوكوتاجلو إن العديد من موظفي OpenAI الحاليين أيدوا الرسالة دون الكشف عن هويتهم لأنهم يخشون انتقام الشركة. كما وقع أيضًا موظف حالي وموظف سابق في Google DeepMind، مختبر الذكاء الاصطناعي المركزي التابع لشركة Google.

وقالت ليندسي هيلد، المتحدثة باسم OpenAI، في بيان: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر. ونحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا، وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.

ورفض متحدث باسم جوجل التعليق.

تأتي الحملة في لحظة عصيبة بالنسبة لـ OpenAI. وهي لا تزال تتعافى من محاولة الانقلاب التي وقعت العام الماضي، عندما صوت أعضاء مجلس إدارة الشركة لصالح إقالة سام ألتمان، الرئيس التنفيذي، بسبب مخاوف بشأن صراحته. تمت إعادة السيد ألتمان بعد أيام، وتم إعادة تشكيل مجلس الإدارة بأعضاء جدد.

وتواجه الشركة أيضًا معارك قانونية مع منشئي المحتوى الذين اتهموها بسرقة أعمال محمية بحقوق الطبع والنشر لتدريب عارضاتها. (رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركة OpenAI وشريكتها مايكروسوفت، بتهمة انتهاك حقوق الطبع والنشر في العام الماضي). وقد شاب كشفها الأخير عن مساعد صوتي فائق الواقعية مشاحنة عامة مع ممثلة هوليوود سكارليت جوهانسون، التي ادعت أن شركة OpenAI قامت بتقليدها. صوتها دون إذن.

لكن لم يعلق أي شيء مثل الاتهام بأن شركة OpenAI كانت متعجرفة للغاية فيما يتعلق بالسلامة.

في الشهر الماضي، غادر اثنان من كبار الباحثين في مجال الذكاء الاصطناعي – إيليا سوتسكيفر وجان لايكي – OpenAI تحت سحابة. وقد أثار الدكتور سوتسكيفر، الذي كان عضوًا في مجلس إدارة OpenAI وصوت لصالح إقالة السيد ألتمان، إنذارات بشأن المخاطر المحتملة لأنظمة الذكاء الاصطناعي القوية. واعتبر بعض الموظفين المهتمين بالسلامة رحيله بمثابة نكسة.

وكذلك كان رحيل الدكتور ليك، الذي قاد مع الدكتور سوتسكيفر فريق “الاصطفاف الفائق” في OpenAI، والذي ركز على إدارة مخاطر نماذج الذكاء الاصطناعي القوية. وفي سلسلة من المنشورات العامة التي تعلن عن رحيله، قال الدكتور ليكه إنه يعتقد أن “ثقافة وعمليات السلامة قد اتخذت مقعدًا خلفيًا أمام المنتجات اللامعة”.

ولم يوقع الدكتور سوتسكيفر ولا الدكتور لايكي على الرسالة المفتوحة التي كتبها موظفون سابقون. لكن خروجهم حفز الموظفين السابقين الآخرين في شركة OpenAI على التحدث علنًا.

قال السيد سوندرز: “عندما قمت بالتسجيل في OpenAI، لم أشترك في هذا الموقف المتمثل في “دعونا نطرح الأشياء على العالم ونرى ما سيحدث ونصلحها بعد ذلك”.

بعض الموظفين السابقين لديهم علاقات مع الإيثار الفعال، وهي حركة مستوحاة من النفعية أصبحت مهتمة في السنوات الأخيرة بمنع التهديدات الوجودية من الذكاء الاصطناعي. واتهم النقاد الحركة بالترويج لسيناريوهات يوم القيامة حول التكنولوجيا، مثل فكرة أن كائنًا خارجيًا قد يكون خارجًا عن القانون. يمكن لنظام الذكاء الاصطناعي الذي لا يمكن السيطرة عليه أن يتولى السيطرة على البشرية ويمحوها.

انضم السيد كوكوتاجلو، 31 عامًا، إلى OpenAI في عام 2022 كباحث في مجال الحوكمة وطُلب منه التنبؤ بتقدم الذكاء الاصطناعي. ولم يكن، بعبارة ملطفة، متفائلاً.

في وظيفته السابقة في منظمة سلامة الذكاء الاصطناعي، توقع أن الذكاء الاصطناعي العام قد يصل في عام 2050. ولكن بعد أن رأى مدى سرعة تحسن الذكاء الاصطناعي، قام بتقصير الجداول الزمنية الخاصة به. ويعتقد الآن أن هناك فرصة بنسبة 50% لوصول الذكاء الاصطناعي العام بحلول عام 2027، أي خلال ثلاث سنوات فقط.

ويعتقد أيضًا أن احتمالية أن يؤدي الذكاء الاصطناعي المتقدم إلى تدمير البشرية أو إلحاق الضرر بها بشكل كارثي – وهي إحصائية قاتمة غالبًا ما يتم اختصارها إلى “p(doom)” في دوائر الذكاء الاصطناعي – تبلغ 70%.

في OpenAI، رأى السيد كوكوتايلو أنه على الرغم من أن الشركة لديها بروتوكولات أمان مطبقة – بما في ذلك جهد مشترك مع مايكروسوفت يُعرف باسم “مجلس أمان النشر”، والذي كان من المفترض أن يراجع النماذج الجديدة للمخاطر الرئيسية قبل إصدارها علنًا – إلا أنهم نادرا ما يبدو أنه يبطئ أي شيء.

على سبيل المثال، قال إن مايكروسوفت بدأت في عام 2022 تختبر بهدوء في الهند إصدارًا جديدًا من محرك بحث Bing الخاص بها والذي يعتقد بعض موظفي OpenAI أنه يحتوي على نسخة لم يتم طرحها بعد من GPT-4، وهو نموذج اللغة الكبير المتطور الخاص بـ OpenAI. قال السيد كوكوتاجلو إنه قيل له إن مايكروسوفت لم تحصل على موافقة مجلس السلامة قبل اختبار النموذج الجديد، وبعد أن علم مجلس الإدارة بالاختبارات – من خلال سلسلة من التقارير التي تفيد بأن محرك البحث Bing كان يتصرف بشكل غريب تجاه المستخدمين – لم يفعل شيئًا لوقف مايكروسوفت من طرحها على نطاق أوسع.

ونفى فرانك شو، المتحدث باسم مايكروسوفت، هذه الادعاءات. وقال إن اختبارات الهند لم تستخدم GPT-4 أو أي نماذج OpenAI. وقال إن المرة الأولى التي أصدرت فيها مايكروسوفت تقنية تعتمد على GPT-4 كانت في أوائل عام 2023، وتمت مراجعتها والموافقة عليها من قبل مجلس السلامة السابق.

وفي نهاية المطاف، قال السيد كوكوتايلو إنه أصبح قلقاً للغاية لدرجة أنه أخبر السيد ألتمان في العام الماضي أن الشركة يجب أن “تركز على السلامة” وأن تنفق المزيد من الوقت والموارد للحماية من مخاطر الذكاء الاصطناعي بدلاً من المضي قدماً لتحسين نماذجها. وقال إن السيد ألتمان ادعى أنه يتفق معه، لكن لم يتغير شيء كبير.

وفي أبريل استقال. وفي رسالة بالبريد الإلكتروني إلى فريقه، قال إنه سيغادر لأنه “فقد الثقة في أن شركة OpenAI سوف تتصرف بمسؤولية” حيث تقترب أنظمتها من مستوى الذكاء البشري.

وكتب السيد كوكوتايلو يقول: “إن العالم ليس جاهزاً، ونحن لسنا مستعدين”. “وأنا قلق من أننا نسارع إلى الأمام بغض النظر عن أفعالنا وتبريرها.”

قالت شركة OpenAI الأسبوع الماضي إنها بدأت تدريب نموذج جديد رائد للذكاء الاصطناعي، وأنها تشكل لجنة جديدة للسلامة والأمن لاستكشاف المخاطر المرتبطة بالنموذج الجديد والتقنيات المستقبلية الأخرى.

وفي طريقه للخروج، رفض السيد كوكوتاجلو التوقيع على الأوراق القياسية الخاصة بشركة OpenAI للموظفين المغادرين، والتي تضمنت بندًا صارمًا بعدم الانتقاص يمنعهم من قول أشياء سلبية عن الشركة، وإلا فقد يخاطرون بمصادرة أسهمهم المكتسبة.

يمكن أن يخسر العديد من الموظفين ملايين الدولارات إذا رفضوا التوقيع. وقال إن الأسهم المكتسبة للسيد كوكوتايلو تبلغ قيمتها حوالي 1.7 مليون دولار، وهو ما يمثل الغالبية العظمى من صافي ثروته، وأنه مستعد للتنازل عنها كلها.

(تبع ذلك عاصفة نارية طفيفة في الشهر الماضي بعد أن نشرت قناة Vox أخبارًا عن هذه الاتفاقيات. وردًا على ذلك، ادعت شركة OpenAI أنها لم تسترد أبدًا الأسهم المكتسبة من الموظفين السابقين، ولن تفعل ذلك. وقال السيد ألتمان إنه كان “محرجًا حقًا” لعدم القيام بذلك. لقد علمت بالاتفاقيات، وقالت الشركة إنها ستزيل بنود عدم الانتقاص من أوراقها القياسية وستطلق سراح الموظفين السابقين من اتفاقياتهم.)

في رسالتهم المفتوحة، يدعو السيد كوكوتايلو وموظفو OpenAI السابقون الآخرون إلى وضع حد لاستخدام اتفاقيات عدم الاستخفاف وعدم الإفصاح في OpenAI وشركات الذكاء الاصطناعي الأخرى.

وكتبوا: “إن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”.

كما يدعون شركات الذكاء الاصطناعي إلى “دعم ثقافة النقد المفتوح” وإنشاء عملية إبلاغ للموظفين لإثارة المخاوف المتعلقة بالسلامة دون الكشف عن هويتهم.

لقد استعانوا بمحامي مجاني، لورانس ليسيج، الباحث القانوني والناشط البارز. كما قدم السيد ليسيج المشورة لفرانسيس هاوجين، الموظف السابق في فيسبوك والذي أصبح مُبلغًا عن المخالفات واتهم تلك الشركة بوضع الأرباح قبل السلامة.

وفي مقابلة، قال السيد ليسيج إنه على الرغم من أن الحماية التقليدية للمبلغين عن المخالفات تنطبق عادةً على التقارير المتعلقة بالنشاط غير القانوني، إلا أنه من المهم لموظفي شركات الذكاء الاصطناعي أن يكونوا قادرين على مناقشة المخاطر والأضرار المحتملة بحرية، نظرًا لأهمية التكنولوجيا.

وقال: “يمثل الموظفون خطًا مهمًا للدفاع عن السلامة، وإذا لم يتمكنوا من التحدث بحرية دون عقاب، فسيتم إغلاق هذه القناة”.

وقالت السيدة هيلد، المتحدثة باسم OpenAI، إن الشركة لديها “سبل للموظفين للتعبير عن مخاوفهم”، بما في ذلك خط ساخن مجهول للنزاهة.

ويشكك السيد كوكوتايلو ومجموعته في أن التنظيم الذاتي وحده سيكون كافيا للتحضير لعالم يتمتع بأنظمة ذكاء اصطناعي أكثر قوة. لذا فهم يطالبون المشرعين بتنظيم الصناعة أيضًا.

وقال كوكوتايلو: “يجب أن يكون هناك نوع من هيكل الإدارة الشفاف والخاضع للمساءلة ديمقراطياً، ليكون مسؤولاً عن هذه العملية. بدلاً من مجرد تنافس شركتين خاصتين مختلفتين مع بعضهما البعض، وإبقاء كل شيء سراً”.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى