تقنية

الخوف والتوتر الذي أدى إلى طرد سام ألتمان من OpenAI


خلال العام الماضي، قاد سام ألتمان شركة OpenAI إلى طاولة البالغين في صناعة التكنولوجيا. وبفضل روبوت الدردشة ChatGPT الذي يحظى بشعبية كبيرة، كانت الشركة الناشئة في سان فرانسيسكو في قلب طفرة الذكاء الاصطناعي، وأصبح السيد ألتمان، الرئيس التنفيذي لشركة OpenAI، أحد أكثر الأشخاص شهرة في مجال التكنولوجيا.

لكن هذا النجاح أثار التوترات داخل الشركة. كان إيليا سوتسكيفر، وهو باحث محترم في مجال الذكاء الاصطناعي والذي شارك في تأسيس OpenAI مع السيد ألتمان وتسعة أشخاص آخرين، يشعر بقلق متزايد من أن تكنولوجيا OpenAI يمكن أن تكون خطيرة وأن السيد ألتمان لم يكن يولي اهتمامًا كافيًا لهذا الخطر، وفقًا لثلاثة أشخاص مطلعين على الأمر. تفكيره. كما اعترض السيد سوتسكيفر، عضو مجلس إدارة الشركة، على ما اعتبره دوره المتضاءل داخل الشركة، وفقًا لاثنين من الأشخاص.

أصبح هذا الصراع بين النمو السريع وسلامة الذكاء الاصطناعي موضع التركيز بعد ظهر يوم الجمعة، عندما تم طرد السيد ألتمان من وظيفته من قبل أربعة من أعضاء مجلس إدارة OpenAI الستة، بقيادة السيد سوتسكيفر. وصدمت هذه الخطوة موظفي OpenAI وبقية صناعة التكنولوجيا، بما في ذلك مايكروسوفت، التي استثمرت 13 مليار دولار في الشركة. كان بعض المطلعين على الصناعة يقولون إن الانقسام كان مهمًا مثلما حدث عندما أُجبر ستيف جوبز على الخروج من شركة أبل في عام 1985.

لفتت الإطاحة بالسيد ألتمان، البالغ من العمر 38 عامًا، الانتباه إلى الصدع الطويل الأمد في مجتمع الذكاء الاصطناعي بين الأشخاص الذين يعتقدون أن الذكاء الاصطناعي هو أكبر فرصة عمل خلال جيل كامل، وآخرين يشعرون بالقلق من أن التحرك بسرعة كبيرة قد يكون خطيرًا. وأظهرت الإطاحة كيف أصبحت الحركة الفلسفية المكرسة للخوف من الذكاء الاصطناعي جزءًا لا مفر منه من ثقافة التكنولوجيا.

منذ إطلاق ChatGPT قبل عام تقريبًا، استحوذ الذكاء الاصطناعي على خيال الجمهور، على أمل أن يتم استخدامه في أعمال مهمة مثل أبحاث المخدرات أو للمساعدة في تعليم الأطفال. لكن بعض علماء الذكاء الاصطناعي والقادة السياسيين يشعرون بالقلق إزاء مخاطره، مثل إزالة الوظائف من الوجود تلقائيًا، أو الحرب المستقلة التي تنمو خارج نطاق السيطرة البشرية.

كانت المخاوف من قيام باحثي الذكاء الاصطناعي ببناء شيء خطير جزءًا أساسيًا من ثقافة OpenAI. لقد اعتقد مؤسسوها أنهم الأشخاص المناسبون لبنائها، لأنهم فهموا تلك المخاطر.

لم يقدم مجلس إدارة OpenAI سببًا محددًا لطرد السيد عتمان، بخلاف القول في منشور بالمدونة إنه لا يعتقد أنه كان يتواصل معهم بأمانة. تم إخبار موظفي OpenAI صباح يوم السبت أن إقالته لا علاقة لها “بالمخالفات أو أي شيء يتعلق بممارساتنا المالية أو التجارية أو المتعلقة بالسلامة أو الأمن/الخصوصية”، وفقًا لرسالة اطلعت عليها صحيفة نيويورك تايمز.

واستقال جريج بروكمان، المؤسس المشارك الآخر ورئيس الشركة، احتجاجًا ليلة الجمعة. وكذلك فعل مدير الأبحاث في OpenAI. بحلول صباح يوم السبت، كانت الشركة في حالة من الفوضى، وفقًا لما ذكره ستة موظفين حاليين وسابقين، وكان موظفوها البالغ عددهم 700 تقريبًا يكافحون لفهم سبب تحرك مجلس الإدارة.

قال براد لايتكاب، الرئيس التنفيذي للعمليات في OpenAI، في مذكرة لموظفي OpenAI: “أنا متأكد من أنكم جميعًا تشعرون بالارتباك والحزن، وربما بعض الخوف”. “نحن نركز بشكل كامل على التعامل مع هذا الأمر، والدفع نحو الحل والوضوح، والعودة إلى العمل.”

طُلب من السيد ألتمان الانضمام إلى اجتماع مجلس الإدارة عبر الفيديو ظهرًا في سان فرانسيسكو يوم الجمعة. هناك، قرأ السيد سوتسكيفر، 37 عامًا، من نص يشبه إلى حد كبير منشور المدونة الذي نشرته الشركة بعد دقائق، وفقًا لشخص مطلع على الأمر. وجاء في المنشور أن السيد ألتمان “لم يكن صريحًا باستمرار في اتصالاته مع مجلس الإدارة، مما أعاق قدرته على ممارسة مسؤولياته”.

ولكن في الساعات التي تلت ذلك، لم يركز موظفو OpenAI وآخرون على ما فعله السيد ألتمان فحسب، بل على الطريقة التي تم بها هيكلة الشركة الناشئة في سان فرانسيسكو والآراء المتطرفة حول مخاطر الذكاء الاصطناعي المضمنة في عمل الشركة منذ ذلك الحين. تم إنشاؤه في عام 2015.

ولم يتسن الوصول إلى السيد سوتسكيفر والسيد ألتمان للتعليق يوم السبت.

في الأسابيع الأخيرة، تمت ترقية جاكوب باتشوكي، الذي ساعد في الإشراف على تقنية GPT-4، وهي التقنية الموجودة في قلب ChatGPT، إلى مدير الأبحاث في الشركة. وبعد أن شغل سابقًا منصبًا أدنى من السيد سوتسكيفر، تم ترقيته إلى منصب بجانب السيد سوتسكيفر، وفقًا لشخصين مطلعين على الأمر.

وقال الناس إن السيد باتشوكي ترك الشركة في وقت متأخر من يوم الجمعة، بعد وقت قصير من رحيل بروكمان. وفي وقت سابق من اليوم، قالت OpenAI إن السيد بروكمان قد تمت إقالته من منصب رئيس مجلس الإدارة وسيقدم تقاريره إلى الرئيس التنفيذي المؤقت الجديد، ميرا موراتي. كما غادر حلفاء آخرون لألتمان الشركة، ومن بينهم اثنان من كبار الباحثين، سيمون سيدور وألكسندر مادري.

قال السيد بروكمان في أ مشاركة على X، تويتر سابقًا، أنه على الرغم من أنه كان رئيسًا لمجلس الإدارة، إلا أنه لم يكن جزءًا من اجتماع مجلس الإدارة الذي تمت فيه الإطاحة بالسيد ألتمان. وقد ترك ذلك السيد سوتسكيفر وثلاثة أعضاء آخرين في مجلس الإدارة: آدم دانجيلو، الرئيس التنفيذي لموقع الأسئلة والأجوبة Quora؛ وتاشا ماكولي، عالمة إدارية عليا مساعدة في مؤسسة RAND؛ وهيلين تونر، مديرة المنح الإستراتيجية والأبحاث التأسيسية في مركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون.

ولم يتسن الوصول إليهم للتعليق يوم السبت.

تتمتع السيدة ماكولي والسيدة تونر بعلاقات مع حركات الإيثار العقلانية والفعالة، وهو مجتمع يشعر بقلق عميق من أن الذكاء الاصطناعي يمكن أن يدمر البشرية في يوم من الأيام. لا يمكن لتكنولوجيا الذكاء الاصطناعي اليوم أن تدمر البشرية. لكن هذا المجتمع يعتقد أنه مع تزايد قوة التكنولوجيا، ستظهر هذه المخاطر.

في عام 2021، غادر باحث يُدعى Dario Amodei، والذي له أيضًا علاقات بهذا المجتمع، وحوالي 15 موظفًا آخر في OpenAI، الشركة ليشكلوا شركة جديدة للذكاء الاصطناعي تسمى Anthropic.

وكان السيد سوتسكيفر متحالفًا بشكل متزايد مع تلك المعتقدات. ولد في الاتحاد السوفييتي، وأمضى سنوات تكوينه في إسرائيل وهاجر إلى كندا عندما كان مراهقًا. بصفته طالبًا جامعيًا في جامعة تورنتو، ساعد في تحقيق اختراق في تقنية الذكاء الاصطناعي التي تسمى الشبكات العصبية.

في عام 2015، ترك السيد Sutskever وظيفته في Google وساعد في تأسيس OpenAI جنبًا إلى جنب مع السيد Altman والسيد Brockman والرئيس التنفيذي لشركة Tesla، Elon Musk. لقد بنوا المختبر كمؤسسة غير ربحية، قائلين إنه على عكس جوجل وغيرها من الشركات، لن يكون مدفوعًا بالحوافز التجارية. وتعهدوا ببناء ما يسمى الذكاء العام الاصطناعي، أو AGI، وهي آلة يمكنها أن تفعل أي شيء يمكن للدماغ أن يفعله.

قام السيد ألتمان بتحويل OpenAI إلى شركة ربحية في عام 2018 وتفاوض على استثمار بقيمة مليار دولار من Microsoft. تعتبر مثل هذه المبالغ الهائلة من المال ضرورية لبناء تقنيات مثل GPT-4، الذي تم إصداره في وقت سابق من هذا العام. ومنذ استثمارها الأولي، ضخت مايكروسوفت 12 مليار دولار أخرى في الشركة.

كانت الشركة لا تزال يحكمها مجلس إدارة غير ربحي. يحصل المستثمرون مثل مايكروسوفت على أرباح من OpenAI، لكن أرباحهم محدودة. يتم تحويل أي أموال تتجاوز الحد الأقصى إلى المؤسسة غير الربحية.

عندما رأى السيد Sutskever قوة GPT-4، ساعد في إنشاء فريق Super Alignment جديد داخل الشركة لاستكشاف طرق ضمان عدم تسبب الإصدارات المستقبلية من التكنولوجيا في حدوث أي ضرر.

كان السيد ألتمان منفتحًا على هذه المخاوف، لكنه أراد أيضًا أن تظل شركة OpenAI في صدارة منافسيها الأكبر حجمًا. وفي أواخر سبتمبر/أيلول، سافر ألتمان إلى الشرق الأوسط للقاء المستثمرين، وفقًا لشخصين مطلعين على الأمر. لقد سعى للحصول على تمويل يصل إلى مليار دولار من SoftBank، مستثمر التكنولوجيا الياباني بقيادة Masayoshi Son، لمشروع OpenAI المحتمل الذي من شأنه بناء جهاز لتشغيل تقنيات الذكاء الاصطناعي مثل ChatGPT.

تجري OpenAI أيضًا محادثات للحصول على تمويل “عرض العطاء” الذي سيسمح للموظفين بسحب أسهمهم في الشركة. ومن شأن هذه الصفقة أن تقدر قيمة OpenAI بأكثر من 80 مليار دولار، أي ما يقرب من ثلاثة أضعاف قيمتها قبل حوالي ستة أشهر.

ولكن يبدو أن نجاح الشركة أدى إلى زيادة المخاوف من احتمال حدوث خطأ ما في الذكاء الاصطناعي

قال سوتسكيفر في بث صوتي يوم 2 تشرين الثاني (نوفمبر): «لا يبدو من غير المعقول على الإطلاق أن يكون لدينا أجهزة كمبيوتر – مراكز بيانات – أكثر ذكاءً من البشر بكثير. ما الذي يمكن أن تفعله أنظمة الذكاء الاصطناعي هذه؟ لا أعرف.”

ساهم كيفن روز وتريب ميكل في إعداد التقارير.





المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى