لماذا تعتمد دعوى OpenAI التي رفعها Elon Musk على أبحاث الذكاء الاصطناعي من Microsoft؟


عندما رفع إيلون ماسك دعوى قضائية ضد شركة OpenAI ورئيسها التنفيذي، سام ألتمان، بتهمة خرق العقد يوم الخميس، قام بتحويل ادعاءات أقرب شريك للشركة الناشئة، مايكروسوفت، إلى سلاح.

لقد استشهد مرارًا وتكرارًا بورقة بحثية مثيرة للجدل ولكنها مؤثرة للغاية كتبها باحثون وكبار المديرين التنفيذيين في شركة Microsoft حول قوة GPT-4، وهو نظام الذكاء الاصطناعي المذهل OpenAI الذي تم إصداره في مارس الماضي.

في ورقة بحثية بعنوان “Sparks of AGI”، قال مختبر أبحاث Microsoft – على الرغم من أنه لم يفهم كيف – أظهر GPT-4 “شرارات” من “الذكاء العام الاصطناعي”، أو AGI، وهي آلة يمكنها أن تفعل كل ما يفعله الدماغ البشري. يقدر على.

لقد كان هذا ادعاءً جريئًا، وجاء في الوقت الذي كانت فيه أكبر شركات التكنولوجيا في العالم تتسابق لإدخال الذكاء الاصطناعي في منتجاتها الخاصة.

يقلب السيد موسك الورقة ضد OpenAI، قائلًا إنها أظهرت كيف تراجعت OpenAI عن التزاماتها بعدم تسويق منتجات قوية حقًا.

ورفضت Microsoft وOpenAI التعليق على الدعوى. (رفعت صحيفة نيويورك تايمز دعوى قضائية ضد الشركتين، بدعوى انتهاك حقوق الطبع والنشر في تدريب GPT-4.) ولم يستجب السيد ماسك لطلب التعليق.

بدأ فريق من باحثي مايكروسوفت، بقيادة سيباستيان بوبيك، المغترب الفرنسي البالغ من العمر 38 عامًا والأستاذ السابق في جامعة برينستون، باختبار نسخة مبكرة من GPT-4 في خريف عام 2022، قبل أشهر من طرح التكنولوجيا للجمهور. تعهدت مايكروسوفت بتقديم 13 مليار دولار أمريكي إلى OpenAI وتفاوضت على الوصول الحصري إلى التقنيات الأساسية التي تعمل على تشغيل أنظمة الذكاء الاصطناعي الخاصة بها.

وبينما كانوا يتحدثون مع النظام، كانوا مندهشين. لقد كتبت برهانًا رياضيًا معقدًا في شكل قصيدة، وأنشأت كودًا حاسوبيًا يمكنه رسم وحيد القرن، وشرحت أفضل طريقة لتكديس مجموعة عشوائية وانتقائية من الأدوات المنزلية. بدأ الدكتور بوبيك وزملاؤه الباحثون يتساءلون عما إذا كانوا يشهدون شكلاً جديدًا من الذكاء.

وقال بيتر لي، رئيس قسم الأبحاث في مايكروسوفت: “لقد بدأت متشككا للغاية – وتطور ذلك إلى شعور بالإحباط والانزعاج، وربما حتى الخوف”. “هل تعتقد: من أين يأتي هذا؟”

قال السيد ماسك إن شركة OpenAI قد انتهكت عقدها لأنها وافقت على عدم تسويق أي منتج اعتبره مجلس إدارتها AGI

وكتب محامو السيد ماسك: “إن GPT-4 عبارة عن خوارزمية AGI”. قالوا إن هذا يعني أنه لا ينبغي مطلقًا ترخيص النظام لشركة Microsoft.

استشهدت شكوى السيد ” ماسك ” مرارًا وتكرارًا ببحث سباركس ليجادل بأن GPT-4 هو AGI. وقال محاموه: “يعترف علماء مايكروسوفت بأن GPT-4 “يبلغ شكلاً من أشكال الذكاء العام”، وبالنظر إلى “اتساع وعمق GPT-4″. 4، نعتقد أنه يمكن اعتباره بشكل معقول نسخة مبكرة (ولكنها غير مكتملة) من نظام الذكاء العام الاصطناعي (AGI).”

كان للمقالة تأثير هائل منذ نشرها بعد أسبوع من إصدار GPT-4.

توماس وولف، المؤسس المشارك لشركة Hugging Face الناشئة رفيعة المستوى في مجال الذكاء الاصطناعي، كتب في X في اليوم التالي، ذكرت الدراسة “أنها تحتوي على أمثلة مذهلة تمامًا” لـ GPT-4.

ومنذ ذلك الحين، تم الاستشهاد بأبحاث مايكروسوفت في أكثر من 1500 ورقة بحثية أخرى، وفقًا لـ Google Scholar. إنها واحدة من أكثر المقالات التي يتم الاستشهاد بها حول الذكاء الاصطناعي في السنوات الخمس الماضية، وفقًا لـ Semantic Scholar.

وقد واجهت أيضًا انتقادات من قبل الخبراء، بما في ذلك البعض داخل مايكروسوفت، الذين كانوا قلقين من أن الورقة المكونة من 155 صفحة الداعمة للادعاء تفتقر إلى الدقة وتغذي جنون تسويق الذكاء الاصطناعي.

لم تخضع هذه الورقة لمراجعة النظراء، ولا يمكن إعادة إنتاج نتائجها لأنها أجريت على إصدارات مبكرة من GPT-4 التي كانت تخضع لحراسة مشددة في Microsoft وOpenAI. وكما أشار المؤلفون في ورقتهم البحثية، فإنهم لم يستخدموا إصدار GPT-4 الذي تم إصداره لاحقًا للجمهور، لذا فإن أي شخص آخر يكرر التجارب سيحصل على نتائج مختلفة.

قال بعض الخبراء الخارجيين إنه ليس من الواضح ما إذا كان GPT-4 والأنظمة المماثلة أظهرت سلوكًا يشبه المنطق البشري أو الفطرة السليمة.

«عندما نرى نظامًا أو آلة معقدة، فإننا نجسدها؛ وقالت أليسون جوبنيك، الأستاذة بجامعة كاليفورنيا في بيركلي: «الجميع يفعل ذلك، الأشخاص الذين يعملون في هذا المجال والأشخاص الذين لا يعملون». “لكن التفكير في هذا باعتباره مقارنة مستمرة بين الذكاء الاصطناعي والبشر – مثل نوع من منافسة عروض الألعاب – ليس الطريقة الصحيحة للتفكير في الأمر”.

في مقدمة البحث، قام المؤلفون في البداية بتعريف “الذكاء” من خلال الاستشهاد بمقالة رأي نشرتها صحيفة وول ستريت جورنال منذ 30 عامًا والتي، في الدفاع عن مفهوم يسمى منحنى الجرس، ادعى أن “اليهود وشرق آسيا” كانوا أكثر عرضة للحصول على معدلات ذكاء أعلى. من “السود واللاتينيين”.

قال الدكتور لي، المدرج كمؤلف في البحث، في مقابلة أجريت معه العام الماضي إنه عندما كان الباحثون يتطلعون إلى تعريف الذكاء الاصطناعي العام، “أخذناه من ويكيبيديا”. وقال إنهم عندما علموا لاحقًا باتصال Bell Curve، “شعرنا بالخوف الشديد من ذلك وقمنا بالتغيير على الفور.”

كتب إريك هورفيتز، كبير علماء مايكروسوفت، والذي كان مساهمًا رئيسيًا في الورقة، في رسالة بريد إلكتروني أنه تحمل شخصيًا مسؤولية إدراج المرجع، قائلًا إنه رأى الإشارة إليها في ورقة بحثية من قبل أحد مؤسسي مختبر DeepMind للذكاء الاصطناعي في Google. ولم ألاحظ الإشارات العنصرية. وقال: عندما علموا بالأمر، من خلال منشور على موقع X، “شعرنا بالرعب لأننا كنا ببساطة نبحث عن تعريف واسع إلى حد معقول للذكاء من علماء النفس”.

عندما كتب باحثو مايكروسوفت الورقة في البداية، أطلقوا عليها اسم “الاتصال الأول مع نظام الذكاء الاصطناعي العام”. لكن بعض أعضاء الفريق، بما في ذلك الدكتور هورفيتز، اختلفوا مع هذا التوصيف.

وقال لاحقًا لصحيفة التايمز إنهم لم يروا شيئًا “يمكن أن يطلق عليه “الذكاء العام الاصطناعي” – ولكن أكثر من ذلك بصيصًا من خلال التحقيقات ومخرجات قوية بشكل مدهش في بعض الأحيان”.

إن GPT-4 بعيد كل البعد عن القيام بكل ما يستطيع الدماغ البشري القيام به.

في رسالة تم إرسالها إلى موظفي OpenAI بعد ظهر يوم الجمعة واطلعت عليها صحيفة التايمز، قال جيسون كوون، كبير مسؤولي الإستراتيجية في OpenAI، صراحةً إن GPT-4 ليس AGI

وكتب: “إنه قادر على حل المهام الصغيرة في العديد من الوظائف، ولكن نسبة العمل الذي يقوم به الإنسان إلى العمل الذي يقوم به GPT-4 في الاقتصاد تظل مرتفعة بشكل مذهل”. “الأهم من ذلك، أن الذكاء الاصطناعي العام سيكون نظامًا مستقلاً بدرجة عالية وقادرًا بما يكفي على ابتكار حلول جديدة للتحديات طويلة الأمد، ولا يستطيع GPT-4 فعل ذلك”.

ومع ذلك، أثارت هذه الورقة ادعاءات بعض الباحثين والنقاد بأن GPT-4 يمثل خطوة مهمة نحو الذكاء الاصطناعي العام وأن شركات مثل Microsoft وOpenAI ستستمر في تحسين مهارات التفكير التكنولوجي.

لا يزال مجال الذكاء الاصطناعي منقسمًا بشدة حول مدى ذكاء التكنولوجيا اليوم أو في أي وقت قريب. إذا نجح السيد ” ماسك ” في تحقيق مراده، فقد تسوي هيئة المحلفين الحجة.





المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *