تقنية

أحد المتسللين سرق أسرار OpenAI، مما أثار مخاوف من أن الصين قد تفعل ذلك أيضًا


في أوائل العام الماضي، تمكن أحد المتسللين من الوصول إلى أنظمة المراسلة الداخلية لشركة OpenAI، الشركة المصنعة لـ ChatGPT، وسرق تفاصيل حول تصميم تقنيات الذكاء الاصطناعي الخاصة بالشركة.

حصل المتسلل على التفاصيل من المناقشات في منتدى عبر الإنترنت حيث تحدث الموظفون عن أحدث تقنيات OpenAI، وفقًا لشخصين مطلعين على الحادث، لكنه لم يدخل في الأنظمة التي تستضيف فيها الشركة ذكاءها الاصطناعي وتبنيه.

كشف المسؤولون التنفيذيون في OpenAI عن الحادث للموظفين خلال اجتماع شامل في مكاتب الشركة في سان فرانسيسكو في أبريل 2023، وفقًا لشخصين ناقشا معلومات حساسة حول الشركة بشرط عدم الكشف عن هويتهما.

لكن المسؤولين التنفيذيين قرروا عدم مشاركة الأخبار علنًا لأنه لم تتم سرقة أي معلومات حول العملاء أو الشركاء، على حد قول الشخصين. ولم يعتبر المسؤولون التنفيذيون الحادث تهديدًا للأمن القومي لأنهم اعتقدوا أن المتسلل كان فردًا عاديًا ليس له علاقات معروفة بحكومة أجنبية. ولم تقم الشركة بإبلاغ مكتب التحقيقات الفيدرالي أو أي شخص آخر في مجال إنفاذ القانون.

بالنسبة لبعض موظفي OpenAI، أثارت الأخبار مخاوف من أن الخصوم الأجانب مثل الصين يمكن أن يسرقوا تكنولوجيا الذكاء الاصطناعي التي – رغم أنها الآن أداة عمل وبحث في الغالب – يمكن أن تعرض الأمن القومي الأمريكي للخطر في نهاية المطاف. كما أدى ذلك إلى تساؤلات حول مدى جدية تعامل OpenAI مع الأمن، وكشف عن انقسامات داخل الشركة حول مخاطر الذكاء الاصطناعي.

بعد الاختراق، أرسل ليوبولد أشنبرينر، مدير البرنامج الفني في OpenAI الذي يركز على ضمان أن تقنيات الذكاء الاصطناعي المستقبلية لا تسبب ضررًا جسيمًا، مذكرة إلى مجلس إدارة OpenAI، بحجة أن الشركة لم تفعل ما يكفي لمنع الحكومة الصينية وغيرها من الشركات الأجنبية. الخصوم من سرقة أسرارها.

ألمح ليوبولد أشنبرينر، الباحث السابق في OpenAI، إلى الاختراق الأمني ​​في بث صوتي الشهر الماضي وكرر مخاوفه.ائتمان…عبر يوتيوب

وقال السيد أشنبرينر إن شركة OpenAI طردته هذا الربيع بسبب تسريب معلومات أخرى خارج الشركة، وقال إن إقالته كانت ذات دوافع سياسية. وقد ألمح إلى الاختراق في بث صوتي حديث، لكن لم يتم الإبلاغ عن تفاصيل الحادث مسبقًا. وقال إن أمن OpenAI لم يكن قوياً بما يكفي للحماية من سرقة الأسرار الرئيسية إذا تسلل ممثلون أجانب إلى الشركة.

وقالت ليز بورجوا، المتحدثة باسم OpenAI: “نحن نقدر المخاوف التي أثارها ليوبولد أثناء وجوده في OpenAI، وهذا لم يؤد إلى انفصاله”. وفي إشارة إلى جهود الشركة لبناء ذكاء اصطناعي عام، وهي آلة يمكنها أن تفعل أي شيء يمكن للعقل البشري أن يفعله، أضافت: “بينما نشاركه التزامه ببناء الذكاء الاصطناعي العام الآمن، فإننا نختلف مع العديد من الادعاءات التي أطلقها منذ ذلك الحين بشأن ذكاءنا العام”. عمل.”

إن المخاوف من أن يكون لاختراق شركة تكنولوجيا أمريكية صلات بالصين ليست غير معقولة. وفي الشهر الماضي، أدلى براد سميث، رئيس شركة مايكروسوفت، بشهادته في الكابيتول هيل حول كيفية استخدام المتسللين الصينيين لأنظمة شركة التكنولوجيا العملاقة لشن هجوم واسع النطاق على شبكات الحكومة الفيدرالية.

ومع ذلك، بموجب القانون الفيدرالي وقانون كاليفورنيا، لا تستطيع شركة OpenAI منع الأشخاص من العمل في الشركة بسبب جنسيتهم، وقال باحثون في مجال السياسة إن منع المواهب الأجنبية من المشاريع الأمريكية يمكن أن يعيق بشكل كبير تقدم الذكاء الاصطناعي في الولايات المتحدة.

وقال مات نايت، رئيس الأمن في OpenAI، لصحيفة نيويورك تايمز في مقابلة: “نحن بحاجة إلى أفضل وألمع العقول للعمل على هذه التكنولوجيا”. “يأتي الأمر مصحوبًا ببعض المخاطر، ونحن بحاجة إلى اكتشافها.”

(رفعت صحيفة التايمز دعوى قضائية ضد شركة OpenAI وشريكتها مايكروسوفت، بدعوى انتهاك حقوق الطبع والنشر لمحتوى الأخبار المتعلق بأنظمة الذكاء الاصطناعي).

OpenAI ليست الشركة الوحيدة التي تبني أنظمة قوية بشكل متزايد باستخدام تكنولوجيا الذكاء الاصطناعي التي تتحسن بسرعة. بعضهم – وأبرزهم شركة Meta، المالكة لفيسبوك وإنستغرام – يشاركون تصميماتهم بحرية مع بقية العالم كبرامج مفتوحة المصدر. وهم يعتقدون أن المخاطر التي تشكلها تقنيات الذكاء الاصطناعي اليوم ضئيلة وأن مشاركة التعليمات البرمجية تسمح للمهندسين والباحثين في جميع أنحاء الصناعة بتحديد المشكلات وإصلاحها.

يمكن لأنظمة الذكاء الاصطناعي اليوم أن تساعد في نشر المعلومات المضللة عبر الإنترنت، بما في ذلك النصوص والصور الثابتة ومقاطع الفيديو بشكل متزايد. لقد بدأوا أيضًا في إلغاء بعض الوظائف.

تضيف شركات مثل OpenAI ومنافسيها Anthropic وGoogle حواجز حماية لتطبيقات الذكاء الاصطناعي الخاصة بها قبل تقديمها للأفراد والشركات، على أمل منع الأشخاص من استخدام التطبيقات لنشر معلومات مضللة أو التسبب في مشاكل أخرى.

ولكن ليس هناك الكثير من الأدلة التي تشير إلى أن تقنيات الذكاء الاصطناعي اليوم تشكل خطرا كبيرا على الأمن القومي. أظهرت الدراسات التي أجرتها OpenAI وAnthropic وغيرهما خلال العام الماضي أن الذكاء الاصطناعي لم يكن أكثر خطورة بشكل ملحوظ من محركات البحث. وقالت دانييلا أمودي، المؤسس المشارك لشركة Anthropic ورئيسة الشركة، إن أحدث تقنيات الذكاء الاصطناعي الخاصة بها لن تشكل خطرًا كبيرًا إذا سُرقت تصميماتها أو تمت مشاركتها بحرية مع الآخرين.

“إذا كانت مملوكة لشخص آخر، فهل يمكن أن يكون ذلك ضارًا جدًا لكثير من المجتمع؟ إجابتنا هي: لا، ربما لا،» كما قالت لصحيفة التايمز الشهر الماضي. “هل يمكن أن يسرع شيئًا ما لممثل سيئ في المستقبل؟ ربما. إنها في الحقيقة مجرد تكهنات.”

ومع ذلك، فإن الباحثين والمسؤولين التنفيذيين في مجال التكنولوجيا يشعرون بالقلق منذ فترة طويلة من أن الذكاء الاصطناعي يمكن أن يؤدي في يوم من الأيام إلى إنتاج أسلحة بيولوجية جديدة أو المساعدة في اختراق أنظمة الكمبيوتر الحكومية. حتى أن البعض يعتقد أنه يمكن أن يدمر البشرية.

وقد قام عدد من الشركات، بما في ذلك OpenAI وAnthropic، بإغلاق عملياتها الفنية بالفعل. أنشأت شركة OpenAI مؤخرًا لجنة للسلامة والأمن لاستكشاف كيفية التعامل مع المخاطر التي تشكلها التقنيات المستقبلية. وتضم اللجنة بول ناكاسوني، وهو جنرال سابق بالجيش قاد وكالة الأمن القومي والقيادة السيبرانية. كما تم تعيينه في مجلس إدارة OpenAI.

قال السيد نايت: «لقد بدأنا الاستثمار في الأمن قبل سنوات من ChatGPT». “نحن في رحلة ليس فقط لفهم المخاطر والتغلب عليها، ولكن أيضًا لتعميق قدرتنا على الصمود.”

ويدفع المسؤولون الفيدراليون ومشرعو الولاية أيضًا نحو اللوائح الحكومية التي من شأنها أن تمنع الشركات من إطلاق بعض تقنيات الذكاء الاصطناعي وتغريمهم بالملايين إذا تسببت تقنياتهم في ضرر. لكن الخبراء يقولون إن هذه المخاطر لا تزال بعيدة لسنوات أو حتى عقود.

وتقوم الشركات الصينية ببناء أنظمة خاصة بها تكاد تكون قوية مثل الأنظمة الأمريكية الرائدة. ووفقا لبعض المقاييس، تفوقت الصين على الولايات المتحدة باعتبارها أكبر منتج لمواهب الذكاء الاصطناعي، حيث أنتجت البلاد ما يقرب من نصف أفضل الباحثين في مجال الذكاء الاصطناعي في العالم.

قال كليمنت ديلانجو، الرئيس التنفيذي لشركة Hugging Face، وهي الشركة التي تستضيف العديد من مشاريع الذكاء الاصطناعي مفتوحة المصدر في العالم: “ليس من الجنون الاعتقاد بأن الصين ستتفوق على الولايات المتحدة قريبا”.

يرى بعض الباحثين وقادة الأمن القومي أن الخوارزميات الرياضية الموجودة في قلب أنظمة الذكاء الاصطناعي الحالية، رغم أنها ليست خطيرة اليوم، يمكن أن تصبح خطيرة ويطالبون بفرض ضوابط أكثر صرامة على مختبرات الذكاء الاصطناعي.

وقالت سوزان رايس، مستشارة السياسة الداخلية السابقة للرئيس بايدن ومستشارة الأمن القومي السابقة للرئيس باراك أوباما: “حتى لو كانت أسوأ السيناريوهات احتمالية منخفضة نسبيًا، وإذا كانت ذات تأثير كبير، فمن مسؤوليتنا أن نأخذها على محمل الجد”. خلال حدث أقيم في وادي السيليكون الشهر الماضي. “لا أعتقد أن هذا خيال علمي، كما يدعي الكثيرون.”



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى