أخبار العالم

هل يمكن لدردشة GPT مساعدة المستخدمين في العلاج النفسي؟


باريس: هل ChatGPT عالم نفسي جيد؟ هذا ما ألمح إليه مسؤول في شركة الذكاء الاصطناعي الأميركية “OpenAI”، التي تقف وراء روبوت الدردشة الشهير، والذي أثار الكثير من الانتقادات للحد من صعوبة علاج الأمراض النفسية.

كتبت ليليان وونغ، المسؤولة عن قضايا أمن الذكاء الاصطناعي، في أواخر سبتمبر/أيلول على موقع X (تويتر سابقًا): “لقد أجريت للتو محادثة شخصية وعاطفية للغاية مع GPT Chat عبر الصوت، حول التوتر والتوازن بين العمل والحياة”.

وتساءلت: “من المثير للاهتمام أنني شعرت بالاستماع والارتياح”. لم أجرب العلاج من قبل، لكن هل هذا هو الحال على الأرجح؟

وسعت وونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي تم تقديمه قبل عام تقريبًا ويسعى إلى اعتماد نموذج اقتصادي خاص به.

لكن المطورة والناشطة الأميركية شير سكارليت ردت بحدة على هذا التصريح قائلة إن علم النفس “يهدف إلى تحسين الصحة العقلية، وهو عمل شاق”.

وأضافت: «إرسال مشاعر إيجابية إلى النفس أمر جيد، لكن لا علاقة لذلك بالعلاج».

ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن ينتج التجربة الإيجابية التي تصفها ليليان وونغ؟

ووفقا لدراسة نشرت قبل أيام في المجلة العلمية “Nature Machine Intelligence”، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي.

ولإثبات ذلك، قام باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة أريزونا باستطلاع آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، وللآخرين أنه كان متلاعبًا، بينما أخبروا أعضاء مجموعة ثالثة أنه كان لديه سلوك متوازن.

ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي يمكنه التعاطف معهم كانوا أكثر عرضة لاعتبار محاورهم جديرًا بالثقة.

وقال بات باتارانتابورن، المؤلف المشارك في الدراسة: “لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بناءً على تصورات المستخدم المسبقة”.

“غباء” الروبوتات

وبدون اتخاذ الكثير من الاحتياطات في هذا المجال الذي لا يزال حساسًا، بدأت العديد من الشركات الناشئة في تطوير التطبيقات التي من المفترض أن تقدم شكلاً من أشكال المساعدة في قضايا الصحة العقلية، الأمر الذي تسبب في العديد من الجدل.

اشتكى مستخدمو تطبيق Replica، وهو تطبيق شائع معروف بتقديم فوائد للصحة العقلية، على وجه الخصوص من أن الذكاء الاصطناعي يمكن أن يصبح متحيزًا جنسيًا أو متلاعبًا.

كما اعترفت منظمة “كوكو” الأمريكية غير الحكومية، التي أجرت تجربة في فبراير/شباط الماضي على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي “جي بي تي-3″، بأن الاستجابات الآلية لم تنجح كعلاج.

كتب المؤسس المشارك للشركة روب موريس في Ex: “إن محاكاة التعاطف تبدو غريبة وغير منطقية”. تعكس هذه الملاحظة نتائج دراسة سابقة حول تأثير الدواء الوهمي، حيث شعر بعض المشاركين وكأنهم “يتحدثون إلى الحائط”.

وردا على سؤال لوكالة فرانس برس، قال ديفيد شو من جامعة بازل في سويسرا إنه لم يتفاجأ بهذه النتائج السيئة. ويشير إلى أنه «يبدو أنه لم يتم إعلام أي من المشاركين بغباء الشات بوتس».

لكن فكرة المعالج الآلي ليست جديدة. وفي ستينيات القرن الماضي، تم تطوير أول برنامج محاكاة للعلاج النفسي من نوعه، يسمى “ELISA”، باستخدام طريقة عالم النفس الأمريكي كارل روجرز.

وبدون فهم حقيقي لأي شيء عن القضايا المطروحة عليه، قام البرنامج ببساطة بتوسيع المناقشة بأسئلة قياسية معززة بكلمات رئيسية موجودة في ردود القائمين على المقابلات.

“ما لم أدركه هو أن التعرض القصير جدًا لبرنامج كمبيوتر بسيط نسبيًا يمكن أن يحفز أفكارًا وهمية قوية لدى الأشخاص العاديين تمامًا،” كتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقًا عن سلف GPT.





المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى