يرى رئيس المحكمة العليا روبرتس وعدًا وخطرًا للذكاء الاصطناعي في المحاكم


خصص رئيس المحكمة العليا جون جي روبرتس جونيور تقريره السنوي لنهاية العام عن حالة القضاء الفيدرالي، والذي صدر يوم الأحد، للدور الإيجابي الذي يمكن أن يلعبه الذكاء الاصطناعي في النظام القانوني – والتهديدات التي يشكلها.

ولم يتطرق تقريره إلى العام العصيب الذي مرت به المحكمة العليا، بما في ذلك تبنيها لمدونة أخلاقية قال كثيرون إنها كانت عديمة الجدوى. كما أنه لم يناقش القضايا التي تلوح في الأفق والتي نشأت عن الملاحقات الجنائية للرئيس السابق دونالد جيه ترامب والأسئلة حول أهليته لتولي منصبه.

ومع ذلك، جاء تقرير رئيس المحكمة في الوقت المناسب، حيث جاء بعد أيام من الكشف عن أن مايكل دي كوهين، الذي كان في السابق وسيطًا للسيد ترامب، قد زود محاميه باستشهادات قانونية مزيفة أنشأها برنامج Google Bard، وهو برنامج للذكاء الاصطناعي.

وفي إشارة إلى حادثة مماثلة سابقة، قال رئيس المحكمة العليا روبرتس إن “أي استخدام للذكاء الاصطناعي يتطلب الحذر والتواضع”.

وكتب قائلاً: “لقد تصدر أحد تطبيقات الذكاء الاصطناعي البارزة عناوين الأخبار هذا العام بسبب عيب يُعرف باسم “الهلوسة”، الأمر الذي دفع المحامين الذين يستخدمون التطبيق إلى تقديم ملخصات مع الاستشهادات بقضايا غير موجودة. (دائما فكرة سيئة.) “

واعترف رئيس المحكمة العليا روبرتس بالوعد الذي توفره التكنولوجيا الجديدة مع الإشارة إلى مخاطرها.

وكتب: “يقول أساتذة القانون بكل من الرهبة والقلق أن الذكاء الاصطناعي يمكنه على ما يبدو الحصول على درجة البكالوريوس في مهام كلية الحقوق وحتى اجتياز امتحان المحاماة”. “قد يصبح البحث القانوني قريبًا أمرًا لا يمكن تصوره بدونه. من الواضح أن الذكاء الاصطناعي يتمتع بإمكانات كبيرة لزيادة إمكانية الوصول إلى المعلومات الأساسية للمحامين وغير المحامين على حد سواء بشكل كبير. ولكن من الواضح أيضًا أنها تخاطر بغزو مصالح الخصوصية وتجريد القانون من إنسانيته.

وقال رئيس المحكمة العليا، مشيرًا إلى نماذج الإفلاس، إن بعض الطلبات يمكن أن تسهل عملية تقديم الطلبات القانونية وتوفر المال. وكتب: “تتمتع هذه الأدوات بإمكانية مرحب بها لتخفيف أي عدم توافق بين الموارد المتاحة والاحتياجات العاجلة في نظام المحاكم لدينا”.

لطالما كان رئيس المحكمة العليا روبرتس مهتمًا بالتقاطع بين القانون والتكنولوجيا. لقد كتب آراء الأغلبية في القرارات التي تتطلب عمومًا من الحكومة الحصول على أوامر تفتيش للبحث في المعلومات الرقمية الموجودة على الهواتف المحمولة التي تم الاستيلاء عليها من الأشخاص الذين تم القبض عليهم وجمع كنوز من بيانات الموقع حول عملاء شركات الهاتف المحمول.

في زيارته عام 2017 إلى معهد رينسيلار للفنون التطبيقية، سُئل رئيس المحكمة العليا عما إذا كان يستطيع “توقع اليوم الذي ستساعد فيه الآلات الذكية، المدعومة بالذكاء الاصطناعي، في تقصي الحقائق في قاعة المحكمة، أو حتى في اتخاذ القرارات القضائية، وهو الأمر الأكثر إثارة للجدل”.

فقال رئيس المحكمة نعم. وقال: “إنه يومنا هذا، وهو يضع ضغطاً كبيراً على كيفية تعامل السلطة القضائية مع الأمور”. ويبدو أنه كان يشير إلى البرمجيات المستخدمة في قرارات إصدار الأحكام.

وكتب رئيس المحكمة العليا يوم الأحد أن هذا التوتر قد زاد.

وكتب: “في القضايا الجنائية، أدى استخدام الذكاء الاصطناعي في تقييم مخاطر الطيران والعود إلى الإجرام وغيرها من القرارات التقديرية إلى حد كبير والتي تنطوي على توقعات، إلى إثارة مخاوف بشأن الإجراءات القانونية الواجبة والموثوقية والتحيز المحتمل”. “على الأقل في الوقت الحاضر، تُظهر الدراسات تصورًا عامًا مستمرًا عن “فجوة العدالة بين الإنسان والذكاء الاصطناعي”، مما يعكس وجهة النظر القائلة بأن الأحكام البشرية، على الرغم من جميع عيوبها، أكثر عدالة من أي شيء تصدره الآلة”.

وخلص رئيس المحكمة العليا روبرتس إلى أن “القرارات القانونية غالبًا ما تنطوي على مناطق رمادية لا تزال تتطلب تطبيق الحكم البشري”.

وكتب: “القضاة، على سبيل المثال، يقيسون مدى صدق كلام المدعى عليه عند إصدار الحكم”. “الفوارق الدقيقة مهمة: يمكن أن يتحول الكثير إلى يد مرتعشة، أو صوت مرتعش، أو تغيير في نبرة الصوت، أو حبة عرق، أو لحظة تردد، أو انقطاع عابر في التواصل البصري. ولا يزال معظم الناس يثقون بالبشر أكثر من الآلات في إدراك واستخلاص الاستنتاجات الصحيحة من هذه القرائن.

وكتب أنه لن يتم استبدال قضاة الاستئناف قريبًا.

وكتب رئيس المحكمة العليا: “تدور العديد من قرارات الاستئناف حول ما إذا كانت المحكمة الابتدائية قد أساءت استخدام سلطتها التقديرية، وهو معيار يتضمن بطبيعته مناطق رمادية خاصة بحقائق”. “ويركز آخرون على الأسئلة المفتوحة حول كيفية تطوير القانون في مجالات جديدة. يعتمد الذكاء الاصطناعي إلى حد كبير على المعلومات الموجودة، والتي يمكن أن تبلغ مثل هذه القرارات ولكن لا يمكنها اتخاذها.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *