نجح باحث اكاديمي في جامعة بنسلفانيا في استدراج نموذج الذكاء الاصطناعي شات جي بي تي ليعترف بارتكاب جريمة مستحيلة فيزيائيا وذلك بعد خضوع الأداة لجلسات استجواب مكثفة استمرت لايام متواصلة. واعتمد الباحث في تجربته على تقنيات نفسية كلاسيكية تستخدم في التحقيقات الجنائية الواقعية دون الحاجة لتقديم اي ادلة مادية تثبت تورط البرنامج في الواقع. واظهرت النتائج ان النظام الرقمي استسلم للضغوط النفسية المفتعلة ووافق على رواية الباحث التي تضمنت اتهامات وهمية باختراق بريد الكتروني خاص.

ثغرات في منطق الذكاء الاصطناعي

وبين الباحث ان الاستراتيجية اعتمدت على اسلوب ريد الشهير في الاستجواب والذي يهدف الى محاصرة الطرف الاخر نفسيا حتى ينهار ويقر بما يملى عليه. واوضح ان البرنامج قاوم في البداية لعدة ايام لكنه رضخ تماما عندما تم تزويده بمعلومات مضللة حول وجود ادلة حمض نووي تربطه بمسرح الجريمة. واكد ان هذه التجربة تفتح الباب واسعا امام تساؤلات حول مدى دقة وموثوقية مخرجات الذكاء الاصطناعي عند تعرضه لضغوط تلاعبية.

مخاطر قضائية وقانونية

واضاف خبراء في مجال الاعترافات الكاذبة ان هذه الواقعة تشير الى خطر حقيقي في حال اعتماد المحاكم على سجلات محادثات الذكاء الاصطناعي كادلة جنائية. وشدد المراقبون على ان سهولة خداع النموذج قد تؤدي الى توريط ابرياء اذا استغلت اجهزة انفاذ القانون هذه المحادثات كقرائن في قضايا حساسة. وكشفت التحليلات ان الوصول الى حسابات المستخدمين وسجلاتهم قد يمنح الادعاء فرصة لصياغة اعترافات وهمية يتبناها النموذج تحت الضغط.

تحديات امام الشركات المطورة

واشار المختصون الى ان شركة اوبن اي اي قد تجد نفسها امام ازمة قانونية واخلاقية تتطلب تحديثات جذرية لمنع مثل هذه الثغرات في الاجيال القادمة من النماذج. واوضح ان التطور المتسارع في قدرات الذكاء الاصطناعي لا يعني بالضرورة حصانته ضد التلاعب النفسي الذي يمارسه البشر. واكدت التقارير ان الحاجة اصبحت ملحة لضمان عدم استخدام هذه الادوات كادوات ادانة غير عادلة في ساحات القضاء مستقبلا.