بوصلة الأخلاق للذكاء الاصطناعي أين تتجه؟
الشريط الإخباري :
أ.د رشيد عبّاس
كيف لا, والعالم اليوم مصدوم بشيء أسمه الذكاء الاصطناعي (AI), وهناك إشارات استفهام عديدة تؤكد وجود قلق من تطور الذكاء الاصطناعي السريع, وأكثر من ذلك الانتشار الواسع للترندات العالمية التي تشير إلى أن هناك شيء غامض ينتظر البشرية, كل ذلك تزامن أيضاً مع تحفظ نحو(1000) خبير مؤخراً بالذكاء الاصطناعي تحفظهم على التسارع اللغرتمي لوتيرة الذكاء الاصطناعي, وقد كان من ابرزهم (جيفري هينتون), و(إيلون ماسك), و(سام ألتمان), هؤلاء تحفظوا قلقين على مصير البشرية, وعلى مصير ملايين الوظائف, وعلى البعد الاخلاقي لهذا الذكاء, مع أن هؤلاء هم من وضعوا الحجر الاساس لهذا الذكاء.
كيف لا, والعالم اليوم منقسم حول سرعة وتيرة تطوّر الذكاء الاصطناعي في قادم الايام, حيث اظهر ما نسبته 75% من عينة المستجيبين مخاوفهم الحقيقية على استبانة البعد الأخلاقي للذكاء الاصطناعي, والتي وزعت بشكل عشوائي على عينة بلغت (1000000) شخص عبر العالم ومن جميع القارات.
هذه المخاوف مردها يعود إلى أبعاد الذكاء الاصطناعي(AI) الثلاث والمتمثلة في: البعد التقني, والبعد الأخلاقي, والبعد التطبيقي, وسأتناول في هذا المقال البعد الأخلاقي في الذكاء الاصطناعي فقط, حيث الاهتمام البالغ لديّ في هذا الجانب, تاركاً البعدين الآخرين لأصحاب الاختصاص.
لقد جاءت مخاوف البعد الأخلاقي في الذكاء الاصطناعي نتيجة لسؤال طرحه سام ألتمان (Sam Altman) الرئيس التنفيذي لشركةopen AI والمطور لـ chat GPT, وكان هذا السؤال يدور حول البعد الأخلاقي عند تعامل البشر مع الآلة أولاً, وعند تعامل الآلة مع البشر ثانياً, وعند تعامل الآلة مع الآلة ثالثاً, في الوقت الذي فيه أن البعد الأخلاقي يختلف من مكان إلى آخر ومن دولة إلى أخرى, فإنه يتعذر وضع تشريعات أخلاقية وقيود قانونية عامة تضبط عمل الذكاء الاصطناعي القادم.
ويعتقد إيلون ماسك (Elin mask) الذي اعترف بأكبر خطأ ارتكبه في مجال الذكاء الاصطناعي, أن البعد الأخلاقي في الذكاء الاصطناعي يستوجب معه وضع تشريعات أخلاقية وقيود قانونية ضابطة تتمثل في: وجود ضوابط في جانب (السلامة والأمن) كأزرار الأمان ومفاتيح التشغيل والإقفال, ووجود ضوابط في جانب (السرية والخصوصية) كالتشفير وكلمات المرور والمراقبة والتصنت, ثم وجود ضوابط في جانب (تحديد الهوية) كتحديد حيثيات الأمكنة والأزمة لمستخدمي الذكاء الاصطناعي, وأخيراً وجود ضوابط في جانب (منظومة القيم) كالمبادئ والاخلاق وحقوق الانسان والتحيز والحلال والحرام والخير والشر.
وأكد إيلون ماسك (Elin mask) أن البعد الأخلاقي في الذكاء الاصطناعي يلزم معه وضع تشريعات أخلاقية وقيود قانونية عامة في كل من الحروب والامراض والتعليم, وفي تطبيقات الزراعة والصناعة والتجارة أيضاً.
ويرى جيفري هينتون (Geoffrey Hinton) الأب الروحي للذكاء الاصطناعي أن هناك محاولات جادة في لجعل البعد الأخلاقي في الذكاء الاصطناعي واقعاً ملموسا على أرض الواقع, في الوقت الذي يوجد فيه تحديات عديدة منها: تزاحم وتسابق الشركات العالمية الكبرى في تقنيات (AI), وفي (chat GPT), وفي نظارات العالم الافتراضي, وفي التحول الرقمي من خلال أدوات الذكاء الاصطناعي والمتمثلة في الروبوتات وطائرات الدرون, والتطبيقات الخوارزمية واللغرتماتية والأسية, إضافة إلى وجود اختلافات كبيرة في البعد الأخلاقي بين دول العالم.
هناك مزاعم من بعض العلماء المؤيدين لهذا الذكاء, تؤكد وتطمئن في نفس الوقت, أنه سيكون لدي الذكاء الاصطناعي(AI) وعياً ذاتياً كاملاً في جانب الاخلاق, وأنه سيكون بمقدور الذكاء الاصطناعي(AI) مشاعر واحاسيس عصبية من تلقاء نفسه يحافظ من خلالها على منظومة القيم لدى البشر ككل, ومن ابرز هؤلاء المتخصصين الخبير التقني غاري ماركوس(Gary Marcus).
إن العالم اليوم يخلو تماماً من السياسات الاخلاقية للذكاء الاصطناعي في الوقت الذي يتسارع فيه وتيرة الذكاء الاصطناعي(AI) من خلال تطوير وتعليم نفسه بنفسه ذاتياً, من هنا العالم بحاجة ماسة إلى وجود تشريعات اخلاقية وقيود قانونية تحكم وتضبط السلوك (الروبوتي), وتعمل على مواجهة الانعكاسات الاخلاقية للأنظمة الآلية, بحيث تكون انظمة ذكاء اصطناعي اخلاقية خاضعة للمساءلة والحوكمة, ومراعية لجميع أيدولوجيات البشر.
وبعد..
بوصلة الأخلاق للذكاء الاصطناعي أين تتجه؟