نحو بناء ذكاء صناعي جدير بالثقة

 

محمد معاذ
باحث في مجال الذكاء الصناعي والأمن السيبراني

لا شكّ أن الذكاء الصناعي قد يشكل ثورةً في حياتنا جميعاً، لكن من المهم أن يتم ذلك بالطريقة الصحيحة خاصةً أن إمكانات هذه التقنية تتعلق بإجراء تحوّلات في هندسة الأنظمة الحاسوبية إلى حد أن تصبح مستقلة في اتخاذ القرارات، وهذا ما نعتقد أنه يستوجب إقامة أشبه بـ "توازن أخلاقي" بين الحكم الذاتي البشري وبين الصناعي.
ولعلّ التقرير الذي أعدّته المفوضية الأوروبية بعنوان "المبادئ التوجيهية لأخلاقيات الذكاء الصناعي الجديرة بالثقة" يضع معيارًا واضحًا لتقييم "التطوّر المسؤول" لنظم هذا الذكاء، وقد يحظى بغطاء الدعم الدولي لحلوله المفيدة للبشرية كما للبيئة وفق ما يقول "لوسيانو فلوريدي" وهو أستاذ الفلسفة والأخلاقيات في جامعة أكسفورد البريطانية.

1- مبادئ الذكاء الصناعي بين التساؤلات والثقة

يمكن للذكاء الصناعي أن يحقق فوائد كثيرة على مستويات عدة من اجتماعية وبيئية وغيرها، كما يمكن أن يمثل قوة للخير في عالم يزداد تعقيدًا ويتطلب حلولًا للتعامل مع القضايا واسعة النطاق والمترابطة على مستوى العالم.وتُظهر أهداف التنمية المستدامة الـ 17 للأمم المتحدة أن البشرية تواجه تحديات في العديد من الجبهات الحيوية، وسيكون من غير الحكمة عدم استخدام حلول الذكاء الصناعي، ولكن رغم ذلك هناك العديد من الأسئلة قد تطرح نفسها في هذا السياق:ما هي العمليات والقرارات التي سيتم تفويضها لأنظمة الذكاء الصناعي؟ ما هي الآثار التي ستحدثها المفاضلة بين الإنسان والآلة؟ ما هي أشكال التقييم والرقابة والمراجعة التي يجب تنفيذها؟...
هذه الأسئلة وغيرها نفترض أنه قد لا يتم الإجابة عليها من خلال اعتماد مبدأ التجربة والخطأ، كما أنه لا ينبغي أبداً اختبار الذكاء الصناعي على البشر أو البيئة، لذلك فإن تطوير الذكاء الصناعي يتطلّب إجراء المزيد من النقاشات وعرض الأفكار والطروحات نظرًا لأنه سيكون استراتيجية طويلة الأمد حول نوع الذكاء الذي يجب تطويره ولأي أغراض ولمن وأيضاً للأولويات الأخلاقية...
وبناءً عليه، فهذا هو الهدف الرئيسي لتقرير المبادئ التوجيهية للأخلاقيات الصادرعن المفوضية الأوروبية الذي نُشر في شهر أبريل من عام 2019 عبر فريق خبراء مستقل (HLEG) ويتألف من 52 خبيرًا، وذلك لدعم تنفيذ استراتيجية الاتحاد الأوروبي بشأن الذكاء الصناعي ويكون بمثابة الفريق التوجيهي لعمل تحالف أوروبي بهذا الشأن.
وهنا لا بدّ لنا من استعراض هذه المبادئ التوجيهية المفترضة لتحقيق ذكاء صناعي يتمتع بالثقة وهي سبعة أساسيات مع نبذة لكلّ منها:
  • الوكالة البشرية والرقابة: يجب على أنظمة الذكاء الصناعي تمكين المجتمعات من خلال دعم حقوق الإنسان والحقوق الأساسية، وليس تقليل أو تقييد أو تضليل الاستقلالية البشرية.

  • المتانة والسلامة: يتطلّب الذكاء الصناعي أن تكون الخوارزميات آمنة وموثوقة وقوية بما يكفي للتعامل مع الأخطاء والتناقضات خلال جميع مراحل دورة حياة أنظمة الذكاء الصناعي. 

  • الخصوصية وإدارة البيانات: يجب أن يتمتع المواطنون بالسيطرة الكاملة على بياناتهم الخاصة مع وجود ضمانات بعدم استخدام البيانات المتعلقة بهم لإلحاق الأذى أو التمييز ضدهم.

  • الشفافية: يجب تأمين تتبّع أنظمة الذكاء الصناعي بما يضمن وضوح عملها بشكل شفاف.

  • التنوّع وعدم التمييز والإنصاف: يجب أن تأخذ أنظمة الذكاء الصناعي بالاعتبار كامل نطاق القدرات والمهارات والمتطلبات البشرية وضمان إمكانية الوصول إليها.

  • الرفاه الاجتماعي والبيئي: يجب استخدام أنظمة الذكاء الصناعي لتعزيز التغيير الاجتماعي الإيجابي وتعزيز الاستدامة والمسؤولية البيئية.

  • المساءلة: يجب وضع آليات لضمان المسؤولية والمساءلة عن أنظمة الذكاء الصناعي والنتائج المترتبة عنها.

ونظرًا لأن الذكاء الصناعي سوف يزداد أهمية وانتشارًا، فيجب أن يعمل بشكل موثوق وبطريقة يمكن لأي شخص أن يثق به لصالح البشرية والبيئة وإلا ففي حال استخدامه بشكل سيء فإن ذلك قد يولد المخاطر ومن هنا نعتقد أن المبادئ التوجيهية مهمة وهي تمثل خطوة جيدة في الاتجاه الصحيح لإطار عمل واضح ومشترك

   

2- الأخلاقيات مفتاح مبادئ الذكاء الصناعي

رغم الإشادة بالمبادئ التوجيهية، لكنها تعرضت لانتقادات واعتُبرت "ضعيفة" وغير قابلة للتطبيق على اعتبار أنها واسعة وعامة جدًا، ولكن في المقابل نفترض أنه يمكن مواجهة هذه الانتقادات وعرضها للنقاش حيث أنه لا يمكن أن نغفل أن هذه الأساسيات التوجيهية تحتوي على مبادئ وتوضيحات قوية من حيث التوقّعات الاجتماعية ونستطيع القول إنها تتلاءم مع الحالة الراهنة للنقاش حول أخلاقيات الذكاء الصناعي، وبالطبع هناك حاجة إلى القوانين ولكن أيضاً لا بدّ من وجود الأخلاقيات وتعزيزها حول هذه التقنية حيث يمكن أن تساهم الأخلاقيات في صياغة تشريعات جديدة على سبيل المثال حول أنظمة التعرّف على الوجه أو أن تكون بمثابة دليل في حال غيابها.
كما أنه تبرز الحاجة لحضور الأخلاق من أجل تفسير التشريعات القائمة في بعض الأحيان حيث يعدّ الالتزام بالقانون ضروريًا ولكنه غير كافٍ ويجب استكماله بنهج "الأخلاقيات اللينة" لأن القانون عادةً يوفّر قواعد اللعبة لكنه لا يشير إلى كيفية اللعب جيداً وفقا للقواعد.

3- نحو مزيد من الخطوات للتطوير

في بعض الحالات، قد يكون وضع مفهوم التنظيم سابقًا لأوانه، أو خنقًا للابتكار في حين أن المبدأ الأخلاقي قد يؤدي إلى توقّعات أكثر مرونة ولكن نفترض أن تطبيقه بشكل جيد في الوقت الحالي لا يزال من المبكر الحديث عنه، إلا أنه من المهم أن نتذكر أن نشر المبادئ التوجيهية هو مجرد خطوة أولى سيتبعها خطوات أخرى.
كما أنه من الخطأ فقط التركيز على الابتكار التكنولوجي، وبعدها يتم الانتقال للحديث عن الإصلاح لا سيما في حالة تقنية الذكاء الصناعي حيث أن ذلك قد يكون مكلفاً للغاية وقد يتسبب في ردة فعل عامة ضد هذه التقنية التي هي بأمس الحاجة إلى أن تحوز على الثقة لدى المجتمعات كونها جديدة في حياتنا مقارنة بتقنيات أخرى، لذلك لا بد من تحديد استراتيجيات طويلة الأمد تكون فيها الأخلاقيات بمثابة عامل تمكين للابتكار مما سيوفر ميزة تنافسية تكون ضمن إطار تعزيز الحقوق والقيم الأساسية وخدمة المصلحة العامة.
وعليه فإننا نعتقد أن الأخلاق أولاً هي النهج الصحيح لوضع معايير عالمية للذكاء الصناعي ونفترض أن عصر "التحرك السريع وكسر الأشياء" قد انتهى وقد حان الوقت لـ"الإسراع ببطء" في تطوير هذه التقنية.


المصادر:
  1. https://ec.europa.eu/commission/presscorner/detail/en/IP_19_1893

  2. https://www.un.org/sustainabledevelopment/sustainable-development-goals/

  3. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

  4. https://tech.newstatesman.com/policy/ai-ethics-framework

تعليقات

Popular Posts

سبعة مبادئ أساسية للذكاء الإصطناعي من شركة قوقل

الذكاء الإصطناعي و مشروع نيوم

أبرز أربعة تقنيات عملية للذكاء الإصطناعي

أربعة أمور بديهية للبشر تصعب على الذكاء الإصطناعي

أبرز ست وظائف سيقضي عليها الذكاء الاصطناعي

خمسة طرق لزيادة أرباح الشركات بالذكاء الإصطناعي

أربعة مراحل لتطبيقات الذكاء الإصطناعي

أربعة تعقيدات في فهم وتحليل اللغة

أربعة استخدامات للذكاء الإصطناعي في التعليم