في هذا المقال سوف تتعرف على الذكاء الاصطناعي المسؤول وأيضا سوف نبحر قليلا في كيفية تطبيق الذكاء الاصطناعي المسؤول وما هي مبادئه الأساسية وما الفرق بين الذكاء الاصطناعي الأخلاقي و الذكاء الاصطناعي المسؤول.

فبينما تنتشر تطبيقات الذكاء الاصطناعي على نطاق عالمي كانت هناك مخاوف جدية أثيرت فيما يتعلق بانتهاك حقوق الخصوصية وتعزيز التحيز. يوفر الذكاء الاصطناعي العديد من الفرص، ولكن أيضًا يثير مخاوف تتعلق بالشفافية والإنصاف وتشمل هذه القضايا تأثير الذكاء الاصطناعي على الخصوصية والتحيز والتمييز في أنظمة الذكاء الاصطناعي والفهم غير الكافي لخوارزميات الذكاء الاصطناعي من قبل عامة الناس.

لقد وصلنا اليوم إلى مستوى يمكن أن يساهم فيه الذكاء الاصطناعي بما يصل إلى 15.7 تريليونا دولار أمريكي في الاقتصاد العالمي في عام 2030.

هذه المشاكل معقدة ومترابطة مما يبرز الحاجة إلى ممارسات الذكاء الاصطناعي المسؤولة حيث يتم ضمان عدالة الحلول.

إن حجر الزاوية في الذكاء الاصطناعي المسؤول هو الأخلاق حيث تركز الأخلاقيات على السلامة والثقة والشمولية وعدم التمييز والمساواة والخصوصية والأمن وحماية وتعزيز القيم الإنسانية الإيجابية.

ما هو الذكاء الاصطناعي المسؤول؟

هو ممارسة تصميم وتطوير ونشر الذكاء الاصطناعي بنوايا حسنة لتمكين الموظفين والشركات والتأثير بشكل عادل على العملاء والمجتمع – مما يسمح للشركات ببناء الثقة وتوسيع نطاق الذكاء الاصطناعي بثقة.

ما هي مبادئ أنظمة الذكاء الاصطناعي المسؤولة؟

لا جدال في أننا نحتاج إلى الذكاء الاصطناعي المسؤول لكن تنفيذه يمثل تحديًا وذلك نظرًا لأن الذكاء الاصطناعي أصبح شاملًا لذلك يجب أن تكون أنظمة الذكاء الاصطناعي أكثر شفافية حول كيفية توصلها إلى قراراتها. ومع ذلك دون إطار حوكمة معياري لن تكون مهمة دعم الذكاء الاصطناعي القابل للتفسير سهلة أيضاً.

أولاً: تحديد نطاق الذكاء الاصطناعي المسؤول والأخلاقي

غالبًا ما يتم التعامل مع مفاهيم الذكاء الاصطناعي المسؤول والذكاء الاصطناعي الأخلاقي كما لو كانوا نفس الشيء وهذا ليس صحيحًا ويمكن أن يؤدي إلى سوء فهم عندما يتعامل أصحاب الشركات والمؤسسات مع المصطلحين كمرادفين.

يجب على جميع الهيئات والمنظمات التوقف عن التعامل مع الذكاء الاصطناعي المسؤول والذكاء الاصطناعي الأخلاقي كمرادفين.

إذن ما الفرق؟

يركز الذكاء الاصطناعي الأخلاقي على القيم الطموحة مثل تحقيق نتائج عادلة والاعتراف بحق الإنسان في الحفاظ على خصوصية معلومات التعريف الشخصية.

في المقابل:

يركز الذكاء الاصطناعي المسؤول على التدابير التكنولوجية والتنظيمية التي تُمكن المنظمات من تحقيق تلك الأهداف الطموحة. يمكن أيضًا تسمية مجموع هذين النظامين بالذكاء الاصطناعي الموثوق به.

ثانياً: توقع تحقيق التوازن بين الذكاء الاصطناعي المسؤول وسياسات حوكمة الشركات الراسخة

هناك حاجة إلى تحقيق التوازن بين مصالح مساهمي الشركة والعملاء والمجتمع والممولين والموردين والحكومة والإدارة في داخل كل مؤسسة. يمكن أن يجعل هذا دمج أنظمة الذكاء الاصطناعي المسؤولة وتنفيذها أمرًا صعبًا لأن مجموعة واسعة من أصحاب المصلحة يمكن أن يكون لديهم أولويات متنافسة.
لهذا السبب من المهم للمؤسسات مواءمة مبادئ الذكاء الاصطناعي المسؤول مع سياسات حوكمة الشركات لديها لتوفير ما يلي:

-مواءمة نظام الذكاء الاصطناعي مع قيم المنظمة.
-إستراتيجيات حل النزاعات عندما تتنافس أولويات أصحاب المصلحة.
-الوضوح والشفافية لعمليات صنع القرار في نموذج الذكاء الاصطناعي.
-المساءلة عن قرارات نموذج الذكاء الاصطناعي.

يجب تجهيز نظام ذكاء اصطناعي مسؤول للتعامل مع تضارب المصالح بين المساهمين والعملاء. من المهم أن تكون أنظمة الذكاء الاصطناعي شفافة بشأن تضارب المصالح في كل من قطاعي الشركات والحكومة.

ثالثًا: مناقشة القضايا الأخلاقية التي تؤثر على أنظمة الذكاء الاصطناعي

تستخدم العديد من مؤسسات التكنولوجيا المالية الذكاء الاصطناعي لتقييم طلبات الحصول على القروض أو الرهون العقارية ومع ذلك عندما يتم تدريب نظام الذكاء الاصطناعي باستخدام البيانات التاريخية فقط يمكن أن يؤدي ذلك إلى رفض الأفراد في مجموعات ديموغرافية.

أيضًا يجب أن يستوعب نظام الذكاء الاصطناعي أصحاب المصلحة المتباينين حيث يمكن أن تتأثر سمعة المنظمة وإدراك الجمهور سلبًا عندما لا يمكن تفسير أنظمة الذكاء الاصطناعي في الصندوق الغامض.

على سبيل المثال

من المهم أن تكون أنظمة الذكاء الاصطناعي المستخدمة لأتمتة الموافقات على القروض شفافة وغير مثقلة بالتحيزات الديموغرافية أو الاجتماعية والاقتصادية.

التأثير البيئي

يجب أيضًا مناقشة التأثير البيئي لأنظمة الذكاء الاصطناعي. تظهر بعض الأبحاث أن نظامًا فرديًا للذكاء الاصطناعي يمكن أن ينبعث منه ما يصل إلى 150 ألف جنيه إسترليني من ثاني أكسيد الكربون.

عند اختيار إطار العمل الحكومي للذكاء الاصطناعي المسؤول من المهم للمؤسسات أن توازن بين تطوير الذكاء الاصطناعي وتأثيره على البيئة.

الملكية

بالإضافة إلى وجود كميات هائلة من البيانات المأخوذة من الإنترنت. يمكن أن تكون البيانات الاحتكارية منجم ذهب للمتسللين لذلك من المهم مناقشة كيفية حماية نظام الذكاء الاصطناعي الخاص بك من العناصر الضارة.

رابعًا: اتباع إطار عمل ناضجً للذكاء الاصطناعي المسؤول

تعمل منظمات مثل معهد مهندسي الكهرباء والإلكترونيات والمفوضية الأوروبية من خلال الشراكة في الذكاء الاصطناعي على تطوير اطار عمل أنظمة الذكاء الاصطناعي المسؤولة والحفاظ عليها. يستند هذا الإطار على المبادئ التالية:

المعلمات الموضوعية والقابلة للقياس الكمي

على سبيل المثال، يجب أن يكون النظام الطبي للذكاء الاصطناعي قادرًا على تشخيص الحالات الطبية للمرضى بدقة ووصف العلاجات المخصصة دون النظر إلى جانب الفواتير.

الإنصاف

يجب أن تطبق أنظمة الذكاء الاصطناعي نفس معايير التقييم والتقدير والحكم بغض النظر عن السيناريوهات أو الأشخاص. على سبيل المثال يجب أن تطبق أنظمة تتبع المتقدمين الذكية التي تستخدم لتقييم طلبات التوظيف نفس المعايير على جميع المتقدمين بغض النظر عن العرق أو الجنس أو العمر.

الخصوصية والأمان

يجب أن تحمي أنظمة الذكاء الاصطناعي البيانات السرية بصرامة على سبيل المثال، يجب أن تحمي أنظمة الذكاء الاصطناعي الطبية بيانات المريض لمنع المرضى من الوقوع ضحية لعمليات الاحتيال.

كيف يمكننا تحويل مبادئ الذكاء الاصطناعي المسؤول الى ممارسات؟

هل هناك حاجة إلى لوائح جديدة لحماية استخدام الذكاء الاصطناعي أم أن تقديم توصيات لأفضل الممارسات والقوانين الحالية ستكون كافية؟ وكيف يمكن لإطار الخصوصية أن تضع الأساس لممارسات الذكاء الاصطناعي المسؤولة؟

استكشفت لجنة مركز الابتكار الرقمي الحديثة النقاش التشريعي في حين أخبرت الباحثة الرئيسية كاثرينا كورنر في الجمعية الدولية لمتخصصي الخصوصية كيف يمكن للمؤسسات استخدام ممارسات الخصوصية لتوجيه نهجها نحو استراتيجيات الذكاء الاصطناعي المسؤولة.

أولاً: تحديد المؤشرات والتفاصيل

بينما تدعو مبادئ الذكاء الاصطناعي المسؤول إلى منع التمييز أو التحيز نجد أن الطريق إلى كيفية قيام المؤسسات بالتطبيق بشكل صحيح ليس واضح دائما.
غالبًا ما تريد المؤسسات من المنظمين تحديد المؤشرات أو الأدوات التي يجب استخدامها للتحقق مما إذا كانت قد نجحت في تقليل التحيز إلى الحد الأدنى أو امتثلت بطريقة أخرى لأهداف الذكاء الاصطناعي المسؤولة.

ثانيًا: تحديد إطارات عمل الذكاء الاصطناعي المسؤول

أصدرت (إن أي إس تي) المعهد الوطني للمعاير والتكنولوجيا مؤخرًا إطار عمل إدارة أخطار الذكاء الاصطناعي وهو دليل طوعي يهدف إلى مساعدة المنظمات والأفراد على استخدام وخلق الذكاء الاصطناعي بطرق مسؤولة، كما أصدر البيت الأبيض مخططًا طوعيًا لقانون حقوق الذكاء الاصطناعي في أكتوبر 2022

أيضًا تتخذ حكومات الولايات والحكومات المحلية خطوات حيث أصدرت مدينة نيويورك أمرًا تنفيذيًا في عام 2019 يدعو إلى إطار عمل وعمليات أخرى للحفاظ على استخدام المدينة للذكاء الاصطناعي بشكل عادل ومسؤول. لكن مراقب المدينة وجد مؤخرًا أن الوكالات فشلت في ضمان أن يكون استخدام الذكاء الاصطناعي شفاف ودقيق وغير متحيز ويتجنب التأثيرات المتباينة.

وفي الوقت نفسه ينظر المشرعون في ولاية ماساتشوستس في لوائح الذكاء الاصطناعي بما في ذلك اقتراح واحد يتطلب من شركات تكنولوجيا المعلومات الكبيرة الكشف عن معلومات حول خوارزمياتها وإجراء تقييمات للمخاطر بانتظام لمنع التمييز.

ثالثاً: تطبيق التدابير الفيدرالية التي لم يتم الوفاء بها

قالت الدكتورة لين باركر إن توجيه استخدام الحكومة الفيدرالية للذكاء الاصطناعي قد لا يتطلب سياسات جديدة فهناك العديد من السياسات المفيدة التي لم يتم تفعيلها بالكامل بعد.

مثال
سياسة تعزيز استخدام الذكاء الاصطناعي الجدير بالثقة في الحكومة الفيدرالية يحدد المبادئ الأخلاقية التي يجب على معظم الوكالات اتباعها، ويدعو مكتب الإدارة والميزانية إلى إنشاء إرشادات سياسية لدعم اتباع هذه المبادئ ويطلب من الوكالات جرد الذكاء الاصطناعي الذي تستخدمه.

رابعاً: نشر إرشادات الذكاء الاصطناعي المُلزمة والطوعية

يمنح التوجيه الطوعي حول الاستخدام المسؤول للذكاء الاصطناعي المرونة للمؤسسات ويتجنب حصر الكيانات في الممارسات التي يمكن أن تصبح قديمة مع تطور التكنولوجيا بسرعة من ناحية أخرى لا يمكن أن يجبر التوجيه الطوعي المنظمات غير المهتمة على تغيير استخدام الذكاء الاصطناعي.

قد يكون من الصعب وضع تشريع واحد يحدد بدقة ماهية الذكاء الاصطناعي وأيها يفسر جميع المخاطر المحتملة المرتبطة بالطرق المختلفة التي يمكن استخدامه بها. وعلينا أن نتجنب قانونا اتحاديا شاملا واحدا وبدلاً من ذلك وضع سياسات تتناول قطاعات محددة وحالات استخدام محددة.

بعض الحالات قد تكون المجتمعات هي الأفضل لتحديد ما يعنيه استخدام الذكاء الاصطناعي المناسب لهم وقالت إن الجامعات يمكن أن تتخذ قراراتها الخاصة بشأن ما إذا كان من المقبول لطلابها استخدام أدوات مثل (شات جي بي تي) لأجراء بحث أو كتابة مقالات بحث في المجالات، ولكن لكي تتخذ الجامعات هذه القرارات فإنها تحتاج أولاً إلى فهم ما يمكن للأداة وما لا يمكنها فعله والمخاطر المرتبطة بها.

خامساً: نقاط الخصوصية

الخصوصية هي جانب أساسي من جوانب الذكاء الاصطناعي المسؤول، ويجب على صانعي السياسات والمنظمات على حد سواء الانتباه قد ترغب المنظمات في تطوير استراتيجيات داخلية خاصة بها لوضع مُثُل الذكاء الاصطناعي المسؤولة موضع التنفيذ. بينما يتطلعون إلى القيام بذلك يمكن للمؤسسات استخدام أعمال وممارسات الخصوصية الحالية الخاصة بهم كلوحة تشغيل – مما يمنعهم من الاضطرار إلى إعادة اختراع العجلة.

سادساً: البدء على نطاق صغير

البدء على نطاق صغير أمر جيد حيث يمكن للمنظمات النظر في حالة عمل واحدة في كل مرة للنظر في كيفية ارتباطها بالمبادئ المتفق عليها للاستخدام الجيد للذكاء الاصطناعي المسؤول.

الخلاصة

الذكاء الاصطناعي المسؤول هو إطار عمل يعالج التحديات الأخلاقية والقانونية للذكاء الاصطناعي يهدف إلى تطوير الذكاء الاصطناعي ونشره وتوسيع نطاقه لإحداث تأثير إيجابي وثقة وهو يتضمن ممارسات لبناء العدل وقابلية التفسير والخصوصية والأمن في أنظمة الذكاء الاصطناعي.

بعض المنظمات لديها معاييرها الداخلية الخاصة بها فيما يتعلق بالذكاء الاصطناعي المسؤول بينما يتعاون الآخرون مع المعاهد المستقلة التي توفر الأدوات والشهادات لأنظمة الذكاء الاصطناعي الآمنة والموثوقة.

يتفق الكثير على الشكل الذي يبدو عليه الذكاء الاصطناعي المسؤول والأخلاقي على الأقل عند مستوى مصغر. لكن تحديد الأهداف الرئيسية مثل الخصوصية والإنصاف، ليس سوى الخطوة الأولى. التالي هو تحويل المثال إلى أفعال.

يحتاج صانعو السياسات إلى تحديد ما إذا كانت القوانين الحالية والتوجيهات الطوعية أدوات قوية بما يكفي لفرض السلوك الجيد أو ما إذا كانت اللوائح والسلطات الجديدة ضرورية.

ستحتاج المؤسسات إلى التخطيط لكيفية تغيير ثقافتها وممارساتها لضمان اتباعها لنصائح الذكاء الاصطناعي المسؤولة. قد يكون ذلك مهمًا لأغراض الامتثال أو لمجرد الحفاظ على ثقة العملاء.

من الفوائد التي يمكن أن تتحقق بسبب تطبيقات الذكاء الاصطناعي المسؤول أنه يوفر القدرة على قيادة النمو الاجتماعي والاقتصادي ويمكن استخدامه لفائدة المواطنين والدولة من خلال التدخل المستهدف وفي الوقت المناسب.

لا جدال في أهمية الذكاء الاصطناعي المسؤول لكن ضمانا أن تكون جميع أنظمة الذكاء الاصطناعي شفافة وقابلة للتفسير ليس بالمهمة السهلة. كلما كان نموذج التعلم العميق أكثر تعقيدًا، أصبح من الصعب فهم كيفية اتخاذ القرارات.

لا تزل الحاجة إلى إطار الذكاء الاصطناعي المسؤولة فكرة وليدة لكنها تتطور بسرعة وذلك استجابة لمشاكل العالم الحقيقي. يتوقع الخبراء أن يكون إطار عمل الذكاء الاصطناعي لضمان السرية والإنصاف والشفافية شائعة قريبًا في كل صناعة.