اختبار أفكار تطبيقات الذكاء الاصطناعي في النرويج

كيف يمكن أن تتأقلم القوانين والتنظيمات مع تأثيرات تطبيقات الذكاء الاصطناعي؟
كيف يمكن أن تتأقلم القوانين والتنظيمات مع تأثيرات تطبيقات الذكاء الاصطناعي؟

شارك هذا المحتوى

كيف يمكن أن تتأقلم القوانين والتنظيمات مع تأثيرات تطبيقات الذكاء الاصطناعي؟ أنشأت هيئة حماية البيانات في النرويج “صندوق اختبارات تنظيمي” (regulatory sandbox) لتوفير بيئة آمنة لاختبار تطبيقات الذكاء الاصطناعي وكيفية تفاعلها مع القوانين والأطر الناظمة لحماية البيانات في البلاد، حيث يقوم فريق العمل القائم على المشروع بتقديم إرشادات لعدد من الشركات التي يتم اختيارها بعناية، لتقييم مدى امتثالها للمعايير التنظيمية، وتحديد التحديات التي يمكن أن تتعرض لها تلك التطبيقات قبل عرضها على العموم.

طرحت تطبيقات الذكاء الاصطناعي تحديات خاصة أمام الهيئات التنظيمية، خصوصاً فيما يتعلق بمدى التزامها بالضوابط الأخلاقية والشفافية وحماية خصوصية المستخدمين. وبما أن الذكاء الاصطناعي اليوم يمثل جزءًا لا يتجزأ من الحياة اليومية، تحتاج الشركات المطورة لتطبيقات الذكاء الاصطناعي إلى اختبار الحلول التي يقدمونها ضمن بيئة محكمة، خاضعة للرقابة، تتيح التأكّد من امتثالها لقوانين حماية البيانات، واحترامها للخصوصية قبل طرحها للاستخدام العام. وهذا ما توفّره “صناديق الاختبارات التنظيمية” التي يمكنها إقامة توازن بين الحدّ من الاستخدامات الضارّة للتكنولوجيا ومواكبة التقدّم التكنولوجي في آن واحد، كما تتيح للمنظّمين صقل مهاراتهم العملية وتوضّح لهم كيفية تنفيذ القوانين الضابطة في قطاع التكنولوجيا.

يندرج صندوق الاختبارات التنظيمي المعني بحلول الذكاء الاصطناعي، الذي أطلقته النرويج، ضمن هذه المساعي. ويتمثّل الهدف منه في تيسير الامتثال لأحكام النظام الأوروبي العام لحماية البيانات (GDPR)، عن طريق القيام بتجارب حول تطبيقات الذكاء الاصطناعي، ومشاركة نتائجها مع المؤسسات التي تعمل في نفس المجال.

ولهذا الغرض، أنشأت “هيئة حماية البيانات النرويجية” (Datatilsynet) صندوق اختبار تنظيمي لتقديم التوجيهات المجانية إلى عددٍ من الشركات والمؤسسات المختارة، من القطاعين الحكومي والخاص، من مختلف الأنواع والأحجام والمعنية بمجالاتٍ مختلفة، وذلك لتشجيعها على تطوير حلول أخلاقية ومسؤولة من منظور حماية البيانات واحترام الخصوصية.

ويعمل الصندوق وفقاً للمبادئ الرئيسية التي تضع إطاراً تنظيمياً للاستخدام المسؤول للذكاء الاصطناعي، بحيث يضمن احترام جميع القوانين والأنظمة السارية، وكذلك المبادئ والقيم الأخلاقية الناظمة من حيث الشفافية والوضوح، والاعتماد على حلول مدروسة بعناية من الناحية التقنية، منعاً لمخاطر الاختراق الأمني أو الاستخدام الخاطئ.

اختيرت الشركات المشاركة في صندوق الاختبارات التنظيمي وفقاً لمجموعة من المعايير، أولها أن تتمحور مشاريع هذه الشركات حول الذكاء الاصطناعي سواء عن طريق تطوير حلول جديدة أو استخدام حلول الذكاء الاصطناعي الموجودة أصلاً، أو عبر إعداد أطر عمل أو سياسات تتحكم باستخدام الذكاء الاصطناعي. وثانيها أن تعود المشاريع بالنفع على الأفراد والمجتمع، كأن تقدّم منتجات أو خدمات ذات منفعة صحية أو اجتماعية، أو أن تقترح حلولاً مبتكرة لحماية البيانات. كما يجب أن يشمل المشروع المقترح تحد ذات صلة مباشرة بموضوع الخصوصية، بحيث يمكن الاستفادة من التوجيهات التي تقدّمها هيئة حماية البيانات. وأخيراً، يجب أن تكون الشركة المشاركة خاضعةً لإشراف هيئة حماية البيانات النرويجية، بمعنى أن تكون مسجّلةً في النرويج، وخاضعةً لقوانين حماية البيانات فيها.

تتلقى الشركات بعد الانضمام إلى برنامج صندوق الاختبارات التنظيمي النصح والإرشاد من فريق متعدّد الاختصاصات تابع لهيئة حماية البيانات، لضمان امتثال المنتجات أو الخدمات التي يقدّمونها للقوانين ذات الصلة واحترامها لخصوصية البيانات. تتراوح مدة مشاركة الشركات في البرنامج ما بين 3 و6 أشهر، تقوم خلالها المؤسسة المشاركة، بالتنسيق مع هيئة حماية البيانات بوضع خطة فردية، وشرح حاجتها إلى التوجيهات، وكيفية صياغة هذه التوجيهات. وبهذه الطريقة، تكون مساهمة الهيئة مصمّمةً حسب حاجة كلّ مشروع.

من الأمثلة على الأنشطة المقدمة، المساعدة في تقييم أثر حماية البيانات، أو تحديد التحديات المرتبطة بحمايتها، أو تقديم ملاحظات حول الحلول القانونية والتقنية لهذه التحديات، وما إلى ذلك. ويحصل المشاركين على فرصة لحضور ورش عمل توجيهية مصممة خصيصاً لتلائم احتياجات كل شركة على حدة من قبل هيئة حماية البيانات.

وبهدف الالتزام بالشفافية ومشاركة التجارب مع الجهات الأخرى التي يمكن أن تستفيد من تجربة صندوق الاختبارات، تقوم هيئة حماية البيانات بنشر المعلومات بشكلٍ دوري، ومن ثم تجمع التجارب التي وردت في البرنامج في تقرير نهائي يتم مشاركته مع الآخرين. ولتجنّب نشر معلومات من شأنها أن تكشف عن الأسرار التجارية للشركات، تحرص الهيئة على التواصل مع المشاركين قبل البدء في مشاركة التجارب مع جهات خارجية.

من المتوقع أن يعود صندوق الاختبارات التنظيمي بالفائدة على المؤسسات بحيث يمكّنها من تكوين فهم أفضل للمعايير التنظيمية وكيفية امتثال خدماتها ومنتجاتها المبنية على الذكاء الاصطناعي لمعايير أنظمة حماية البيانات؛ وأن يفيد أيضاً هيئة حماية البيانات نفسها، بحيث يساهم في اكتسابها فهماً شاملاً للتطبيقات العملية الخاصة بالذكاء الاصطناعي وبالتالي تعزيز عملياتها الإدارية والإشرافية في كلّ ما يتصل بالذكاء الاصطناعي وحماية الخصوصية؛ وأن يسهم أخيراً في وضع أساس لخدمات وحلول الذكاء الاصطناعي التي يمكن للمتعاملين والمجتمع عموماً الوثوق بها، كونها تشدّد على المساءلة والشفافية وحماية الحقوق الأساسية للمستخدمين.

المراجع:

https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/

https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/framework-for-the-regulatory-sandbox/

اشترك في القائمة البريدية

اشترك في القائمة البريدية لتبقَ على اطلاع على أحدث المبادرات والابتكارات الحكومية التي تقدّمها منصة ابتكر

مقالات ذات صلة