مقالات الرأي

القسم الثالث – الثورة الرقمية (الجزء الخامس العشر)

✍️الوحدة الاقتصادية 

 

استخدام تصنيفاتنا في تبني الذكاء الاصطناعي
يمكن استخدام أربعة أنواع من المستخدمين لتأطير التدخلات التي تساعد الشركات على تحقيق هذه الأهداف. على سبيل المثال، قد تحتاج فئة “الواثقون أكثر من اللازم” إلى توجيهات بشأن الاستخدام الأخلاقي والدقيق لأنظمة الذكاء الاصطناعي. قد تحتاج فئتا “الحذرون” و”غير الواعين” إلى دعم في الإبلاغ والشفافية والتحقق من الدقة. يجب أن تتمكن جميع الفئات من الوصول إلى التدريب لضمان امتلاك الموظفين المهارات اللازمة لاستخدام الذكاء الاصطناعي بشكل مناسب.
نظرًا للسرعة العالية لتطور التكنولوجيا في هذا المجال، فإن هذه التصنيفات مرنة، وقد تتمكن الشركات غير الواعية من اكتساب المهارات اللازمة بسرعة، أو قد تتخلف الشركات التي تعتبر “منفذين فعّالين” مع تطور التكنولوجيا.

مساعدة الشركات على أن تصبح “منفذين فعّالين” للذكاء الاصطناعي
يجب أن يكون أحد الأهداف الرئيسية لكل من القطاعين العام والخاص هو تمكين الشركات من أن تصبح “منفذين فعّالين”. ينبغي للشركات أن تكون قادرة على تحديد حالات الاستخدام التي تعود بالفوائد التجارية مثل زيادة الإنتاجية؛ واكتساب المهارات اللازمة لتطبيق الذكاء الاصطناعي المناسب لاحتياجات أعمالها؛ ومعرفة المخاطر التي قد تمنع الاستخدام الآمن والتعامل معها.

تنظيم الذكاء الاصطناعي: إنشاء إطار للثقة
هناك نقاش نشط حول الحاجة إلى تنظيم الذكاء الاصطناعي. بشكل عام، يكون التنظيم الفعّال مفيدًا لقطاعات الابتكار إذا كان قائمًا على الحقائق ويهدف إلى تشجيع الابتكار لا الحد منه. إن إنشاء بيئة متكافئة، وقواعد شفافة، ومنافسة عادلة تحت إشراف جهة تنظيمية قوية ومحايدة غالبًا ما يكون ضروريًا لتطوير اقتصادات تنافسية.

أكمل الاتحاد الأوروبي في ديسمبر 2023 مفاوضاته السياسية بشأن “قانون الذكاء الاصطناعي”. يتضمن القانون تدابير لحماية الذكاء الاصطناعي العام، وحظر نظام النقاط الاجتماعية، ومنع استخدام الذكاء الاصطناعي للتلاعب أو استغلال نقاط ضعف المستخدمين، وإنشاء حق جديد للمستهلكين لتقديم شكاوى والحصول على تفسيرات ذات معنى، بالإضافة إلى فرض غرامات تتراوح بين 35 مليون يورو أو 7٪ من حجم الأعمال العالمي، إلى 7.5 مليون يورو أو 1.5٪ من حجم الأعمال.

في الولايات المتحدة، أصدر الرئيس بايدن في أكتوبر 2023 أمرًا تنفيذيًا بشأن الذكاء الاصطناعي يحدد سلسلة من الإجراءات المتعلقة بالسلامة والأمن، وحماية المستهلكين، ودعم العمال، وتعزيز الابتكار والمنافسة (بما في ذلك مساعدة الشركات الصغيرة على تسويق ابتكارات الذكاء الاصطناعي). أحد محاور النهج الأمريكي هو تطوير معايير وأدوات واختبارات لضمان أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة.

في كندا، تسعى الحكومة إلى إنشاء “إطار ذكاء اصطناعي مسؤول” من خلال قانون الذكاء الاصطناعي والبيانات (AIDA)، الذي يلزم الأنظمة عالية التأثير بالامتثال لمتطلبات السلامة وحقوق الإنسان؛ وإنشاء مفوض جديد للذكاء الاصطناعي والبيانات لتنسيق السياسات وتنفيذ القوانين بالتوازي مع تطور التكنولوجيا؛ وحظر الاستخدامات المتهورة والضارة للذكاء الاصطناعي. وعلى غرار الولايات المتحدة، يأتي AIDA بعد مدونة سلوك طوعية، وقد يدخل حيز التنفيذ في عام 2025 إذا وافق عليه المشرعون.

اتبعت المملكة المتحدة نهجًا مختلفًا. فبدلاً من إصدار قوانين محددة للذكاء الاصطناعي، تطلب من الهيئات التنظيمية نشر خطط حول كيفية التعامل مع مخاطر وفرص الذكاء الاصطناعي، وتوفر لهم التمويل لتعزيز قدراتهم. كما تلتزم الحكومة بالتشاور بشأن “سجل مخاطر الذكاء الاصطناعي عبر الاقتصاد” ومراجعة الإطار القانوني المستقبلي.
تشمل المبادرات الأخرى “منتدى فرص الذكاء الاصطناعي” لتعزيز تبني الذكاء الاصطناعي عبر القطاع الخاص، و”معهد سلامة الذكاء الاصطناعي” الذي يركز على سلامة الذكاء الاصطناعي المتقدم بما يخدم المصلحة العامة.

مقالات ذات صلة

زر الذهاب إلى الأعلى