الاسواق العالمية

إرشادات الذكاء الاصطناعي الصادرة عن المعهد الوطني للمعايير والتكنولوجيا تتجاهل المسؤولية عن إدارة المخاطر

ويسعى صناع السياسات جاهدين لمواكبة التقدم التكنولوجي في مجال الذكاء الاصطناعي. وكان الإصدار الأخير لمسودة المبادئ التوجيهية من معهد سلامة الذكاء الاصطناعي في الولايات المتحدة، وهو مكتب تم إنشاؤه حديثًا داخل المعهد الوطني للمعايير والتكنولوجيا، أحدث مثال على كفاح الحكومة لمواكبة التطورات. وكما هو الحال مع العديد من السياسات الناشئة عن الأمر التنفيذي للرئيس بايدن لعام 2023 بشأن الذكاء الاصطناعي، فقد يكون علاج الحكومة أسوأ من مرض الذكاء الاصطناعي.

إن المعهد الوطني للمعايير والتكنولوجيا هو وكالة تحظى بالاحترام وتشتهر بوضع المعايير عبر مجموعة متنوعة من الصناعات. وفي وثيقتها “إدارة مخاطر سوء الاستخدام في نماذج الأساس ذات الاستخدام المزدوج”، اقترحت الوكالة مجموعة من سبعة أهداف لإدارة مخاطر سوء استخدام الذكاء الاصطناعي. وتتراوح هذه الأهداف من توقع سوء الاستخدام المحتمل إلى ضمان الشفافية في ممارسات إدارة المخاطر. ورغم أن إرشادات المعهد الوطني للمعايير والتكنولوجيا غير ملزمة من الناحية الفنية، إلا أنها قد تجد طريقها إلى التشريعات الملزمة. على سبيل المثال، يشير قانون كاليفورنيا SB 1047 للذكاء الاصطناعي إلى معايير المعهد الوطني للمعايير والتكنولوجيا، ومن المرجح أن تحذو ولايات أخرى حذوها.

إن هذا الأمر يثير المشاكل لأن المبادئ التوجيهية المقترحة تعاني من بعض أوجه القصور المهمة التي ينبغي معالجتها قبل الانتهاء من هذه الوثيقة. ويتمثل أحد المخاوف الرئيسية في التركيز الضيق للمبادئ التوجيهية على المطورين الأوليين لنماذج الأساس، مما يبدو وكأنه يتجاهل أدوار المطورين والموزعين والمستخدمين في إدارة المخاطر.

إن هذا النهج يفرض عبئاً هائلاً على مطوري النماذج في توقع كل المخاطر التي يمكن تصورها والتخفيف منها. وتعترف المبادئ التوجيهية نفسها بصعوبة هذه المهمة في قسم “التحديات”.

ويطلب إطار قياس المخاطر المقترح من المطورين إنشاء ملفات تعريف تفصيلية للتهديدات التي تواجهها جهات فاعلة مختلفة، وتقدير حجم وتكرار إساءة الاستخدام المحتملة، وتقييم التأثيرات. وهذه مهام تكافح حتى وكالات الأمن القومي للقيام بها بفعالية. وقد يؤدي هذا المستوى من التحليل لكل تكرار للنموذج إلى إبطاء تطوير الذكاء الاصطناعي ونشره بشكل كبير.

والخطر هنا هو أن تصبح تحليلات المخاطر هذه بمثابة رافعة يستخدمها المنظمون لفرض نهج حذر للغاية في التعامل مع تطوير الذكاء الاصطناعي والابتكار فيه. وقد شهدنا منطقاً احترازياً مماثلاً مضمناً في السياسة البيئية، مثل قانون السياسة البيئية الوطنية، الذي أعاق في كثير من الأحيان النمو الاقتصادي والتقدم.

يبدو أن المبادئ التوجيهية تتجاهل الطبيعة الموزعة لإدارة المخاطر في أنظمة الذكاء الاصطناعي. فمن الأفضل أن يتعامل مختلف الجهات الفاعلة مع المخاطر المختلفة في مراحل مختلفة من دورة حياة الذكاء الاصطناعي. ويمكن التخفيف من بعض المخاطر من خلال مطوري النماذج، بينما يمكن التخفيف من بعضها الآخر من خلال المستخدمين النهائيين أو الشركات الوسيطة التي تدمج الذكاء الاصطناعي في منتجاتها. وفي بعض الحالات، قد توفر أنظمة المسؤولية القانونية اللاحقة الحوافز الأكثر فعالية للاستخدام المسؤول للذكاء الاصطناعي.

وتتمثل قضية أخرى بالغة الأهمية في التأثير المحتمل على تطوير الذكاء الاصطناعي مفتوح المصدر. وقد تكون المبادئ التوجيهية المقترحة صعبة بشكل خاص بالنسبة لمشاريع الذكاء الاصطناعي مفتوح المصدر، مما يجعلها غير مناسبة مقارنة بنماذج الذكاء الاصطناعي مغلقة المصدر. وهذا يثير تساؤلات أوسع نطاقا حول المخاطر والفوائد النسبية لتطوير الذكاء الاصطناعي مفتوح المصدر مقابل مغلق المصدر.

في سياق الذكاء الاصطناعي الفائق الذكاء الافتراضي، قد تخلق النماذج مفتوحة المصدر مخاطر فريدة ومثيرة للقلق العميق. ومع ذلك، على مستويات التكنولوجيا الحالية، فإن فوائد الذكاء الاصطناعي مفتوح المصدر – بما في ذلك الشفافية والتحسين التعاوني والوصول الديمقراطي – كبيرة. وعلاوة على ذلك، من الممكن أن يؤدي النهج مفتوح المصدر لتطوير الذكاء الاصطناعي إلى أنظمة أكثر مرونة وقابلية للتكيف في الأمد البعيد، حتى مع النماذج فائقة الذكاء، حيث تتطور الأنظمة باستمرار لمعالجة التهديدات الجديدة. ولكن هذا يحتاج إلى دراسة أكثر تفصيلا.

ورغم أن جهود المعهد الوطني للمعايير والتكنولوجيا لتوفير المبادئ التوجيهية لتطوير الذكاء الاصطناعي بشكل آمن جديرة بالثناء، فإن المسودة الحالية تحتاج إلى تحسين. ويتعين على النهج الأكثر توازناً أن يأخذ في الاعتبار الأدوار والمسؤوليات التي تقع على عاتق مختلف الجهات الفاعلة في سلسلة قيمة الذكاء الاصطناعي. وينبغي لهذا النهج أن يوفر إرشادات مرنة يمكن تكييفها مع سياقات وأنواع مختلفة من أنظمة الذكاء الاصطناعي، بدلاً من نهج واحد يناسب الجميع ويركز حصرياً على المطورين الأوليين.

يتعين على المعهد الوطني للمعايير والتكنولوجيا أن يضع مبادئ توجيهية تعترف بالجهات الفاعلة المتنوعة في مشهد الذكاء الاصطناعي، من الشركات الناشئة إلى شركات التكنولوجيا العملاقة، ومن المستخدمين النهائيين إلى الوسطاء. ومن خلال الاعتراف بالطبيعة الموزعة لإدارة المخاطر في أنظمة الذكاء الاصطناعي، يمكن للمعهد الوطني للمعايير والتكنولوجيا إنشاء إطار عمل يعالج السلامة بشكل أفضل لأنه يعين المسؤولية لأولئك الأكثر قدرة على إدارة المخاطر. ومن شأن هذا النهج المنقح أن يعكس بشكل أفضل واقع تطوير الذكاء الاصطناعي ونشره، حيث يتم تقاسم المخاطر والمسؤوليات عبر شبكة من المطورين والمستخدمين والوسطاء.

في نهاية المطاف، تتطلب حوكمة الذكاء الاصطناعي الفعّالة فهماً دقيقاً لدورة حياة التكنولوجيا وأصحاب المصلحة المتنوعين المشاركين في إنشائها واستخدامها. ويفتقر النهج الحالي الذي يتبناه المعهد الوطني للمعايير والتكنولوجيا لإدارة المخاطر إلى هذا الفهم، ولكن مع بذل بعض الجهود الإضافية، يمكن تحقيق تصحيح المسار.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *