هل يمكن أن تتعاون أميركا والصين في مجال الذكاء الاصطناعي؟
أطلقت شركة “أوبن أيه آي” (OpenAI) في بداية سبتمبر الجاري نماذجها الأكثر تطوراً في مجال الذكاء الاصطناعي حتى الآن، مؤكدة قدرتها على حل المسائل الرياضية والبرمجيات المعقدة. أوضحت الشركة الناشئة الرائدة في هذه الصناعة، التي تُقدر قيمتها السوقية بنحو 150 مليار دولار، أن هذه النماذج قد تزيد مخاطر إساءة استخدام الذكاء الاصطناعي في تطوير أسلحة بيولوجية.
من الطبيعي أن يثير هذا الاحتمال الخطير القلق، ويؤكد على ضرورة فرض رقابة أكثر صرامة على الذكاء الاصطناعي. لكن على الرغم من التحذيرات المستمرة من قادة الصناعة والأكاديميين والخبراء على مدار قرابة العامين بشأن مخاطر إساءة استخدام هذه التكنولوجيا، لم تسن الولايات المتحدة حتى الآن أي تشريعات فيدرالية بهذا الشأن.
في الوقت نفسه، هناك أصوات داخل قطاع التكنولوجيا وخارجه ترى أن التحذيرات المبالغ فيها تشتت الانتباه عن التحديات الأكثر إلحاحاً، مثل الانتهاكات المحتملة لحقوق الملكية الفكرية، وانتشار التزييف العميق والمعلومات المضللة، بجانب فقدان الوظائف. ومع ذلك، لم يتخذ المشرعون أي إجراءات ملموسة لمعالجة هذه المخاطر.
الصين تواصل التقدم
إحدى الحجج الرئيسية التي تُثار ضد تنظيم الذكاء الاصطناعي هي الخوف من تأثيره السلبي على الابتكار، مما قد يؤدي إلى خسارة الولايات المتحدة السباق التكنولوجي أمام الصين. فعلى الرغم من الرقابة الصارمة والجهود الأميركية المستمرة لمنع وصولها إلى المكونات الحيوية لأنظمة الذكاء الاصطناعي، تواصل الصين التقدم بسرعة في هذا المجال. وبينما أعاقت قيود التصدير تقدم بكين إلى حد ما، إلا أنها تتفوق في وضع معايير لكيفية تطوير واستخدام هذه التكنولوجيا الشاملة التي تشكل حجر الزاوية في عصرنا.
يُسهل النظام الاستبدادي في الصين فرض قوانين صارمة، حتى وإن كانت تبدو أنها تكبّل صناعة التكنولوجيا. على الرغم من أن أهداف الصين تختلف مقارنة بدول أخرى، حيث تركز الحكومة بشكل رئيسي على الحفاظ على الاستقرار الاجتماعي وضمان بقاء الحزب الحاكم في السلطة، إلا أنها تعتبر الذكاء الاصطناعي أولوية استراتيجية. ولهذا السبب، تتعاون الحكومة الصينية بشكل وثيق مع القطاع الخاص لتعزيز الابتكار مع الحفاظ على إشراف ورقابة صارمة من قبل الدولة.
دروس من الصين
رغم الاختلافات السياسية، هناك دروس يمكن للولايات المتحدة تعلمها من الصين، التي تواجه في المقام الأول مخاوف قريبة المدى من خلال مزيج من التشريعات الجديدة والاعتماد على السوابق القضائية. ففي عام 2022، أصدرت الجهات المنظمة للأمن السيبراني قوانين لمكافحة التزييف العميق تهدف إلى حماية الضحايا الذين استُخدمت صورهم دون موافقتهم، وتفرض وضع علامات توضيحية على المحتوى المعدل رقمياً. كما حددت المحاكم الصينية معايير لاستخدام أدوات الذكاء الاصطناعي، وأصدرت أحكاماً لحماية حقول الفنانين ومنع استغلال أصواتهم.
تُلزم القوانين المؤقتة الأوسع نطاقاً في الصين مطوري الذكاء الاصطناعي التوليدي بمشاركة تفاصيل حول كيفية تدريب الخوارزميات مع الجهات الحكومية، بالإضافة إلى اجتياز اختبارات سلامة صارمة. (جزء من هذه التقييمات يهدف إلى ضمان توافق النتائج مع القيم الاشتراكية). ومع ذلك، أبدت الجهات التنظيمية مرونة وتراجعت عن بعض المتطلبات الأكثر صرامة بعد تلقي ردود فعل من القطاع الصناعي، مما يعكس استعدادها للعمل بشكل وثيق مع قطاع التكنولوجيا، مع الحفاظ على الرقابة والإشراف اللازمين.
تشريع أميركي بطيء
هذا الموقف يتناقض بشدة مع جهود الولايات المتحدة، حيث تتقدم الدعاوى القضائية المتعلقة بأضرار الذكاء الاصطناعي ببطء في المحاكم، بينما يظل غياب التشريعات الفيدرالية واضحاً. كما أن الافتقار إلى الإرشادات الواضحة يثير حالة من انعدام اليقين بين قادة الأعمال. ويمكن للهيئات التنظيمية الأميركية أن تحذو حذو الصين، وتركز على قوانين محددة تستهدف المخاطر المعروفة والعمل عن كثب مع الصناعة لوضع ضوابط وقائية لمواجهة المخاطر الوجودية المستقبلية.
في ظل غياب التشريعات الفيدرالية، تولت بعض الولايات الأميركية زمام الأمور بنفسها. ففي الشهر الماضي، وافق المشرعون في ولاية كاليفورنيا على مشروع قانون يهدف إلى تعزيز سلامة الذكاء الاصطناعي، حيث يحمل الشركات المسؤولية إذا تم استخدام أدواتها لإحداث “أضرار جسيمة”، مثل إطلاق سلاح بيولوجي. وقد عارضت العديد من شركات التكنولوجيا، بما فيها “أوبن إيه آي”، هذا القانون بشدة، بحجة أن مثل هذه التشريعات يجب أن تكون من اختصاص الكونغرس. كما أكدت رسالة عامة من رواد الأعمال والباحثين في مجال الذكاء الاصطناعي أن تأثير مشروع القانون سيكون “كارثياً” على الابتكار، مما قد يتيح لدول مثل الصين “تصدّر المشهد في تطوير هذه التكنولوجيا المتقدمة”.
يجب أن يتذكر صناع السياسات أن الشخصيات البارزة في قطاع التكنولوجيا استخدمت هذه الحجة لإحباط أي تشريعات لفترة طويلة، حتى قبل الهوس بالذكاء الاصطناعي. وما يثير القلق هو أن الولايات المتحدة لم تتمكن بعد من الاتفاق على قوانين لمنع أسوأ السيناريوهات المتعلقة بالذكاء الاصطناعي، ناهيك عن معالجة المخاطر الأكثر إلحاحاً.
الحاجة إلى تعاون دولي
في النهاية، لا يمكن استخدام الصين كذريعة لتجنب فرض رقابة فعالة على الذكاء الاصطناعي، إذ إن التعامل مع هذا التحدي باعتباره سباقاً محصلته صفر بين الولايات المتحدة والصين لن يسفر عن فائزين. كما أن الشكوك المتبادلة والتوترات الجيوسياسية المتصاعدة تُصعب تصور تعاون قريب بين البلدين لتقليل المخاطر المحتملة، لكن هذا لا يعني بالضرورة أن الأمور ينبغي أن تسير على هذا النحو.
يُعد رواد الذكاء الاصطناعي الذين أسهموا في تطوير هذه التكنولوجيا من أقوى الداعمين للتشريعات. فقد اجتمع عدد من “رواد الذكاء الاصطناعي”، بمن فيهم الفائزون بجائزة “تورينغ” مثل يوشوا بنجيو وجيفري هينتون وأندرو ياو، في إيطاليا هذا الشهر ودعوا إلى تعزيز التعاون الدولي. وبالرغم من إدراكهم للتنافس الجيوسياسي المتزايد، حذروا من أن فقدان السيطرة على الذكاء الاصطناعي أو استخدامه بشكل خبيث قد “يؤدي إلى نتائج كارثية على البشرية”. كما قدموا إطاراً لنظام عالمي يهدف إلى تنظيم هذه التكنولوجيا المتقدمة.
يزعم الكثيرون أن تكون تلك الفئة مخطئة، لكن حجم المخاطر المرتبطة بالذكاء الاصطناعي يبدو كبيراً للغاية لدرجة يصعب تجاهلها. ويجب على صناع السياسات من واشنطن إلى بكين الاستفادة من تجارب هؤلاء العلماء، الذين أثبتوا على الأقل أنه من الممكن إيجاد أرضية مشتركة للتعاون في مواجهة تحديات الذكاء الاصطناعي.