اخر الاخبار

متى نستخدم أو نستبعد الذكاء الاصطناعي من حياتنا؟ دليلك الشامل

بين منبهر يراهن على أن “الذكاء الاصطناعي” هو مفتاح المستقبل، ومُرتاب يخشى أن يتحول إلى كابوس يفترس الوظائف ويهدد الخصوصية وكحال كل تكنولوجيا جديدة، يسارع البعض إلى تبنيها، وآخرون إلى انتقادها، بينما هناك فئة أخرى توزان بين مزاياها ومخاوفها فيما تلحق بالركب. وبعد أكثر من عامين على الطفرة التكنولوجية الجديدة التي بدأت بإطلاق نموذج الذكاء الاصطناعي التوليدي “تشات جي بي تي”، وما توالى بعده من نماذج أكثر تقدماً، نغوص في هذا التقرير في أبرز المزايا والمخاوف التي تحيط بتقنيات الذكاء الاصطناعي، ونترك لك القرار.

1) متى نستخدم الذكاء الاصطناعي؟

هناك عدة جوانب قد يساعدك فيها استخدام الذكاء الاصطناعي، مثل التعامل مع كمية هائلة من البيانات لتحليلها، أو إعداد تقارير عنها أو استخلاص نتائجها بسرعة، فعلى سبيل المثال، أعلنت حكومة الولايات المتحدة في أبريل الماضي اعتزامها استخدام الذكاء الاصطناعي في تحليل ملفات الموظفين بهدف تصحيح المعلومات الخاطئة، بحسب “بلومبرغ”.

كما يمكنك استخدامه في أتمتة بعض المهام الروتينية لزيادة الإنتاجية، أو جمع مصادر متنوعة عن موضوع بعينه، بل وتكليفه ببعض المهام ، على غرار ما يقوم بها مساعدو ووكلاء الذكاء الاصطناعي مثل “مانوس”. وكذلك في صنع تجربة مخصصة للعملاء، سواء في صناعة المحتوى أو صياغة الإعلانات بحيث تتناسب مع الجمهور المستهدف.

2) ومتى علينا تجنبه؟

في المقابل، هناك حالات يُفضل فيها تجنب استخدامه، إذا انطوى الأمر على شبهة انتهاك الخصوصية مثل كشف بيانات شخصية، أو تضمن إفشاء معلومات سرية أو حساسة أو مرتبطة بالملكية الخاصة، أو الاستعانة بالذكاء الاصطناعي في أخذ قرارات مصيرية مثل مسائل طبية أو قانونية، وفي حالات يحتاج البت فيها إلى الطبيعة البشرية وسماتها من التعاطف وحسن التقدير الشخصي والخبرات المتراكمة، أو إذا كان موضوع تشوب المعلومات المتوفرة عنه شبهة التحيز أو عدم الموثوقية.

3)  ما أهم مزايا الذكاء الاصطناعي؟

أياً كان مجال عملك، يمكنك تعزيز الكفاءة والإنتاجية باستخدام الذكاء الاصطناعي، فأتمتة بعض المهام توفر للموظفين الوقت لأداء مهام أخرى. فعلى سبيل المثال، أشارت “جوجل” في تقرير بعد برنامج تجريبي في المملكة المتحدة إلى أن استخدام الذكاء الاصطناعي في أداء المهام الروتينية قد يوفر للموظفين 122 ساعة عمل سنوياً.




 فيما أشار أندرو إنغ، الشريك العام المدير في شركة “إيه آي فند” (AI Fund) في مقابلة مع برنامج “بلومبرغ: ذا كلوز”، إلى أنه بينما يرفع الذكاء الاصطناعي إنتاجية المطورين بما بين 30% إلى 50%، فإن إنتاجية إعداد النموذج الأولي لفكرة جديدة زادت 10 أضعاف، وأنه يطوّر هذا النموذج في مدة تتراوح ما بين ساعة و4 ساعات، مقارنةً باحتياجه لثلاثة مهندسين وستة شهور من العمل قبل سنتين.

كما تساعد قدرة الذكاء الاصطناعي على معالجة كميات هائلة من البيانات في تحسين قدرات الرعاية الصحية، فيستخدم على سبيل المثال في التشخيص المبكر للأمراض، مثل الخرف والزهايمر والسرطان، وكذلك في تطوير الأدوية. ما لن يقتصر على إنقاذ الأرواح، بل وتوفير الأدوية باهظة الثمن بتكلفة أقل.

يساعد الذكاء الاصطناعي الشركات في اتخاذ قرارات مدروسة، فعلى سبيل المثال، تعتمد شركة “سيلز فورس” على منصة وكيل الذكاء الاصطناعي “أجينت فورس” (Agentforce)، والتي إما تُخصص لدور المساعد في ترتيب المهام، أو لدور مستقل يحدد المسار الأفضل لتنفيذ مهمة، مثل حل مشكلة ما، وتطبيق الحل.

4) ماذا عن سلبيات استخدام الذكاء الاصطناعي؟

رغم فوائد تبني الذكاء الاصطناعي، إلا أنها تنطوي على جوانب سلبية أيضاً. فأشار تقرير لصندوق النقد الدولي في 2024 إلى أن الذكاء الاصطناعي سيؤثر على 40% من الوظائف العالمية، وأن الدول المتقدمة ستكون أشد تأثراً مقارنة بنظيراتها النامية.

كما كشفت “سيلز فورس” أن استخدام أدوات الذكاء الاصطناعي داخلياً مكنها من تعيين عدد أقل من المهندسين وموظفي خدمة العملاء، وستعيّن عدداً أكبر من موظفي المبيعات، وتعتزم الشركة نقل 500 موظف في خدمة العملاء إلى وظائف أخرى في الشركة هذا العام. فيما كان مهندسو البرمجيات الأشد تأثراً بموجة خفض الوظائف التي أعلنت عنها “مايكروسوفت” في وقت سابق من هذا الشهر.

لا تقدم نماذج الذكاء الاصطناعي إجابات صحيحة دوماً، فهناك ما يوصف بـ”بالهلوسة”، ومن أمثلتها تقديم بيانات غير مُحدثة قدمها نموذج “سارة” الذي أطلقته منظمة الصحة العالمية في أبريل الماضي بشأن علاج للزهايمر. إلى جانب قيام نماذج أخرى باختلاق سوابق قضائية في دعوى مقامة ضد “ولمارت”، ومصادر غير صحيحة في قضية بشأن حقوق النشر ضد شركة “أنثروبيك” (Anthropic).

فضلاً عن ذلك، أظهر تقرير أجراه فريق “بلومبرغ” في 2023 أن عند طلب توليد صور عبر النصوص من الذكاء الاصطناعي لمهن معينة، أو حتى مرتكبي جرائم بعينها، كانت الصور التي أنتجها الذكاء الاصطناعي متحيزة من حيث لون البشرة -باعتباره ليس معياراً للعرق- والنوع. فمثلاً أظهرت غالبية الرؤساء التنفيذيين من الرجال البيض، وأصحاب البشرة السمراء في وظائف أقل مرتبة.

ونظراً لأن الذكاء الاصطناعي يعتمد على مراكز بيانات ورقائق وحواسيب فائقة وطاقة لتشغيل كل ذلك، فإن إنشاء هذه البنية التحتية يحتاج لمبالغ ضخمة.

كذلك يؤدي الاعتماد على الذكاء الاصطناعي إلى تقليل الحس الإبداعي لدى الأشخاص، وقدرتهم على التفكير المستقل. فما دام يمكنك أن تطلب من الذكاء الاصطناعي إنتاج هذه الصورة، أو تأليف هذا المحتوى، ستتراجع قدرتك على الابتكار والإبداع.

5) هل هناك مخاوف مرتبطة بتبني الذكاء الاصطناعي؟

يستهلك مجال الذكاء الاصطناعي كميات هائلة من الكهرباء لتشغيل البنية التحتية اللازمة، والماء لتبريدها. فعلى سبيل المثال، توقعت وكالة الطاقة الدولية، في تقرير صدر أبريل الماضي، أن يتضاعف طلب مراكز البيانات على الكهرباء بحلول 2030، وستكون مصادر توليد الحمل الأساسي -مثل الغاز- هي الأنسب غالباً لتلبية أنماط الطلب، وحيث إن بعض أكبر مراكز البيانات المخطط لإنشائها ستستهلك كهرباء تعادل استهلاك 5 ملايين منزل، سيكون لذلك تأثير كبير على انبعاثات الغازات الدفيئة. وتشير توقعات الوكالة إلى أن طلب مراكز البيانات على الكهرباء بحلول 2035 سيتراوح ما بين 700 إلى 1700 تيراواط في الساعة.

 

من جهة أخرى، يعتزم الاتحاد الأوروبي العمل على وضع معايير للحد الأدنى من الأداء بهدف تقليل استهلاك المياه في مراكز البيانات. ويشير أحد التحليلات إلى أن مركز البيانات يحتاج نحو 500 ملليلتر من الماء لتوليد ما بين 10 إلى 50 إجابة متوسطة الطول من نموذج الجيل الثالث من المحول التوليدي مسبق التدريب (GPT-3)، بينما يستهلك توليد الصور والفيديوهات كميات أكبر بكثير.

تشير ادعاءات استخدام الذكاء الاصطناعي في المنتجات، أو ما يُطلق عليه مصطلح “AI Wash”، إلى ظاهرة قيام بعض الشركات بادعاء استخدام الذكاء الاصطناعي في منتجاتها أو خدماتها، بشكل مبالغ فيه أو غير دقيق، وذلك بهدف جذب المستثمرين أو العملاء أو حتى رفع القيمة السوقية. تماماً كما حدث سابقاً مع مفهوم “البيئة الخضراء” (greenwashing)، حيث كانت شركات تدّعي أنها صديقة للبيئة دون أن تكون كذلك فعلياً.

وأعلنت “بيدلر إيه آي” (Builder.ai)، شركة الذكاء الاصطناعي الناشئة البريطانية، أواخر الشهر الماضي أنها سترفع دعوى إفلاس، بعد توقع ادعاءات استخدام الذكاء الاصطناعي في منتجاتها، مما يوضح مدى عمق وتأثير هذه الاتهامات.

يعد التزييف والاحتيال من بين المخاوف المرتبطة بالذكاء الاصطناعي أيضاً، إذ تنتشر على الإنترنت صور وفيديوهات ومقاطع صوتية مُنتجة بتقنية “التزييف العميق” (Deepfake)، فعلى سبيل المثال، قبل الانتخابات الرئاسية التمهيدية في “نيوهامشير” في 2024، تلقى سكان الولاية مكالمات آلية بصوت الرئيس السابق بايدن يحثهم على التزام منازلهم و”حفظ أصواتهم لانتخابات نوفمبر”، بل حتى شملت المكالمة إحدى عبارات بايدن المميزة: “يا له من كلام فارغ”.

 

أما عن مخاوف الخروج عن السيطرة، أوضح يوشوا بنجيو، أستاذ علوم الحاسوب في جامعة مونتريال، وأحد “العرابين” الثلاثة للذكاء الاصطناعي، إن خلال الشهور الماضية، تراكمت الأدلة العلمية على سلوكيات لدى الذكاء الاصطناعي مثل النزعة لحماية الذات والخداع والقرصنة والغش والكذب، وأضاف أن “ما يثير قلقي هو أن وتيرة هذه السلوكيات تتسارع كلما تطوّرت قدرات هذه الأنظمة على التفكير المنطقي”.

كذلك حاول نموذج “آر ون” (R1)، الذي طورته “ديب سيك”، خلال محاكاة مخبرية أتاحت له التحكم في روبوت وإمكانية الوصول إلى شبكة حاسوبية، التسلل إلى أنظمة المختبر دون أي توجيه مسبق، وبحث عن كلمات مرور، وعطّل أدوات حمايته الأخلاقية، كما أعد طرقاً سرية لنسخ نفسه إلى خوادم خارجية لضمان استمراره حال إيقافه، بل زوّر سجلات الحاسوب الخارجي لإخفاء ما كان يقوم به، بحسب دراسة نشرتها منظمة “سي أو إيه آي ريسيرش” في فبراير الماضي.

وكل هذا بعيداً عن السعي المحموم إلى الوصول إلى الذكاء الاصطناعي العام (AGI)، وهو ذكاء اصطناعي يضاهي قدرات البشر الفكرية. وتصل مخاوف البعض من هذه التكنولوجيا التي لن تحتاج لتدخل بشري إلى توقع ما يشبه ثورة الآلات في فيلم الخيال العلمي “ذا ترميناتور” (The Terminator) الذي صدر في الثمانينيات.

6) ما الإجراءات التي يمكن اتخاذها لتنظيم الذكاء الاصطناعي ومنع إساءة استخدامه؟

يقع عبء تنظيم الذكاء الاصطناعي على طرفين، الدول باعتبارها المسؤولة عن إصدار القوانين، والشركات بصفتها مطورة التكنولوجيا والمنوطة بوضع حواجز الأمان.

فعلى سبيل المثال، أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي (AI Act) في مارس 2024، ولا يقتصر القانون، الذي دخل حيز التنفيذ في الأول من أغسطس الماضي، على الذكاء الاصطناعي، بل ويشمل المجال الرقمي. 

أما في الولايات المتحدة، حيث أعربت الإدارة الأميركية عن نيتها اتباع نهج عدم التدخل في تنظيم الذكاء الاصطناعي، ورغم تصديق الرئيس دونالد ترمب على قانون “إزالة المحتوى” (Take It Down Act) الذي يُجرم المواد الإباحية غير التوافقية باستخدام الذكاء الاصطناعي، لا يوجد تشريع فيدرالي ينظم التكنولوجيا. غير أن، ولايات كاليفورنيا وكولورادو ويوتا أصدرت قوانينها لتنظيم الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *