وضع ليلي
شريط الأخبار

‎صفقة تاريخية تحت النار: سام ألتمان يعلن تعاون OpenAI مع البنتاغون وسط جدل أخلاقي محتدم ‎ ‎


 

عبد الرحيم لشقر

‎في خطوة وصفت بالتاريخية والمثيرة للجدل، أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن إبرام اتفاقية تسمح لوزارة الدفاع الأمريكية (البنتاغون) باستخدام نماذج الذكاء الاصطناعي المتطورة للشركة داخل شبكاتها السرية. الإعلان، الذي جاء في وقت متأخر من مساء الجمعة، يشكل نقطة تحول كبرى في العلاقة المتوترة بين عمالقة التكنولوجيا والمؤسسة العسكرية الأمريكية، ويفجر جدلاً أخلاقياً وسياسياً واسعاً.

‎هذه الصفقة لم تأت من فراغ، بل هي تتويج لصراع شرس على المبادئ. فقبل أيام فقط، كان المشهد مختلفاً تماماً مع شركة Anthropic، المنافس اللدود لـ OpenAI. البنتاغون، الذي يُطلق عليه الآن تحت الإدارة الحالية اسم "وزارة الحرب"، كان يضغط على شركات الذكاء الاصطناعي للموافقة على استخدام نماذجها "لجميع الأغراض المشروعة". ولكن Anthropic، بقيادة الرئيس التنفيذي داريو أمودي، وضعت خطاً أحمر صارماً، رافضةً بشكل قاطع استخدام تقنياتها في برامج المراقبة الجماعية المحلية أو تطوير أسلحة مستقلة بالكامل.

‎ذهب أمودي إلى أبعد من ذلك في بيان مطول، مؤكداً أن شركته لم تعترض على عمليات عسكرية محددة، ولكنها تعتقد اعتقاداً راسخاً أنه "في مجموعة ضيقة من الحالات، يمكن للذكاء الاصطناعي أن يقوض القيم الديمقراطية بدلاً من الدفاع عنها". موقف Anthropic الشجاع حظي بدعم واسع داخل وادي السيليكون، حيث وقع أكثر من 60 موظفاً من OpenAI نفسهم و300 من موظفي جوجل على رسالة مفتوحة تحث أصحاب العمل على تبني موقف مماثل.

‎لكن الرفض العنيد من Anthropic أثار غضب الإدارة الأمريكية. ففي منشور لاذع على وسائل التواصل الاجتماعي، هاجم الرئيس الأمريكي دونالد ترامب شخصياً "المجانين اليساريين في Anthropic"، وأصدر توجيهاً بوقف استخدام الوكالات الفيدرالية لمنتجات الشركة خلال ستة أشهر. ولم يتوقف الأمر عند هذا الحد، بل ذهب وزير الدفاع بيت هيغسيث إلى أبعد مدى بتصنيف Anthropic كمخاطر على سلسلة التوريد، محذراً أي متعامل مع البنتاغون من القيام بأي نشاط تجاري معها.

‎في هذا الجو المشحون بالتهديدات والعقوبات، ظهر سام ألمان ليعلن عن صفقة OpenAI، ولكن بطريقة مختلفة ومحسوبة بعناية. في منشور مفاجئ على منصة X، ادعى ألتمان أن الاتفاقية الجديدة تتضمن "ضمانات تقنية" تعالج بشكل مباشر المخاوف نفسها التي أثارتها Anthropic. وأكد أن مبدأين أساسيين من مبادئ السلامة لدى OpenAI تم تضمينهما في الاتفاقية وهما: "حظر المراقبة الجماعية المحلية" و"تحميل الإنسان المسؤولية الكاملة عن استخدام القوة، بما في ذلك أنظمة الأسلحة المستقلة". ووفقاً لألتمان، فإن وزارة الحرب لا توافق على هذه المبادئ فحسب، بل تكرسها في قوانينها وسياساتها.

‎لكن المفاجأة الأكبر كانت في التفاصيل. في اجتماع داخلي مع موظفي OpenAI، كشف ألتمان أن الحكومة سمحت للشركة ببناء "مجموعة أمان" خاصة بها داخل الأنظمة العسكرية لمنع أي إساءة استخدام. والأهم من ذلك، وفقاً لتقرير فورتشن، هو أن الاتفاقية تنص على أنه "إذا رفض النموذج تنفيذ مهمة ما، فلا يمكن للحكومة إجبار OpenAI على جعله ينفذها". هذا البند يمنح الشركة حق النقض (الفيتو) الفعلي على استخدام نماذجها، وهو ما يشبه إلى حد كبير الموقف الذي كانت تطالب به Anthropic ولكن دون جدوى.

‎التوقيت كان أكثر دراماتيكية. فبعد دقائق فقط من إعلان ألتمان، اندلعت أخبار عالمية عاجلة تفيد بشن الولايات المتحدة وإسرائيل غارات جوية على إيران، مع دعوة الرئيس ترامب إلى إسقاط الحكومة الإيرانية. هذا التزامن يضع صفقة OpenAI في سياق جيوسياسي شديد الحساسية، ويثير أسئلة عميقة حول دور الذكاء الاصطناعي في الصراعات المستقبلية.

‎ما حدث هو انقلاب في موازين القوى. فبينما اختارت Anthropic مواجهة الإدارة الأمريكية دفاعاً عن مبادئها، واجهت حصاراً شبه كامل. في المقابل، نجحت OpenAI في انتزاع موافقة البنتاغون على مبادئها الأخلاقية، بل وجعلتها جزءاً من العقد. السؤال الأكبر الآن: هل هذا انتصار للدبلوماسية التكنولوجية أم بداية عصر جديد يصبح فيه الذكاء الاصطناعي سلاحاً حربياً بضوابط هشة؟ الأيام المقبلة، تحت وقع القصف والغبار الرقمي، وحدها كفيلة بالإجابة.

‎عبد الرحيم لشقر

‎---



🔖 OpenAI 🔖 البنتاغون 🔖 الذكاء الاصطناعي 🔖 سام ألتمان 🔖 Anthropic 🔖 أخلاقيات الذكاء الاصطناعي 🔖 الأمن القومي 🔖 التسليح بالذكاء الاصطناعي 🔖 وادي السيليكون 🔖 صفقة تاريخية

التعليقات