بروفايل: داريو أمودي (Anthropic) — الناقد الأخلاقي لـ OpenAI
في أبريل 2026، وصل داريو أمودي إلى البيت الأبيض لمفاوضات حول نزاع تاريخي مع وزارة الحرب حول استخدام الذكاء الاصطناعي في العمليات العسكرية. أمودي، الذي ترك OpenAI عام 2021 معترضاً على تقديم الأرباح على الأمان، أسس Anthropic بتقييم وصل إلى 380 مليار دولار في 2026. كنائب رئيس البحث في OpenAI، قاد تطوير نماذج GPT-2 و GPT-3، لكنه اختار مساراً مختلفاً يركز على دمج مبادئ أخلاقية في الذكاء الاصطناعي عبر تقنية Constitutional AI. تجسد معركته مع OpenAI الانقسام الأساسي حول ما إذا كان يجب أن يكون الأمان أم السرعة هو الأولوية في سباق الذكاء الاصطناعي العالمي.
المسار الزمني
انضم إلى OpenAI كباحث ورتقى إلى نائب رئيس البحث
قاد تطوير نماذج GPT-2 و GPT-3 وخوارزميات التعلم المعزز
تركت OpenAI مع شقيقته Daniela لتأسيس Anthropic بسبب اختلافات حول الأمان
إطلاق Claude مع قدرات استدلالية تفوقت على GPT-4
إطلاق سلسلة Claude 3 مع دعم معالجة متعددة الأنماط
وصول تقييم Anthropic إلى 60 مليار دولار ثم 380 مليار
قاد نزاعاً حاداً مع OpenAI حول عقد وزارة الحرب العسكري
وصول إلى البيت الأبيض في أبريل للمفاوضات مع رئيس الموظفين
الخروج التاريخي من OpenAI والتفريق الأخلاقي
عام 2021، ترك أمودي OpenAI حيث كان نائب رئيس البحث يقود تطوير نماذج GPT-2 و GPT-3، بسبب اختلافات حول التجارية والأمان. أسس Anthropic مع فريقه، ركزت الشركة على الأمان والتفسيرية وتبنت إطار Constitutional AI لتدريب نماذج بمبادئ أخلاقية. هذا الانقسام لم يكن شخصياً وحسب، بل عكس فلسفة مختلفة جذرياً حول المسؤولية في بناء الذكاء الاصطناعي. حققت Anthropic استثمارات بقيمة 4 مليارات من Amazon و 2 مليار من Google، وصلت إلى تقييم 60 مليار عام 2025.
نزاع وزارة الحرب الأخلاقي: رسم الخط الأحمر
في فبراير 2026، فشلت Anthropic ووزارة الدفاع في الاتفاق على الطلب العسكري للوصول غير المقيد، حيث أصرت Anthropic على أن لا تستخدم وزارة الحرب الذكاء الاصطناعي لتمكين المراقبة الجماعية المحلية أو الأسلحة ذاتية التحكم. في رسالة لموظفيها، أشار أمودي إلى رسائل OpenAI بأنها "أكاذيب محضة" واصفاً التعامل مع وزارة الدفاع بـ "مسرح الأمان"، قائلاً "السبب الرئيسي أن OpenAI قبلت الصفقة بينما رفضنا هو أنهم اهتموا برضاء الموظفين، بينما نحن اهتممنا فعلاً بمنع الإساءات". 2026 شهد حدثاً فاصلاً في صناعة الذكاء الاصطناعي.
الضغط التجاري مقابل القيم: المعضلة الحقيقية
أقرّ أمودي في حوار بودكاست أن Anthropic تواجه ضغطاً تجارياً ضخماً لمواصلة الابتكار والاستقلال مالياً، موضحاً أنهم يقومون بأكثر العمل الأمني من الشركات الأخرى. بنت Anthropic نموذجها Claude بالأمان في الذهن من خلال نهج Constitutional AI الذي يعطي القيم بدلاً من القواعس، وقررت عدم إطلاق أي ذكاء اصطناعي قادر على إحداث ضرر كارثي. قال أمودي إنه إذا جلست Anthropic على الهامش، "سنخسر فقط وسنتوقف عن الوجود كشركة". 2026 أظهرت أن الشركة تتراقص على حافة صعبة جداً.
الجدل والانتقادات: الخط الفاصل بين المبادئ والنفاق
تأسست Anthropic من قبل باحثين سابقين في OpenAI يعتقدون أن OpenAI تتحرك بسرعة كبيرة والتفاتاً للأمان، لكن الانتقادات موجهة ضد محرمات السلامة التي أعلنتها Anthropic نفسها. عتذر أمودي عن "النبرة" في رسالته الداخلية المسربة، مشيراً إلى أنها كُتبت في غضون ساعات من سلسلة من الإعلانات الفوضوية ولم تعكس آراءه "المعقولة والمدروسة". أنكر أمودي أن تكون Anthropic تمارس "مسرح الأمان" لكنه اعترف على بودكاست أن الشركة تكافح أحياناً لموازنة الأمان والأرباح، قائلاً "نحن تحت ضغط تجاري مذهل ونجعله أصعب لأنفسنا لأن لدينا كل هذا الأمان الذي نفعله". النقد الحقيقي هو ما إذا كانت المبادئ حقيقية أم مجرد تسويق ذكي.
