أزمة الذكاء الاصطناعي بين OpenAI وAnthropic
أكدت OpenAI أن لديها نفس الخطوط الحمراء مثل Anthropic في التعامل مع البنتاغون، مشيرة إلى المخاوف بشأن استخدام الذكاء الاصطناعي في الأسلحة. سام ألتمان يدعو لتعاون آمن يحمي الريادة الأمريكية في الذكاء الاصطناعي. خَبَرَيْن.

مخاوف OpenAI بشأن التعاون مع البنتاغون
أكد متحدث باسم شركة OpenAI أن الشركة المصنعة لـ ChatGPT لديها نفس الخطوط الحمراء التي لدى شركة Anthropic عندما يتعلق الأمر بالعمل مع البنتاغون.
التحديات المرتبطة باستخدام الذكاء الاصطناعي في الجيش
وهذا يعني أنه حتى إذا قرر البنتاغون إلغاء عقد Anthropic لصالح OpenAI، فسيتعين عليه التعامل مع نفس المخاوف بشأن استخدام الذكاء الاصطناعي في الأسلحة ذاتية التشغيل والمراقبة الجماعية للمواطنين الأمريكيين.
تصريحات سام ألتمان حول الوضع الحالي
قال الرئيس التنفيذي لشركة OpenAI سام ألتمان في مقابلة صباح يوم الجمعة إنه من المهم أن تعمل الشركات مع البنتاجون، "طالما أنها ستمتثل للحماية القانونية" و"الخطوط الحمراء القليلة" التي لدى OpenAI والكثيرين في صناعة الذكاء الاصطناعي عندما يتعلق الأمر باستخدام الذكاء الاصطناعي في الجيش.
وتابع ألتمان قائلاً: "على الرغم من كل الاختلافات التي لدي مع شركة Anthropic إلا أنني أثق بهم كشركة في الغالب، وأعتقد أنهم يهتمون حقاً بالسلامة، وكنت سعيداً بدعمهم لمقاتلينا في الحرب". "لست متأكدًا إلى أين سيصل هذا الأمر."
التواصل بين OpenAI والبنتاغون
وقال مصدر مطلع على الوضع إن ألتمان تواصل مباشرة مع البنتاجون هذا الأسبوع معربًا عن قلقه من إعلان هيجسيث أن Anthropic خطرًا على سلسلة التوريد أو استخدام قانون المشتريات الدفاعية لإجبار Anthropic على العمل مع الجيش.
موقف شركة Anthropic من التعاون العسكري
كان نظام كلود التابع لـ Anthropic هو أول نموذج ذكاء اصطناعي يستخدم للعمل على الأنظمة السرية للجيش. لكن البنتاغون أمهل الشركة حتى الساعة 5:01 مساء يوم الجمعة للموافقة على إسقاط حواجزها الداخلية والسماح باستخدام نظامها في "جميع الاستخدامات القانونية". إذا لم توافق Anthropic ستخسر عقدًا بقيمة 200 مليون دولار مع البنتاجون ويمكن أن يتم تصنيفها على أنها "خطر على سلسلة التوريد"، وهي نفس التسمية التي تطلق على الشركات المرتبطة بالخصوم الأجانب.
المخاوف المتعلقة بالأسلحة ذاتية التشغيل
قالت Anthropic إنها تريد العمل مع البنتاغون، لكن مخاوفها بشأن استخدام الذكاء الاصطناعي في الأسلحة ذاتية التشغيل والمراقبة الجماعية تنبع من مخاوف من أن التكنولوجيا لا تزال غير موثوقة في هذه الحالات. وقالت الشركة أيضًا إن القوانين واللوائح الحالية لا تأخذ في الحسبان بشكل صحيح التطورات في مجال الذكاء الاصطناعي.
اقتراح OpenAI للبنتاغون
وفي مذكرة لموظفي OpenAI يوم الخميس، قال ألتمان: "لم تعد هذه مشكلة بين شركة Anthropic ووزارة الدفاع فحسب، بل هي مشكلة للصناعة بأكملها ومن المهم توضيح موقفنا". وأضاف أن لدى OpenAI اقتراحًا للبنتاغون يعتقدون أنه سيسمح "بنشر نماذجنا في بيئات سرية وهذا يتناسب مع مبادئنا" التي يمكن أن تعمل مع مختبرات الذكاء الاصطناعي الأخرى أيضًا.
"نحن نعتقد أن هذا النزاع لا يتعلق بكيفية استخدام الذكاء الاصطناعي، بل يتعلق بالسيطرة. نحن نعتقد أن شركة أمريكية خاصة لا يمكن أن تكون أقوى من الحكومة الأمريكية المنتخبة ديمقراطيًا، على الرغم من أن الشركات يمكن أن يكون لها الكثير من المدخلات والتأثير"، تابع ألتمان في المذكرة، التي أوردتها لأول مرة صحيفة وول ستريت جورنال.
التداعيات المحتملة على الأمن القومي
شاهد ايضاً: تجري حالياً تجربة رائدة لدراسة إدمان وسائل التواصل الاجتماعي. وقد تُشعل هذه التجربة سلسلة من ردود الفعل.
"إن الطريقة التي يسير بها الوضع الحالي تخاطر بأمننا القومي، كما تخاطر بلجوء الحكومة إلى إجراءات قد تهدد الريادة الأمريكية في مجال الذكاء الاصطناعي. نود أن نحاول المساعدة في تهدئة الأمور." كتب ألتمان.
OpenAI هي واحدة من عدة شركات ذكاء اصطناعي وقعت صفقات مع البنتاغون الصيف الماضي "لتطوير نماذج أولية لقدرات ذكاء اصطناعي حدودية لمواجهة تحديات الأمن القومي الحرجة في مجالي القتال الحربي والمؤسسات"، حسبما قال البنتاغون في ذلك الوقت. لكن Anthropic كلود كان النموذج الوحيد المستخدم في النظام السري للجيش حتى وقت قريب. وقد صرح مسؤول في البنتاغون هذا الأسبوع أن نموذج إيلون ماسك Grok التابع لشركة إيلون ماسك "على استعداد لاستخدامه في بيئة سرية"، في حين أن الشركات الأخرى بما في ذلك OpenAI كانت "قريبة".
أخبار ذات صلة

تقرير: الذكاء الاصطناعي يلتهم شرائح الذاكرة العالمية، مما يؤدي إلى ارتفاع أسعار الهواتف الذكية إلى مستويات قياسية

من يتحكم في منصة تيك توك الأمريكية بموجب الاتفاق الجديد؟
