خَبَرَيْن logo

أزمة الذكاء الاصطناعي بين OpenAI وAnthropic

أكدت OpenAI أن لديها نفس الخطوط الحمراء مثل Anthropic في التعامل مع البنتاغون، مشيرة إلى المخاوف بشأن استخدام الذكاء الاصطناعي في الأسلحة. سام ألتمان يدعو لتعاون آمن يحمي الريادة الأمريكية في الذكاء الاصطناعي. خَبَرَيْن.

سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يتحدث في مؤتمر حول مخاوف استخدام الذكاء الاصطناعي في الجيش، مع خلفية شعار OpenAI.
يتحدث سام ألتمان، الرئيس التنفيذي لشركة Open AI، خلال قمة سنو فلايك 2025 في مركز موسكون، في 2 يونيو 2025، في سان فرانسيسكو، كاليفورنيا. جستين سوليفان/صور غيتي.
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

مخاوف OpenAI بشأن التعاون مع البنتاغون

أكد متحدث باسم شركة OpenAI أن الشركة المصنعة لـ ChatGPT لديها نفس الخطوط الحمراء التي لدى شركة Anthropic عندما يتعلق الأمر بالعمل مع البنتاغون.

التحديات المرتبطة باستخدام الذكاء الاصطناعي في الجيش

وهذا يعني أنه حتى إذا قرر البنتاغون إلغاء عقد Anthropic لصالح OpenAI، فسيتعين عليه التعامل مع نفس المخاوف بشأن استخدام الذكاء الاصطناعي في الأسلحة ذاتية التشغيل والمراقبة الجماعية للمواطنين الأمريكيين.

تصريحات سام ألتمان حول الوضع الحالي

قال الرئيس التنفيذي لشركة OpenAI سام ألتمان في مقابلة صباح يوم الجمعة إنه من المهم أن تعمل الشركات مع البنتاجون، "طالما أنها ستمتثل للحماية القانونية" و"الخطوط الحمراء القليلة" التي لدى OpenAI والكثيرين في صناعة الذكاء الاصطناعي عندما يتعلق الأمر باستخدام الذكاء الاصطناعي في الجيش.

شاهد ايضاً: ساعة العد التنازلي تقترب من موعد نهائي حاسم للبنتاغون بشأن أنثروبيك

وتابع ألتمان قائلاً: "على الرغم من كل الاختلافات التي لدي مع شركة Anthropic إلا أنني أثق بهم كشركة في الغالب، وأعتقد أنهم يهتمون حقاً بالسلامة، وكنت سعيداً بدعمهم لمقاتلينا في الحرب". "لست متأكدًا إلى أين سيصل هذا الأمر."

التواصل بين OpenAI والبنتاغون

وقال مصدر مطلع على الوضع إن ألتمان تواصل مباشرة مع البنتاجون هذا الأسبوع معربًا عن قلقه من إعلان هيجسيث أن Anthropic خطرًا على سلسلة التوريد أو استخدام قانون المشتريات الدفاعية لإجبار Anthropic على العمل مع الجيش.

موقف شركة Anthropic من التعاون العسكري

كان نظام كلود التابع لـ Anthropic هو أول نموذج ذكاء اصطناعي يستخدم للعمل على الأنظمة السرية للجيش. لكن البنتاغون أمهل الشركة حتى الساعة 5:01 مساء يوم الجمعة للموافقة على إسقاط حواجزها الداخلية والسماح باستخدام نظامها في "جميع الاستخدامات القانونية". إذا لم توافق Anthropic ستخسر عقدًا بقيمة 200 مليون دولار مع البنتاجون ويمكن أن يتم تصنيفها على أنها "خطر على سلسلة التوريد"، وهي نفس التسمية التي تطلق على الشركات المرتبطة بالخصوم الأجانب.

المخاوف المتعلقة بالأسلحة ذاتية التشغيل

شاهد ايضاً: ما تدور حوله حقًا قصة سلامة الذكاء الاصطناعي في أنثروبيك

قالت Anthropic إنها تريد العمل مع البنتاغون، لكن مخاوفها بشأن استخدام الذكاء الاصطناعي في الأسلحة ذاتية التشغيل والمراقبة الجماعية تنبع من مخاوف من أن التكنولوجيا لا تزال غير موثوقة في هذه الحالات. وقالت الشركة أيضًا إن القوانين واللوائح الحالية لا تأخذ في الحسبان بشكل صحيح التطورات في مجال الذكاء الاصطناعي.

اقتراح OpenAI للبنتاغون

وفي مذكرة لموظفي OpenAI يوم الخميس، قال ألتمان: "لم تعد هذه مشكلة بين شركة Anthropic ووزارة الدفاع فحسب، بل هي مشكلة للصناعة بأكملها ومن المهم توضيح موقفنا". وأضاف أن لدى OpenAI اقتراحًا للبنتاغون يعتقدون أنه سيسمح "بنشر نماذجنا في بيئات سرية وهذا يتناسب مع مبادئنا" التي يمكن أن تعمل مع مختبرات الذكاء الاصطناعي الأخرى أيضًا.

"نحن نعتقد أن هذا النزاع لا يتعلق بكيفية استخدام الذكاء الاصطناعي، بل يتعلق بالسيطرة. نحن نعتقد أن شركة أمريكية خاصة لا يمكن أن تكون أقوى من الحكومة الأمريكية المنتخبة ديمقراطيًا، على الرغم من أن الشركات يمكن أن يكون لها الكثير من المدخلات والتأثير"، تابع ألتمان في المذكرة، التي أوردتها لأول مرة صحيفة وول ستريت جورنال.

التداعيات المحتملة على الأمن القومي

شاهد ايضاً: تجري حالياً تجربة رائدة لدراسة إدمان وسائل التواصل الاجتماعي. وقد تُشعل هذه التجربة سلسلة من ردود الفعل.

"إن الطريقة التي يسير بها الوضع الحالي تخاطر بأمننا القومي، كما تخاطر بلجوء الحكومة إلى إجراءات قد تهدد الريادة الأمريكية في مجال الذكاء الاصطناعي. نود أن نحاول المساعدة في تهدئة الأمور." كتب ألتمان.

OpenAI هي واحدة من عدة شركات ذكاء اصطناعي وقعت صفقات مع البنتاغون الصيف الماضي "لتطوير نماذج أولية لقدرات ذكاء اصطناعي حدودية لمواجهة تحديات الأمن القومي الحرجة في مجالي القتال الحربي والمؤسسات"، حسبما قال البنتاغون في ذلك الوقت. لكن Anthropic كلود كان النموذج الوحيد المستخدم في النظام السري للجيش حتى وقت قريب. وقد صرح مسؤول في البنتاغون هذا الأسبوع أن نموذج إيلون ماسك Grok التابع لشركة إيلون ماسك "على استعداد لاستخدامه في بيئة سرية"، في حين أن الشركات الأخرى بما في ذلك OpenAI كانت "قريبة".

أخبار ذات صلة

Loading...
شعار شركة أنثروبيك مع خلفية بسيطة، يعكس التركيز على الذكاء الاصطناعي وتأثيره على الأمن القومي، كما يتناول الخلافات مع البنتاغون.

تقول أنثروبيك إن تصنيف مخاطر سلسلة الإمداد في البنتاغون سيكون له تأثير تجاري أقل مما كان متوقعًا

في خضم الصراع حول تصنيف البنتاغون لشركة أنثروبيك كخطر على الأمن القومي، تكشف الأحداث عن تعقيدات عالم الذكاء الاصطناعي. هل ستنجح أنثروبيك في تجاوز هذه العقبات؟ تابع القراءة لتكتشف المزيد عن مستقبلها.
تكنولوجيا
Loading...
آدم موسيري، رئيس إنستغرام، أثناء شهادته في المحكمة حول تأثير التطبيق على الصحة العقلية للمستخدمين الشباب.

رئيس إنستجرام ينفي أن تكون وسائل التواصل الاجتماعي "مُسببة للإدمان سريرياً" في قضية تاريخية

في محاكمة تاريخية، يدلي آدم موسيري، رئيس إنستغرام، بشهادته حول تأثير منصته على صحة الشباب العقلية. هل يمكن تحميل وسائل التواصل الاجتماعي مسؤولية الإدمان؟ تابع القراءة لاكتشاف التفاصيل المثيرة حول هذه القضية الشائكة.
تكنولوجيا
Loading...
طبيب يتفحص صور الأشعة السينية باستخدام عدسة مكبرة، مما يعكس دور الذكاء الاصطناعي في تحسين كفاءة العمل في مجال الأشعة.

لقد أصبحت هذه الوظيفة دراسة حالة نهائية حول سبب عدم استبدال الذكاء الاصطناعي للعمال البشريين

هل تساءلت كيف يمكن للذكاء الاصطناعي أن يعيد تشكيل مهنة الأشعة؟ تعرّف على كيفية تعزيز الذكاء الاصطناعي للكفاءة والفعالية في هذا المجال، دون استبدال الأطباء. اقرأ المزيد لتكتشف المستقبل المشرق الذي ينتظر هذه الصناعة!
تكنولوجيا
Loading...
تظهر الصورة "إليستون بيري" تتحدث في جلسة استماع، حيث تسلط الضوء على أهمية التوعية بمخاطر الصور العارية المزيفة.

تم استهداف هذه المراهقة بصور عارية مزيفة. تأمل أن يساعد دورة تدريبية جديدة الضحايا المستقبليين

هل شعرت يومًا بالخوف من انتشار صورة مزيفة لك؟ إليستون بيري، التي عانت من هذا الأمر، تسعى الآن لتثقيف الآخرين حول مخاطر الصور العارية المزيفة. انضم إلينا لتتعلم كيف تحمي نفسك وتساعد الآخرين في مواجهة هذا الامر.
تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية