خَبَرَيْن logo

لجنة OpenAI تقود جهود السلامة والأمان

OpenAI تشكل لجنة جديدة لضمان سلامة الذكاء الاصطناعي وتعلن عن تدريب نموذج جديد يخلف GPT-4. تفاصيل في مدونة خَبَرْيْن.

Loading...
OpenAI announces new safety board after employee revolt
OpenAI CEO Sam Altman Jason Redmond/AFP/Getty Images
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

تعلن شركة OpenAI عن تشكيل لجنة جديدة للسلامة بعد انتفاضة الموظفين

قالت شركة OpenAI يوم الثلاثاء إنها أنشأت لجنة جديدة لتقديم توصيات إلى مجلس إدارة الشركة بشأن السلامة والأمن، وذلك بعد أسابيع من حل فريق يركز على سلامة الذكاء الاصطناعي.

وفي منشور على مدونة الشركة، قالت OpenAI إن اللجنة الجديدة سيقودها الرئيس التنفيذي سام ألتمان بالإضافة إلى بريت تايلور، رئيس مجلس إدارة الشركة، وعضو مجلس الإدارة نيكول سيليغمان.

يأتي هذا الإعلان في أعقاب الخروج البارز هذا الشهر لمسؤول تنفيذي في OpenAI يركز على السلامة، وهو جان لايكي. استقال لايكي من شركة OpenAI موجهاً انتقادات بأن الشركة لم تستثمر بالقدر الكافي في أعمال السلامة في مجال الذكاء الاصطناعي وأن التوترات مع قيادة OpenAI "وصلت إلى نقطة الانهيار".

شاهد ايضاً: ميرا مراتي، المديرة التقنية لشركة أوبن أي، تغادر الشركة في أحدث تغيير إداري

كما تأتي هذه الاستقالة بعد رحيل إيليا سوتسكيفر، وهو قائد آخر في فريق OpenAI الذي يُطلق عليه اسم "المحاذاة الفائقة" الذي يركز على ضمان أن يخدم تطوير الذكاء الاصطناعي احتياجات الإنسان وأولوياته. وقد لعب سوتسكيفر دورًا رئيسيًا في الإطاحة المفاجئة بألتمان من منصبه كرئيس تنفيذي العام الماضي، ثم عاد ليغير مساره ويعلن دعمه لاحقًا لعودة ألتمان.

في وقت سابق من هذا الشهر، قال متحدث باسم OpenAI لشبكة CNN إن تفكيك فريق المواءمة الفائقة وإعادة تعيين هؤلاء الموظفين في جميع أنحاء الشركة سيساعدها على تحقيق أهدافها الفائقة بشكل أفضل.

في منشور على مدونتها يوم الثلاثاء، قالت OpenAI أيضاً أنها بدأت في تدريب نموذج ذكاء اصطناعي جديد ليخلف النموذج الذي يعمل حالياً على ChatGPT. وقالت الشركة إن نموذج الذكاء الاصطناعي الجديد الذي سيخلف GPT-4 سيكون خطوة أخرى على طريق الذكاء الاصطناعي العام.

شاهد ايضاً: في تحول مفاجئ، شركة "إكس" التابعة لماسك تبدأ بالامتثال لأوامر المحكمة في البرازيل

وقالت الشركة: "في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة على حد سواء، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة".

وأضاف منشور المدونة: "ستكون المهمة الأولى للجنة السلامة والأمان هي تقييم وتطوير عمليات OpenAI والضمانات الخاصة بالذكاء الاصطناعي العام على مدار التسعين يومًا القادمة". "في نهاية التسعين يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس الإدارة بالكامل. بعد مراجعة مجلس الإدارة بالكامل، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتوافق مع السلامة والأمن."

أخبار ذات صلة

Loading...
Google pulls Olympics ad that showed AI writing a little girl’s letter for her

جوجل تسحب إعلان الأولمبياد الذي أظهر الذكاء الاصطناعي يكتب رسالة لفتاة صغيرة

تكنولوجيا
Loading...
Meta accused of breaking European law with its ‘pay or consent’ model

ٌُُُأتهمت ميتا بانتهاك القانون الأوروبي من خلال نموذجها "الدفع أو الموافقة"

تكنولوجيا
Loading...
Big Tech execs say Europe’s new AI law could harm innovation

يقول المسؤولون التنفيذيون في شركات التكنولوجيا الكبرى إن قانون الذكاء الاصطناعي الجديد في أوروبا قد يؤثر سلبًا على الابتكار

تكنولوجيا
Loading...
OpenAI unveils newest AI model, GPT-4o

تكشف OpenAI عن أحدث نموذج للذكاء الاصطناعي، GPT-4o

تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية