خَبَرَيْن logo

لجنة OpenAI تقود جهود السلامة والأمان

OpenAI تشكل لجنة جديدة لضمان سلامة الذكاء الاصطناعي وتعلن عن تدريب نموذج جديد يخلف GPT-4. تفاصيل في مدونة خَبَرْيْن.

Loading...
OpenAI announces new safety board after employee revolt
OpenAI CEO Sam Altman Jason Redmond/AFP/Getty Images
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

تعلن شركة OpenAI عن تشكيل لجنة جديدة للسلامة بعد انتفاضة الموظفين

قالت شركة OpenAI يوم الثلاثاء إنها أنشأت لجنة جديدة لتقديم توصيات إلى مجلس إدارة الشركة بشأن السلامة والأمن، وذلك بعد أسابيع من حل فريق يركز على سلامة الذكاء الاصطناعي.

وفي منشور على مدونة الشركة، قالت OpenAI إن اللجنة الجديدة سيقودها الرئيس التنفيذي سام ألتمان بالإضافة إلى بريت تايلور، رئيس مجلس إدارة الشركة، وعضو مجلس الإدارة نيكول سيليغمان.

يأتي هذا الإعلان في أعقاب الخروج البارز هذا الشهر لمسؤول تنفيذي في OpenAI يركز على السلامة، وهو جان لايكي. استقال لايكي من شركة OpenAI موجهاً انتقادات بأن الشركة لم تستثمر بالقدر الكافي في أعمال السلامة في مجال الذكاء الاصطناعي وأن التوترات مع قيادة OpenAI "وصلت إلى نقطة الانهيار".

شاهد ايضاً: ميتا تضيف أصوات جودي دينش، جون سينا، وكيغان-مايكل كي إلى دردشتها الذكية بالذكاء الاصطناعي

كما تأتي هذه الاستقالة بعد رحيل إيليا سوتسكيفر، وهو قائد آخر في فريق OpenAI الذي يُطلق عليه اسم "المحاذاة الفائقة" الذي يركز على ضمان أن يخدم تطوير الذكاء الاصطناعي احتياجات الإنسان وأولوياته. وقد لعب سوتسكيفر دورًا رئيسيًا في الإطاحة المفاجئة بألتمان من منصبه كرئيس تنفيذي العام الماضي، ثم عاد ليغير مساره ويعلن دعمه لاحقًا لعودة ألتمان.

في وقت سابق من هذا الشهر، قال متحدث باسم OpenAI لشبكة CNN إن تفكيك فريق المواءمة الفائقة وإعادة تعيين هؤلاء الموظفين في جميع أنحاء الشركة سيساعدها على تحقيق أهدافها الفائقة بشكل أفضل.

في منشور على مدونتها يوم الثلاثاء، قالت OpenAI أيضاً أنها بدأت في تدريب نموذج ذكاء اصطناعي جديد ليخلف النموذج الذي يعمل حالياً على ChatGPT. وقالت الشركة إن نموذج الذكاء الاصطناعي الجديد الذي سيخلف GPT-4 سيكون خطوة أخرى على طريق الذكاء الاصطناعي العام.

شاهد ايضاً: فيرايزون تستحوذ على فرونتير في صفقة بقيمة 20 مليار دولار لتعزيز شبكة الألياف

وقالت الشركة: "في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة على حد سواء، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة".

وأضاف منشور المدونة: "ستكون المهمة الأولى للجنة السلامة والأمان هي تقييم وتطوير عمليات OpenAI والضمانات الخاصة بالذكاء الاصطناعي العام على مدار التسعين يومًا القادمة". "في نهاية التسعين يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس الإدارة بالكامل. بعد مراجعة مجلس الإدارة بالكامل، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتوافق مع السلامة والأمن."

أخبار ذات صلة

Loading...
‘Comfortable, fun, familiar’: Why Microsoft is trying to turn its AI chatbot into a digital friend

"مريح، ممتع، مألوف: لماذا تسعى مايكروسوفت لتحويل روبوت الدردشة الذكي إلى صديق رقمي"

تكنولوجيا
Loading...
Washington is waking up to AI’s risks about three years too late

تستيقظ واشنطن على مخاطر الذكاء الاصطناعي بعد ثلاث سنوات على الأقل

تكنولوجيا
Loading...
Uber will soon let riders book a shuttle to the airport

ستسمح أوبر قريبًا للركاب بحجز حافلة صغيرة إلى المطار

تكنولوجيا
Loading...
FCC fines wireless carriers millions for sharing user locations without consent

غرامة من هيئة الاتصالات الفدرالية على شركات الاتصال اللاسلكي بملايين الدولارات لمشاركة مواقع المستخدمين بدون موافقة

تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية