لجنة OpenAI تقود جهود السلامة والأمان
OpenAI تشكل لجنة جديدة لضمان سلامة الذكاء الاصطناعي وتعلن عن تدريب نموذج جديد يخلف GPT-4. تفاصيل في مدونة خَبَرْيْن.

تشكيل لجنة جديدة للسلامة في OpenAI
قالت شركة OpenAI يوم الثلاثاء إنها أنشأت لجنة جديدة لتقديم توصيات إلى مجلس إدارة الشركة بشأن السلامة والأمن، وذلك بعد أسابيع من حل فريق يركز على سلامة الذكاء الاصطناعي.
قيادة اللجنة الجديدة
وفي منشور على مدونة الشركة، قالت OpenAI إن اللجنة الجديدة سيقودها الرئيس التنفيذي سام ألتمان بالإضافة إلى بريت تايلور، رئيس مجلس إدارة الشركة، وعضو مجلس الإدارة نيكول سيليغمان.
استقالة جان لايكي وتأثيرها على الشركة
يأتي هذا الإعلان في أعقاب الخروج البارز هذا الشهر لمسؤول تنفيذي في OpenAI يركز على السلامة، وهو جان لايكي. استقال لايكي من شركة OpenAI موجهاً انتقادات بأن الشركة لم تستثمر بالقدر الكافي في أعمال السلامة في مجال الذكاء الاصطناعي وأن التوترات مع قيادة OpenAI "وصلت إلى نقطة الانهيار".
رحيل إيليا سوتسكيفر ودوره في الأحداث الأخيرة
كما تأتي هذه الاستقالة بعد رحيل إيليا سوتسكيفر، وهو قائد آخر في فريق OpenAI الذي يُطلق عليه اسم "المحاذاة الفائقة" الذي يركز على ضمان أن يخدم تطوير الذكاء الاصطناعي احتياجات الإنسان وأولوياته. وقد لعب سوتسكيفر دورًا رئيسيًا في الإطاحة المفاجئة بألتمان من منصبه كرئيس تنفيذي العام الماضي، ثم عاد ليغير مساره ويعلن دعمه لاحقًا لعودة ألتمان.
أهداف OpenAI وتوجهاتها المستقبلية
في وقت سابق من هذا الشهر، قال متحدث باسم OpenAI لشبكة CNN إن تفكيك فريق المواءمة الفائقة وإعادة تعيين هؤلاء الموظفين في جميع أنحاء الشركة سيساعدها على تحقيق أهدافها الفائقة بشكل أفضل.
تدريب نموذج ذكاء اصطناعي جديد
في منشور على مدونتها يوم الثلاثاء، قالت OpenAI أيضاً أنها بدأت في تدريب نموذج ذكاء اصطناعي جديد ليخلف النموذج الذي يعمل حالياً على ChatGPT. وقالت الشركة إن نموذج الذكاء الاصطناعي الجديد الذي سيخلف GPT-4 سيكون خطوة أخرى على طريق الذكاء الاصطناعي العام.
أهمية النقاش حول السلامة والأمان
شاهد ايضاً: تواجه جوجل دعوى قضائية بقيمة 6.6 مليار دولار في بريطانيا بتهمة استغلال الهيمنة في البحث عبر الإنترنت
وقالت الشركة: "في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة على حد سواء، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة".
المهمة الأولى للجنة السلامة والأمان
وأضاف منشور المدونة: "ستكون المهمة الأولى للجنة السلامة والأمان هي تقييم وتطوير عمليات OpenAI والضمانات الخاصة بالذكاء الاصطناعي العام على مدار التسعين يومًا القادمة". "في نهاية التسعين يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس الإدارة بالكامل. بعد مراجعة مجلس الإدارة بالكامل، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتوافق مع السلامة والأمن."
أخبار ذات صلة

صحيفة "Vanguardia" الإسبانية تتخلى عن "شبكة المعلومات المضللة" X

الحكومة الأمريكية تقاضي تيك توك بتهمة انتهاك قانون حماية خصوصية الأطفال

ما هي شركة كراودسترايك، الشركة المرتبطة بالانقطاع العالمي؟
