لجنة OpenAI تقود جهود السلامة والأمان
OpenAI تشكل لجنة جديدة لضمان سلامة الذكاء الاصطناعي وتعلن عن تدريب نموذج جديد يخلف GPT-4. تفاصيل في مدونة خَبَرْيْن.
تعلن شركة OpenAI عن تشكيل لجنة جديدة للسلامة بعد انتفاضة الموظفين
قالت شركة OpenAI يوم الثلاثاء إنها أنشأت لجنة جديدة لتقديم توصيات إلى مجلس إدارة الشركة بشأن السلامة والأمن، وذلك بعد أسابيع من حل فريق يركز على سلامة الذكاء الاصطناعي.
وفي منشور على مدونة الشركة، قالت OpenAI إن اللجنة الجديدة سيقودها الرئيس التنفيذي سام ألتمان بالإضافة إلى بريت تايلور، رئيس مجلس إدارة الشركة، وعضو مجلس الإدارة نيكول سيليغمان.
يأتي هذا الإعلان في أعقاب الخروج البارز هذا الشهر لمسؤول تنفيذي في OpenAI يركز على السلامة، وهو جان لايكي. استقال لايكي من شركة OpenAI موجهاً انتقادات بأن الشركة لم تستثمر بالقدر الكافي في أعمال السلامة في مجال الذكاء الاصطناعي وأن التوترات مع قيادة OpenAI "وصلت إلى نقطة الانهيار".
كما تأتي هذه الاستقالة بعد رحيل إيليا سوتسكيفر، وهو قائد آخر في فريق OpenAI الذي يُطلق عليه اسم "المحاذاة الفائقة" الذي يركز على ضمان أن يخدم تطوير الذكاء الاصطناعي احتياجات الإنسان وأولوياته. وقد لعب سوتسكيفر دورًا رئيسيًا في الإطاحة المفاجئة بألتمان من منصبه كرئيس تنفيذي العام الماضي، ثم عاد ليغير مساره ويعلن دعمه لاحقًا لعودة ألتمان.
في وقت سابق من هذا الشهر، قال متحدث باسم OpenAI لشبكة CNN إن تفكيك فريق المواءمة الفائقة وإعادة تعيين هؤلاء الموظفين في جميع أنحاء الشركة سيساعدها على تحقيق أهدافها الفائقة بشكل أفضل.
في منشور على مدونتها يوم الثلاثاء، قالت OpenAI أيضاً أنها بدأت في تدريب نموذج ذكاء اصطناعي جديد ليخلف النموذج الذي يعمل حالياً على ChatGPT. وقالت الشركة إن نموذج الذكاء الاصطناعي الجديد الذي سيخلف GPT-4 سيكون خطوة أخرى على طريق الذكاء الاصطناعي العام.
شاهد ايضاً: تيك توك أمام 15 دقيقة للدفاع عن وجوده
وقالت الشركة: "في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة على حد سواء، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة".
وأضاف منشور المدونة: "ستكون المهمة الأولى للجنة السلامة والأمان هي تقييم وتطوير عمليات OpenAI والضمانات الخاصة بالذكاء الاصطناعي العام على مدار التسعين يومًا القادمة". "في نهاية التسعين يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس الإدارة بالكامل. بعد مراجعة مجلس الإدارة بالكامل، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتوافق مع السلامة والأمن."