لجنة OpenAI تقود جهود السلامة والأمان
OpenAI تشكل لجنة جديدة لضمان سلامة الذكاء الاصطناعي وتعلن عن تدريب نموذج جديد يخلف GPT-4. تفاصيل في مدونة خَبَرْيْن.
![إعلان من OpenAI عن تشكيل لجنة جديدة للسلامة والأمن برئاسة سام ألتمان، بعد تغييرات في فريق السلامة.](https://inkwell-oasis-s3.s3.us-west-1.amazonaws.com/khabaren/openai_announces_new_safety_board_after_employee_revolt_3h84b84_68c6adac26.webp)
تعلن شركة OpenAI عن تشكيل لجنة جديدة للسلامة بعد انتفاضة الموظفين
قالت شركة OpenAI يوم الثلاثاء إنها أنشأت لجنة جديدة لتقديم توصيات إلى مجلس إدارة الشركة بشأن السلامة والأمن، وذلك بعد أسابيع من حل فريق يركز على سلامة الذكاء الاصطناعي.
وفي منشور على مدونة الشركة، قالت OpenAI إن اللجنة الجديدة سيقودها الرئيس التنفيذي سام ألتمان بالإضافة إلى بريت تايلور، رئيس مجلس إدارة الشركة، وعضو مجلس الإدارة نيكول سيليغمان.
يأتي هذا الإعلان في أعقاب الخروج البارز هذا الشهر لمسؤول تنفيذي في OpenAI يركز على السلامة، وهو جان لايكي. استقال لايكي من شركة OpenAI موجهاً انتقادات بأن الشركة لم تستثمر بالقدر الكافي في أعمال السلامة في مجال الذكاء الاصطناعي وأن التوترات مع قيادة OpenAI "وصلت إلى نقطة الانهيار".
شاهد ايضاً: رئيس سامسونج يُبرأ من تهم الاحتيال وتلاعب الأسهم
كما تأتي هذه الاستقالة بعد رحيل إيليا سوتسكيفر، وهو قائد آخر في فريق OpenAI الذي يُطلق عليه اسم "المحاذاة الفائقة" الذي يركز على ضمان أن يخدم تطوير الذكاء الاصطناعي احتياجات الإنسان وأولوياته. وقد لعب سوتسكيفر دورًا رئيسيًا في الإطاحة المفاجئة بألتمان من منصبه كرئيس تنفيذي العام الماضي، ثم عاد ليغير مساره ويعلن دعمه لاحقًا لعودة ألتمان.
في وقت سابق من هذا الشهر، قال متحدث باسم OpenAI لشبكة CNN إن تفكيك فريق المواءمة الفائقة وإعادة تعيين هؤلاء الموظفين في جميع أنحاء الشركة سيساعدها على تحقيق أهدافها الفائقة بشكل أفضل.
في منشور على مدونتها يوم الثلاثاء، قالت OpenAI أيضاً أنها بدأت في تدريب نموذج ذكاء اصطناعي جديد ليخلف النموذج الذي يعمل حالياً على ChatGPT. وقالت الشركة إن نموذج الذكاء الاصطناعي الجديد الذي سيخلف GPT-4 سيكون خطوة أخرى على طريق الذكاء الاصطناعي العام.
وقالت الشركة: "في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة على حد سواء، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة".
وأضاف منشور المدونة: "ستكون المهمة الأولى للجنة السلامة والأمان هي تقييم وتطوير عمليات OpenAI والضمانات الخاصة بالذكاء الاصطناعي العام على مدار التسعين يومًا القادمة". "في نهاية التسعين يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس الإدارة بالكامل. بعد مراجعة مجلس الإدارة بالكامل، ستشارك OpenAI علنًا تحديثًا للتوصيات المعتمدة بطريقة تتوافق مع السلامة والأمن."
أخبار ذات صلة
![شعار إنستغرام مع خلفية ملونة، يظهر التحديثات الأخيرة في تصميم الملف الشخصي والتركيز على مقاطع الفيديو الأطول لجذب المستخدمين.](/_next/image?url=https%3A%2F%2Finkwell-oasis-s3.s3.us-west-1.amazonaws.com%2Fkhabaren%2Fsmall_instagram_rolls_out_tiktok_06ee2bdb_8afb3c356d.webp&w=1080&q=75)
إنستغرام يطلق ميزات مشابهة لتلك الموجودة في تيك توك وسط غموض بشأن مستقبل المنافس
![تصريحات الرئيس البرازيلي لولا دا سيلفا حول إيلون ماسك وأثره على حرية التعبير في البرازيل، مع التركيز على تداعيات تعليق منصة X.](/_next/image?url=https%3A%2F%2Finkwell-oasis-s3.s3.us-west-1.amazonaws.com%2Fkhabaren%2Fsmall_brazils_president_says_world_doesnt_have_to_put_up_with_elon_lstjp4y_33a75bf399.webp&w=1080&q=75)
رئيس البرازيل يقول إن العالم لا يجب أن يتسامح مع الفكر اليميني المتطرف لإيلون ماسك فقط لأنه ثري
![صورة لمرافق هاليبرتون تشمل صهاريج تخزين كبيرة ومعدات في موقع خدمات النفط، تشير إلى تأثير الهجوم الإلكتروني على أنظمتها.](/_next/image?url=https%3A%2F%2Finkwell-oasis-s3.s3.us-west-1.amazonaws.com%2Fkhabaren%2Fsmall_halliburton_confirms_a_cyberattack_forced_it_to_take_its_n8oufhz_6767b17490.webp&w=1080&q=75)
تأكد هاليبرتون من تعرضها لهجوم إلكتروني أجبرها على إيقاف أنظمتها عبر الإنترنت
![رئيسة لجنة الاتصالات الفيدرالية جيسيكا روزنوورسيل تتحدث عن ضرورة تنظيم استخدام الذكاء الاصطناعي في الإعلانات السياسية.](/_next/image?url=https%3A%2F%2Finkwell-oasis-s3.s3.us-west-1.amazonaws.com%2Fkhabaren%2Fsmall_fcc_is_considering_ai_rules_for_political_ads_kp1xy6w_4d71af9d3f.webp&w=1080&q=75)