مسؤول تنفيذي يغادر OpenAI بسبب مخاوف السلامة
مسؤول تنفيذي سابق في OpenAI يكشف عن مخاوفه بشأن السلامة والأولويات. تعرف على تفاصيل استقالته وتأثيرها على الشركة. #ذكاء_اصطناعي #تكنولوجيا
المزيد من الجدل حول OpenAI: استقالة تنفيذية بسبب المخاوف من التركيز على الربح على حساب السلامة.
يثير مسؤول تنفيذي مغادر من شركة OpenAI يركز على السلامة, مخاوف بشأن الشركة وهو في طريقه للخروج من الشركة.
قال جان لايك، الذي استقال من دوره في قيادة فريق "المحاذاة الفائقة" في الشركة هذا الأسبوع، في موضوع على X يوم الجمعة أنه لا يتفق مع "الأولويات الأساسية" لقيادة OpenAI وأنه "وصل إلى نقطة الانهيار".
"المحاذاة" أو "المحاذاة الفائقة" هي مصطلحات مستخدمة في مجال الذكاء الاصطناعي للإشارة إلى العمل على تدريب أنظمة الذكاء الاصطناعي للعمل ضمن احتياجات الإنسان وأولوياته. انضم لايك إلى OpenAI في عام 2021، وفي الصيف الماضي أعلنت الشركة أنه سيشارك في قيادة فريق "المحاذاة الفائقة" الذي يركز على "الاختراقات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها وهي أذكى منا بكثير".
ومع ذلك، قال لايك يوم الجمعة إنه في الأشهر الأخيرة، كان الفريق يعاني من نقص في الموارد و"يبحر ضد الريح".
وقال على موقع X: "في بعض الأحيان كنا نكافح من أجل الحوسبة وكان الأمر يزداد صعوبة لإنجاز هذه الأبحاث المهمة"، مضيفاً أن يوم الخميس كان آخر يوم له في الشركة الناشئة. "إن بناء آلات أكثر ذكاءً من البشر هو مسعى خطير بطبيعته... ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة والعمليات على حساب المنتجات اللامعة."
يأتي خروج لايك، الذي أعلن عنه يوم الأربعاء، وسط تعديل قيادي أوسع في OpenAI. وجاءت استقالته بعد إعلان المؤسس المشارك وكبير العلماء في OpenAI، إيليا سوتسكيفر، الذي ساعد أيضًا في قيادة فريق المحاذاة الفائقة، يوم الثلاثاء أنه سيغادر الشركة.
شاهد ايضاً: التمرير نحو الانتخابات: تطبيقات المواعدة الشهيرة تقدم ميزات جديدة للتعبير عن الآراء السياسية
وقال سوتسكيفر إنه سيغادر للعمل على "مشروع ذي مغزى شخصي للغاية بالنسبة لي". لكن خروجه كان ملحوظًا بالنظر إلى الدور المحوري الذي لعبه في الإقالة الدراماتيكية - والعودة - للرئيس التنفيذي لشركة OpenAI سام ألتمان العام الماضي، عندما صوّت لإقالة ألتمان من منصب الرئيس التنفيذي ورئيس مجلس الإدارة.
وقد ذكرت كارا سويشر المساهمة في شبكة CNN سابقاً أن سوتسكيفر كان قلقاً من أن ألتمان كان يدفع بتكنولوجيا الذكاء الاصطناعي "بعيداً جداً وبسرعة كبيرة جداً". ولكن بعد أيام من إقالة ألتمان، غيّر سوتسكيفر رأيه: فقد وقّع على خطاب موظف يدعو فيه مجلس الإدارة بأكمله إلى الاستقالة وعودة ألتمان.
ومع ذلك، ربما استمرت التساؤلات حول كيفية - ومدى سرعة - تطوير تكنولوجيا الذكاء الاصطناعي وإصدارها علنًا في إحداث توتر داخل الشركة في الأشهر التي تلت استعادة ألتمان السيطرة على الشركة. يأتي خروج المديرين التنفيذيين بعد أن أعلنت OpenAI هذا الأسبوع أنها ستجعل أقوى نموذج ذكاء اصطناعي لديها حتى الآن، GPT-4o، متاحاً مجاناً للجمهور من خلال ChatGPT. ستجعل هذه التقنية من ChatGPT أشبه بمساعد شخصي رقمي قادر على إجراء محادثات منطوقة في الوقت الفعلي.
كتب لايك في موضوع X الخاص به يوم الجمعة: "أعتقد أنه يجب إنفاق المزيد من عرض النطاق الترددي الخاص بنا للاستعداد للأجيال القادمة من النماذج، على الأمن والمراقبة والتأهب والسلامة ومتانة الخصومة والمواءمة (الفائقة) والسرية والتأثير المجتمعي والمواضيع ذات الصلة". "من الصعب جدًا حل هذه المشاكل بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك."
وعندما طُلب منه التعليق على ادعاءات لايك، وجّهت OpenAI شبكة CNN إلى منشور على X من ألتمان يقول فيه إن الشركة ملتزمة بالسلامة.
"قال ألتمان: "أنا مقدر للغاية لمساهمات @janleike في أبحاث المواءمة وثقافة السلامة في OpenAI، وحزين للغاية لرؤيته يغادر. "إنه على حق، لدينا الكثير لنفعله، ونحن ملتزمون بالقيام بذلك.