استقالة دانيال كوكوتاجلو: مخاوف الذكاء الاصطناعي
استقالة موظف بارز من OpenAI وضغوط الشركة لتوقيع اتفاقية سرية. ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟ قراءة مهمة على خَبَرْيْن #ذكاء_اصطناعي #تكنولوجيا
رأي: يمكن أن تكون مخاطر الذكاء الاصطناعي كارثية. يجب أن نمنح عمال الشركات القدرة على تحذيرنا
في أبريل الماضي، استقال دانيال كوكوتاجلو من منصبه كباحث في OpenAI، الشركة التي تقف وراء Chat GPT. وقد كتب في بيان له أنه لا يوافق على الطريقة التي تتعامل بها الشركة مع القضايا المتعلقة بالأمن في الوقت الذي تواصل فيه تطوير تكنولوجيا الذكاء الاصطناعي الثورية التي لم تُفهم بعد بشكل كامل.
على صفحته الشخصية على منتدى "LessWrong" على الإنترنت، توسع كوكوتاجلو - الذي كان يعمل في أبحاث السياسة والحوكمة في Open AI - في تلك الأفكار، وكتب أنه استقال من وظيفته بعد "فقدان الثقة في أنها ستتصرف بمسؤولية" في الحماية من المخاطر الوخيمة المحتملة المرتبطة بالذكاء الاصطناعي.
وفي بيان أصدره في وقت قريب من استقالته، ألقى باللوم على ثقافة الشركة في المضي قدمًا دون الالتفات إلى التحذير من المخاطر التي قد تطلقها.
وكتب كوكوتاجلو: "لقد اقتنعوا هم وآخرون بنهج "التحرك بسرعة وتحطيم الأشياء" وهذا عكس ما هو مطلوب لتكنولوجيا بهذه القوة وهذا الفهم السيئ".
ضغطت عليه شركة OpenAI لتوقيع اتفاق يتعهد فيه بعدم الإساءة إلى الشركة، وأخبرته أنه إذا رفض، فسوف يخسر أسهمه المكتسبة في الشركة. وقد ذكرت صحيفة نيويورك تايمز أن تلك الأسهم كانت تساوي 1.7 مليون دولار. ومع ذلك، رفض، ويبدو أنه اختار الاحتفاظ بحقه في التعبير علناً عن مخاوفه بشأن الذكاء الاصطناعي.
عندما انتشرت الأخبار عن مغادرة كوكوتاجلو لشركة OpenAI والضغوط المزعومة من الشركة لإجباره على توقيع اتفاقية عدم الإفصاح، سارع الرئيس التنفيذي للشركة سام ألتمان بالاعتذار.
كتب ألتمان على موقع X (المعروف سابقاً باسم تويتر): "هذا الأمر يقع على عاتقي"، "وهذه واحدة من المرات القليلة التي شعرت فيها بالحرج الحقيقي من إدارة OpenAI؛ لم أكن أعلم أن هذا الأمر كان يحدث وكان ينبغي أن أعلم." ما لم يكشف عنه ألتمان هو عدد الموظفين/المسؤولين التنفيذيين الآخرين في الشركة الذين ربما أُجبروا على توقيع اتفاقيات مماثلة في الماضي. في الواقع، وعلى مدى سنوات عديدة ووفقًا لموظفين سابقين، هددت الشركة بإلغاء حقوق الملكية المكتسبة للموظفين إذا لم يتعهدوا بالتصرف بلطف.
ومع ذلك، كان اعتذار ألتمان فعالاً في تقليل الانتباه إلى الخطأ القانوني الذي ارتكبته OpenAI في طلب هذه الاتفاقيات. كانت الشركة حريصة على المضي قدمًا، وكانت معظم الصحافة سعيدة بالالتزام بذلك. وقليل من وسائل الإعلام ذكرت الحقيقة القانونية الواضحة بأن مثل هذه الاتفاقيات كانت غير قانونية بوضوح بموجب قانون كاليفورنيا. لقد ظن الموظفون لسنوات أنهم أُسكتوا بسبب الوعد الذي شعروا بأنهم مجبرون على توقيعه، ولكن اعتذار الرئيس التنفيذي كان كافياً لوسائل الإعلام وعامة الناس للمضي قدماً.
يجب أن نتوقف قليلاً للتفكير فيما يعنيه أن يكون شخص ما على استعداد للتخلي ربما عن ملايين الدولارات للحفاظ على حرية الكلام. ما الذي يجب أن يقوله بالضبط؟ وليس كوكوتاجلو وحده، بل العديد من موظفي OpenAI الآخرين الذين استقالوا مؤخرًا، حيث يشير العديد منهم الآن إلى مخاوف جدية بشأن المخاطر الكامنة في تكنولوجيا الشركة.
شاهد ايضاً: رأي: يستحق أندرو مكارثي أن يؤخذ على محمل الجد
كنت أعرف كوكوتاجلو وتواصلت معه بعد استقالته؛ وأنا الآن أمثله هو و10 موظفين حاليين وسابقين آخرين من موظفي OpenAI على أساس تطوعي. لكن الحقائق التي أذكرها هنا تأتي من مصادر عامة فقط.
يشير العديد من الناس إلى المخاوف بشأن التكنولوجيا على أنها مسألة "سلامة الذكاء الاصطناعي". وهذا مصطلح فظيع لوصف المخاطر التي يشعر الكثير من الناس في هذا المجال بقلق عميق بشأنها. يخشى بعض الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك يوشوا بنجيو الحائز على جائزة تورينج والسير جيفري هينتون، خبير الكمبيوتر وعالم الأعصاب الذي يشار إليه أحياناً باسم "الأب الروحي للذكاء الاصطناعي"، من إمكانية أن تؤدي الأنظمة الجامحة إلى خلق ليس فقط "مخاطر السلامة"، بل إلى أضرار كارثية.
وفي حين أن الشخص العادي لا يستطيع أن يتخيل كيف يمكن لأي شخص أن يفقد السيطرة على جهاز كمبيوتر ("فقط افصل هذا الشيء اللعين!")، يجب أن ندرك أيضًا أننا لا نفهم في الواقع الأنظمة التي يخشاها هؤلاء الخبراء.
فالشركات العاملة في مجال الذكاء الاصطناعي العام - الذكاء العام الاصطناعي، الذي يشير بشكل عام إلى أبحاث الذكاء الاصطناعي النظرية التي تحاول إنشاء برمجيات ذات ذكاء شبيه بذكاء الإنسان، بما في ذلك القدرة على أداء مهام لم يتم تدريبها أو تطويرها من أجلها - هي من بين الشركات الأقل تنظيماً وخطراً بطبيعتها في أمريكا اليوم. لا توجد وكالة لديها سلطة قانونية لمراقبة كيفية تطوير الشركات لتقنياتها أو الاحتياطات التي تتخذها.
وبدلاً من ذلك، نعتمد على حسن تقدير هذه الشركات لضمان مراقبة المخاطر بشكل كافٍ. وهكذا، بينما تتسابق حفنة من الشركات على تحقيق الذكاء الاصطناعي المتقدم، وهو أهم تكنولوجيا في هذا القرن، فإننا نثق بها وبمجالس إدارتها في الحفاظ على مصلحة الجمهور أولاً. ما الخطأ الذي يمكن أن يحدث؟
لقد دفعت هذه الفجوة الرقابية الآن عدداً من الموظفين الحاليين والسابقين في شركة OpenAI إلى مطالبة الشركات رسمياً بالتعهد بتشجيع بيئة يتمتع فيها الموظفون بحرية انتقاد احتياطات السلامة في الشركة.
يطلب تعهدهم "الحق في التحذير" من الشركات:
أولاً، الالتزام بإلغاء أي اتفاقية "عدم الانتقاد". (لقد وعدت OpenAI بالفعل بالقيام بذلك؛ وتشير التقارير إلى أن الشركات الأخرى قد يكون لديها لغة مماثلة في اتفاقياتها التي لم تعترف بها بعد).
ثانياً، يطلب من الشركات أن تتعهد بإنشاء آلية مجهولة لمنح الموظفين والموظفين السابقين طريقة لإثارة مخاوف السلامة إلى مجلس الإدارة والمنظمين ومنظمة مستقلة لسلامة الذكاء الاصطناعي.
ثالثاً، يطلب من الشركات دعم "ثقافة النقد المفتوح"، لتشجيع الموظفين والموظفين السابقين على التحدث عن مخاوف السلامة طالما أنهم يحمون الملكية الفكرية للشركة.
وأخيراً - وربما الأكثر إثارة للاهتمام - يطلب من الشركات أن تتعهد بعدم الانتقام من الموظفين الذين يشاركون المعلومات السرية عند إثارة المخاوف المتعلقة بالمخاطر، ولكنها تتعهد بأن يقوم الموظفون أولاً بتوجيه مخاوفهم من خلال عملية سرية ومجهولة - إذا ومتى قامت الشركة بإنشائها. تم تصميم ذلك لخلق الحافز لإنشاء آلية لحماية المعلومات السرية مع تمكين التحذيرات.
سيكون مثل هذا "الحق في التحذير" فريدًا من نوعه في تنظيم الشركات الأمريكية. ويبرره عدم وجود تنظيم فعال، وهي حالة يمكن أن تتغير إذا ما تمكن الكونجرس من معالجة المخاطر التي وصفها الكثيرون. وهو ضروري لأن الحماية العادية للمبلّغين عن المخالفات لا تغطي السلوك الذي لا يخضع هو نفسه للتنظيم.
شاهد ايضاً: رأي: سألت عدة أشخاص تجاوزوا سن التقاعد بكثير عن سبب استمرارهم في العمل. إليكم ما قالوه لي
فالقانون - وخاصة قانون كاليفورنيا - يمنح الموظفين مساحة واسعة للإبلاغ عن الأنشطة غير القانونية؛ ولكن عندما لا يكون هناك الكثير من التنظيم، لا يكون هناك الكثير من المخالفات. وبالتالي، طالما أنه لا يوجد تنظيم فعال لهذه الشركات، فإن الموظفين هم فقط من يمكنهم تحديد المخاطر التي تتجاهلها الشركة.
حتى لو أقرت شركات الذكاء الاصطناعي "الحق في التحذير"، فلا ينبغي لأحد أن يتخيل أنه سيكون من السهل على أي موظف حالي أو سابق أن يبلغ عن شركة ذكاء اصطناعي. فالمبلّغون عن المخالفات ليسوا زملاء عمل مفضلين، حتى وإن كانوا يحظون باحترام البعض. وحتى مع وجود حماية رسمية، فإن خيار التحدث علنًا سيكون له حتمًا عواقب على فرص العمل المستقبلية - وصداقاتهم.
من الواضح أنه ليس من العدل أن نعتمد على التضحية بالنفس لضمان أن الشركات الخاصة لا تضع الربح فوق المخاطر الكارثية. هذه هي مهمة التنظيم. ولكن إذا كان هؤلاء الموظفون السابقون على استعداد لخسارة الملايين من أجل حرية قول ما يعرفون، فربما حان الوقت لأن يبني ممثلونا هياكل الرقابة التي من شأنها أن تجعل مثل هذه التضحيات غير ضرورية.