خَبَرَيْن logo

استقالة دانيال كوكوتاجلو: مخاوف الذكاء الاصطناعي

استقالة موظف بارز من OpenAI وضغوط الشركة لتوقيع اتفاقية سرية. ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟ قراءة مهمة على خَبَرْيْن #ذكاء_اصطناعي #تكنولوجيا

Loading...
Opinion: The risks of AI could be catastrophic. We should empower company workers to warn us
D3sign/Moment RF/Getty Images
التصنيف:آراء
شارك الخبر:
FacebookTwitterLinkedInEmail

رأي: يمكن أن تكون مخاطر الذكاء الاصطناعي كارثية. يجب أن نمنح عمال الشركات القدرة على تحذيرنا

في أبريل الماضي، استقال دانيال كوكوتاجلو من منصبه كباحث في OpenAI، الشركة التي تقف وراء Chat GPT. وقد كتب في بيان له أنه لا يوافق على الطريقة التي تتعامل بها الشركة مع القضايا المتعلقة بالأمن في الوقت الذي تواصل فيه تطوير تكنولوجيا الذكاء الاصطناعي الثورية التي لم تُفهم بعد بشكل كامل.

على صفحته الشخصية على منتدى "LessWrong" على الإنترنت، توسع كوكوتاجلو - الذي كان يعمل في أبحاث السياسة والحوكمة في Open AI - في تلك الأفكار، وكتب أنه استقال من وظيفته بعد "فقدان الثقة في أنها ستتصرف بمسؤولية" في الحماية من المخاطر الوخيمة المحتملة المرتبطة بالذكاء الاصطناعي.

وفي بيان أصدره في وقت قريب من استقالته، ألقى باللوم على ثقافة الشركة في المضي قدمًا دون الالتفات إلى التحذير من المخاطر التي قد تطلقها.

شاهد ايضاً: كيف تبدو عبارة "السعادة الأبدية" للجيل Z

وكتب كوكوتاجلو: "لقد اقتنعوا هم وآخرون بنهج "التحرك بسرعة وتحطيم الأشياء" وهذا عكس ما هو مطلوب لتكنولوجيا بهذه القوة وهذا الفهم السيئ".

ضغطت عليه شركة OpenAI لتوقيع اتفاق يتعهد فيه بعدم الإساءة إلى الشركة، وأخبرته أنه إذا رفض، فسوف يخسر أسهمه المكتسبة في الشركة. وقد ذكرت صحيفة نيويورك تايمز أن تلك الأسهم كانت تساوي 1.7 مليون دولار. ومع ذلك، رفض، ويبدو أنه اختار الاحتفاظ بحقه في التعبير علناً عن مخاوفه بشأن الذكاء الاصطناعي.

عندما انتشرت الأخبار عن مغادرة كوكوتاجلو لشركة OpenAI والضغوط المزعومة من الشركة لإجباره على توقيع اتفاقية عدم الإفصاح، سارع الرئيس التنفيذي للشركة سام ألتمان بالاعتذار.

شاهد ايضاً: رأي: لماذا يجب عليك إيلاء اهتمامًا لدور العرق في الرياضة خلال أولمبياد هذا الصيف

كتب ألتمان على موقع X (المعروف سابقاً باسم تويتر): "هذا الأمر يقع على عاتقي"، "وهذه واحدة من المرات القليلة التي شعرت فيها بالحرج الحقيقي من إدارة OpenAI؛ لم أكن أعلم أن هذا الأمر كان يحدث وكان ينبغي أن أعلم." ما لم يكشف عنه ألتمان هو عدد الموظفين/المسؤولين التنفيذيين الآخرين في الشركة الذين ربما أُجبروا على توقيع اتفاقيات مماثلة في الماضي. في الواقع، وعلى مدى سنوات عديدة ووفقًا لموظفين سابقين، هددت الشركة بإلغاء حقوق الملكية المكتسبة للموظفين إذا لم يتعهدوا بالتصرف بلطف.

ومع ذلك، كان اعتذار ألتمان فعالاً في تقليل الانتباه إلى الخطأ القانوني الذي ارتكبته OpenAI في طلب هذه الاتفاقيات. كانت الشركة حريصة على المضي قدمًا، وكانت معظم الصحافة سعيدة بالالتزام بذلك. وقليل من وسائل الإعلام ذكرت الحقيقة القانونية الواضحة بأن مثل هذه الاتفاقيات كانت غير قانونية بوضوح بموجب قانون كاليفورنيا. لقد ظن الموظفون لسنوات أنهم أُسكتوا بسبب الوعد الذي شعروا بأنهم مجبرون على توقيعه، ولكن اعتذار الرئيس التنفيذي كان كافياً لوسائل الإعلام وعامة الناس للمضي قدماً.

يجب أن نتوقف قليلاً للتفكير فيما يعنيه أن يكون شخص ما على استعداد للتخلي ربما عن ملايين الدولارات للحفاظ على حرية الكلام. ما الذي يجب أن يقوله بالضبط؟ وليس كوكوتاجلو وحده، بل العديد من موظفي OpenAI الآخرين الذين استقالوا مؤخرًا، حيث يشير العديد منهم الآن إلى مخاوف جدية بشأن المخاطر الكامنة في تكنولوجيا الشركة.

شاهد ايضاً: رأي: نحن نهمل الحيوانات الأليفة في الكوارث - مع نتائج مأساوية

كنت أعرف كوكوتاجلو وتواصلت معه بعد استقالته؛ وأنا الآن أمثله هو و10 موظفين حاليين وسابقين آخرين من موظفي OpenAI على أساس تطوعي. لكن الحقائق التي أذكرها هنا تأتي من مصادر عامة فقط.

يشير العديد من الناس إلى المخاوف بشأن التكنولوجيا على أنها مسألة "سلامة الذكاء الاصطناعي". وهذا مصطلح فظيع لوصف المخاطر التي يشعر الكثير من الناس في هذا المجال بقلق عميق بشأنها. يخشى بعض الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك يوشوا بنجيو الحائز على جائزة تورينج والسير جيفري هينتون، خبير الكمبيوتر وعالم الأعصاب الذي يشار إليه أحياناً باسم "الأب الروحي للذكاء الاصطناعي"، من إمكانية أن تؤدي الأنظمة الجامحة إلى خلق ليس فقط "مخاطر السلامة"، بل إلى أضرار كارثية.

وفي حين أن الشخص العادي لا يستطيع أن يتخيل كيف يمكن لأي شخص أن يفقد السيطرة على جهاز كمبيوتر ("فقط افصل هذا الشيء اللعين!")، يجب أن ندرك أيضًا أننا لا نفهم في الواقع الأنظمة التي يخشاها هؤلاء الخبراء.

شاهد ايضاً: رأي: لماذا لا يمكن لترامب تلاعب بقرار الحصانة للتخلص من اتهامه بالوثائق السرية

فالشركات العاملة في مجال الذكاء الاصطناعي العام - الذكاء العام الاصطناعي، الذي يشير بشكل عام إلى أبحاث الذكاء الاصطناعي النظرية التي تحاول إنشاء برمجيات ذات ذكاء شبيه بذكاء الإنسان، بما في ذلك القدرة على أداء مهام لم يتم تدريبها أو تطويرها من أجلها - هي من بين الشركات الأقل تنظيماً وخطراً بطبيعتها في أمريكا اليوم. لا توجد وكالة لديها سلطة قانونية لمراقبة كيفية تطوير الشركات لتقنياتها أو الاحتياطات التي تتخذها.

وبدلاً من ذلك، نعتمد على حسن تقدير هذه الشركات لضمان مراقبة المخاطر بشكل كافٍ. وهكذا، بينما تتسابق حفنة من الشركات على تحقيق الذكاء الاصطناعي المتقدم، وهو أهم تكنولوجيا في هذا القرن، فإننا نثق بها وبمجالس إدارتها في الحفاظ على مصلحة الجمهور أولاً. ما الخطأ الذي يمكن أن يحدث؟

لقد دفعت هذه الفجوة الرقابية الآن عدداً من الموظفين الحاليين والسابقين في شركة OpenAI إلى مطالبة الشركات رسمياً بالتعهد بتشجيع بيئة يتمتع فيها الموظفون بحرية انتقاد احتياطات السلامة في الشركة.

شاهد ايضاً: رأي: الخطأ المُثير للغضب الذي أدى بالولايات المتحدة إلى مشكلتها الحالية في الديون

يطلب تعهدهم "الحق في التحذير" من الشركات:

أولاً، الالتزام بإلغاء أي اتفاقية "عدم الانتقاد". (لقد وعدت OpenAI بالفعل بالقيام بذلك؛ وتشير التقارير إلى أن الشركات الأخرى قد يكون لديها لغة مماثلة في اتفاقياتها التي لم تعترف بها بعد).

ثانياً، يطلب من الشركات أن تتعهد بإنشاء آلية مجهولة لمنح الموظفين والموظفين السابقين طريقة لإثارة مخاوف السلامة إلى مجلس الإدارة والمنظمين ومنظمة مستقلة لسلامة الذكاء الاصطناعي.

شاهد ايضاً: تعترف مراسلة CNN بأن رؤيتها انقبضت: تجربة قوة 6G قبل ركوب طائرة مقاتلة

ثالثاً، يطلب من الشركات دعم "ثقافة النقد المفتوح"، لتشجيع الموظفين والموظفين السابقين على التحدث عن مخاوف السلامة طالما أنهم يحمون الملكية الفكرية للشركة.

وأخيراً - وربما الأكثر إثارة للاهتمام - يطلب من الشركات أن تتعهد بعدم الانتقام من الموظفين الذين يشاركون المعلومات السرية عند إثارة المخاوف المتعلقة بالمخاطر، ولكنها تتعهد بأن يقوم الموظفون أولاً بتوجيه مخاوفهم من خلال عملية سرية ومجهولة - إذا ومتى قامت الشركة بإنشائها. تم تصميم ذلك لخلق الحافز لإنشاء آلية لحماية المعلومات السرية مع تمكين التحذيرات.

سيكون مثل هذا "الحق في التحذير" فريدًا من نوعه في تنظيم الشركات الأمريكية. ويبرره عدم وجود تنظيم فعال، وهي حالة يمكن أن تتغير إذا ما تمكن الكونجرس من معالجة المخاطر التي وصفها الكثيرون. وهو ضروري لأن الحماية العادية للمبلّغين عن المخالفات لا تغطي السلوك الذي لا يخضع هو نفسه للتنظيم.

شاهد ايضاً: رأي: هل من الجائز السخرية من بايدن وترامب بسبب عمرهما؟ لماذا هذا خطير؟

فالقانون - وخاصة قانون كاليفورنيا - يمنح الموظفين مساحة واسعة للإبلاغ عن الأنشطة غير القانونية؛ ولكن عندما لا يكون هناك الكثير من التنظيم، لا يكون هناك الكثير من المخالفات. وبالتالي، طالما أنه لا يوجد تنظيم فعال لهذه الشركات، فإن الموظفين هم فقط من يمكنهم تحديد المخاطر التي تتجاهلها الشركة.

حتى لو أقرت شركات الذكاء الاصطناعي "الحق في التحذير"، فلا ينبغي لأحد أن يتخيل أنه سيكون من السهل على أي موظف حالي أو سابق أن يبلغ عن شركة ذكاء اصطناعي. فالمبلّغون عن المخالفات ليسوا زملاء عمل مفضلين، حتى وإن كانوا يحظون باحترام البعض. وحتى مع وجود حماية رسمية، فإن خيار التحدث علنًا سيكون له حتمًا عواقب على فرص العمل المستقبلية - وصداقاتهم.

من الواضح أنه ليس من العدل أن نعتمد على التضحية بالنفس لضمان أن الشركات الخاصة لا تضع الربح فوق المخاطر الكارثية. هذه هي مهمة التنظيم. ولكن إذا كان هؤلاء الموظفون السابقون على استعداد لخسارة الملايين من أجل حرية قول ما يعرفون، فربما حان الوقت لأن يبني ممثلونا هياكل الرقابة التي من شأنها أن تجعل مثل هذه التضحيات غير ضرورية.

أخبار ذات صلة

Loading...
Opinion: Biden sees the light on marijuana

رأي: بايدن يروي النور على الماريجوانا

آراء
Loading...
Opinion: ‘Hit Man’ does what ‘Double Indemnity’ couldn’t

رأي: "رجل القتل" يفعل ما لم تستطع "الضمان المزدوج"

آراء
Loading...
Opinion: Why this bill to rename Dulles Airport after Trump should be grounded

رأي: لماذا يجب أن يتم تعليق مشروع القانون الذي يقترح تغيير اسم مطار دالاس إلى اسم ترامب

آراء
Loading...
Opinion: The heroism of Ukraine and the nihilism of Mike Johnson

رأي: بطولة أوكرانيا وعدم النيلانية لمايك جونسون

آراء
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية