خَبَرَيْن logo
أكثر من 200 معلم في تكساس دفعوا لآخرين لاجتياز امتحان التصديق الخاص بهم. إليكم كيفية عمل خطة الاحتيال التي بلغت قيمتها مليون دولار."‘لقد فعلت ذلك’: هيئة المحلفين في قضية جريمة القتل المزدوج في دلفي تستمع إلى اعترافات المتهم المزعومة في السجن"غضب السكان في فالنسيا الإسبانية بعد الفيضانات التاريخية: شعور بالتخلي مع توقع المزيد من الأمطارماكس فيرستابن يحقق عودة مذهلة في جائزة ساو باولو الكبرى ليقترب بشدة من حسم لقب بطولة الفورمولا 1مقتل صحفي كل أربعة أيام في 2022-2023، وغالبية الحالات بلا عقاب: الأمم المتحدةالصحفي الجزائري المسجون إحسان القاضي يُفرج عنه بعد عفو رئاسيمصرع ثمانية أشخاص في انهيار سقف محطة قطارات في صربيااليابان والاتحاد الأوروبي يعلنان عن شراكة أمنية في ظل تصاعد التوترات الإقليميةموريشيوس تحظر وسائل التواصل الاجتماعي حتى انتهاء الانتخابات وسط جدل التنصتمجموعة مسلحة في بوليفيا تسيطر على نقطة عسكرية في أحدث تصعيد للأحداث
أكثر من 200 معلم في تكساس دفعوا لآخرين لاجتياز امتحان التصديق الخاص بهم. إليكم كيفية عمل خطة الاحتيال التي بلغت قيمتها مليون دولار."‘لقد فعلت ذلك’: هيئة المحلفين في قضية جريمة القتل المزدوج في دلفي تستمع إلى اعترافات المتهم المزعومة في السجن"غضب السكان في فالنسيا الإسبانية بعد الفيضانات التاريخية: شعور بالتخلي مع توقع المزيد من الأمطارماكس فيرستابن يحقق عودة مذهلة في جائزة ساو باولو الكبرى ليقترب بشدة من حسم لقب بطولة الفورمولا 1مقتل صحفي كل أربعة أيام في 2022-2023، وغالبية الحالات بلا عقاب: الأمم المتحدةالصحفي الجزائري المسجون إحسان القاضي يُفرج عنه بعد عفو رئاسيمصرع ثمانية أشخاص في انهيار سقف محطة قطارات في صربيااليابان والاتحاد الأوروبي يعلنان عن شراكة أمنية في ظل تصاعد التوترات الإقليميةموريشيوس تحظر وسائل التواصل الاجتماعي حتى انتهاء الانتخابات وسط جدل التنصتمجموعة مسلحة في بوليفيا تسيطر على نقطة عسكرية في أحدث تصعيد للأحداث

استقالة دانيال كوكوتاجلو: مخاوف الذكاء الاصطناعي

استقالة موظف بارز من OpenAI وضغوط الشركة لتوقيع اتفاقية سرية. ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟ قراءة مهمة على خَبَرْيْن #ذكاء_اصطناعي #تكنولوجيا

Loading...
Opinion: The risks of AI could be catastrophic. We should empower company workers to warn us
D3sign/Moment RF/Getty Images
التصنيف:آراء
شارك الخبر:
FacebookTwitterLinkedInEmail

رأي: يمكن أن تكون مخاطر الذكاء الاصطناعي كارثية. يجب أن نمنح عمال الشركات القدرة على تحذيرنا

في أبريل الماضي، استقال دانيال كوكوتاجلو من منصبه كباحث في OpenAI، الشركة التي تقف وراء Chat GPT. وقد كتب في بيان له أنه لا يوافق على الطريقة التي تتعامل بها الشركة مع القضايا المتعلقة بالأمن في الوقت الذي تواصل فيه تطوير تكنولوجيا الذكاء الاصطناعي الثورية التي لم تُفهم بعد بشكل كامل.

على صفحته الشخصية على منتدى "LessWrong" على الإنترنت، توسع كوكوتاجلو - الذي كان يعمل في أبحاث السياسة والحوكمة في Open AI - في تلك الأفكار، وكتب أنه استقال من وظيفته بعد "فقدان الثقة في أنها ستتصرف بمسؤولية" في الحماية من المخاطر الوخيمة المحتملة المرتبطة بالذكاء الاصطناعي.

وفي بيان أصدره في وقت قريب من استقالته، ألقى باللوم على ثقافة الشركة في المضي قدمًا دون الالتفات إلى التحذير من المخاطر التي قد تطلقها.

شاهد ايضاً: أنا لاعبة سباحة أولمبية تعرضت للغرق كطفلة. إنه خطر يمكن تجنبه

وكتب كوكوتاجلو: "لقد اقتنعوا هم وآخرون بنهج "التحرك بسرعة وتحطيم الأشياء" وهذا عكس ما هو مطلوب لتكنولوجيا بهذه القوة وهذا الفهم السيئ".

ضغطت عليه شركة OpenAI لتوقيع اتفاق يتعهد فيه بعدم الإساءة إلى الشركة، وأخبرته أنه إذا رفض، فسوف يخسر أسهمه المكتسبة في الشركة. وقد ذكرت صحيفة نيويورك تايمز أن تلك الأسهم كانت تساوي 1.7 مليون دولار. ومع ذلك، رفض، ويبدو أنه اختار الاحتفاظ بحقه في التعبير علناً عن مخاوفه بشأن الذكاء الاصطناعي.

عندما انتشرت الأخبار عن مغادرة كوكوتاجلو لشركة OpenAI والضغوط المزعومة من الشركة لإجباره على توقيع اتفاقية عدم الإفصاح، سارع الرئيس التنفيذي للشركة سام ألتمان بالاعتذار.

شاهد ايضاً: رأي: زيادة الحد الأدنى للأجور تأتي بثمن مرتفع جدًا على العمال

كتب ألتمان على موقع X (المعروف سابقاً باسم تويتر): "هذا الأمر يقع على عاتقي"، "وهذه واحدة من المرات القليلة التي شعرت فيها بالحرج الحقيقي من إدارة OpenAI؛ لم أكن أعلم أن هذا الأمر كان يحدث وكان ينبغي أن أعلم." ما لم يكشف عنه ألتمان هو عدد الموظفين/المسؤولين التنفيذيين الآخرين في الشركة الذين ربما أُجبروا على توقيع اتفاقيات مماثلة في الماضي. في الواقع، وعلى مدى سنوات عديدة ووفقًا لموظفين سابقين، هددت الشركة بإلغاء حقوق الملكية المكتسبة للموظفين إذا لم يتعهدوا بالتصرف بلطف.

ومع ذلك، كان اعتذار ألتمان فعالاً في تقليل الانتباه إلى الخطأ القانوني الذي ارتكبته OpenAI في طلب هذه الاتفاقيات. كانت الشركة حريصة على المضي قدمًا، وكانت معظم الصحافة سعيدة بالالتزام بذلك. وقليل من وسائل الإعلام ذكرت الحقيقة القانونية الواضحة بأن مثل هذه الاتفاقيات كانت غير قانونية بوضوح بموجب قانون كاليفورنيا. لقد ظن الموظفون لسنوات أنهم أُسكتوا بسبب الوعد الذي شعروا بأنهم مجبرون على توقيعه، ولكن اعتذار الرئيس التنفيذي كان كافياً لوسائل الإعلام وعامة الناس للمضي قدماً.

يجب أن نتوقف قليلاً للتفكير فيما يعنيه أن يكون شخص ما على استعداد للتخلي ربما عن ملايين الدولارات للحفاظ على حرية الكلام. ما الذي يجب أن يقوله بالضبط؟ وليس كوكوتاجلو وحده، بل العديد من موظفي OpenAI الآخرين الذين استقالوا مؤخرًا، حيث يشير العديد منهم الآن إلى مخاوف جدية بشأن المخاطر الكامنة في تكنولوجيا الشركة.

شاهد ايضاً: رأي: لماذا لا يمكن لترامب تلاعب بقرار الحصانة للتخلص من اتهامه بالوثائق السرية

كنت أعرف كوكوتاجلو وتواصلت معه بعد استقالته؛ وأنا الآن أمثله هو و10 موظفين حاليين وسابقين آخرين من موظفي OpenAI على أساس تطوعي. لكن الحقائق التي أذكرها هنا تأتي من مصادر عامة فقط.

يشير العديد من الناس إلى المخاوف بشأن التكنولوجيا على أنها مسألة "سلامة الذكاء الاصطناعي". وهذا مصطلح فظيع لوصف المخاطر التي يشعر الكثير من الناس في هذا المجال بقلق عميق بشأنها. يخشى بعض الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك يوشوا بنجيو الحائز على جائزة تورينج والسير جيفري هينتون، خبير الكمبيوتر وعالم الأعصاب الذي يشار إليه أحياناً باسم "الأب الروحي للذكاء الاصطناعي"، من إمكانية أن تؤدي الأنظمة الجامحة إلى خلق ليس فقط "مخاطر السلامة"، بل إلى أضرار كارثية.

وفي حين أن الشخص العادي لا يستطيع أن يتخيل كيف يمكن لأي شخص أن يفقد السيطرة على جهاز كمبيوتر ("فقط افصل هذا الشيء اللعين!")، يجب أن ندرك أيضًا أننا لا نفهم في الواقع الأنظمة التي يخشاها هؤلاء الخبراء.

شاهد ايضاً: رأي: تسمية كامالا هاريس بـ "توظيف تنوع وشمولية" هي مظهر العنصرية

فالشركات العاملة في مجال الذكاء الاصطناعي العام - الذكاء العام الاصطناعي، الذي يشير بشكل عام إلى أبحاث الذكاء الاصطناعي النظرية التي تحاول إنشاء برمجيات ذات ذكاء شبيه بذكاء الإنسان، بما في ذلك القدرة على أداء مهام لم يتم تدريبها أو تطويرها من أجلها - هي من بين الشركات الأقل تنظيماً وخطراً بطبيعتها في أمريكا اليوم. لا توجد وكالة لديها سلطة قانونية لمراقبة كيفية تطوير الشركات لتقنياتها أو الاحتياطات التي تتخذها.

وبدلاً من ذلك، نعتمد على حسن تقدير هذه الشركات لضمان مراقبة المخاطر بشكل كافٍ. وهكذا، بينما تتسابق حفنة من الشركات على تحقيق الذكاء الاصطناعي المتقدم، وهو أهم تكنولوجيا في هذا القرن، فإننا نثق بها وبمجالس إدارتها في الحفاظ على مصلحة الجمهور أولاً. ما الخطأ الذي يمكن أن يحدث؟

لقد دفعت هذه الفجوة الرقابية الآن عدداً من الموظفين الحاليين والسابقين في شركة OpenAI إلى مطالبة الشركات رسمياً بالتعهد بتشجيع بيئة يتمتع فيها الموظفون بحرية انتقاد احتياطات السلامة في الشركة.

شاهد ايضاً: رأي: في هذا الرابع من يوليو، طريقة مختلفة للاحتفال بالتاريخ الذي نشترك فيه

يطلب تعهدهم "الحق في التحذير" من الشركات:

أولاً، الالتزام بإلغاء أي اتفاقية "عدم الانتقاد". (لقد وعدت OpenAI بالفعل بالقيام بذلك؛ وتشير التقارير إلى أن الشركات الأخرى قد يكون لديها لغة مماثلة في اتفاقياتها التي لم تعترف بها بعد).

ثانياً، يطلب من الشركات أن تتعهد بإنشاء آلية مجهولة لمنح الموظفين والموظفين السابقين طريقة لإثارة مخاوف السلامة إلى مجلس الإدارة والمنظمين ومنظمة مستقلة لسلامة الذكاء الاصطناعي.

شاهد ايضاً: رأي: المشكلة في قول أن المحامين لا يجب أن يمثلوا ترامب

ثالثاً، يطلب من الشركات دعم "ثقافة النقد المفتوح"، لتشجيع الموظفين والموظفين السابقين على التحدث عن مخاوف السلامة طالما أنهم يحمون الملكية الفكرية للشركة.

وأخيراً - وربما الأكثر إثارة للاهتمام - يطلب من الشركات أن تتعهد بعدم الانتقام من الموظفين الذين يشاركون المعلومات السرية عند إثارة المخاوف المتعلقة بالمخاطر، ولكنها تتعهد بأن يقوم الموظفون أولاً بتوجيه مخاوفهم من خلال عملية سرية ومجهولة - إذا ومتى قامت الشركة بإنشائها. تم تصميم ذلك لخلق الحافز لإنشاء آلية لحماية المعلومات السرية مع تمكين التحذيرات.

سيكون مثل هذا "الحق في التحذير" فريدًا من نوعه في تنظيم الشركات الأمريكية. ويبرره عدم وجود تنظيم فعال، وهي حالة يمكن أن تتغير إذا ما تمكن الكونجرس من معالجة المخاطر التي وصفها الكثيرون. وهو ضروري لأن الحماية العادية للمبلّغين عن المخالفات لا تغطي السلوك الذي لا يخضع هو نفسه للتنظيم.

شاهد ايضاً: رأي: دفاع ترامب هزّ مايكل كوهين، لكنه لم يطرحه أرضاً

فالقانون - وخاصة قانون كاليفورنيا - يمنح الموظفين مساحة واسعة للإبلاغ عن الأنشطة غير القانونية؛ ولكن عندما لا يكون هناك الكثير من التنظيم، لا يكون هناك الكثير من المخالفات. وبالتالي، طالما أنه لا يوجد تنظيم فعال لهذه الشركات، فإن الموظفين هم فقط من يمكنهم تحديد المخاطر التي تتجاهلها الشركة.

حتى لو أقرت شركات الذكاء الاصطناعي "الحق في التحذير"، فلا ينبغي لأحد أن يتخيل أنه سيكون من السهل على أي موظف حالي أو سابق أن يبلغ عن شركة ذكاء اصطناعي. فالمبلّغون عن المخالفات ليسوا زملاء عمل مفضلين، حتى وإن كانوا يحظون باحترام البعض. وحتى مع وجود حماية رسمية، فإن خيار التحدث علنًا سيكون له حتمًا عواقب على فرص العمل المستقبلية - وصداقاتهم.

من الواضح أنه ليس من العدل أن نعتمد على التضحية بالنفس لضمان أن الشركات الخاصة لا تضع الربح فوق المخاطر الكارثية. هذه هي مهمة التنظيم. ولكن إذا كان هؤلاء الموظفون السابقون على استعداد لخسارة الملايين من أجل حرية قول ما يعرفون، فربما حان الوقت لأن يبني ممثلونا هياكل الرقابة التي من شأنها أن تجعل مثل هذه التضحيات غير ضرورية.

أخبار ذات صلة

Loading...
Opinion: ‘The big one’ disaster could happen in our lifetime. Can we even be ready?

رأي: يمكن أن يحدث كارثة "الكبيرة" في حياتنا. هل يمكننا أن نكون مستعدين؟

آراء
Loading...
Opinion: With this serious misstep, prosecutors might be handing Trump a get-out-of-jail-free card

رأي: بارتكاب هذا الخطأ الجسيم، قد يكون المدعون يمنحون ترامب بطاقة للخروج من السجن مجانًا

آراء
Loading...
Opinion: How my Nigerian grandfather made my Hollywood career possible

رأي: كيف جعل جدي النيجيري مسيرتي الفنية في هوليوود ممكنة

آراء
Loading...
Opinion: The real price tag for Trump’s billionaires’ banquet

الرأي: السعر الحقيقي لوليمة مليارديرات ترامب

آراء
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية