خَبَرَيْن logo

استقالة دانيال كوكوتاجلو: مخاوف الذكاء الاصطناعي

استقالة موظف بارز من OpenAI وضغوط الشركة لتوقيع اتفاقية سرية. ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟ قراءة مهمة على خَبَرْيْن #ذكاء_اصطناعي #تكنولوجيا

أيدي شخص تعمل على لوحة مفاتيح مضاءة باللون الأزرق، تعكس التركيز على قضايا الذكاء الاصطناعي وأخلاقياته بعد استقالة دانيال كوكوتاجلو من OpenAI.
تصميم/لحظة RF/صور غيتي.
شخصية في مقابلة، تبدو مركزة وتفكر بعمق، مع خلفية دافئة وزهور بيضاء في الواجهة، تعكس قضايا الذكاء الاصطناعي والأمن.
التصنيف:آراء
شارك الخبر:
FacebookTwitterLinkedInEmail

استقالة دانيال كوكوتاجلو من OpenAI

في أبريل الماضي، استقال دانيال كوكوتاجلو من منصبه كباحث في OpenAI، الشركة التي تقف وراء Chat GPT. وقد كتب في بيان له أنه لا يوافق على الطريقة التي تتعامل بها الشركة مع القضايا المتعلقة بالأمن في الوقت الذي تواصل فيه تطوير تكنولوجيا الذكاء الاصطناعي الثورية التي لم تُفهم بعد بشكل كامل.

أسباب الاستقالة وفقدان الثقة

على صفحته الشخصية على منتدى "LessWrong" على الإنترنت، توسع كوكوتاجلو - الذي كان يعمل في أبحاث السياسة والحوكمة في Open AI - في تلك الأفكار، وكتب أنه استقال من وظيفته بعد "فقدان الثقة في أنها ستتصرف بمسؤولية" في الحماية من المخاطر الوخيمة المحتملة المرتبطة بالذكاء الاصطناعي.

ثقافة الشركة وضغوط الاستقالة

وفي بيان أصدره في وقت قريب من استقالته، ألقى باللوم على ثقافة الشركة في المضي قدمًا دون الالتفات إلى التحذير من المخاطر التي قد تطلقها.

شاهد ايضاً: تسعى المحكمة الجنائية الدولية لاعتقال قادة طالبان بتهمة اضطهاد النساء

وكتب كوكوتاجلو: "لقد اقتنعوا هم وآخرون بنهج "التحرك بسرعة وتحطيم الأشياء" وهذا عكس ما هو مطلوب لتكنولوجيا بهذه القوة وهذا الفهم السيئ".

ردود فعل OpenAI على الاستقالة

ضغطت عليه شركة OpenAI لتوقيع اتفاق يتعهد فيه بعدم الإساءة إلى الشركة، وأخبرته أنه إذا رفض، فسوف يخسر أسهمه المكتسبة في الشركة. وقد ذكرت صحيفة نيويورك تايمز أن تلك الأسهم كانت تساوي 1.7 مليون دولار. ومع ذلك، رفض، ويبدو أنه اختار الاحتفاظ بحقه في التعبير علناً عن مخاوفه بشأن الذكاء الاصطناعي.

اعتذار الرئيس التنفيذي سام ألتمان

عندما انتشرت الأخبار عن مغادرة كوكوتاجلو لشركة OpenAI والضغوط المزعومة من الشركة لإجباره على توقيع اتفاقية عدم الإفصاح، سارع الرئيس التنفيذي للشركة سام ألتمان بالاعتذار.

شاهد ايضاً: استخدام بيانات المواطنين حول المعتقدات السياسية في ولاية هندية لحرمانهم من المساعدات

كتب ألتمان على موقع X (المعروف سابقاً باسم تويتر): "هذا الأمر يقع على عاتقي"، "وهذه واحدة من المرات القليلة التي شعرت فيها بالحرج الحقيقي من إدارة OpenAI؛ لم أكن أعلم أن هذا الأمر كان يحدث وكان ينبغي أن أعلم." ما لم يكشف عنه ألتمان هو عدد الموظفين/المسؤولين التنفيذيين الآخرين في الشركة الذين ربما أُجبروا على توقيع اتفاقيات مماثلة في الماضي. في الواقع، وعلى مدى سنوات عديدة ووفقًا لموظفين سابقين، هددت الشركة بإلغاء حقوق الملكية المكتسبة للموظفين إذا لم يتعهدوا بالتصرف بلطف.

ومع ذلك، كان اعتذار ألتمان فعالاً في تقليل الانتباه إلى الخطأ القانوني الذي ارتكبته OpenAI في طلب هذه الاتفاقيات. كانت الشركة حريصة على المضي قدمًا، وكانت معظم الصحافة سعيدة بالالتزام بذلك. وقليل من وسائل الإعلام ذكرت الحقيقة القانونية الواضحة بأن مثل هذه الاتفاقيات كانت غير قانونية بوضوح بموجب قانون كاليفورنيا. لقد ظن الموظفون لسنوات أنهم أُسكتوا بسبب الوعد الذي شعروا بأنهم مجبرون على توقيعه، ولكن اعتذار الرئيس التنفيذي كان كافياً لوسائل الإعلام وعامة الناس للمضي قدماً.

مخاوف حول سلامة الذكاء الاصطناعي

يجب أن نتوقف قليلاً للتفكير فيما يعنيه أن يكون شخص ما على استعداد للتخلي ربما عن ملايين الدولارات للحفاظ على حرية الكلام. ما الذي يجب أن يقوله بالضبط؟ وليس كوكوتاجلو وحده، بل العديد من موظفي OpenAI الآخرين الذين استقالوا مؤخرًا، حيث يشير العديد منهم الآن إلى مخاوف جدية بشأن المخاطر الكامنة في تكنولوجيا الشركة.

شاهد ايضاً: وجهة نظر إسلامية حول الإجهاض: ما وراء "اختيار المرأة" و"حق الحياة"

كنت أعرف كوكوتاجلو وتواصلت معه بعد استقالته؛ وأنا الآن أمثله هو و 10 موظفين حاليين وسابقين آخرين من موظفي OpenAI على أساس تطوعي. لكن الحقائق التي أذكرها هنا تأتي من مصادر عامة فقط.

تحديات الفهم والسيطرة على الأنظمة

يشير العديد من الناس إلى المخاوف بشأن التكنولوجيا على أنها مسألة "سلامة الذكاء الاصطناعي". وهذا مصطلح فظيع لوصف المخاطر التي يشعر الكثير من الناس في هذا المجال بقلق عميق بشأنها. يخشى بعض الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك يوشوا بنجيو الحائز على جائزة تورينج والسير جيفري هينتون، خبير الكمبيوتر وعالم الأعصاب الذي يشار إليه أحياناً باسم "الأب الروحي للذكاء الاصطناعي"، من إمكانية أن تؤدي الأنظمة الجامحة إلى خلق ليس فقط "مخاطر السلامة"، بل إلى أضرار كارثية.

وفي حين أن الشخص العادي لا يستطيع أن يتخيل كيف يمكن لأي شخص أن يفقد السيطرة على جهاز كمبيوتر ("فقط افصل هذا الشيء اللعين!")، يجب أن ندرك أيضًا أننا لا نفهم في الواقع الأنظمة التي يخشاها هؤلاء الخبراء.

غياب التنظيم في صناعة الذكاء الاصطناعي

شاهد ايضاً: هذه يجب أن تكون الخطوة التالية لأمريكا للبقاء في المقدمة أمام الجناة السيبرانيين القاسيين

فالشركات العاملة في مجال الذكاء الاصطناعي العام - الذكاء العام الاصطناعي، الذي يشير بشكل عام إلى أبحاث الذكاء الاصطناعي النظرية التي تحاول إنشاء برمجيات ذات ذكاء شبيه بذكاء الإنسان، بما في ذلك القدرة على أداء مهام لم يتم تدريبها أو تطويرها من أجلها - هي من بين الشركات الأقل تنظيماً وخطراً بطبيعتها في أمريكا اليوم. لا توجد وكالة لديها سلطة قانونية لمراقبة كيفية تطوير الشركات لتقنياتها أو الاحتياطات التي تتخذها.

وبدلاً من ذلك، نعتمد على حسن تقدير هذه الشركات لضمان مراقبة المخاطر بشكل كافٍ. وهكذا، بينما تتسابق حفنة من الشركات على تحقيق الذكاء الاصطناعي المتقدم، وهو أهم تكنولوجيا في هذا القرن، فإننا نثق بها وبمجالس إدارتها في الحفاظ على مصلحة الجمهور أولاً. ما الخطأ الذي يمكن أن يحدث؟

دعوة لتغيير ثقافة الشركات

لقد دفعت هذه الفجوة الرقابية الآن عدداً من الموظفين الحاليين والسابقين في شركة OpenAI إلى مطالبة الشركات رسمياً بالتعهد بتشجيع بيئة يتمتع فيها الموظفون بحرية انتقاد احتياطات السلامة في الشركة.

شاهد ايضاً: رأي: أنا عالم لقاحات لطمس تأثيرات تردد اللقاحات لمس حياتي أيضًا

يطلب تعهدهم "الحق في التحذير" من الشركات:

أولاً، الالتزام بإلغاء أي اتفاقية "عدم الانتقاد". (لقد وعدت OpenAI بالفعل بالقيام بذلك؛ وتشير التقارير إلى أن الشركات الأخرى قد يكون لديها لغة مماثلة في اتفاقياتها التي لم تعترف بها بعد).

ثانياً، يطلب من الشركات أن تتعهد بإنشاء آلية مجهولة لمنح الموظفين والموظفين السابقين طريقة لإثارة مخاوف السلامة إلى مجلس الإدارة والمنظمين ومنظمة مستقلة لسلامة الذكاء الاصطناعي.

شاهد ايضاً: رأي: لماذا لا يوجد شيء اسمه "كارثة طبيعية"

ثالثاً، يطلب من الشركات دعم "ثقافة النقد المفتوح"، لتشجيع الموظفين والموظفين السابقين على التحدث عن مخاوف السلامة طالما أنهم يحمون الملكية الفكرية للشركة.

وأخيراً - وربما الأكثر إثارة للاهتمام - يطلب من الشركات أن تتعهد بعدم الانتقام من الموظفين الذين يشاركون المعلومات السرية عند إثارة المخاوف المتعلقة بالمخاطر، ولكنها تتعهد بأن يقوم الموظفون أولاً بتوجيه مخاوفهم من خلال عملية سرية ومجهولة - إذا ومتى قامت الشركة بإنشائها. تم تصميم ذلك لخلق الحافز لإنشاء آلية لحماية المعلومات السرية مع تمكين التحذيرات.

أهمية الحق في التحذير في الشركات

سيكون مثل هذا "الحق في التحذير" فريدًا من نوعه في تنظيم الشركات الأمريكية. ويبرره عدم وجود تنظيم فعال، وهي حالة يمكن أن تتغير إذا ما تمكن الكونجرس من معالجة المخاطر التي وصفها الكثيرون. وهو ضروري لأن الحماية العادية للمبلّغين عن المخالفات لا تغطي السلوك الذي لا يخضع هو نفسه للتنظيم.

تحديات الإبلاغ عن المخاطر

شاهد ايضاً: رأي: الأمريكيون لا يمتلكون ما يكفي في البنك لمواجهة الكوارث المتواصلة

فالقانون - وخاصة قانون كاليفورنيا - يمنح الموظفين مساحة واسعة للإبلاغ عن الأنشطة غير القانونية؛ ولكن عندما لا يكون هناك الكثير من التنظيم، لا يكون هناك الكثير من المخالفات. وبالتالي، طالما أنه لا يوجد تنظيم فعال لهذه الشركات، فإن الموظفين هم فقط من يمكنهم تحديد المخاطر التي تتجاهلها الشركة.

خاتمة: الحاجة إلى تنظيم فعال

حتى لو أقرت شركات الذكاء الاصطناعي "الحق في التحذير"، فلا ينبغي لأحد أن يتخيل أنه سيكون من السهل على أي موظف حالي أو سابق أن يبلغ عن شركة ذكاء اصطناعي. فالمبلّغون عن المخالفات ليسوا زملاء عمل مفضلين، حتى وإن كانوا يحظون باحترام البعض. وحتى مع وجود حماية رسمية، فإن خيار التحدث علنًا سيكون له حتمًا عواقب على فرص العمل المستقبلية - وصداقاتهم.

من الواضح أنه ليس من العدل أن نعتمد على التضحية بالنفس لضمان أن الشركات الخاصة لا تضع الربح فوق المخاطر الكارثية. هذه هي مهمة التنظيم. ولكن إذا كان هؤلاء الموظفون السابقون على استعداد لخسارة الملايين من أجل حرية قول ما يعرفون، فربما حان الوقت لأن يبني ممثلونا هياكل الرقابة التي من شأنها أن تجعل مثل هذه التضحيات غير ضرورية.

أخبار ذات صلة

Loading...
تمثال لعدد من الأشخاص يقفون أمام شعار شركة ديزني، مما يعكس قضية التمييز في الأجور بين الموظفين.

والت ديزني توافق على دفع 43.3 مليون دولار لتسوية دعوى تمييز في الأجور

في خطوة جريئة، وافقت شركة والت ديزني على دفع 43.3 مليون دولار لتسوية دعوى قضائية تتعلق بالتمييز في الأجور بين موظفاتها وموظفيها الذكور. هذه القضية، التي انطلقت من تجربة شخصية، تكشف عن فجوة الأجور المقلقة التي تعاني منها النساء في واحدة من أكبر شركات الترفيه العالمية. اقرأ المزيد لتكتشف كيف تسعى ديزني لتحقيق المساواة في الأجور بين موظفيها.
آراء
Loading...
أنجيلا تشيس، الشخصية الرئيسية في مسلسل \"My So-Called Life\"، تجلس في السيارة بتعبير تأملي، تعكس مشاعر المراهقة المعقدة.

رأي: بعد 30 عامًا من "حياتي المزعجة"، يعكس مبدعها على الاختيار

هل تساءلت يومًا كيف شكلت الإنترنت ثقافتنا الحديثة؟ في عام 1994، كانت الحياة مختلفة تمامًا، حيث بدأ مسلسل "My So-Called Life" في استكشاف قضايا الهوية والجنس بجرأة لم يسبق لها مثيل. تعال واكتشف كيف لا تزال هذه المواضيع تتردد في أذهاننا اليوم.
آراء
Loading...
رياضي يستعد للقفز بالزانة، يظهر تركيزه الشديد وتفاصيل ملابسه المميزة، في سياق التحضيرات لدورة الألعاب الأولمبية.

رأي: لماذا يجب عليك إيلاء اهتمامًا لدور العرق في الرياضة خلال أولمبياد هذا الصيف

في زمن تتجلى فيه التوترات السياسية والاجتماعية، تأتي الألعاب الأولمبية في باريس كفرصة فريدة لتوحيد الشعوب حول قيم الرياضة والتسامح. هل ستساهم هذه اللحظات في تعزيز الانسجام العرقي في عالم مليء بالتحديات؟ تابعوا معنا لاستكشاف كيف يمكن للرياضة أن تغير المواقف وتعزز الفخر الوطني.
آراء
Loading...
جو بايدن يتحدث إلى الجمهور، ممسكًا بميكروفون، في سماء زرقاء مع غيوم، مما يعكس قلق الناخبين حول قدرته الإدراكية.

رأي: حان الوقت لمعرفة ما إذا كان لدى بايدن إعاقة عقلية أم لا

هل تثير صحة بايدن وترامب القلق لديك؟ في ظل المناظرات المثيرة للجدل، أصبحت الأسئلة حول القدرات الإدراكية لكلا المرشحين أكثر إلحاحًا. مع تقدم العمر، تزداد المخاطر، ويصبح الفحص المعرفي ضرورة. اكتشف المزيد حول هذا الموضوع الشائك وكيف يؤثر على الانتخابات القادمة.
آراء
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية