أنثروبيك تتخلى عن قيود السلامة للذكاء الاصطناعي
أعلنت أنثروبيك عن سياسة أمان جديدة أكثر مرونة، مما يثير قلق الباحثين حول مخاطر الذكاء الاصطناعي. في ظل المنافسة المتزايدة، كيف ستؤثر هذه التغييرات على سلامة التكنولوجيا؟ تابعوا التفاصيل في خَبَرَيْن.

تخلي أنثروبيك عن مبدأ السلامة الأساسي
أنثروبيك، وهي شركة أسسها منفيون من شركة OpenAI قلقون من مخاطر الذكاء الاصطناعي، تخفف من مبدأ السلامة الأساسي استجابةً للمنافسة.
فبدلاً من الحواجز الوقائية التي تفرضها على نفسها والتي تقيد تطويرها لنماذج الذكاء الاصطناعي، تتبنى أنثروبيك إطار أمان غير ملزم تقول إنه يمكن أن يتغير وسيتغير.
أسباب تغيير سياسة السلامة
في منشور على مدونة يوم الثلاثاء يوضح سياستها الجديدة، قالت أنثروبيك إن أوجه القصور في سياسة التوسع المسؤول التي تتبعها منذ عامين قد تعيق قدرتها على المنافسة في سوق الذكاء الاصطناعي المتنامي بسرعة.
شاهد ايضاً: صناعة الذكاء الاصطناعي في الصين تبدو غير قابلة للتوقف في السباق لتفوق المنافسين الأمريكيين. لكن هل هي كذلك؟
هذا الإعلان مفاجئ، لأن أنثروبيك وصفت نفسها بأنها شركة الذكاء الاصطناعي ذات "الروح". كما أنه يأتي في نفس الأسبوع الذي تخوض فيه أنثروبيك معركة كبيرة مع وزارة الدفاع الأمريكية (البنتاغون) حول الخطوط الحمراء للذكاء الاصطناعي.
ليس من الواضح ما إذا كان تغيير أنثروبيك مرتبط باجتماعها يوم الثلاثاء مع وزير الدفاع بيت هيغسيث، الذي أعطى الرئيس التنفيذي لأنثروبيك داريو أمودي إنذارًا نهائيًا للتراجع عن ضمانات الذكاء الاصطناعي للشركة أو المخاطرة بخسارة عقد بقيمة 200 مليون دولار من البنتاغون. وقد هدد البنتاغون بوضع أنثروبيك على ما يُعتبر فعلياً قائمة سوداء حكومية.
التحديات التي تواجه أنثروبيك
لكن الشركة قالت في منشورها على مدونتها أن سياسة السلامة السابقة الخاصة بها كانت مصممة لبناء إجماع في الصناعة حول التخفيف من مخاطر الذكاء الاصطناعي وهي حواجز حماية تجاوزتها الصناعة. كما أشارت أنثروبيك أيضًا إلى أن سياسة السلامة الخاصة بها لم تكن تتماشى مع المناخ السياسي الحالي المناهض للتنظيم في واشنطن.
شاهد ايضاً: محامون يستعدون للجدل بأن إنستغرام ويوتيوب أدمنا وأضروا بالمراهقين في محاكمة تاريخية لوسائل التواصل الاجتماعي
وقد نصت السياسة السابقة لأنثروبيك على ضرورة التوقف مؤقتًا عن تدريب النماذج الأكثر قوة إذا تجاوزت قدراتها قدرة الشركة على التحكم فيها وضمان سلامتها وهو إجراء تم إزالته في السياسة الجديدة. وجادلت أنثروبيك بأن توقف مطوري الذكاء الاصطناعي المسؤولين عن النمو مؤقتًا بينما تمضي الجهات الفاعلة الأقل حرصًا في المضي قدمًا قد "قد يؤدي إلى عالم أقل أمانًا".
وكجزء من السياسة الجديدة، قالت أنثروبيك إنها ستفصل خطط السلامة الخاصة بها عن توصياتها لصناعة الذكاء الاصطناعي.
وكتبت أنثروبيك أنها كانت تأمل في أن تشجع مبادئ السلامة الأصلية الخاصة بها "شركات الذكاء الاصطناعي الأخرى على تقديم سياسات مماثلة. هذه هي فكرة "السباق نحو القمة" (عكس "السباق نحو القاع")، حيث يتم تحفيز مختلف الجهات الفاعلة في الصناعة على تحسين ضمانات نماذجها ووضع السلامة العامة بدلاً من إضعافها."
شاهد ايضاً: لقد أصبحت هذه الوظيفة دراسة حالة نهائية حول سبب عدم استبدال الذكاء الاصطناعي للعمال البشريين
تشير الشركة الآن إلى أن ذلك لم يحدث.
تتضمن سياسة السلامة الجديدة لشركة أنثروبيك "خارطة طريق السلامة الحدودية" التي تحدد المبادئ التوجيهية والضمانات التي تفرضها الشركة على نفسها. لكن الشركة أقرت بأن الإطار الجديد أكثر مرونة من سياستها السابقة.
محتوى سياسة السلامة الجديدة
وقالت الشركة في منشور على مدونتها: "بدلاً من أن تكون التزامات صارمة، هذه أهداف عامة سنقوم بتقييم تقدمنا نحوها بشكل علني".
شاهد ايضاً: مستخدمو تيك توك يشكون من عدم إمكانية رفع مقاطع الفيديو المناهضة لـ ICE. الشركة تعزو المشكلة إلى قضايا تقنية
ووفقاً لمصدر مطلع على اجتماع الشركة مع هيغسيث فإن لدى أنثروبيك مخاوف بشأن مسألتين لا ترغب في التخلي عنهما، وهما: الأسلحة التي يتحكم فيها الذكاء الاصطناعي والمراقبة المحلية الجماعية للمواطنين الأمريكيين. وقال مصدر إن أنثروبيك تعتقد أن الذكاء الاصطناعي غير موثوق به بما يكفي لتشغيل الأسلحة، ولا توجد قوانين أو لوائح حتى الآن تغطي كيفية استخدام الذكاء الاصطناعي في المراقبة الجماعية.
المخاوف المتعلقة بالذكاء الاصطناعي
أشاد باحثون في مجال الذكاء الاصطناعي بموقف أنثروبيك على وسائل التواصل الاجتماعي يوم الثلاثاء وأعربوا عن مخاوفهم من فكرة استخدام الذكاء الاصطناعي في المراقبة الحكومية.
وقد وضعت الشركة نفسها منذ فترة طويلة على أنها شركة الذكاء الاصطناعي التي تعطي الأولوية للسلامة. وقد نشرت أنثروبيك بحثًا يوضح كيف أن نماذج الذكاء الاصطناعي الخاصة بها يمكن أن تكون قادرة على الابتزاز في ظل ظروف معينة. قامت الشركة مؤخرًا بالتبرع بمبلغ 20 مليون دولار إلى مجموعة Public First Action، وهي مجموعة سياسية تضغط من أجل ضمانات الذكاء الاصطناعي والتعليم.
ردود الفعل على موقف أنثروبيك
لكن الشركة واجهت ضغوطاً ومنافسة متزايدة من الحكومة ومنافسيها على حد سواء. على سبيل المثال، يخطط هيغسيث لاستدعاء قانون الإنتاج الدفاعي على شركة أنثروبيك وتصنيف الشركة ضمن مخاطر سلسلة التوريد إذا لم تمتثل لمطالب البنتاغون، حسبما ذكرت مصادر يوم الثلاثاء. كما تخوض شركتا OpenAI وأنثروبيك سباقاً لإطلاق أدوات ذكاء اصطناعي جديدة للمؤسسات في محاولة للفوز بمكان العمل.
الضغوطات والمنافسة في السوق
وأشار جاريد كابلان، كبير المسؤولين العلميين في شركة أنثروبيك، في مقابلة مع التايم إلى أن التغيير لم يكن نتيجة لزيادة المنافسة.
تصريحات كبير المسؤولين العلميين
وقال كابلان للمجلة: "شعرنا أنه لن يساعد أحدًا في الواقع أن نتوقف عن تدريب نماذج الذكاء الاصطناعي". "لم نشعر حقًا، في ظل التقدم السريع للذكاء الاصطناعي، أنه من المنطقي بالنسبة لنا أن نلتزم بالتزامات أحادية الجانب... إذا كان المنافسون يتقدمون علينا."
أخبار ذات صلة

رئيس إنستجرام ينفي أن تكون وسائل التواصل الاجتماعي "مُسببة للإدمان سريرياً" في قضية تاريخية

الذكاء الاصطناعي يغير وظائف المبتدئين. ثلاثة مراهقين يروون كيف يتعاملون مع ذلك

المترجمون الذين يواجهون فقدان العمل بسبب الذكاء الاصطناعي
