مخاطر الذكاء الاصطناعي في عهد ترامب الجديد
يستعد ترامب لدخول البيت الأبيض مجددًا مع التركيز على الذكاء الاصطناعي، بينما يحذر الخبراء من المخاطر مثل التمييز والتضليل. هل سيتجاوز الابتكار الأبعاد الأخلاقية؟ اكتشف المزيد في خَبَرَيْن.
مع وجود ماسك إلى جانبه، ترامب يتطلع إلى تغيير السياسات الحكومية بشأن الذكاء الاصطناعي ومخاطره
يستعد دونالد ترامب لدخول البيت الأبيض للمرة الثانية. وسيتضمن جدول أعماله الإشراف على تطوير الذكاء الاصطناعي، الذي يُحتمل أن يكون أقوى تكنولوجيا في عصرنا الحالي.
وقد وعد الرئيس المنتخب بـ"خفض اللوائح التنظيمية الزائدة" واستعان بالملياردير التكنولوجي إيلون ماسك، وهو ناقد آخر للقواعد الحكومية، للمساعدة في قيادة هذا الجهد. وعلى نحو أكثر تحديدًا، قال الحزب الجمهوري، في برنامجه الانتخابي، إنه سيلغي أمرًا تنفيذيًا شاملًا وقعه الرئيس جو بايدن الذي حدد إجراءات لإدارة مخاطر الأمن القومي للذكاء الاصطناعي ومنع التمييز من قبل أنظمة الذكاء الاصطناعي، من بين أهداف أخرى.
وقالت وثيقة الجمهوريين إن الأمر التنفيذي يحتوي على "أفكار يسارية متطرفة" تعيق الابتكار.
تراقب ساندرا واشتر، أستاذة التكنولوجيا والتنظيم في معهد أكسفورد، ما سيحدث بعد ذلك عن كثب. وقالت لـCNN إن الذكاء الاصطناعي مليء بالمخاطر التي "تحتاج إلى معالجة بالأمس" من خلال تنظيم قوي.
وفيما يلي بعض مخاطر الذكاء الاصطناعي غير المقيد.
التمييز
على مدى سنوات، أثبتت أنظمة الذكاء الاصطناعي قدرتها على إعادة إنتاج تحيزات المجتمع - على سبيل المثال، حول العرق والجنس - لأن هذه الأنظمة يتم تدريبها على بيانات عن أفعال سابقة قام بها البشر، وكثير منهم يحملون هذه التحيزات. عندما يتم استخدام الذكاء الاصطناعي لتقرير من يتم توظيفه أو الموافقة على الرهن العقاري، يمكن أن تكون النتيجة تمييزية في كثير من الأحيان.
"يقول واتشر: "التحيز متأصل في هذه التقنيات لأنها تنظر إلى البيانات التاريخية لمحاولة التنبؤ بالمستقبل. فهي تعلم من تم توظيفه في الماضي، ومن دخل السجن في الماضي. "وهكذا، في كثير من الأحيان ودائمًا تقريبًا، تكون هذه القرارات متحيزة."
وأضافت أنه من دون وجود حواجز وقائية قوية، "ستنتقل تلك القرارات الإشكالية من الماضي إلى المستقبل".
وقال أندرو سترايت، المدير المساعد في معهد آدا لوفليس، وهي منظمة غير ربحية مقرها لندن تبحث في سلامة وأخلاقيات الذكاء الاصطناعي.
شاهد ايضاً: الولايات المتحدة تُنهي وضع قيود على الاستثمارات في الذكاء الاصطناعي وأشباه الموصلات في الصين
وأشار إلى أن بعض إدارات الشرطة في الولايات المتحدة استخدمت برمجيات مدعومة بالذكاء الاصطناعي ومدربة على بيانات الجرائم التاريخية للتنبؤ بالأماكن التي من المحتمل أن تحدث فيها الجرائم في المستقبل. وقال ستريت إن هذه البيانات غالبًا ما تعكس الإفراط في ضبط الأمن في مجتمعات معينة، والتنبؤات المستندة إليها تجعل الشرطة تركز اهتمامها على تلك المجتمعات نفسها وتبلغ عن المزيد من الجرائم هناك. وفي الوقت نفسه، فإن المناطق الأخرى التي يُحتمل أن تكون فيها نفس مستويات الجريمة أو أعلى من ذلك يتم الإبلاغ عن عدد أقل من الجرائم.
التضليل
إن الذكاء الاصطناعي قادر على توليد صور وصوت ومقاطع فيديو مضللة يمكن استخدامها لجعل الشخص يبدو وكأنه فعل أو قال شيئًا لم يفعله. وهذا بدوره قد يُستخدم للتأثير على الانتخابات أو إنشاء صور إباحية مزيفة لمضايقة الناس، من بين انتهاكات محتملة أخرى.
تم تداول الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على نطاق واسع على وسائل التواصل الاجتماعي قبل الانتخابات الرئاسية الأمريكية في وقت سابق من هذا الشهر، بما في ذلك صور مزيفة لكامالا هاريس، والتي أعاد ماسك نفسه نشرها.
وفي مايو/أيار، قالت وزارة الأمن الداخلي الأمريكية في نشرة وزعت على مسؤولي الولايات والمسؤولين المحليين، واطلعت عليها شبكة CNN، إن الذكاء الاصطناعي من المرجح أن يوفر للعملاء الأجانب والمتطرفين المحليين "فرصًا معززة للتدخل" أثناء الانتخابات.
وفي يناير/كانون الثاني، تلقى أكثر من 20,000 شخص في نيو هامبشاير مكالمة آلية - رسالة آلية يتم تشغيلها عبر الهاتف - استخدمت الذكاء الاصطناعي لانتحال صوت بايدن لتنصحهم بعدم التصويت في السباق التمهيدي للانتخابات الرئاسية. كان وراء هذه المكالمات الآلية، كما اعترف، ستيف كرامر، الذي عمل في الحملة الانتخابية التمهيدية للنائب دين فيليبس ضد بايدن. نفت حملة فيليبس أن يكون لها أي دور في المكالمات الآلية.
في العام الماضي أيضًا، تراوحت أهداف الصور الإباحية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وغير المتوافقة، من نساء بارزات مثل تايلور سويفت والنائبة ألكساندريا أوكاسيو كورتيز إلى فتيات في المدرسة الثانوية.
سوء الاستخدام الخطير والمخاطر الوجودية
شاهد ايضاً: ميتا تفصل موظفين بسبب استخدامهم بدلات الطعام في شراء مستلزمات شخصية مثل لاصقات حب الشباب وكؤوس النبيذ
سلّط باحثو الذكاء الاصطناعي والجهات الفاعلة في هذا المجال الضوء على مخاطر أكبر تشكلها هذه التكنولوجيا. وهي تتراوح ما بين توفير ChatGPT سهولة الوصول إلى معلومات شاملة عن كيفية ارتكاب الجرائم، مثل تصدير الأسلحة إلى البلدان الخاضعة للعقوبات، إلى تحرر الذكاء الاصطناعي من السيطرة البشرية.
قال مانوج تشودري، كبير مسؤولي التكنولوجيا في شركة جيتربيت، وهي شركة برمجيات أمريكية، لشبكة CNN: "يمكنك استخدام الذكاء الاصطناعي لبناء هجمات إلكترونية متطورة للغاية، ويمكنك أتمتة القرصنة، ويمكنك بالفعل صنع نظام سلاح ذاتي التحكم يمكن أن يسبب الضرر للعالم".
في مارس الماضي، حذر تقرير صدر بتكليف من وزارة الخارجية الأمريكية من مخاطر الأمن القومي "الكارثية" التي يمثلها الذكاء الاصطناعي سريع التطور، داعياً إلى وضع ضمانات تنظيمية "طارئة" إلى جانب تدابير أخرى. وجاء في التقرير أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن أن تشكل، في أسوأ الحالات، "تهديداً على مستوى الانقراض للجنس البشري".
وقالت وثيقة ذات صلة إنه يمكن استخدام أنظمة الذكاء الاصطناعي لتنفيذ "هجمات إلكترونية شديدة التأثير قادرة على شل البنية التحتية الحيوية"، من بين سلسلة من المخاطر.
ما التالي؟
بالإضافة إلى الأمر التنفيذي الذي أصدره بايدن، حصلت إدارته أيضًا على تعهدات من 15 شركة تقنية رائدة العام الماضي لتعزيز سلامة أنظمة الذكاء الاصطناعي الخاصة بها، على الرغم من أن جميع الالتزامات طوعية.
وقد أقرت الولايات التي يقودها الديمقراطيون مثل كولورادو ونيويورك قوانين الذكاء الاصطناعي الخاصة بها. في نيويورك، على سبيل المثال، يجب على أي شركة تستخدم الذكاء الاصطناعي للمساعدة في توظيف العمال أن تستعين بمدقق مستقل للتحقق من خلو النظام من التحيز.
يقول ستريت في معهد آدا لوفليس: "هناك "خليط من (قوانين الذكاء الاصطناعي الأمريكي) آخذ في التطور، ولكنه مجزأ للغاية وغير شامل".
وأشار إلى أنه "من السابق لأوانه التأكد" مما إذا كانت إدارة ترامب القادمة ستوسع هذه القواعد أو تتراجع عنها.
ومع ذلك، فهو يخشى أن يؤدي إلغاء الأمر التنفيذي لبايدن إلى نهاية معهد سلامة الذكاء الاصطناعي التابع للحكومة الأمريكية. وقال سترايت لشبكة سي إن إن إن الأمر التنفيذي أنشأ تلك "المؤسسة المهمة للغاية"، وكلفها بالتدقيق في المخاطر الناشئة عن نماذج الذكاء الاصطناعي المتطورة قبل طرحها للجمهور.
من المحتمل أن يضغط ماسك من أجل تشديد الرقابة على الذكاء الاصطناعي، كما فعل سابقاً. ومن المقرر أن يلعب دورًا بارزًا في الإدارة القادمة بصفته رئيسًا مشاركًا لـ "إدارة الكفاءة الحكومية" الجديدة.
وقد أعرب ماسك مرارًا وتكرارًا عن خوفه من أن الذكاء الاصطناعي يشكل تهديدًا وجوديًا للبشرية، على الرغم من أن إحدى شركاته، xAI، تقوم هي نفسها بتطوير روبوت محادثة يعمل بالذكاء الاصطناعي.
وأشار سترايت إلى أن ماسك كان "مؤيدًا كبيرًا جدًا" لمشروع قانون تم تفريغه الآن في كاليفورنيا. كان يهدف مشروع القانون إلى منع بعض العواقب الأكثر كارثية للذكاء الاصطناعي، مثل تلك الناتجة عن الأنظمة التي يمكن أن تصبح غير قابلة للتحكم فيها. وقد استخدم جافين نيوسوم، الحاكم الديمقراطي لولاية كاليفورنيا، حق النقض (الفيتو) ضد مشروع القانون في سبتمبر، مشيرًا إلى التهديد الذي يشكله على الابتكار.
شاهد ايضاً: بعد صدور حكم إدانة ترامب، تتزايد التهديدات ومحاولات نشر معلومات شخصية عن أعضاء هيئة المحلفين عبر الإنترنت
ماسك "قلق للغاية بشأن (الخطر الكارثي) للذكاء الاصطناعي. ومن المحتمل أن يكون ذلك موضوع أمر تنفيذي لترامب في المستقبل".
لكن الدائرة المقربة من ترامب لا تقتصر على ماسك وتشمل جي دي فانس. قال نائب الرئيس القادم في يوليو إنه قلق من "محاولات التنظيم المفرط الاستباقي" في مجال الذكاء الاصطناعي، لأنها "ستؤدي إلى "ترسيخ شاغلي الوظائف التقنية الموجودة لدينا بالفعل وتجعل من الصعب بالفعل على الوافدين الجدد خلق الابتكار الذي سيؤدي إلى تعزيز الجيل القادم من النمو الأمريكي".
يمكن وصف شركة تيسلا (TSLA) التي يملكها ماسك بأنها واحدة من تلك الشركات التكنولوجية القائمة. في العام الماضي أبهر ماسك المستثمرين بالحديث عن استثمار تسلا في الذكاء الاصطناعي، وفي آخر بيان أرباحها، قالت الشركة إنها لا تزال تركز على "القيام باستثمارات مهمة في مشاريع الذكاء الاصطناعي" من بين أولويات أخرى.