خَبَرَيْن logo

الذكاء الاصطناعي: بين التحيز والمستقبل

فضيحة Gemini: هل يتعمد الذكاء الاصطناعي تشويه التاريخ؟ ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟ اقرأ المقال للتعرف على التحيزات والتحديات التي تواجه تكنولوجيا الذكاء الاصطناعي. #ذكاء_اصطناعي #تاريخ_التكنولوجيا

Opinion: Google’s AI blunder over images reveals a much bigger problem
Loading...
On GPS: Former Google CEO on the dangers and potential of AI
التصنيف:آراء
شارك الخبر:
FacebookTwitterLinkedInEmail

رأي: خطأ غوغل في الذكاء الاصطناعي بشأن الصور يكشف عن مشكلة أكبر بكثير

في فيلم "2001: A Space Odyssey" (2001: A Space Odyssey) الذي أنتج عام 1968، وجد الجمهور أنفسهم يحدقون في واحد من أوائل التصويرات الحديثة لنظام ذكاء اصطناعي مهذب للغاية ولكنه غير متعاون، وهو شخصية تدعى HAL. عندما طلب رائد الفضاء الوحيد الناجي من رائد الفضاء الوحيد الناجي أن يسمح له بالعودة إلى سفينة الفضاء، ردّ عليه HAL "أنا آسف يا ديف. أخشى أنني لا أستطيع فعل ذلك."

في الآونة الأخيرة، وجد بعض المستخدمين أنفسهم أمام رفض مهذب مماثل (وإن كان أقل دراماتيكية) من Gemini، وهو روبوت محادثة متكامل ومساعد ذكاء اصطناعي طرحته Google كمنافس لـ OpenAI's ChatGPT. عندما طُلب منه ذلك، رفض Gemini بأدب في بعض الحالات توليد صور لأشخاص بيض تاريخياً، مثل الفايكنج.

وعلى عكس "هال" الخيالي، قدم "جيميني" من غوغل على الأقل بعض التفسير، قائلاً إن عرض صور الأشخاص البيض فقط من شأنه أن يعزز "الصور النمطية الضارة والتعميمات عن الأشخاص على أساس عرقهم"، وفقاً لما ذكرته شبكة فوكس نيوز ديجيتال.

شاهد ايضاً: "هل سأكون الضحية التالية؟: خوف يسيطر على الرياضيات الكينيات بعد مقتل تشيبتجي"

اندلعت فضيحة الذكاء الاصطناعي "المستيقظ" بشكل سريع بعد اكتشاف المستخدمين أن برنامج Gemini كان ينشئ صورًا متنوعة ولكنها غير دقيقة تاريخيًا، وذلك بعدما طُلب منه التقاط صورة لآباء المؤسسين لأمريكا وقد أنتج صورة لرجل أسود. وأيضًا قام بتصوير امرأة سمراء على أنها البابا، وصور العديد من الأشخاص الملونين بزي النازي، بما في ذلك جندي ألماني عام 1943. ولم يكن هذا الأمر مفيدًا على الإطلاق، مما أثار انتقادات واسعة في الصناعة ودفع الشركة إلى إعادة التفكير في استخدام التعلم الآلي في هذا المجال.

كان رد الفعل العنيف على الإنترنت سريعًا لدرجة أن الرئيس التنفيذي لشركة Google، سوندار بيتشاي، اعترف بأن Gemini قد أساء إلى بعض مستخدميها. كما أوقفت Google أيضًا قدرة Gemini على توليد الأشخاص في الصور. وقُدِّم الأمر للجمهور على أنه مجرد سهو بسيط تم بنوايا حسنة سارت بشكل خاطئ، حيث أوضحت جوجل في منشور على مدونتها "لقد قمنا بضبطها لضمان عدم الوقوع في بعض الفخاخ التي رأيناها في الماضي مع تقنية توليد الصور".

تلك "الفخاخ" - التي بالغت جوجل في تصحيحها - كانت بالطبع تحيزًا واضحًا في أنظمة الذكاء الاصطناعي السابقة (التي بنيت على نفس أنواع التكنولوجيا التي يعتمد عليها جيميني). كانت هذه الأنظمة تميل إلى إظهار التحيز ضد الأقليات. على سبيل المثال، لم تتعرف برامج التعرف على الوجوه دائماً على الأشخاص ذوي البشرة السمراء، أو حتى وصفتهم بـ "الغوريلا". انتهى الأمر بخوارزميات الذكاء الاصطناعي للموافقة على القروض إلى إظهار التحيز ضد الأقليات. في مجال الصور، إذا طلبت من مولدات صور الذكاء الاصطناعي السابقة صورة لمدير تنفيذي أو طبيب، فإنها في البداية كانت تُظهر دائماً تقريباً صوراً لذكور بيض.

شاهد ايضاً: رأي: الخاسر الحقيقي في مناظرة الخميس

ومن المفارقات أن جوجل تعرضت لانتقادات في عام 2020 بسبب طردها لعالم ذكاء اصطناعي أسود البشرة أكد أن جهود الذكاء الاصطناعي التي تبذلها الشركة كانت متحيزة، وربما ساهم رد الفعل العنيف هذا في التصحيح المفرط للشركة في الاتجاه الآخر مع برنامج Gemini. المشكلة الأساسية التي تحاول جوجل حلها ليست مشكلة سهلة.

فمن الناحية التاريخية، أظهرت العديد من المنتجات التكنولوجية الجديدة تحيزات. ويمكن أن تتراوح هذه التحيزات من كيفية قياس الأجهزة الطبية الحيوية لمستويات الأكسجين في الدم لمختلف المجموعات العرقية، مما يؤدي إلى عدم تشخيص بعض الحالات المرضية للمرضى السود، إلى عدم تسجيل أجهزة الاستشعار دائمًا للأشخاص ذوي البشرة الداكنة وعدم وجود نساء في تجارب الأدوية السريرية.

في حالة الذكاء الاصطناعي، تتفاقم هذه المشكلة بسبب التحيزات الموجودة في بيانات التدريب - عادةً ما تكون بيانات عامة على الإنترنت - والتي تتعلمها أداة الذكاء الاصطناعي بعد ذلك.

شاهد ايضاً: تعترف مراسلة CNN بأن رؤيتها انقبضت: تجربة قوة 6G قبل ركوب طائرة مقاتلة

ربما كشفت الفضيحة الأخيرة، التي يبدو أن شركة Gemini تُقدِّم التنوع على الدقة التاريخية، عن مشكلة أكبر بكثير. إذا كانت مؤسسات التكنولوجيا الكبرى مثل جوجل، التي أصبحت حارسة البوابة الجديدة لمعلومات العالم، تتلاعب بالمعلومات التاريخية بناءً على معتقدات أيديولوجية ومراسيم ثقافية محتملة، فما الذي ترغب في تغييره أيضًا؟ وبعبارة أخرى، هل تتلاعب جوجل وشركات التكنولوجيا الكبرى الأخرى بالمعلومات، بما في ذلك نتائج البحث، عن الحاضر أو الماضي بسبب الأيديولوجيا أو الثقافات أو الرقابة الحكومية؟

في القرن الحادي والعشرين، دعك من الرقابة على الأفلام أو حرق الكتب أو إنتاج أفلام دعائية كأشكال للتحكم في المعلومات. هذه أمور من القرن العشرين. اليوم، إذا لم تكن موجودة على جوجل، فقد لا تكون موجودة أيضًا. في هذا العالم الذي تحركه التكنولوجيا، يمكن لمحركات البحث أن تكون الأداة الأكثر فعالية للرقابة على الحاضر والماضي. وعلى حد تعبير أحد شعارات الحزب من رواية "1984" لجورج أورويل، "من يتحكم في الماضي يتحكم في المستقبل: من يتحكم في الحاضر يتحكم في الماضي".

وكلما أصبح الذكاء الاصطناعي أكثر تطوراً، فإن هذه المخاوف من رقابة شركات التكنولوجيا الكبرى والتلاعب بالمعلومات (بمشاركة الحكومات أو بدونها) سوف تزداد. قد يحل الذكاء الاصطناعي التحادثي مثل ChatGPT بالفعل محل البحث كطريقة مفضلة للعثور على المعلومات وتلخيصها. وقد أدركت كل من جوجل ومايكروسوفت هذه الإمكانية واندفعتا جميعاً نحو الذكاء الاصطناعي بعد نجاح ChatGPT.

شاهد ايضاً: رأي: هل قرار حبوب الإجهاض نتيجة للانتقام من دوبس؟

حتى أن هذا الاحتمال دفع مجلة الإيكونوميست إلى التساؤل فيما يتعلق بالذكاء الاصطناعي: "هل هيمنة جوجل على البحث التي استمرت 20 عامًا في خطر؟

كانت شركة Apple تبحث في دمج OpenAI ومؤخراً Gemini في الإصدارات الجديدة من أجهزة iPhone الخاصة بها، مما يعني أن المزيد من الأشخاص سيستخدمون الذكاء الاصطناعي بشكل منتظم.

وكأستاذ، أرى بالفعل هذا الاتجاه بشكل مباشر مع طلابي. فغالبًا ما يفضلون استخدام ChatGPT ليس فقط للعثور على المعلومات بل أيضًا لتلخيص المعلومات لهم في فقرات. بالنسبة للجيل الأصغر سناً، وبسبب الذكاء الاصطناعي، أصبحت محركات البحث على شبكة الإنترنت قديمة مثلها مثل كتالوجات البطاقات المادية في المكتبات اليوم.

شاهد ايضاً: رأي: لماذا القلق من "العقل المدبر 2" شخصية يمكن التعاطف معها بالنسبة لي

ما يجعل الرقابة والتلاعب أسوأ مع الذكاء الاصطناعي هو أن الذكاء الاصطناعي اليوم يعاني بالفعل من مشكلة الهلوسة المعروفة. وبعبارة أخرى، فإن الذكاء الاصطناعي يختلق الأشياء في بعض الأحيان. لقد تعلمت هذه الحقيقة بالطريقة الصعبة عندما بدأ الطلاب في تسليم الواجبات التي من الواضح أنها من إنشاء الذكاء الاصطناعي، مع مراجع تبدو رائعة ولكن بها مشكلة واحدة: لم تكن موجودة بالفعل.

وبالنظر إلى مشكلة الهلوسة، فإن أيًا كان قادة الذكاء الاصطناعي في المستقبل (سواء كانوا جوجل أو مايكروسوفت أو أوبن إيه آي أو شركة جديدة) سوف يميلون إلى "ملء" قواعدهم الخاصة لما يجب أن ينتجه الذكاء الاصطناعي وما لا يجب أن ينتجه، تمامًا كما فعلت جوجل مع جيميني. هذا "الملء" سيأتي حتمًا من تحيزات وثقافة كل شركة، ويمكن أن يؤدي في النهاية إلى تقييد أو على الأقل تعديل ما هو مسموح به للذكاء الاصطناعي أو ما هو يرغب في أن يظهره لنا، تمامًا كما فعلت Google مع Gemini.

ولهذا السبب فإن هذه الفضيحة الصغيرة تتجاوز مجرد الحماس المفرط للتنوع والمساواة والشمول أو DEI في شركة واحدة. فقد تكون نذيراً لما سيأتي مع الذكاء الاصطناعي والتكنولوجيا الكبيرة التي تقودنا إلى منطقة أورويلية. في غضون سنوات قليلة، قد ترغب فقط في أن تطلب من رفيقك الودود في الذكاء الاصطناعي أن يعطيك بعض المعلومات التاريخية، فقط لتجد الذكاء الاصطناعي يرد عليك بتلك الطريقة المهذبة بشكل جنوني: "أنا آسف يا ديف. أخشى أنني لا أستطيع فعل ذلك."

أخبار ذات صلة

Opinion: I’m a vaccine scientist. The devastating impacts of vaccine hesitancy have touched my life too
Loading...

رأي: أنا عالم لقاحات لطمس تأثيرات تردد اللقاحات لمس حياتي أيضًا

آراء
Opinion: Here’s why marijuana should not be reclassified as a lower-risk drug
Loading...

رأي: لماذا يجب ألا تُعاد تصنيف الماريجوانا كدواء ذو مخاطر أقل

آراء
Opinion: Bosses are striking back at workers who use mouse jigglers
Loading...

رأي: رؤساء الشركات يضربون بقوة ضد العمال الذين يستخدمون أجهزة تحريك الماوس

آراء
Opinion: I’d rather live in the ‘world’s most dangerous place’ than America
Loading...

رأي: أفضل أن أعيش في "أخطر مكان في العالم" بدلاً من أمريكا

آراء
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية