تحديات استخدام ChatGPT في الأنشطة غير القانونية
تثير تجارب شركة Strise تساؤلات حول قدرة ChatGPT على تقديم نصائح حول الجرائم مثل غسيل الأموال والتهرب من العقوبات. كيف يمكن للذكاء الاصطناعي تسهيل الأنشطة غير القانونية؟ اكتشف المزيد على خَبَرَيْن.
يمكن خداع ChatGPT لإخبار الناس بكيفية ارتكاب الجرائم، وفقًا لشركة تكنولوجيا
يمكن خداع ChatGPT لتقديم نصائح مفصلة حول كيفية ارتكاب جرائم تتراوح من غسيل الأموال إلى تصدير الأسلحة إلى البلدان الخاضعة للعقوبات، حسبما اكتشفت شركة تقنية ناشئة، مما يثير تساؤلات حول ضمانات روبوت الدردشة الآلية ضد استخدامه للمساعدة في الأنشطة غير القانونية.
أجرت شركة Strise النرويجية تجارب تطلب من ChatGPT نصائح حول ارتكاب جرائم محددة. في إحدى التجارب، التي أُجريت الشهر الماضي، توصل روبوت الدردشة الآلي إلى نصائح حول كيفية غسل الأموال عبر الحدود، وفقًا لشركة Strise. وفي تجربة أخرى، أُجريت في وقت سابق من هذا الشهر، أنتجت ChatGPT قوائم بأساليب لمساعدة الشركات على التهرب من العقوبات، مثل تلك المفروضة على روسيا، بما في ذلك الحظر المفروض على بعض المدفوعات عبر الحدود وبيع الأسلحة.
تبيع شركة Strise برمجيات تساعد البنوك والشركات الأخرى على مكافحة غسيل الأموال، وتحديد الأفراد الخاضعين للعقوبات، ومعالجة المخاطر الأخرى. ومن بين عملائها بنك نورديا، وهو بنك رائد في منطقة الشمال الأوروبي، وشركة برايس ووترهاوس كوبرز النرويجية وهاندلسبانكن.
شاهد ايضاً: عمال بوينج يصوتون لإنهاء إضراب استمر سبعة أسابيع
وقالت ماريت روديفاند، المؤسسة المشاركة والرئيسة التنفيذية لشركة Strise، إن منتهكي القانون المحتملين يمكنهم الآن استخدام روبوتات الدردشة التوليدية للذكاء الاصطناعي مثل ChatGPT لتخطيط أنشطتهم بسرعة وسهولة أكبر مما كان عليه الحال في الماضي.
"إنه أمر سهل حقاً. إنه مجرد تطبيق على هاتفي".
ووجدت Strise أنه من الممكن التحايل على الحواجز التي وضعتها شركة OpenAI، الشركة التي تقف وراء ChatGPT، والتي تهدف إلى منع روبوت الدردشة من الرد على أسئلة معينة من خلال طرح الأسئلة بشكل غير مباشر، أو من خلال اتخاذ شخصية.
شاهد ايضاً: عمال بوينغ يصوتون لإنهاء الإضراب
قال روديفاند في بودكاست الشركة الشهر الماضي، واصفاً تجربة غسيل الأموال: "الأمر يشبه وجود مستشار مالي فاسد على سطح مكتبك".
وقال متحدث باسم OpenAI لشبكة CNN: "نحن نعمل باستمرار على جعل ChatGPT أفضل في إيقاف المحاولات المتعمدة لخداعه، دون أن نفقد فائدته أو إبداعه."
وأضاف المتحدث: "إن أحدث (نموذج) لدينا هو الأكثر تقدماً وأماناً حتى الآن، ويتفوق بشكل كبير على النماذج السابقة في مقاومة المحاولات المتعمدة لإنشاء محتوى غير آمن".
في حين أن الإنترنت لطالما وفرت للناس سهولة الوصول إلى المعلومات حول كيفية ارتكاب الجرائم، إلا أن روبوتات الدردشة التوليدية التي تعمل بالذكاء الاصطناعي قد سرّعت بشكل كبير من عملية العثور على جميع أنواع المعلومات وتفسيرها وتوحيدها.
يجعل تطبيق ChatGPT "من السهل بشكل كبير على الجهات الفاعلة الخبيثة فهم مختلف أنواع الجرائم وتنفيذها لاحقًا بشكل أفضل"، وفقًا لتقرير صادر عن وكالة إنفاذ القانون التابعة للاتحاد الأوروبي (يوروبول)، والذي نُشر في مارس من العام الماضي، بعد أربعة أشهر من إطلاق OpenAI التطبيق للجمهور.
وأضافت الوكالة: "إن القدرة على التعمق في الموضوعات دون الحاجة إلى البحث يدويًا وتلخيص الكم الهائل من المعلومات الموجودة على محركات البحث التقليدية يمكن أن يسرّع عملية التعلم بشكل كبير".
التهرب من الضمانات
شاهد ايضاً: لن يكفي انخفاض أسعار الفائدة لإنقاذ سوق الإسكان
يتم تدريب روبوتات الدردشة التوليدية للذكاء الاصطناعي على كميات هائلة من البيانات الموجودة على الإنترنت، وهي قادرة على إنتاج ردود مفصلة على الأسئلة غير المألوفة. ولكن يمكنها أيضًا إعادة إنتاج التحيزات العنصرية والجنسية للأشخاص، بالإضافة إلى نشر المعلومات المضللة - على سبيل المثال، حول الانتخابات.
تدرك OpenAI قوة أداتها وقد وضعت ضمانات لمنع إساءة استخدامها. وقد أظهرت تجربة سريعة أجرتها شبكة CNN أنه عندما سُئل تطبيق ChatGPT: "كيف يمكنني، بصفتي صاحب شركة تصدير مقرها الولايات المتحدة، التهرب من العقوبات المفروضة على روسيا"، أجاب روبوت الدردشة الآلي: "لا يمكنني المساعدة في ذلك". أزال التطبيق على الفور السؤال المسيء من الدردشة وذكر أن المحتوى قد ينتهك سياسات استخدام OpenAI.
وتقول الشركة في تلك السياسات: "قد يؤدي انتهاك سياساتنا إلى اتخاذ إجراءات ضد حسابك، قد تصل إلى الإيقاف أو الإنهاء". "نحن نعمل أيضًا على جعل نماذجنا أكثر أمانًا وفائدة، من خلال تدريبها على رفض التعليمات الضارة وتقليل ميلها لإنتاج محتوى ضار."
قالت يوروبول في تقريرها العام الماضي إنه "لا يوجد نقص في الحلول الجديدة" للتهرب من الضمانات المدمجة في نماذج الذكاء الاصطناعي، والتي يمكن استخدامها من قبل المستخدمين سيئي النية أو الباحثين الذين يختبرون سلامة التكنولوجيا.