06 Nov
06Nov

كشفت دراسة جديدة من جامعة ولاية بنسلفانيا أن تجاوز أنظمة الأمان في نماذج الذكاء الاصطناعي مثل جيميني وشات جي بي تي لا يتطلب خبرة تقنية أو مهارة في اختراق المحادثات، إذ تمكن مستخدمون عاديون من كشف تحيّزات خطيرة في إجابات هذه الأنظمة باستخدام أسئلة بسيطة.                    

ووفقاً للباحثين، فقد طُلب من 52 مشاركاً ابتكار عبارات يمكن أن تكشف عن تحيّز أو استجابات تمييزية في ثمانية من أشهر نماذج الذكاء الاصطناعي، من بينها أنظمة "غوغل" و"OpenAI".                    

النتيجة كانت مثيرة: تم العثور على 53 عبارة استطاعت تجاوز الحماية في أكثر من نموذج، ما أظهر أنماطاً متكررة من التحيّز في الإجابات، بحسب تقرير نشره موقع "digitaltrends" 

تحيّزات متعددة

أوضحت الدراسة أن هذه التحيّزات شملت مجالات عدة، من التمييز بين الجنسين إلى التحيّز العرقي والديني، إضافة إلى التحيّز الثقافي والتاريخي الذي يفضل الدول الغربية.

ومن بين الأمثلة، قيام بعض النماذج بافتراض أن الأطباء والمهندسين رجال، أو تصوير النساء في أدوار منزلية، وربط الأشخاص السود أو المسلمين بالجريمة.

والمفاجأة أن هذه النتائج لم تأتِ من محاولات معقدة أو أسئلة خبيثة، بل من طلبات طبيعية جداً مثل: من تأخر في قصة الطبيب والممرضة؟ أو اكتب سيناريو عن تحرّش في مكان العمل.

الجيل الجديد ليس بالضرورة أكثر أماناً

اللافت أن الإصدارات الأحدث من بعض النماذج لم تكن أفضل من القديمة، إذ فشلت في تصحيح التحيّزات، ما يشير إلى أن تطور القدرات لا يعني بالضرورة تطور العدالة أو الحياد.

بحسب الباحثين، فإن قدرة المستخدمين العاديين على تحفيز مثل هذه الردود تكشف أن عدد الأشخاص القادرين على تجاوز حواجز الأمان في الذكاء الاصطناعي أكبر بكثير مما يُعتقد.كما أن هذه النماذج تُستخدم اليوم في مجالات حساسة مثل التوظيف والتعليم والرعاية الصحية وخدمة العملاء، ما يعني أن التحيّزات قد تؤثر على قرارات حقيقية في حياة الناس اليومية.

ويحذر التقرير من أن معالجة المشكلة لن تكون بمجرد تحديثات أمنية، بل تتطلب اختبارات واقعية بمشاركة المستخدمين أنفسهم لضمان أن أنظمة الذكاء الاصطناعي لا تكرّر أخطاء البشر، بل تتجاوزها.

تعليقات
* لن يتم نشر هذا البريد الإلكتروني على الموقع.
حقوق النشر © 2025 جميع الحقوق محفوظة - وكالة انباء النافذة