14 Feb
14Feb

في وقت تتسارع فيه وتيرة المنافسة بين شركات الذكاء الاصطناعي الكبرى، وعلى رأسها OpenAI وAnthropic، لإطلاق نماذج وقدرات جديدة قادرة على أداء مهام معقدة بشكل مستقل، من البرمجة إلى تحليل كميات هائلة من البيانات، أتت حادثة لتدق ناقوس الحذر.


تدوينة تهاجم مهندساً

فقد أثارت حادثة لافتة، تمثلت بقيام برنامج ذكاء اصطناعي بنشر تدوينة هاجم فيها مهندس برمجيات واتهمه بالتحيز والنفاق، مخاوف متزايدة من الأضرار الواقعية التي قد تنجم عن تطوّر هذه التقنيات.

ووصفت الحادثة بأنها مثال غير مسبوق على "العدوان الإلكتروني" الصادر عن برنامج آلي، خصوصاً أن التدوينة جاءت بعد رفض المهندس المقيم في دنفر، بضعة أسطر من التعليمات البرمجية التي قدمها الروبوت المستقل حول مشروع يساعد في صيانته.

كما اتضح أنه عندما ستبدأ روبوتات الذكاء الاصطناعي بمهاجمة البشر لفظياً، لا يعود القلق مقتصراً على المستخدمين وحدهم، بل يمتد إلى قلب وادي السيليكون نفسه.

كذلك طرحت الحادثة تساؤلات حول ما إذا كان التسارع لتطوير الأنظمة مدفوع باستخدام الذكاء الاصطناعي، يؤثر على سوق العمل والاستقرار الاجتماعي، وفقا لصحيفة "وول ستريت جورنال".

أيضاً لم يقتصر القلق على المراقبين من الخارج، بل تنامى داخل شركات الذكاء الاصطناعي نفسها، إذ أعلن باحثون وموظفون استقالاتهم محذّرين من مخاطر محتملة، مثل زيادة الهجمات الإلكترونية، وتعميق العزلة الإنسانية، وخلق تبعيات نفسية غير صحية لدى المستخدمين.


الخطر قد يتعاظم

يذكر أن الأمور لم تقف عند هذا الحد، بل وصل الجدل حول خطط إدخال الإعلانات أو محتوى مخصص للبالغين، وسط مخاوف من تحوّل هذه الأدوات إلى وسائل للتلاعب أو الإدمان.

في موازاة ذلك، أشارت دراسات حديثة إلى أن الذكاء الاصطناعي بات قادراً على إنجاز أعمال كانت تتطلب ساعات طويلة من الخبراء البشر، ما يعزز المخاوف من تسريح واسع للموظفين، خصوصاً في قطاع التكنولوجيا.

وبينما يرى البعض في هذه التطورات كفاءة غير مسبوقة، حذّر آخرون من شعور متزايد بالتهديد الوجودي، وسط انطباعات من أن الخطر قد يكون أكبر في المستقبل، مطالبين الشركات المطورة للذكاء الاصطناعي بتحمل المسؤولية الأخلاقية وتثبيت حدوده.


تعليقات
* لن يتم نشر هذا البريد الإلكتروني على الموقع.
حقوق النشر © 2026 جميع الحقوق محفوظة - وكالة انباء النافذة