كشف تقرير أمني نشر في 2025 أن التهديدات السيبرانية التي تنتحل هوية ChatGPT زادت بنحو 115% خلال الشهور الأولى من العام مقارنة بالفترة نفسها في 2024.
بحسب التفاصيل، المهاجمون يستخدمون أسماء أدوات ذكاء اصطناعي شائعة (مثل ChatGPT وربما أدوات أخرى) لتوزيع برمجيات خبيثة أو روابط ضارة، مستغِلين الإقبال الكبير على خدمات الذكاء الاصطناعي كطُعم.
من بين النتائج أيضًا أن آلاف المستخدمين من الشركات الصغيرة والمتوسطة قد تعرضوا لمحاولات هجوم — بعض هذه المحاولات كانت تُخفي نفسها على أنها تحديثات أو أدوات مجانية لـ AI.
هذا النمو في التهديدات يُبرز أن الانتشار السريع لتقنيات الذكاء الاصطناعي لم يأتِ فقط مع فرص اقتصادية وتقنية، بل مع مخاطر أمنية جديدة — سواء على مستوى الأفراد أو المؤسسات.
لماذا هذا مهم الآن
-
المجازفة تتزايد: مع انتشار AI، كثير من المستخدمين غير متمرسين — ما يجعلهم عرضة لمحاولات احتيال وانتحال هوية.
-
الخوف على المؤسسات: الشركات الصغيرة والمتوسطة تعتمد على أدوات رقمية بشكل كبير، وأي خرق أمني قد يكلفها خسائر كبيرة — بيانات، سمعة، أو أموال.
-
ضغوط على الأمن السيبراني: الحلول التقليدية للحماية قد لا تكفي في مواجهة أساليب جديدة تستخدم الذكاء الاصطناعي للتخفي أو الخداع.
ماذا ينصح الخبراء الآن
-
توخي الحذر عند تحميل أي أداة أو تطبيق يُدّعي أنه “ذكاء اصطناعي”: تحقق من المصدر، وتجنّب الروابط أو الملفات مجهولة المصدر.
-
الاعتماد على حلول حماية محدثة، تشمل فحص الروابط والبرمجيات قبل تثبيتها، خصوصًا ضمن بيئة عمل أو معالجة بيانات حساسة.
-
التوعية والتثقيف — خاصة للمؤسسات الصغيرة: توعية الموظفين بخطر الانتحال، وخلق ثقافة أمنية.
-
تشجيع المنصات والشركات الكبرى على توفير تحذيرات رسمية من الانتحال، وتوضيح القنوات الصحيحة لتنزيل أو استخدام المنتجات.
ماذا يعني هذا لـ “عصر الذكاء الاصطناعي”
هذا التحوّل في أساليب الهجوم يعني أن الذكاء الاصطناعي — رغم إمكاناته — صار أداة مزدوجة: يمكن أن يدعم الابتكار، لكنه أيضاً يُلغِب المخاطر إذا استُخدم بشكل سيئ.
لذلك، أمن المعلومات والحذر الرقمي أصبحا جزءًا لا يتجزأ من النقاش العام حول AI — ليس فقط من زاوية الخصوصية، لكن من زاوية السلامة الرقمية والاستغلال.














