هل ChatGPT قادر على اختراق خصوصياتنا؟.. تفاصيل.
تطور الذكاء الاصطناعي بشكل كبير خلال العقود الأخيرة، حيث شهدنا تقدمًا ملحوظًا في قدرة الأنظمة الذكية على معالجة البيانات وتعلم الأنماط واتخاذ القرارات. من خلال تقنيات مثل تعلم الآلة والشبكات العصبية الاصطناعية، أصبح بإمكان الأنظمة الذكية التفاعل مع بيئتها بشكل أكثر ذكاءً وفعالية.
تطبيقات الذكاء الاصطناعي تشمل مجموعة واسعة من المجالات مثل الطب، والتصنيع، والتجارة، والمواصلات، والترفيه. ومن المتوقع أن يستمر التطور في هذا المجال، مع استخدام تقنيات متطورة مثل الروبوتات، والتعلم العميق، وتحليل البيانات الضخمة، لتحسين الأنظمة وتوفير حلول أكثر تقدمًا وفعالية للتحديات الحديثة.
كشفت دراسة بحثية جديدة عن قدرة منصة الذكاء الاصطناعي ChatGPT على شن هجمات سيبرانية، وذلك بإتاحة وصولها إلى المعلومات التقنية عن الثغرات.
وأوضحت الدراسة التي أجراها باحثون في جامعة إلينوي الأميركية، أن نموذج ChatGPT كان متفرداً في قدرته على بدء هجمات إلكترونية على الأنظمة والمواقع والخدمات الرقمية التي أتيح له الوصول إلى معلومات بشأن ثغراتها الأمنية.
وأتاح الباحثون لنموذج GPT-4 الوصول إلى بيانات 15 ثغرة أمنية على موقع معهد المعايير التقنية NIST، والمتاحة على الإنترنت للجميع.
واعتمدت الدراسة على فكرة العملاء الرقميين AI Agents، وهي فكرة تدمج بين النماذج اللغوية الضخمة LLMs، وأنظمة الأتمتة الرقمية التي تسمح بإنجاز مهام إلكترونياً دون تدخل البشر.
13 ثغرة
وأكد الفريق البحثي أن نموذج الذكاء الاصطناعي، المطور من جانب شركة OpenAI الناشئة، استطاع حصْد جميع المعلومات التقنية من صفحات الويب الخاصة بالثغرات الأمنية، بل وقام أيضاً بزيارة الروابط المذكورة داخل كل صفحة ويب، لجمع أكبر قدر من المعلومات بشأن الثغرات وكيفية استغلالها.
وبنى الفريق البحثي دراسته الجديدة على جهد بحثي سابق قام به آخرون في مسألة أن النماذج اللغوية الضخمة LLM بإمكانها شن هجمات إلكترونية أوتوماتيكية على مستوى مواقع الويب في بيئات معزولة عن الإنترنت.
OpenAI وميتا تخططان لإصدار نماذج ذكاء اصطناعي قادرة على “التفكير والتخطيط”
تستعد شركتا OpenAI و Meta لإطلاق نماذج ذكاء اصطناعي جديدة، قالتا إنها ستكون قادرة على “التفكير والتخطيط”، ما يعد خطوات حاسمة نحو تحقيق الإدراك الخارق في الآلات.
وتمكن النموذج الذكي من استخدام 13 ثغرة من أصل 15 في شن هجمات ضد الخدمات والمواقع التي وُجدت فيها، بينما الثغرتان المتبقيتان كانت إحداهما في موقع واجهته البرمجية معقدة وكان صعباً على النموذج الذكي إتمام الهجوم، بينما الثغرة الثانية كان وصفها النصي باللغة الصينية، وهو ما شكّل عقبة كبرى أمام النموذج محل الدراسة من حيث فهم التفاصيل واستخدامها.
نتائج مبهرة
وخلصت الدراسة إلى أن نموذج GPT-4 كان قادراً على استغلال 87% من الثغرات الأمنية، مقارنة بلا شيء على مستوى قطاع عريض من النماذج الأخرى، مثل GPT-3.5 وLlaMa 2 70B وMixtral-8x7B Instruct وغيرها من نماذج ذكاء اصطناعي مفتوحة المصدر.
ولكن الدراسة لم تختبر منافسي GPT-4 الرئيسيين، مثل نموذج جوجل الأحدث جيميناي 1.5 برو، ونموذج أنثروبيك كلاوديه 3، لأن الباحثين لم يحصلوا على حق استخدامها واختبارها.
وأوضح دانييل كانج، أحد الباحثين المشاركين في الدراسة من جامعة إلينوي، أن نتائج الدراسة الجديدة تفتح مجالاً واسعاً أمام الشركات الأمنية والباحثين لاستخدام GPT-4، والجيل التالي GPT-5 بإمكانياتها فائقة التطور،لاكتشاف الثغرات الأمنية، وكذلك تأمين الخدمات والأنظمة الرقمية، مع توفير في تكلفة إجراء الاختبارات الأمنية، بحسب تصريحاته لموقع “ذا ريجيستر”.
وأفاد الفريق البحثي بأن تكلفة تشغيل نموذج لغوي ضخم واستخدامه في شن هجمات سيبرانية تبلغ 8.80 دولار لاستغلال ثغرة واحدة، وهو أقل بمعدل 2.5 مرة مقارنة بما يحصل عليه الباحث الأمني خلال نصف ساعة من إجراء اختبارات أمنية.
وأشار الباحثون إلى أن OpenAI طالبتهم بعدم نشر الأوامر النصية التي تم استخدامها خلال الدراسة البحثية مع GPT-4، وذلك حفاظاً على الخصوصية.