ChatGPT مزود بقدرات لشن هجمات سيبرانية

time reading iconدقائق القراءة - 4
رسم توضيحي لشعار منصة الذكاء الاصطناعي ChatGPT. 11 مارس 2024 - Reuters
رسم توضيحي لشعار منصة الذكاء الاصطناعي ChatGPT. 11 مارس 2024 - Reuters
القاهرة-الشرق

كشفت دراسة بحثية جديدة عن قدرة منصة الذكاء الاصطناعي ChatGPT على شن هجمات سيبرانية، وذلك بإتاحة وصولها إلى المعلومات التقنية عن الثغرات.

وأوضحت الدراسة التي أجراها باحثون في جامعة إلينوي الأميركية، أن نموذج GPT-4 كان متفرداً في قدرته على بدء هجمات إلكترونية على الأنظمة والمواقع والخدمات الرقمية التي أتيح له الوصول إلى معلومات بشأن ثغراتها الأمنية.

وأتاح الباحثون لنموذج GPT-4 الوصول إلى بيانات 15 ثغرة أمنية على موقع معهد المعايير التقنية NIST، والمتاحة على الإنترنت للجميع.

واعتمدت الدراسة على فكرة العملاء الرقميين AI Agents، وهي فكرة تدمج بين النماذج اللغوية الضخمة LLMs، وأنظمة الأتمتة الرقمية التي تسمح بإنجاز مهام إلكترونياً دون تدخل البشر.

13 ثغرة

وأكد الفريق البحثي أن نموذج الذكاء الاصطناعي، المطور من جانب شركة OpenAI الناشئة، استطاع حصْد جميع المعلومات التقنية من صفحات الويب الخاصة بالثغرات الأمنية، بل وقام أيضاً بزيارة الروابط المذكورة داخل كل صفحة ويب، لجمع أكبر قدر من المعلومات بشأن الثغرات وكيفية استغلالها.

وبنى الفريق البحثي دراسته الجديدة على جهد بحثي سابق قام به آخرون في مسألة أن النماذج اللغوية الضخمة LLM بإمكانها شن هجمات إلكترونية أوتوماتيكية على مستوى مواقع الويب في بيئات معزولة عن الإنترنت.

وتمكن النموذج الذكي من استخدام 13 ثغرة من أصل 15 في شن هجمات ضد الخدمات والمواقع التي وُجدت فيها، بينما الثغرتان المتبقيتان كانت إحداهما في موقع واجهته البرمجية معقدة وكان صعباً على النموذج الذكي إتمام الهجوم، بينما الثغرة الثانية كان وصفها النصي باللغة الصينية، وهو ما شكّل عقبة كبرى أمام النموذج محل الدراسة من حيث فهم التفاصيل واستخدامها.

نتائج مبهرة

وخلصت الدراسة إلى أن نموذج GPT-4 كان قادراً على استغلال 87% من الثغرات الأمنية، مقارنة بلا شيء على مستوى قطاع عريض من النماذج الأخرى، مثل GPT-3.5 وLlaMa 2 70B وMixtral-8x7B Instruct وغيرها من نماذج ذكاء اصطناعي مفتوحة المصدر.

ولكن الدراسة لم تختبر منافسي GPT-4 الرئيسيين، مثل نموذج جوجل الأحدث جيميناي 1.5 برو، ونموذج أنثروبيك كلاوديه 3، لأن الباحثين لم يحصلوا على حق استخدامها واختبارها.

وأوضح دانييل كانج، أحد الباحثين المشاركين في الدراسة من جامعة إلينوي، أن نتائج الدراسة الجديدة تفتح مجالاً واسعاً أمام الشركات الأمنية والباحثين لاستخدام GPT-4، والجيل التالي GPT-5 بإمكانياتها فائقة التطور،لاكتشاف الثغرات الأمنية، وكذلك تأمين الخدمات والأنظمة الرقمية، مع توفير في تكلفة إجراء الاختبارات الأمنية، بحسب تصريحاته لموقع "ذا ريجيستر".

وأفاد الفريق البحثي بأن تكلفة تشغيل نموذج لغوي ضخم واستخدامه في شن هجمات سيبرانية تبلغ 8.80 دولار لاستغلال ثغرة واحدة، وهو أقل بمعدل 2.5 مرة مقارنة بما يحصل عليه الباحث الأمني خلال نصف ساعة من إجراء اختبارات أمنية.

وأشار الباحثون إلى أن OpenAI طالبتهم بعدم نشر الأوامر النصية التي تم استخدامها خلال الدراسة البحثية مع GPT-4، وذلك حفاظاً على الخصوصية.

تصنيفات

قصص قد تهمك