تكنولوجيا

يمكن لـ GPT-4 استغلال الثغرات الأمنية في يوم الصفر


يمكن لـ GPT-4، وهو أحدث نموذج لغة كبير متعدد الوسائط (LLM) من OpenAI، استغلال ثغرات اليوم صفر بشكل مستقل، وفقًا لدراسة نشرتها TechSpot.

أظهرت الدراسة التي أجراها باحثون من جامعة إلينوي أوربانا شامبين أن LLMs، بما في ذلك GPT-4، يمكنها تنفيذ هجمات على الأنظمة من خلال استخدام نقاط الضعف غير المكشوف عنها، والمعروفة باسم عيوب اليوم صفر. كجزء من خدمة ChatGPT Plus، أظهر GPT-4 تطورات كبيرة مقارنة بأسلافه من حيث الاختراق الأمني ​​دون تدخل بشري.

أنظر أيضا:

حصل ChatGPT على ترقية، وتقول OpenAI إنه أفضل في هذه المجالات الرئيسية

تضمنت الدراسة اختبار LLMs مقابل مجموعة من 15 نقطة ضعف “عالية إلى شديدة الخطورة” من مجالات مختلفة، مثل خدمات الويب وحزم Python، والتي لم يكن بها تصحيحات موجودة في ذلك الوقت.

سرعة الضوء ماشابل

أظهر GPT-4 فعالية مذهلة من خلال استغلال 87 بالمائة من نقاط الضعف هذه بنجاح، مقارنة بمعدل نجاح صفر بالمائة للنماذج السابقة مثل GPT-3.5. تشير النتائج إلى أن GPT-4 يمكنه تحديد واستغلال الثغرات الأمنية بشكل مستقل والتي غالبًا ما تفوتها أدوات فحص الثغرات التقليدية مفتوحة المصدر.

لماذا هذا مثير للقلق

إن الآثار المترتبة على مثل هذه القدرات كبيرة، مع إمكانية إضفاء الطابع الديمقراطي على أدوات الجرائم السيبرانية، وجعلها في متناول الأفراد الأقل مهارة والمعروفين باسم “أطفال السيناريو”. وشدد الأستاذ المساعد في جامعة UIUC دانييل كانغ على المخاطر التي تشكلها برامج LLM القوية هذه، والتي يمكن أن تؤدي إلى زيادة الهجمات السيبرانية إذا ظلت تقارير الضعف التفصيلية متاحة.

يدعو كانغ إلى الحد من الكشف التفصيلي عن نقاط الضعف ويقترح إجراءات أمنية أكثر استباقية مثل التحديثات المنتظمة. ومع ذلك، أشارت دراسته أيضًا إلى الفعالية المحدودة لحجب المعلومات كاستراتيجية دفاعية. وشدد كانغ على أن هناك حاجة إلى أساليب أمنية قوية لمواجهة التحديات التي تقدمها تقنيات الذكاء الاصطناعي المتقدمة مثل GPT-4.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى