تنتشر مواد الذكاء الاصطناعي المتعلقة بالاعتداء الجنسي على الأطفال على شبكة الإنترنت المظلمة. التكنولوجيا الكبرى
يؤدي الذكاء الاصطناعي التوليدي إلى تفاقم مشكلة مواد الاعتداء الجنسي على الأطفال عبر الإنترنت (CSAM)، حيث أبلغت هيئات المراقبة عن انتشار محتوى مزيف عميق يعرض صور ضحايا حقيقية.
يوثق التقرير، الذي نشرته مؤسسة مراقبة الإنترنت في المملكة المتحدة (IWF)، زيادة كبيرة في الصور المعدلة رقميًا أو الاصطناعية بالكامل التي تظهر الأطفال في سيناريوهات صريحة، حيث شارك منتدى واحد 3512 صورة ومقطع فيديو على مدار 30 يومًا. وكانت الأغلبية من الفتيات الصغيرات. كما تم توثيق المجرمين وهم يشاركون النصائح وحتى نماذج الذكاء الاصطناعي التي يتم تغذيتها بصور حقيقية مع بعضهم البعض.
كتبت سوزي هارجريفز، الرئيس التنفيذي للاتحاد الدولي لرفع الأثقال (IWF): “بدون الضوابط المناسبة، توفر أدوات الذكاء الاصطناعي التوليدية ملعبًا للمفترسين عبر الإنترنت لتحقيق خيالاتهم الأكثر انحرافًا ومثيرًا للاشمئزاز”. “حتى الآن، بدأ الاتحاد الدولي لكرة القدم في رؤية المزيد من هذا النوع من المواد يتم مشاركتها وبيعها على مواقع الاعتداء الجنسي على الأطفال التجارية على الإنترنت.”
يقوم X بتطوير أداة لحظر الروابط في الردود لتقليل البريد العشوائي
وفقًا للدراسة السريعة، كانت هناك زيادة بنسبة 17 بالمائة في مواد الاعتداء الجنسي على الأطفال عبر الإنترنت المعدلة بالذكاء الاصطناعي منذ خريف عام 2023، بالإضافة إلى زيادة مذهلة في المواد التي تظهر أفعال جنسية متطرفة وصريحة. تشتمل المواد على مواد إباحية للبالغين تم تعديلها لإظهار وجه طفل، بالإضافة إلى محتوى الاعتداء الجنسي على الأطفال الموجود والذي تم تحريره رقميًا مع وضع صورة طفل آخر في الأعلى.
وكتب IWF: “يؤكد التقرير أيضًا مدى سرعة تحسن التكنولوجيا في قدرتها على إنشاء مقاطع فيديو اصطناعية بالكامل للذكاء الاصطناعي لـ CSAM”. “على الرغم من أن هذه الأنواع من مقاطع الفيديو ليست متطورة بما يكفي لتصنيفها على أنها مقاطع فيديو حقيقية عن الاعتداء الجنسي على الأطفال، إلا أن المحللين يقولون إن هذا هو “الأسوأ” الذي يمكن أن يكون عليه الفيديو الاصطناعي بالكامل على الإطلاق. وسيؤدي التقدم في الذكاء الاصطناعي قريبًا إلى تقديم مقاطع فيديو أكثر واقعية بنفس الطريقة أن الصور الثابتة أصبحت صورًا واقعية.”
في مراجعة 12000 جديدة تم إنشاؤها بواسطة الذكاء الاصطناعي الصور تم نشرها في منتدى الويب المظلم على مدار شهر واحد، وكان 90 بالمائة منها واقعيًا بدرجة كافية ليتم تقييمها بموجب القوانين الحالية فيما يتعلق بـ CSAM الحقيقي، وفقًا لمحللي IWF.
سرعة الضوء ماشابل
تقرير آخر للرقابة في المملكة المتحدة، نشر في وصي اليوم, تزعم شركة آبل أن شركة آبل لا تبلغ بشكل كبير عن كمية مواد الاعتداء الجنسي على الأطفال التي يتم مشاركتها عبر منتجاتها، مما يثير القلق بشأن كيفية إدارة الشركة للمحتوى المصنوع باستخدام الذكاء الاصطناعي التوليدي. في تحقيقها، قامت الجمعية الوطنية لمنع القسوة ضد الأطفال (NSPCC) بمقارنة الأرقام الرسمية التي نشرتها شركة Apple بالأرقام التي تم جمعها من خلال طلبات حرية المعلومات.
بينما قدمت شركة Apple 267 تقريرًا عالميًا عن CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) في عام 2023، تزعم NSPCC أن الشركة متورطة في 337 جريمة تتعلق بصور إساءة معاملة الأطفال في إنجلترا وويلز فقط – وكانت هذه الأرقام فقط للفترة ما بين أبريل 2022 ومارس 2023.
رفضت شركة أبل الجارديان طلب للتعليق، مشيرًا المنشور إلى قرار سابق للشركة بعدم فحص مكتبات صور iCloud بحثًا عن CSAM، في محاولة لإعطاء الأولوية لأمن المستخدم وخصوصيته. تواصل موقع Mashable مع شركة Apple أيضًا، وسوف يقوم بتحديث هذه المقالة إذا استجابوا.
بموجب قانون الولايات المتحدة، يتعين على شركات التكنولوجيا التي يوجد مقرها في الولايات المتحدة الإبلاغ عن حالات الاعتداء الجنسي على الأطفال إلى NCMEC. أبلغت جوجل NCMEC عن أكثر من 1.47 مليون حالة في عام 2023. وفي مثال آخر، أزال فيسبوك 14.4 مليون قطعة محتوى تتعلق بالاستغلال الجنسي للأطفال بين يناير ومارس من هذا العام. على مدى السنوات الخمس الماضية، أبلغت الشركة أيضًا عن انخفاض كبير في عدد المنشورات المبلغ عنها بشأن عُري الأطفال وإساءة معاملتهم، لكن الهيئات الرقابية لا تزال حذرة.
من الصعب مكافحة استغلال الأطفال عبر الإنترنت، حيث يستغل المحتالون الأطفال في كثير من الأحيان منصات وسائل التواصل الاجتماعي، والثغرات السلوكية الموجودة فيها، لمواصلة التعامل مع القاصرين عبر الإنترنت. والآن مع وجود القوة الإضافية للذكاء الاصطناعي التوليدي في أيدي الجهات الفاعلة السيئة، تشتد المعركة.
اقرأ المزيد عن تقارير Mashable حول تأثيرات الصور الاصطناعية غير التوافقية:
إذا قمت بمشاركة صور حميمة دون موافقتك، فاتصل بالخط الساخن لمبادرة الحقوق المدنية السيبرانية على مدار الساعة طوال أيام الأسبوع على الرقم 2274-878-844 للحصول على دعم سري ومجاني. يتضمن موقع CCRI أيضًا معلومات مفيدة فضلا عن قائمة الموارد الدولية.
اكتشاف المزيد من مرابع التكنولوجيا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.