تكنولوجيا

رفعت شركة أبل دعوى قضائية بقيمة مليار دولار بسبب الفشل المزعوم في منع مواد الاعتداء الجنسي على الأطفال


تواجه شركة Apple مرة أخرى دعوى قضائية بقيمة مليار دولار، حيث خرج آلاف الضحايا ضد الشركة بسبب تورطها المزعوم في نشر مواد الاعتداء الجنسي على الأطفال (CSAM).

في دعوى قضائية تم رفعها في 7 ديسمبر، اتُهم عملاق التكنولوجيا بالتراجع عن واجبات الإبلاغ الإلزامية – التي تتطلب من شركات التكنولوجيا التي يوجد مقرها في الولايات المتحدة الإبلاغ عن حالات CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) – والسماح بانتشار CSAM . وتزعم الدعوى القضائية أن شركة أبل، بسبب فشلها في إنشاء آليات السلامة الموعودة، باعت “منتجات معيبة” لفئات محددة من العملاء (ضحايا CSAM).

يزعم بعض المدعين أنهم تعرضوا للصدمة بشكل مستمر بسبب انتشار المحتوى بعد فترة طويلة من طفولتهم، حيث اختارت شركة Apple التركيز على منع حالات جديدة من CSAM واستمالة المستخدمين الصغار.

“يتقدم الآلاف من الناجين الشجعان للمطالبة بالمحاسبة من واحدة من أنجح شركات التكنولوجيا على هذا الكوكب. لم ترفض شركة Apple مساعدة هؤلاء الضحايا فحسب، بل أعلنت عن حقيقة أنها لا تكتشف مواد الاعتداء الجنسي على الأطفال على منصتها أو وكتبت المحامية مارغريت إي مابي: “تؤدي الأجهزة بالتالي إلى زيادة الضرر المستمر الذي يلحق بهؤلاء الضحايا بشكل كبير”.

سرعة الضوء ماشابل

أنظر أيضا:

ظروف العمل “السحيقة” واستغلال نماذج كاميرا الويب مكشوفة

احتفظت الشركة بالرقابة الصارمة على منتجات iCloud ومكتبات المستخدمين كجزء من وعود الخصوصية الأوسع. في عام 2022، ألغت شركة Apple خططها الخاصة بأداة مثيرة للجدل من شأنها أن تقوم تلقائيًا بفحص مكتبات صور iCloud ووضع علامة عليها بحثًا عن مواد مسيئة أو بها مشكلات، بما في ذلك CSAM. أشارت الشركة إلى القلق المتزايد بشأن خصوصية المستخدم والمراقبة الجماعية من قبل شركات التكنولوجيا الكبرى في قرارها بعدم تقديم ميزة المسح بعد الآن، وقد حظي اختيار أبل بدعم واسع النطاق من قبل مجموعات الخصوصية والناشطين في جميع أنحاء العالم. لكن الدعوى القضائية الجديدة تقول إن عملاق التكنولوجيا استخدم فقط دفاع الأمن السيبراني هذا للتهرب من واجباته المتعلقة بإعداد التقارير.

وكتب فريد ساينز المتحدث باسم شركة أبل ردا على الدعوى القضائية: “إن مواد الاعتداء الجنسي على الأطفال بغيضة ونحن ملتزمون بمحاربة الطرق التي يعرض بها المحتالون الأطفال للخطر”. “نحن نبتكر بشكل عاجل ونشط لمكافحة هذه الجرائم دون المساس بأمن وخصوصية جميع مستخدمينا. ميزات مثل “أمان الاتصالات”، على سبيل المثال، تحذر الأطفال عندما يتلقون أو يحاولون إرسال محتوى يحتوي على عري للمساعدة في كسر سلسلة الإكراه. يؤدي إلى الاعتداء الجنسي على الأطفال، ونحن نركز بشدة على بناء وسائل الحماية التي تساعد على منع انتشار مواد الاعتداء الجنسي على الأطفال قبل أن تبدأ.”

وتكافح شركات التكنولوجيا للسيطرة على انتشار المواد المسيئة عبر الإنترنت. اتهم تقرير صادر عام 2024 عن الجمعية الوطنية لمنع القسوة ضد الأطفال (NSPCC) شركة Apple بعدم الإبلاغ بشكل كبير عن كمية مواد الاعتداء الجنسي على الأطفال التي تشاركها عبر منتجاتها، حيث قدمت الشركة 267 تقريرًا عالميًا فقط عن مواد الاعتداء الجنسي على الأطفال إلى NCMEC في عام 2023. أبلغت ميتا عن أكثر من مليون و 30 مليون حالة على التوالي. وفي الوقت نفسه، أدى القلق المتزايد بشأن ظهور CSAM المعدلة رقميًا أو الاصطناعية إلى تعقيد المشهد التنظيمي، مما ترك عمالقة التكنولوجيا ومنصات التواصل الاجتماعي يتسابقون للحاق بالركب.

في حين تواجه شركة آبل دعوى قضائية محتملة بقيمة مليار دولار إذا انتقلت الدعوى إلى هيئة محلفين وفضلتها، فإن القرار له تداعيات أوسع على جهود الصناعة والخصوصية بشكل عام. يمكن أن تقرر المحكمة إجبار شركة Apple على إحياء أداة المسح الضوئي لمكتبة الصور الخاصة بها أو تنفيذ ميزات صناعية أخرى لإزالة المحتوى المسيء، مما يمهد طريقًا أكثر مباشرة نحو المراقبة الحكومية وتوجيه ضربة أخرى لحماية المادة 230.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى