يقوم Bing بتعزيز اكتشاف المواد الإباحية العميقة لوقف انتشارها
يتمتع Microsoft Bing الآن بقدرة أكبر على إزالة الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي أو الصور المزيفة بعمق، وهي شكل من أشكال إساءة استخدام الصور الحميمية غير التوافقية (NCII)، من الظهور على محرك البحث، حيث تعلن الشركة عن شراكة جديدة غير ربحية.
وأوضحت الشركة أنه من خلال التعاون مع أداة الدفاع عن الضحايا StopNCII، تعمل Microsoft على استكمال تقارير المستخدم الخاصة بها بنهج أكثر “متمحورًا حول الضحية” يتضمن عملية اكتشاف أكثر تعمقًا. StopNCII، وهي منصة تديرها منظمة SWGfl غير الربحية في المملكة المتحدة وخط مساعدة Revenge Porn، توفر للأفراد القدرة على إنشاء وإضافة بصمات أصابع رقمية (تُعرف أيضًا باسم “التجزئة”) إلى الصور الحميمة، والتي يمكن بعد ذلك تتبعها لإزالة الصور كما تظهر على منصات معينة.
استنادًا إلى الإصدار التجريبي الذي استمر حتى شهر أغسطس، يقوم نظام Microsoft الجديد بتسخير قاعدة بيانات StopNCII لوضع علامة فورية على الصور الحميمة ومنع ظهورها في نتائج Bing. تقول Microsoft إنها “اتخذت إجراءً” بالفعل بشأن 268000 صورة صريحة.
يتم استخدام تجزئة StopNCII بواسطة مواقع التواصل الاجتماعي مثل Facebook وInstagram وTikTok وThreads وSnapchat وReddit، بالإضافة إلى منصات مثل Bumble وOnlyFans وAylo (مالك العديد من المواقع الإباحية الشهيرة، بما في ذلك PornHub)، وحتى Niantic، مطور الواقع المعزز. خلف بوكيمون جو. يعد Bing أول محرك بحث ينضم إلى التحالف الشريك.
سرعة الضوء ماشابل
يستخدم المحتالون صورًا لمنزلك لتضخيم تهديدات الابتزاز الجنسي
اتخذت شركة جوجل، التي تعاني أيضًا من محتوى التزييف العميق غير التوافقي، خطوات مماثلة لمعالجة ظهور الصور المزيفة بعمق في نتائج البحث، بالإضافة إلى الصور الحقيقية غير التوافقية. وأوضحت الشركة أنه خلال العام الماضي، قامت الشركة بتجديد نظام تصنيف البحث الخاص بها لخفض المحتوى الاصطناعي الصريح في النتائج، واستبدال النتائج التي تظهر على السطح بمحتوى “عالي الجودة وغير صريح”، مثل المقالات الإخبارية. أعلنت Google أنها تعمل أيضًا على تبسيط عملية إعداد التقارير والمراجعة للمساعدة في تسريع إزالة هذا المحتوى – تمتلك منصة البحث بالفعل نظامًا مشابهًا لإزالة الصور الحقيقية غير التوافقية، أو الصور الإباحية العميقة.
لكنها لم تنضم بعد إلى StopNCII وتستخدم تقنية التجزئة الخاصة بها. وقالت صوفي مورتيمر، مديرة خط مساعدة Revenge Porn: “إن محركات البحث هي حتماً بوابة للعثور على الصور، لذا فإن هذه الخطوة الاستباقية من Bing تضع رفاهية الأشخاص المتأثرين بشكل مباشر في المقدمة والمركز”.
لدى Microsoft عمليات إبلاغ مماثلة لإساءة استخدام NCII المستندة إلى الصور الحقيقية، بالإضافة إلى سياسات سلوك صارمة ضد الابتزاز الحميم، المعروف أيضًا باسم الابتزاز الجنسي. وفي وقت سابق من هذا العام، زودت مايكروسوفت شركة StopNCII بتكنولوجيا PhotoDNA الداخلية الخاصة بها، وهي أداة مشابهة لبصمات الأصابع تم استخدامها للكشف عن مواد الاعتداء الجنسي على الأطفال والمساعدة في إزالتها.
كيف تتعامل شركات التكنولوجيا الكبرى مع التزييف العميق الصريح وغير التوافقي؟
كيفية الإبلاغ عن الصور الحميمة باستخدام StopNCII
إذا كنت تعتقد أن صورتك (الصريحة أو غير الصريحة) معرضة لخطر النشر أو التلاعب بها من قبل جهات فاعلة سيئة، فيمكنك إضافة بصمة إصبعك الخاصة إلى StopNCII للكشف عنها في المستقبل. ولا تتطلب منك الأداة تحميل أو تخزين الصور أو مقاطع الفيديو الشخصية على الموقع. وبدلاً من ذلك، يتم الاحتفاظ بالصور على جهازك الشخصي.
-
قم بزيارة Stopncii.org.
-
انقر على “إنشاء حالتك” في الزاوية اليمنى العليا.
-
انتقل عبر المطالبات المخصصة التي تجمع معلومات حول محتوى الصورة أو الفيديو.
-
سيطلب منك موقع الويب بعد ذلك تحديد الصور أو مقاطع الفيديو من مكتبة الصور بجهازك. يقوم StopNCII بعد ذلك بمسح المحتوى وإنشاء تجزئات لكل صورة. ثم يتم إرسال التجزئات إلى المنصات المشاركة. لن تتم مشاركة أي صور أو مقاطع فيديو.
-
احفظ رقم الحالة الخاص بك، والذي سيسمح لك بالتحقق مما إذا كان قد تم اكتشاف الصورة أو الفيديو الخاص بك عبر الإنترنت.
إذا قمت بمشاركة صور حميمة دون موافقتك، فاتصل بالخط الساخن لمبادرة الحقوق المدنية السيبرانية على مدار الساعة طوال أيام الأسبوع على الرقم 2274-878-844 للحصول على دعم سري ومجاني. يتضمن موقع CCRI أيضًا معلومات مفيدة فضلا عن قائمة الموارد الدولية.
اكتشاف المزيد من مرابع التكنولوجيا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.