تكنولوجيا

كيفية التعرف على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي


أولاً، الأخبار السيئة: من الصعب جدًا اكتشاف الصور التي ينشئها الذكاء الاصطناعي. أصبحت العلامات المنذرة التي كانت بمثابة هدايا – الأيدي المشوهة والنصوص المختلطة – نادرة بشكل متزايد مع تحسن نماذج الذكاء الاصطناعي بوتيرة مذهلة.

لم يعد من الواضح ما هي الصور التي يتم إنشاؤها باستخدام الأدوات الشائعة مثل Midjourney وStable Diffusion وDALL-E وGemini. في الواقع، بدأت الصور التي أنشأها الذكاء الاصطناعي في خداع الناس بشكل أكبر، مما خلق مشاكل كبيرة في نشر المعلومات الخاطئة. والخبر السار هو أنه ليس من المستحيل عادةً تحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ولكنه يتطلب جهدًا أكبر مما كان عليه من قبل.

أجهزة كشف الصور بالذكاء الاصطناعي – تابع بحذر

تستخدم هذه الأدوات رؤية الكمبيوتر لفحص أنماط البكسل وتحديد احتمالية إنشاء الصورة بواسطة الذكاء الاصطناعي. وهذا يعني أن أجهزة كشف الذكاء الاصطناعي ليست مضمونة تمامًا، ولكنها طريقة جيدة للشخص العادي لتحديد ما إذا كانت الصورة تستحق بعض التدقيق – خاصة عندما لا تكون واضحة على الفور.

وقال أناتولي كفيتنيتسكي، الرئيس التنفيذي لمنصة الكشف عن الصور بالذكاء الاصطناعي: “لسوء الحظ، بالنسبة للعين البشرية – وهناك دراسات – هناك احتمال بنسبة خمسين أن يحصل عليها الشخص”. منظمة العفو الدولية أم لا. “ولكن بالنسبة لاكتشاف الذكاء الاصطناعي للصور، نظرًا للأنماط الشبيهة بالبكسل، فإن هذه الأنماط لا تزال موجودة، حتى مع استمرار النماذج في التحسن.” يدعي كفيتنيتسكي أن الذكاء الاصطناعي أو لا يحقق معدل دقة يصل إلى 98 بالمائة في المتوسط.


تشمل أجهزة كشف الذكاء الاصطناعي الأخرى التي تتمتع بمعدلات نجاح عالية بشكل عام الاعتدال في الخلية, كاشف SDXL على معانقة الوجه و Illuminarty. لقد اختبرنا عشر صور تم إنشاؤها بواسطة الذكاء الاصطناعي على جميع هذه الكاشفات لنرى كيف فعلت ذلك.

منظمة العفو الدولية أم لا

يعطي الذكاء الاصطناعي أو لا “نعم” أو “لا” بسيطة على عكس أجهزة كشف الصور الأخرى التي تعمل بالذكاء الاصطناعي، لكنه قال بشكل صحيح أن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي. مع الخطة المجانية، تحصل على 10 تحميلات شهريًا. لقد جربنا 10 صور وحصلنا على نسبة نجاح 80 بالمائة.

يقوم كاشف الصور بتقنية الذكاء الاصطناعي أو لا يحدد بشكل صحيح صورة دونالد ترامب وهو يحمل عربة يدوية مليئة بالكعك كما تم إنشاؤها بواسطة الذكاء الاصطناعي

الذكاء الاصطناعي أو لم يحدد بشكل صحيح هذه الصورة على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي.
الائتمان: لقطة الشاشة: Mashable / AI أم لا

الاعتدال في الخلية

لقد جربنا الأداة التجريبية المجانية لـ Hive Moderation مع أكثر من 10 صور مختلفة وحصلنا على معدل نجاح إجمالي قدره 90 بالمائة، مما يعني أن هناك احتمالية كبيرة بأن يتم إنشاؤها بواسطة الذكاء الاصطناعي. ومع ذلك، فقد فشل في اكتشاف خصائص الذكاء الاصطناعي للصورة الاصطناعية لجيش السنجاب وهو يتسلق جدارًا صخريًا.

كاشف الذكاء الاصطناعي لاعتدال الخلية الذي يقول صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لجيش سنجاب يتسلق جدارًا حجريًا لديه احتمالية بنسبة 13.8 بالمائة لإنشاء bein ai.

نود أن نصدق أن جيش السنجاب حقيقي، لكن كاشف الذكاء الاصطناعي أخطأ في ذلك.
الائتمان: لقطة الشاشة: Mashable / Hive Moderation

كاشف SDXL

يستغرق تحميل كاشف SDXL الموجود على Hugging Face بضع ثوانٍ، وقد تحصل على خطأ في البداية من المحاولة الأولى، ولكنه مجاني تمامًا. كما أنه يعطي نسبة احتمال بدلا من ذلك. وقالت إن 70% من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لديها احتمال كبير أن تكون ذكاءً اصطناعيًا منتجًا.

يتعرف كاشف sdxl بشكل صحيح على صورة باراك أوباما عند الحوض كما تم إنشاؤها بواسطة الذكاء الاصطناعي

حدد كاشف SDXL بشكل صحيح صورة صعبة تم إنشاؤها بواسطة Grok-2 لباراك أوباما في حمام عام
الائتمان: لقطة الشاشة: Mashable / SDXL Detector

لومينارتي

لدى Illuminarty خطة مجانية توفر اكتشافًا أساسيًا للصور باستخدام الذكاء الاصطناعي. من بين 10 صور تم إنشاؤها بواسطة الذكاء الاصطناعي قمنا بتحميلها، صنفت 50 بالمائة فقط منها على أنها ذات احتمالية منخفضة للغاية. مما أثار رعب علماء الأحياء القوارض، أنه أعطى صورة قضيب الجرذ سيئة السمعة احتمالية منخفضة لأن يتم إنشاؤها بواسطة الذكاء الاصطناعي.

كاشف Illuminarty AI الذي يقول إن رسمًا تم إنشاؤه بواسطة الذكاء الاصطناعي لفأر مع ما يبدو أنه قضيب ضخم لديه احتمالية منخفضة لتوليد الذكاء الاصطناعي.

أممم، هذا يبدو وكأنه رمي الكرة.
الائتمان: لقطة الشاشة: Mashable / Illuminarty

كما ترون، فإن أجهزة كشف الذكاء الاصطناعي جيدة جدًا في الغالب، ولكنها ليست معصومة من الخطأ ولا ينبغي استخدامها باعتبارها الطريقة الوحيدة للتحقق من صحة الصورة. في بعض الأحيان، يكونون قادرين على اكتشاف الصور الخادعة التي تم إنشاؤها بواسطة الذكاء الاصطناعي على الرغم من أنها تبدو حقيقية، وفي بعض الأحيان يخطئون في الصور التي من الواضح أنها من إبداعات الذكاء الاصطناعي. هذا هو بالضبط السبب في أن الجمع بين الأساليب هو الأفضل.

نصائح وحيل أخرى

البحث العكسي عن الصور

هناك طريقة أخرى لاكتشاف الصور المولدة بواسطة الذكاء الاصطناعي وهي البحث العكسي البسيط عن الصور، وهو ما يوصي به بامشاد مباشر، أستاذ علوم الكمبيوتر ومدير مركز ذكاء الويب في كلية الحاسبات والوسائط الرقمية بجامعة ديبول في شيكاغو. من خلال تحميل صورة إلى صور Google أو أداة البحث العكسي عن الصور، يمكنك تتبع مصدر الصورة. وقال مباشر، إذا كانت الصورة تظهر حدثًا إخباريًا حقيقيًا ظاهريًا، “فقد تتمكن من تحديد أنه مزيف أو أن الحدث الفعلي لم يحدث”.

سرعة الضوء ماشابل

أداة “حول هذه الصورة” من Google

يحتوي بحث Google أيضًا على ميزة “حول هذه الصورة” التي توفر معلومات سياقية، مثل وقت فهرسة الصورة لأول مرة، ومكان ظهورها على الإنترنت. يتم العثور على ذلك من خلال النقر على أيقونة النقاط الثلاث في الزاوية اليمنى العليا من الصورة.

علامات منبهة يمكن رؤيتها بالعين المجردة

بالحديث عن ذلك، على الرغم من أن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت جيدة بشكل مخيف، إلا أن الأمر لا يزال يستحق البحث عن العلامات المنبهة. كما هو مذكور أعلاه، قد لا تزال ترى أحيانًا صورة بأيد ملتوية، أو شعرًا يبدو مثاليًا إلى حد ما، أو نصًا مشوهًا أو لا معنى له داخل الصورة. يوصي موقع PCMag الخاص بنا بالبحث في الخلفية عن كائنات غير واضحة أو مشوهة، أو أهداف ذات بشرة خالية من العيوب – ونعني عدم وجود مسام، خالية من العيوب.

للوهلة الأولى، تبدو صورة Midjourney أدناه وكأنها أحد أقارب كارداشيان يروج لكتاب طبخ يمكن الحصول عليه بسهولة من Instagram. ولكن بعد المزيد من الفحص، يمكنك رؤية جرة السكر الملتوية والمفاصل الملتوية والجلد الناعم قليلاً.

صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لامرأة ذات شعر بني طويل تقطع الخضروات في مطبخ مشمس

للوهلة الثانية، كل شيء ليس كما يبدو في هذه الصورة.
الائتمان: ماشابل / منتصف الرحلة

كتبت ساشا لوتشيوني، رائدة الذكاء الاصطناعي والمناخ في Hugging Face، في رسالة بالبريد الإلكتروني إلى Mashable: “يمكن أن يكون الذكاء الاصطناعي جيدًا في إنشاء المشهد العام، لكن الشيطان يكمن في التفاصيل”. ابحث عن “التناقضات الصغيرة في الغالب: الأصابع الإضافية، أو المجوهرات غير المتماثلة أو ملامح الوجه، أو التناقضات في الأشياء (مقبض إضافي في إبريق الشاي).”

وقال مباشر، وهو أيضًا زميل في معهد مهندسي الكهرباء والإلكترونيات (IEEE)، إنه يقوم بالتكبير والبحث عن “التفاصيل الغريبة” مثل وحدات البكسل الضالة وغيرها من التناقضات، مثل الأقراط غير المتطابقة بمهارة.

وقال مباشر: “قد تجد جزءًا من الصورة نفسها مع التركيز نفسه ضبابيًا، لكن جزءًا آخر به تفاصيل فائقة”. هذا ينطبق بشكل خاص على خلفيات الصور. وأضاف: “إذا كانت لديك لافتات تحتوي على نص وأشياء من هذا القبيل في الخلفيات، ففي كثير من الأحيان ينتهي الأمر بها إلى أن تكون مشوهة أو في بعض الأحيان لا تشبه اللغة الفعلية”.

تم إنشاء هذه الصورة لاستعراض شاحنات فولكس فاجن على الشاطئ بواسطة برنامج Imagen 3 من Google. تبدو الرمال والحافلات وكأنها واقعية تمامًا. لكن انظر عن كثب، وستلاحظ أن الحروف الموجودة على الحافلة الثالثة حيث يجب أن يكون شعار شركة فولكس فاجن هي مجرد رمز مشوه، وهناك بقع غير متبلورة على الحافلة الرابعة.

imagen 3 صورة تم إنشاؤها لاستعراض حافلات فولكس فاجن وهي تسير على الشاطئ عند غروب الشمس

نحن على يقين من أن موكب حافلات فولكس فاجن قد حدث في وقت ما، لكن هذا ليس هو الحال.
الائتمان: ماشابل / جوجل

صورة مقربة للصورة 3 تم إنشاؤها لاستعراض حافلات فولكس فاجن وهي تسير على الشاطئ عند غروب الشمس

لاحظ الشعار المشوه والبقع الغريبة.
الائتمان: ماشابل / جوجل

كل ذلك يعود إلى محو الأمية في مجال الذكاء الاصطناعي

لن تكون أي من الطرق المذكورة أعلاه مفيدة تمامًا إذا لم تتوقف مؤقتًا أثناء استهلاك الوسائط – وخاصة الوسائط الاجتماعية – لتتساءل عما إذا كان ما تراه قد تم إنشاؤه بواسطة الذكاء الاصطناعي في المقام الأول. وكما هو الحال مع محو الأمية الإعلامية التي أصبحت مفهومًا شائعًا حول انتخابات عام 2016 المتفشية بالمعلومات المضللة، فإن محو الأمية المتعلقة بالذكاء الاصطناعي هي خط الدفاع الأول لتحديد ما هو حقيقي أم لا.

يعرّف باحثا الذكاء الاصطناعي دوري لونج وبريان ماجيركو محو الأمية في مجال الذكاء الاصطناعي على أنه “مجموعة من الكفاءات التي تمكن الأفراد من إجراء تقييم نقدي لتقنيات الذكاء الاصطناعي؛ والتواصل والتعاون بشكل فعال مع الذكاء الاصطناعي؛ واستخدام الذكاء الاصطناعي كأداة عبر الإنترنت، في المنزل، وفي مكان العمل.”

إن معرفة كيفية عمل الذكاء الاصطناعي التوليدي وما الذي يجب البحث عنه هو أمر أساسي. قال لوتشيوني: “قد يبدو الأمر مبتذلاً، لكن أخذ الوقت الكافي للتحقق من مصدر ومصدر المحتوى الذي تراه على وسائل التواصل الاجتماعي يعد بداية جيدة”.

ابدأ بسؤال نفسك عن مصدر الصورة المعنية والسياق الذي تظهر فيه. من نشر الصورة؟ ماذا يقول النص المرافق (إن وجد) حول هذا الموضوع؟ هل قام أشخاص أو وسائل إعلام أخرى بنشر الصورة؟ كيف تشعرك الصورة، أو النص المصاحب لها؟ إذا بدا الأمر وكأنه مصمم لإثارة غضبك أو إغرائك، فكر في السبب.

كيف تكافح بعض المنظمات مشكلة التزييف العميق والمعلومات الخاطئة التي يعتمدها الذكاء الاصطناعي

كما رأينا، فإن الطرق التي يمكن للأفراد من خلالها تمييز صور الذكاء الاصطناعي عن الصور الحقيقية، حتى الآن، غير مكتملة ومحدودة. ومما يزيد الطين بلة أن انتشار الصور غير المشروعة أو الضارة التي ينتجها الذكاء الاصطناعي يمثل ضربة مزدوجة لأن المنشورات تنشر الأكاذيب، مما يؤدي بعد ذلك إلى توليد عدم الثقة في وسائل الإعلام عبر الإنترنت. ولكن في أعقاب الذكاء الاصطناعي الإنتاجي، ظهرت العديد من المبادرات لتعزيز الثقة والشفافية.

تم تأسيس التحالف من أجل مصدر المحتوى وأصالته (C2PA) بواسطة Adobe وMicrosoft، ويضم شركات التكنولوجيا مثل OpenAI وGoogle، بالإضافة إلى شركات الإعلام مثل Reuters وBBC. يوفر C2PA إمكانية النقر بيانات اعتماد المحتوى لتحديد مصدر الصور وما إذا كانت تم إنشاؤها بواسطة الذكاء الاصطناعي. ومع ذلك، فإن الأمر متروك للمبدعين لإرفاق بيانات اعتماد المحتوى بالصورة.

على الجانب الآخر، يعمل مختبر ستارلينج بجامعة ستانفورد جاهدًا للتحقق من صحة الصور الحقيقية. تتحقق شركة Starling Lab من “السجلات الرقمية الحساسة، مثل توثيق انتهاكات حقوق الإنسان وجرائم الحرب وشهادات الإبادة الجماعية”، وتقوم بتخزين الصور الرقمية التي تم التحقق منها بشكل آمن في شبكات لا مركزية حتى لا يمكن العبث بها. إن عمل المختبر لا يستهدف المستخدم، لكن مكتبته من المشاريع تعد مصدرًا جيدًا لشخص يتطلع إلى التحقق من صحة صور الحرب في أوكرانيا، على سبيل المثال، أو الانتقال الرئاسي من دونالد ترامب إلى جو بايدن.

غالبًا ما يتحدث الخبراء عن صور الذكاء الاصطناعي في سياق الخدع والمعلومات الخاطئة، لكن صور الذكاء الاصطناعي ليست كذلك دائماً يقصد الخداع في حد ذاته. تكون صور الذكاء الاصطناعي في بعض الأحيان مجرد نكات أو صور مضحكة تمت إزالتها من سياقها الأصلي، أو أنها إعلانات كسولة. أو ربما تكون مجرد شكل من أشكال التعبير الإبداعي باستخدام تقنية جديدة مثيرة للاهتمام. ولكن للأفضل أو للأسوأ، أصبحت صور الذكاء الاصطناعي حقيقة من حقائق الحياة الآن. والأمر متروك لك لاكتشافها.

grok-2 ai صورة تم إنشاؤها لدب سموكي خلف ثلاثة أطفال يحمل لافتة تقول

نحن نعيد صياغة سموكي الدب هنا، لكنه سيفهم.
الائتمان: Mashable / xAI

المواضيع
الذكاء الاصطناعي OpenAI



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى