تكنولوجيا

يقول Meta إن بعض أنظمة AGI محفوفة بالمخاطر للغاية


يبدو أنه منذ أن جاءت الذكاء الاصطناعى إلى عالمنا ، وضع المبدعون قدمًا على الغاز. ومع ذلك ، وفقًا لوثيقة سياسية جديدة ، قد يبطئ المدير التنفيذي لشركة Meta Mark Zuckerberg أو يوقف تطوير أنظمة AGI التي تعتبر “مخاطر عالية” أو “خطر حاسم”.

AGI هو نظام منظمة العفو الدولية يمكنه فعل أي شيء يمكن أن يفعله الإنسان ، ووعد Zuckerberg بتوفيره بشكل علني في يوم من الأيام. ولكن في وثيقة “Frontier AI Framework” ، يعترف Zuckerberg بأن بعض أنظمة الذكاء الاصطناعى القادرة للغاية لن يتم إصدارها علنًا لأنها قد تكون محفوفة بالمخاطر.

يركز الإطار “على المخاطر الأكثر أهمية في مجالات تهديدات الأمن السيبراني ومخاطر الأسلحة الكيميائية والبيولوجية”.

انظر أيضا:

يتضاعف مارك زوكربيرج على تقديم ميتا إلى ترامب

“من خلال إعطاء الأولوية لهذه المجالات ، يمكننا العمل على حماية الأمن القومي مع الترويج للابتكار. يحدد إطار عملنا عددًا من العمليات التي نتبعها لتوقع وتخفيف المخاطر عند تطوير أنظمة AI Frontier”.

سرعة الضوء القابلة للضوء

على سبيل المثال ، يعتزم الإطار تحديد “النتائج الكارثية المحتملة المتعلقة بالمخاطر الإلكترونية والكيميائية والبيولوجية التي نسعى جاهدين لمنعها.” كما أنه يجري “تمارين نمذجة التهديدات لتوقع كيف يمكن للجهات الفاعلة المختلفة أن تسعى إلى إساءة استخدام AI الحدودية لإنتاج تلك النتائج الكارثية” ولديها “عمليات معمول بها للحفاظ على المخاطر ضمن مستويات مقبولة”.

إذا قررت الشركة أن المخاطر مرتفعة للغاية ، فستبقي النظام داخليًا بدلاً من السماح للوصول العام.

انظر أيضا:

مارك زوكربيرج يريد المزيد من “الطاقة الذكورية” في أمريكا الشركات

“في حين أن تركيز هذا الإطار على جهودنا لتوقع وتخفيف مخاطر النتائج الكارثية ، فمن المهم التأكيد على أن سبب تطوير أنظمة الذكاء الاصطناعى المتقدمة في المقام الأول هو بسبب الإمكانات الهائلة للفوائد على المجتمع من تلك التقنيات ، “يقرأ المستند.

ومع ذلك ، يبدو أن ضرب Zuckerberg للمكابح – على الأقل في الوقت الحالي – على مسار Agi السريع إلى المستقبل.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى