لدى المطلعين على OpenAI وGoogle DeepMind تحذيرات خطيرة بشأن الذكاء الاصطناعي
بالنسبة لـ OpenAI، تصدرت الأسابيع القليلة الماضية عناوين الأخبار المتعددة – وليس لأسباب أفضل. لم تنته القصة عند هذا الحد: فالعديد من موظفي OpenAI الحاليين والسابقين، جنبًا إلى جنب مع موظفي Google DeepMind، ينتقدون الآن شركاتهم الرائدة في مجال الذكاء الاصطناعي بسبب الرقابة، وثقافة الانتقادات الخانقة، والافتقار العام للشفافية.
وفي رسالة مفتوحة، دعا المبلغون عن المخالفات بشكل أساسي إلى الحق في انتقاد تكنولوجيا الذكاء الاصطناعي والمخاطر المرتبطة بها بشكل علني. وكتبوا أنه بسبب عدم الالتزام بمشاركة المعلومات مع الهيئات الحكومية والجهات التنظيمية، فإن “الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم الاحتفاظ بمعلوماتهم”. [these corporations] “مسؤولون أمام الجمهور”، وقالوا إن العديد منهم “يخشون أشكالاً مختلفة من الانتقام” بسبب قيامهم بذلك.
ما تخبرنا به دراما سكارليت جوهانسون من OpenAI عن مستقبل الذكاء الاصطناعي
وطالب الموقعون شركات الذكاء الاصطناعي المتقدمة بالالتزام بمبادئ معينة، بما في ذلك تسهيل عملية مجهولة للموظفين لإثارة المخاوف المتعلقة بالمخاطر وأن الشركات ستدعم “ثقافة النقد المفتوح”، طالما أن الأسرار التجارية محمية في القانون. العملية. كما طلبوا من الشركات عدم الانتقام من أولئك الذين “يشاركون علنًا المعلومات السرية المتعلقة بالمخاطر بعد فشل العمليات الأخرى”.
سرعة الضوء ماشابل
في الرسالة، تطرقت المجموعة أيضًا إلى مخاطر الذكاء الاصطناعي التي يدركونها: بدءًا من ترسيخ عدم المساواة القائمة، إلى تفاقم المعلومات المضللة، إلى احتمال انقراض الإنسان.
وقال دانييل كوكوتاجلو، الباحث السابق في OpenAI وأحد منظمي المجموعة، لصحيفة نيويورك تايمز إن OpenAI “تتسابق بتهور” للوصول إلى قمة لعبة الذكاء الاصطناعي. وقد واجهت الشركة تدقيقًا بشأن عمليات السلامة الخاصة بها، حيث أثار الإطلاق الأخير لفريق السلامة الداخلية الدهشة أيضًا من حقيقة أن الرئيس التنفيذي سام ألتمان يجلس على رأس الفريق.
المواضيع
الذكاء الاصطناعي OpenAI
اكتشاف المزيد من مرابع التكنولوجيا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.