تكنولوجيا

استقال أحد قادة السلامة في OpenAI يوم الثلاثاء. لقد شرح فقط السبب.


من المعروف أن OpenAI ليس كل ذلك يفتح. تظهر منتجات الذكاء الاصطناعي المبهرة والمتطورة دون سابق إنذار، مما يولد الإثارة والقلق بنفس القدر (إلى جانب الكثير من الازدراء). ولكن مثل تطوير منتجاتها، فإن الثقافة الداخلية للشركة غامضة على نحو غير عادي، مما يجعل الأمر أكثر إثارة للقلق لأن جان ليك، الرئيس المشارك المغادر لفريق “superalignment” الخاص بها – وهو منصب يتجاهل قضايا السلامة في OpenAI – قد تحدث للتو ضد شركة.

شيء من هذا القبيل كان متوقعًا جزئيًا من قبل أولئك الذين يراقبون OpenAI عن كثب. واستقال كبير العلماء السابق البارز في الشركة، إيليا سوتسكيفر، بشكل مفاجئ يوم الثلاثاء أيضًا، وأصبح “#WhatDidIlyaSee” علامة تصنيف رائجة. مرة اخرى. إن الصياغة المتغطرسة للهاشتاج – التي يعود أصلها إلى شهر مارس/آذار، عندما شارك Sutskever في مكائد الشركة التي أدت إلى إقالة الرئيس التنفيذي سام ألتمان لفترة وجيزة – جعلت الأمر يبدو كما لو أن Sutskever قد ألمح العالم من خلال مرآة الذكاء الاصطناعي، وركض منها وهو يصرخ.

أنظر أيضا:

تعمل Google على رفع مستوى الذكاء الاصطناعي من خلال الاستثمار في شركة Anthropic المنافسة لـ ChatGPT

وفي سلسلة من المنشورات على موقع X (تويتر سابقًا) يوم الجمعة، أعطى Leike للجمهور بعض التلميحات حول سبب مغادرته.

وادعى أنه كان “يختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت”، وأنه وصل إلى “نقطة الانهيار”. ويعتقد أن الشركة يجب أن تركز بشكل أكبر على “الأمن، والمراقبة، والاستعداد، والسلامة، وقوة الخصومة، والمواءمة (الفائقة)، والسرية، والتأثير المجتمعي، والمواضيع ذات الصلة”.

سرعة الضوء ماشابل

وقال لايكي: “من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”، مشيرًا إلى أنه شعر وكأنه وفريقه “يبحرون ضد الريح” عندما حاولوا تأمين الموارد التي يحتاجونها للقيام بعملهم في مجال السلامة.

ويبدو أن ليك ينظر إلى OpenAI على أنها تتحمل مسؤولية هائلة، حيث كتب: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. وهذا يجعل الأمر أكثر رعبا، من وجهة نظر لايكي، “على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة عن المنتجات اللامعة”.

من الواضح أن Leike يأخذ على محمل الجد السرد الداخلي للشركة حول العمل نحو الذكاء العام الاصطناعي، المعروف أيضًا باسم AGI – وهي الأنظمة التي تعالج المعلومات حقًا مثل البشر، بما يتجاوز القدرات الضيقة الشبيهة بـ LLM. وكتب لايكي: “لقد تأخرنا طويلاً في أن نكون جديين بشكل لا يصدق بشأن الآثار المترتبة على الذكاء الاصطناعي العام”. “يجب أن نعطي الأولوية للتحضير لها بأفضل ما نستطيع. وعندها فقط يمكننا ضمان أن الذكاء الاصطناعي العام يفيد البشرية جمعاء.”

من وجهة نظر لايكي، تحتاج شركة OpenAI إلى “أن تصبح شركة AGI للسلامة أولاً” وحث موظفيها المتبقين على “التصرف بالثقل المناسب لما تقوم ببنائه”.

هذا المغادرة، ناهيك عن هذه التعليقات، لن يؤدي إلا إلى زيادة المخاوف العامة المنتشرة بالفعل حول التزام OpenAI، أو عدمه، بسلامة الذكاء الاصطناعي. ومع ذلك، أشار نقاد آخرون إلى أن إثارة الخوف حول القوة الهائلة المفترضة للذكاء الاصطناعي تعمل أيضًا كنوع من مخطط التسويق الخلفي لهذه التكنولوجيا التي لا تزال غير مثبتة إلى حد كبير.

المواضيع
الذكاء الاصطناعي




اكتشاف المزيد من مرابع التكنولوجيا

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مرابع التكنولوجيا

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading