رد سام ألتمان وجريج بروكمان من OpenAI على استقالة قائد السلامة
هذا الأسبوع، استقال جان لايكي، الرئيس المشارك لفريق “superalignment” (الذي يشرف على قضايا السلامة في الشركة) في OpenAI. في موضوع على موقع X (تويتر سابقًا)، أوضح قائد السلامة سبب تركه لـ OpenAI، بما في ذلك أنه اختلف مع قيادة الشركة حول “أولوياتها الأساسية” “لفترة طويلة”، حتى وصلت إلى “نقطة الانهيار”. ”
في اليوم التالي، استجاب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، والرئيس والمؤسس المشارك جريج بروكمان، لادعاءات Leike بأن الشركة لا تركز على السلامة.
من بين نقاط أخرى، قال ليك إن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة” في السنوات الأخيرة، وأن فريقه كافح للحصول على الموارد اللازمة لإنجاز أعمال السلامة الخاصة بهم.
تم تأكيد صفقة Reddit مع OpenAI. إليك ما يعنيه مشاركاتك وتعليقاتك.
“لقد تأخرنا كثيرًا في أن نكون جديين بشكل لا يصدق بشأن الآثار المترتبة على الذكاء الاصطناعي العام [artificial general intelligence]كتب ليكي: “يجب أن نعطي الأولوية للتحضير لهم بأفضل ما نستطيع”.
رد ألتمان لأول مرة في إعادة نشر لـ Leike يوم الجمعة، مشيرًا إلى أن Leike على حق في أن OpenAI “لديها الكثير لتفعله” وأنها “ملتزمة بالقيام بذلك”. ووعد بأن وظيفة أطول قادمة.
وفي يوم السبت، نشر بروكمان ردًا مشتركًا منه ومن ألتمان على قناة X:
ربما تم حذف التغريدة
وبعد الإعراب عن الامتنان لعمل لايكي، قال بروكمان وألتمان إنهما تلقيا أسئلة بعد الاستقالة. وقد تقاسموا ثلاث نقاط، الأولى هي أن OpenAI قامت برفع مستوى الوعي حول الذكاء الاصطناعي العام “حتى يتمكن العالم من الاستعداد له بشكل أفضل”.
سرعة الضوء ماشابل
وكتبوا: “لقد أظهرنا مرارًا وتكرارًا الإمكانيات المذهلة لتوسيع نطاق التعلم العميق وحللنا آثارها؛ ودعونا إلى الحوكمة الدولية للذكاء الاصطناعي العام قبل أن تحظى هذه الدعوات بشعبية؛ وساعدنا في ريادة علم تقييم أنظمة الذكاء الاصطناعي للمخاطر الكارثية”.
النقطة الثانية هي أنهم يقومون ببناء أسس للنشر الآمن لهذه التقنيات، ويستخدمون العمل الذي قام به الموظفون من أجل “جلب [Chat]GPT-4 للعالم بطريقة آمنة” كمثال. ويدعي الاثنان أنه منذ ذلك الحين – أصدرت OpenAI ChatGPT-4 في مارس 2023 – قامت الشركة “بتحسين سلوك النموذج ومراقبة إساءة الاستخدام باستمرار استجابةً للدروس المستفادة من النشر “.
النقطة الثالثة؟ وكتبوا “المستقبل سيكون أصعب من الماضي”. وأوضح بروك وألتمان أن شركة OpenAI بحاجة إلى الاستمرار في رفع مستوى عملها في مجال السلامة أثناء إصدارها لنماذج جديدة، واستشهدا بإطار عمل الاستعداد الخاص بالشركة كوسيلة للمساعدة في القيام بذلك. وبحسب صفحته على موقع OpenAI، يتنبأ هذا الإطار بـ “المخاطر الكارثية” التي قد تنشأ، ويسعى إلى التخفيف منها.
يتابع بروكمان وألتمان بعد ذلك مناقشة المستقبل، حيث تكون نماذج OpenAI أكثر اندماجًا في العالم ويتفاعل معها عدد أكبر من الأشخاص. إنهم يعتبرون هذا أمرًا مفيدًا، ويعتقدون أنه من الممكن القيام بذلك بأمان – “لكن الأمر سيتطلب قدرًا هائلاً من العمل التأسيسي”. ولهذا السبب، قد تقوم الشركة بتأخير الجداول الزمنية للإصدار حتى تصل النماذج إلى الجمهور [its] شريط سلامة.”
وقالوا: “نعلم أننا لا نستطيع تصور كل السيناريوهات المستقبلية المحتملة”. “لذلك نحن بحاجة إلى أن تكون لدينا حلقة ردود فعل محكمة للغاية، واختبارات صارمة، ودراسة متأنية في كل خطوة، وأمن على مستوى عالمي، وتناغم في السلامة والقدرات.”
وقال القادة إن OpenAI ستواصل البحث والعمل مع الحكومات وأصحاب المصلحة بشأن السلامة.
وخلصوا إلى أنه “لا يوجد دليل مثبت لكيفية السير على الطريق نحو الذكاء الاصطناعي العام. ونعتقد أن الفهم التجريبي يمكن أن يساعد في تحديد الطريق إلى الأمام”. “نحن نؤمن بتحقيق التقدم الهائل والعمل على التخفيف من المخاطر الجسيمة؛ ونحن نأخذ دورنا هنا على محمل الجد ونزن بعناية ردود الفعل على أفعالنا.”
ومما زاد من تعقيد استقالة Leike وكلماتها حقيقة استقالة كبير العلماء في OpenAI إيليا سوتسكيفر هذا الأسبوع أيضًا. أصبح “#WhatDidIlyaSee” موضوعًا شائعًا على X، مما يشير إلى التكهنات حول ما يطلع عليه كبار القادة في OpenAI. وإذا حكمنا من خلال رد الفعل السلبي على بيان اليوم من بروكمان وألتمان، فإنه لم يبدد أيًا من تلك التكهنات.
اعتبارًا من الآن، تمضي الشركة قدماً في إصدارها التالي: ChatGPT-4o، وهو مساعد صوتي.
المواضيع
الذكاء الاصطناعي OpenAI
اكتشاف المزيد من مرابع التكنولوجيا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.