يدعو المسؤولون التنفيذيون السابقون في OpenAI إلى تنظيم أكثر كثافة، ويشيرون إلى القيادة السامة
يدعو أعضاء مجلس إدارة OpenAI السابقون إلى تنظيم حكومي أكبر للشركة، حيث تتعرض قيادة الرئيس التنفيذي سام ألتمان لانتقادات شديدة.
تقول هيلين تونر وتاشا ماكولي – وهما اثنان من الموظفين السابقين الذين شكلوا مجموعة الشخصيات التي أطاحت بألتمان في نوفمبر – إن قرارهما بطرد القائد و”إنقاذ” الهيكل التنظيمي لـ OpenAI كان مدفوعًا بـ “أنماط السلوك الطويلة الأمد التي تم عرضها”. بواسطة السيد ألتمان”، الأمر الذي “يقوض إشراف مجلس الإدارة على القرارات الرئيسية وبروتوكولات السلامة الداخلية”.
الكتابة في افتتاحية نشرتها الإيكونوميست في 26 مايو/أيار، زعم تونر وماكولي أن نمط سلوك ألتمان، جنبًا إلى جنب مع الاعتماد على الحكم الذاتي، يعد بمثابة وصفة لكارثة الذكاء الاصطناعي العام.
قد تطلب لجنة الاتصالات الفيدرالية (FCC) تسميات الذكاء الاصطناعي للإعلانات السياسية
بينما يقول الاثنان إنهما انضما إلى الشركة “بتفاؤل حذر” بشأن مستقبل OpenAI، مدعومًا بدوافع الإيثار على ما يبدو للشركة غير الربحية حصريًا في ذلك الوقت، شكك الاثنان منذ ذلك الحين في تصرفات ألتمان والشركة. وكتبوا: “لقد أعرب العديد من كبار القادة بشكل خاص عن مخاوفهم الجسيمة مع مجلس الإدارة، قائلين إنهم يعتقدون أن السيد ألتمان زرع” ثقافة الكذب السامة “وشارك في” السلوك “. [that] يمكن وصفه بأنه إساءة نفسية.”
“إن التطورات التي حدثت منذ عودته إلى الشركة – بما في ذلك إعادته إلى مجلس الإدارة ورحيل كبار المواهب التي تركز على السلامة – لا تبشر بالخير بالنسبة لتجربة OpenAI في الحكم الذاتي”. “وحتى مع وجود أفضل النوايا، ومن دون إشراف خارجي، فإن هذا النوع من التنظيم الذاتي سوف ينتهي به الأمر إلى عدم القدرة على التنفيذ، وخاصة تحت ضغط حوافز الربح الهائلة. ويتعين على الحكومات أن تلعب دوراً نشطاً”.
بعد فوات الأوان، كتب تونر وماكولي: “إذا كان بإمكان أي شركة أن تحكم نفسها بنجاح بينما تقوم بتطوير أنظمة الذكاء الاصطناعي المتقدمة بشكل آمن وأخلاقي، لكان من الممكن أن تكون كذلك”. OpenAI“.
سرعة الضوء ماشابل
ما تخبرنا به دراما سكارليت جوهانسون من OpenAI عن مستقبل الذكاء الاصطناعي
يعارض أعضاء مجلس الإدارة السابقون التوجه الحالي للإبلاغ الذاتي والحد الأدنى إلى حد ما من التنظيم الخارجي لشركات الذكاء الاصطناعي مع تعثر القوانين الفيدرالية. وفي الخارج، وجدت فرق عمل الذكاء الاصطناعي بالفعل عيوبًا في الاعتماد على عمالقة التكنولوجيا لقيادة جهود السلامة. في الأسبوع الماضي، أصدر الاتحاد الأوروبي تحذيرًا بقيمة مليار دولار لشركة مايكروسوفت بعد فشلها في الكشف عن المخاطر المحتملة لبرنامج CoPilot وImage Creator الذي يعمل بالذكاء الاصطناعي. وجد تقرير حديث لمعهد سلامة الذكاء الاصطناعي في المملكة المتحدة أن الضمانات الخاصة بالعديد من أكبر نماذج اللغات العامة الكبيرة (LLMs) يمكن كسرها بسهولة عن طريق المطالبات الضارة.
في الأسابيع الأخيرة، كانت OpenAI في قلب المحادثة المتعلقة بتنظيم الذكاء الاصطناعي بعد سلسلة من الاستقالات رفيعة المستوى من قبل موظفين رفيعي المستوى الذين أشاروا إلى وجهات نظر مختلفة حول مستقبلها. بعد أن غادر المؤسس المشارك ورئيس فريق Superalignment، إيليا سوتسكيفر، ورئيسه المشارك جان لايكي الشركة، قامت OpenAI بحل فريق السلامة الداخلي الخاص بها.
وقال ليك إنه يشعر بالقلق بشأن مستقبل OpenAI، حيث “أخذت ثقافة وعمليات السلامة في المقعد الخلفي أمام المنتجات اللامعة”.
استقال أحد قادة السلامة في OpenAI يوم الثلاثاء. لقد شرح فقط السبب.
تعرض ألتمان لانتقادات بسبب سياسة الشركة التي تم الكشف عنها آنذاك والتي تجبر الموظفين المغادرين على التوقيع على اتفاقيات عدم الإفشاء التي تمنعهم من قول أي شيء سلبي حول OpenAI أو المخاطرة بخسارة أي أسهم لديهم في العمل.
بعد فترة وجيزة، رد ألتمان والرئيس والمؤسس المشارك جريج بروكمان على الجدل، فكتبوا على X: “سيكون المستقبل أصعب من الماضي. نحن بحاجة إلى مواصلة رفع مستوى عمل السلامة لدينا لتتناسب مع مخاطر كل نموذج جديد. ..نحن نواصل أيضًا التعاون مع الحكومات والعديد من أصحاب المصلحة بشأن السلامة، ولا يوجد دليل مثبت لكيفية التنقل في المسار نحو الذكاء الاصطناعي العام.
في نظر العديد من الموظفين السابقين في OpenAI، فإن فلسفة “اللمسة الخفيفة” التاريخية لتنظيم الإنترنت لن تفي بالغرض.
المواضيع
الذكاء الاصطناعي OpenAI
اكتشاف المزيد من مرابع التكنولوجيا
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.