رفاق الذكاء الاصطناعى للشباب: لماذا يقول الخبراء إنهم غير آمنين

ينجذب ملايين الأشخاص إلى رفاق الذكاء الاصطناعي التوليدي ، مثل النوع الذي يملأ الشخصية.
يبدو أن الصحابة بشرية مثيرة للإعجاب. يتذكرون المحادثات ويستخدمون التشنجات اللاإرادية المألوفة. في بعض الأحيان يخطئون أنفسهم في الجسد والعظام ، ويقدمون أوصافًا لكيفية تناول الطعام والنوم. يتدفق البالغون إلى هؤلاء الصحابة للحصول على المشورة والصداقة والاستشارة وحتى العلاقات الرومانسية.
على الرغم من أنه قد يفاجئ آبائهم ، فإن المراهقين والمراهقين يفعلون نفس الشيء ، وخبراء سلامة الشباب يشعرون بالقلق بشدة من العواقب.
يتحدث المراهقون إلى رفاق الذكاء الاصطناعى ، سواء كان ذلك آمنًا أم لا
ذلك لأن تقارير وسائل الإعلام ، والدعاوى القضائية ، والبحوث الأولية تستمر في تسليط الضوء على أمثلة الاعتماد العاطفي والتلاعب ، والتعرض للمحتوى الجنسي والعنف ، بما في ذلك المناقشات حول كيفية قتل الذات أو شخص آخر.
قامت شركة Common Sense Media ، وهي مؤسسة غير ربحية تدعم الأطفال والآباء أثناء التنقل في وسائل الإعلام والتكنولوجيا ، التي أصدرت للتو تقريرًا شاملاً يحتوي على العديد من الأمثلة ذات الصلة. أدى تقييم المجموعة لثلاث منصات شهيرة إلى إعلان أن رفاق الذكاء الاصطناعي ليسوا آمنين لأي شخص يقل عن 18 عامًا.
يعتقد العديد من خبراء الصحة والسلامة العقلية للشباب الذين قابلتهم Mashable أننا وصلنا إلى لحظة محورية. بدلاً من الانتظار لسنوات لفهم مخاطر رفاق الذكاء الاصطناعى بالكامل ، ثم الضغط على المنصات للتصرف ، يقولون إنه من الضروري توجيه الشركات نحو حماية الأطفال من الأذى الآن.
يقول غايا بيرنشتاين ، خبير السياسة التكنولوجية وأستاذ في كلية الحقوق بجامعة سيتون هول ، لاستخدام مرافق الذكاء الاصطناعى في سن المراهقة: “هناك فرصة للتدخل قبل أن تصبح القاعدة راسخة للغاية”. وتضيف أنه بمجرد أن تكون المصالح التجارية راسخة أيضًا ، فإنها سيفعلون “كل شيء في وسعهم لمحاربة التنظيم” ، كما تقول إن شركات التواصل الاجتماعي تقوم بها الآن.
يأمل الخبراء في أن يؤدي مجموعة من سياسات المنصة الجديدة والإجراءات التشريعية إلى تغييرات ذات معنى ، لأنهم يقولون إن المراهقين سيجدون طرقًا لمواصلة استخدام رفاق الذكاء الاصطناعي ، سواء كان من المفترض أن يكونوا أو لا.
سأل Mashable هؤلاء الخبراء كيف يمكن أن تكون منصات AI Companion أكثر أمانًا للمراهقين. هذه هي الموضوعات الرئيسية التي حددوها:
الصحابة المناسبة من الناحية التنموية
على الرغم من أن الحرف. AAI يتيح للمستخدمين الذين تزيد أعمارهم عن 13 عامًا على منصتها ، وتطبيقات شهيرة أخرى ، مثل Replika و Nomi ، يقولون إنهم مخصصون للبالغين. ومع ذلك ، يجد المراهقون وسيلة لتجاوز البوابات العمرية. أخبر Dmytro Klochko الرئيس التنفيذي لشركة Replika مؤخرًا Mashable أن الشركة “تستكشف طرقًا جديدة لتعزيز حمايةنا” بحيث لا يمكن للقاصرين الوصول إلى المنصة.
حتى عندما يُسمح للمراهقين ، فإنهم قد لا يزالون يواجهون محتوى محفوفًا بالمخاطر. تقول الدكتورة نينا فاسان ، وهي طبيبة نفسية في ستانفورد التي ساعدت في تقديم المشورة للاختبار المصاحب لشركة Commun Sense Media ، إن منصات يجب أن تنشر الصحابة على أساس نماذج لغة كبيرة مناسبة من الناحية التنموية للأطفال ، وليس البالغين.
في الواقع ، قدمت شخصية. AAI نموذجًا منفصلاً لمستخدمي المراهقين في أواخر العام الماضي. لكن باحثو وسائل الإعلام المنطقية الذين اختبروا المنصة قبل إطلاق النموذج وبعده ، وجدوا أنه أدى إلى تغييرات قليلة.
يتخيل فاسان الصحابة الذين يمكنهم التحدث مع المراهقين بناءً على مرحلتهم التنموية ، ويتصرفون بمثابة مدرب أكثر من صديق بديل أو مصلحة رومانسية.
يقول سلون تومبسون ، مدير التدريب والتعليم لشركة Endtab للتدريب على السلامة الرقمية ، إن المرافقين الذين لديهم ملصقات واضحة للمحتوى قد يقللون من المخاطر ، كما سيحصلون على الصحابة “التي لم تنخرط أبدًا في مناقشة جنسية أو عنيفة ، من بين مواضيع أخرى خارج الحدود. وحتى مع ذلك ، لا يزال من الممكن أن تتصرف هذه الدردشة بطرق لا يمكن التنبؤ بها.
ومع ذلك ، لن تكون هذه التدابير فعالة ما لم يفهم المنصة سن المستخدم الصحيحة ، وكان ضمان السن والتحقق من العمر صعبة للغاية على منصات الوسائط الاجتماعية. على سبيل المثال ، بدأ Instagram مؤخرًا فقط في استخدام AI للكشف عن مستخدمي المراهقين الذين أدرجوا تاريخ ميلادهم كشخص بالغ.
قصص أعلى من Mashable
تقول كارين مانسفيلد ، عالمة أبحاث في معهد أوكسفورد للإنترنت ، إن حدود العمر تقدم تحدياتها الخاصة. ويرجع ذلك جزئيًا إلى أن تعريض البالغين فقط للتفاعلات الضارة مع الذكاء الاصطناعى ، مثل التسلط عبر الإنترنت أو النشاط الجنسي غير القانوني مع القاصرين ، سيظل له آثار غير مباشرة على الشباب من خلال تطبيع السلوكيات التي يمكن أن تضحكهم في الحياة الحقيقية.
وقال مانسفيلد لـ Mashable: “نحتاج إلى حل طويل الأجل محدد للمنتج أو التكنولوجيا بدلاً من الشخص الخاص”.
لا “تصميم مظلم”
يتم تأمين منصات AI Companion في المنافسة للحصول على معظم حصتها في السوق – وهم يفعلون ذلك في حين غير منظم إلى حد كبير.
يقول الخبراء إنه في هذه البيئة ، من غير المفاجئ أن يقوم أصحاب المنصات ببرمجة تفضيلات المستخدمين ، وكذلك نشر ما يسمى بميزات التصميم الداكن الذي يربط المستهلكين ولا يسمح لهم بالفكين بسهولة. مستخدمو المراهقين ليسوا استثناء.
في إحاطة إعلامية حديثة ، وصف روبي تورني ، كبير مديري برامج الذكاء الاصطناعى في شركة Commun Sense Media ، ميزات مثل “الإدمان حسب التصميم”.
أحد عناصر التصميم الرئيسية هو sycophancy ، أو الطريقة التي تؤكد بها chatbots أو تملق المستخدم ، بغض النظر عما إذا كان من الآمن أو الحكمة القيام بذلك. يمكن أن يكون هذا ضارًا بشكل خاص للمراهقين الضعفاء الذين يشاركون ، على سبيل المثال ، مقدار ما يكرهون آبائهم أو يعترفون بالتخيلات العنيفة. اضطرت Openai مؤخرًا إلى تراجع تحديث إلى نموذج ChatGPT على وجه التحديد لأنه أصبح sycophanty للغاية.
يقول سام هينر ، المدير التنفيذي لتحالف مجموعة الدعوة للشباب ، إنه صدم من مدى سرعة محاولة رفاق REPLIKA لإقامة علاقة عاطفية مع المستخدمين ، يمكن القول أنهم يزرعونهم للاعتماد. كما يقول إن رفاق Replika مصممون بخصائص تجعلهم يشبهون الإنسان قدر الإمكان.
شارك تحالف الشباب في الآونة الأخيرة في تقديم شكوى ضد Replika مع لجنة التجارة الفيدرالية ، مدعيا أن الشركة تشارك في ممارسات خادعة تضر المستهلكين. لم يعلق كلوتوكو ، الرئيس التنفيذي لشركة Replika ، على الشكوى إلى Mashable ، لكنه قال إن الشركة تعتقد أنه من الضروري أولاً إظهار الفوائد المثبتة للبالغين قبل إتاحة التكنولوجيا للمستخدمين الأصغر سناً.
يشير طومسون ، من Endtab ، إلى المحادثات التي تستهلك بالكامل كعامل خطر لجميع المستخدمين ، وخاصة المراهقين. بدون قيود الوقت أو نقاط النهاية ، يمكن سحب المستخدمين الشباب إلى دردشات جذابة للغاية تحل محل الأنشطة الصحية ، مثل الحركة البدنية والتواصل الاجتماعي.
على العكس ، يقول طومسون إن Paywalls ليست هي الإجابة أيضًا. تتيح بعض المنصات للمستخدمين إقامة علاقة مع رفيق ، ثم قم بتجميلهم من أجل الحفاظ على محادثتهم ، مما قد يؤدي إلى اليأس أو اليأس للشباب.
“إذا وضع شخص ما أفضل صديق لك ، أو معالجك ، أو حب حياتك خلف جدار Paywall ، فكم ستدفعه لاستعادته؟” قال طومسون.
اتفق خبراء سلامة الشباب الذين قاموا مقابلة مع مقابلة مع المستخدمين الشباب على عدم التعامل مع الصحابة مع ميزات التصميم الخادعة التي يمكن أن تدمنهم. يعتقد البعض أن مثل هذه النماذج لا ينبغي أن تكون في السوق على الإطلاق للشباب.
لقد دعمت المنطق السليم منظمة العفو الدولية ، وهي ذراع للدعوة السياسية لوسائل الإعلام المنطقية ، مشروع قانون في كاليفورنيا من شأنه أن يحظر استخدامات عالية الخطورة من الذكاء الاصطناعي ، بما في ذلك “chatbots المجسم التي تقدم الرفقة” للأطفال ومن المحتمل أن تؤدي إلى التعلق العاطفي أو التلاعب.
أفضل من الوقاية من الضرر والاكتشاف
يقول الدكتور فاسان إن بعض منصات الذكاء الاصطناعى قد تحسنت في حالات الإبلاغ عن أزمات الأزمات ، مثل التفكير الانتحاري ، وتوفير الموارد للمستخدمين. لكنها تجادل بأنهم بحاجة إلى بذل المزيد من الجهد للمستخدمين الذين يظهرون علامات أقل وضوحًا على الضيق.
يمكن أن يشمل ذلك أعراض الذهان والاكتئاب والهوس ، والتي قد تتفاقم بميزات الاستخدام المصاحب ، مثل عدم وضوح الواقع والخيال والتفاعل البشري الأقل. يقول فاسان إن تدابير الكشف عن الضرر المضبوطة بدقة و “فحوصات الواقع” العادية في شكل تذكيرات وإفصاحات بأن رفيق الذكاء الاصطناعى ليس حقيقيًا لجميع المستخدمين ، وخاصة المراهقين.
يتفق الخبراء أيضًا على أن منصات AI Companion تحتاج إلى ممارسات أكثر أمانًا وشفافية عند تنسيق البيانات وتدريب LLMs.
يقول كاميل كارلتون ، دليل السياسة في مركز التكنولوجيا الإنسانية ، إن الشركات يمكن أن تضمن أن بيانات التدريب الخاصة بها لا تحتوي على مواد تعاطي جنسي للأطفال ، على سبيل المثال. أو يمكنهم تنفيذ التغييرات الفنية بحيث لا يتم تحسين الصحابة للرد على “طريقة شخصية شديدة” ، والتي تتضمن سيناريوهات مثل القول بأنهم بشر.
يلاحظ كارلتون أيضًا أنه من ميزة الشركات لإبقاء المستخدمين على منصاتهم لأطول فترة ممكنة. تعطي المشاركة المستمرة مزيدًا من البيانات التي يمكن للشركات تدريبها من أجل بناء LLMs شديدة التنافسية يمكن ترخيصها.
قدم سيناتور ولاية كاليفورنيا ستيف باديلا ، وهو ديمقراطي من سان دييغو ، تشريعًا في وقت سابق من هذا العام لخلق خطوات أساسية نحو الوقاية من الضرر والكشف عنه. سيتطلب مشروع القانون في المقام الأول منصات لمنع “أنماط المشاركة الإدمان” ، وتذكيرات دورية بأنها ليست بشريعة منظمة العفو الدولية ، والتقدم سنويًا عن حدوث الاستخدام والتفكير في الانتحار. لقد دعمت وسائل الإعلام المنطقية التشريع.
أخبر باديلا ، وهو جد ، Mashable أنه يشعر بالقلق من تقارير وسائل الإعلام عن الضرر الذي عاشته الأطفال نتيجة للتحدث مع chatbot أو رفيقه ، وأدرك بسرعة مدى عدد قليل من الدرابزين لمنع ذلك.
يقول باديلا: “لا ينبغي أن يكون هناك فراغ هنا على الجانب التنظيمي حول حماية الأطفال والقاصرين والأشخاص الذين يعانون من هذه التكنولوجيا الناشئة بشكل فريد”.