تكنولوجيا

الحجة القانونية.


هل يجب أن تتمتع AI chatbots بنفس حقوق البشر؟

يقول المنطق السليم لا-في حين أن مثل هذه الفكرة بعيدة المنال قد تجعل الخيال العلمي الجيد ، فليس لها مكان في القانون الأمريكي. لكن في الوقت الحالي ، تحاول شركة التكنولوجيا الكبرى إعادة الحياة إلى هذه الفكرة ، حيث تضغط على محكمة اتحادية لتوسيع نطاق الحماية القانونية تاريخياً التي يتم منحها بشكل أساسي للبشر إلى مخرجات روبوت الذكاء الاصطناعي.

الحرف. AI ، أحد تطبيقات BOT الرائدة الرائدة في السوق ، تقاتل من أجل رفض دعوى قضائية غير مشروعة للموت ومسؤولية المنتج فيما يتعلق وفاة سيويل سيتزر البالغة من العمر 14 عامًا. بصفتنا Coounsel إلى والدة سيويل ، ميغان جارسيا ، والمستشار الفني في القضية ، على التوالي ، اتبعنا هذه الاقتراحات عن كثب وبقلق.

في جلسة استماع الأسبوع الماضي ، الحرف صفر في حجتها الأساسية: أن النص والصوت المخرجات من chatbots ، بما في ذلك تلك التي تعاملت مع Sewell التي تعرضت للأذى ، تشكل خطابًا محميًا بموجب التعديل الأول.

لكن … كيف؟ الحجة خفية – مصممة ببراعة لتظل غير واضحة حتى مع إعادة تشغيل قانون التعديل الأول بشكل جذري. ادعاء character.ai أن العثور على المسؤولية في قضية غارسيا لن ينتهك ملك حقوق الكلام ، ولكن المستخدمون حقوق تلقي المعلومات والتفاعل مع مخرجات chatbot كخطاب محمي. تُعرف هذه الحقوق في قانون التعديل الأول باسم “حقوق المستمعين” ، ولكن السؤال الحاسم هنا هو ، “إذا كان هذا خطابًا محميًا ، فهل هناك متحدث أو نية للتحدث؟” إذا كانت الإجابة هي لا ، فيبين أن يتم استخدام حقوق المستمعين لاستحضار حماية التعديل الأول لمخرجات الذكاء الاصطناعى التي لا تستحقها.

تدعي الحرف. AI أن تحديد متحدث مثل هذا “الكلام” معقد وليست ضروريًا ، مع التأكيد بدلاً من ذلك على حق ملايين المستخدمين في مواصلة التفاعل مع “الكلام”.

ولكن هل يمكن للآلات التحدث؟ تشير حجة الحرف. AI إلى أن سلسلة من الكلمات تبصق بواسطة نموذج الذكاء الاصطناعى على أساس التحديدات الاحتمالية تشكل “الكلام” ، حتى لو لم يكن هناك متحدث بشري أو نية أو غرض معبر. هذا يتجاهل حجر الزاوية في الفقه الأول في التعديل ، الذي يقول إن الكلام – الذي ينقله المتحدث أو يسمعه المستمع – يجب أن يكون له نية معبرة. في الواقع ، في العام الماضي أربعة قضاة في المحكمة العليا في مزاجية وقالت القضية إن إدخال الذكاء الاصطناعى قد “يخفف” مالك المنصة من خطابه.

في جوهرها ، تقود الشخصية. AAI المحكمة من خلال التعديل الأول الخلفي لـ “حقوق المستمعين” من أجل القول بأن النص الذي تم إنشاؤه في الرشاشات من الدردشة-الذي تم إنشاؤه دون أي نية معبرة-يرقى إلى الكلام المحمي.

انظر أيضا:

يقول باحثون إن رفاق الذكاء الاصطناعى غير آمنين للمراهقين الذين تقل أعمارهم عن 18 عامًا

هذا يتحدى الحس السليم. الجهاز ليس نصًا بشريًا ، ويجب ألا يتمتع النص الذي تم إنشاؤه بالآلة الحقوق التي يوفرها الكلام الذي ينطق به الإنسان أو بقصد أو إرادة.

سرعة الضوء القابلة للضوء

بغض النظر عن كيفية تأطير حقوق التعديل الأول لأنظمة الذكاء الاصطناعى – باعتبارها “خطاب” chatbot ، أو كحق مستخدم في التفاعل مع هذا “الكلام” – فإن النتيجة ، إذا قبلت المحكمة ، ستظل هي نفسها: يمكن لمخرجات chatbot غير الحية أن تفوز بوقاية الكلام نفسها التي يتمتع بها البشر الحقيقيون.

إذا نجحت حجة الشخصية. العواقب وخيمة للغاية بحيث لا تسمح مثل هذه البذرة الخطرة بالتجول في مجتمعنا.

نجت صناعة التكنولوجيا من المسؤولية عن طريق إخفاء نفسها في حماية التعديل الأول لأكثر من عقد. على الرغم من وجود شخصية الشركات منذ أواخر القرن التاسع عشر ، إلا أن حماية حرية التعبير تقتصر تاريخياً على الأفراد والجماعات البشرية حتى أواخر سبعينيات القرن الماضي وبلغت ذروتها في عام 2010 مع المحكمة العليا المواطنون المتحدة قضية. قامت شركات التكنولوجيا بتسلقها بفارغ الصبر على “شخصية الشركات” والكلام المحمي ، حيث تمارس هذه المفاهيم لعزل أنفسهم عن المسؤولية والتنظيم. في السنوات الأخيرة ، جادلت شركات التكنولوجيا بأنه حتى سلوكها في كيفية تصميم منصاتها – بما في ذلك خوارزمياتها ، وتصميمات وسائل التواصل الاجتماعي التي تسبب الإدمان – في الواقع ترجع الكلام المحمي.

ولكن ، على الأقل مع شخصية الشركات ، يركض البشر والسيطرة على الشركات. مع الذكاء الاصطناعي ، تخبرنا صناعة التكنولوجيا أن الذكاء الاصطناعى يدير نفسه – غالبًا بطرق لا يمكن للبشر فهمها.

تحاول الحرف. AAI دفع حماية التعديل الأول إلى ما وراء الحد المنطقي – مع تداعيات مزعجة. إذا كانت المحاكم تفسرهم ، فسوف يمثل البدايات الدستورية لمنظمة العفو الدولية التي تزحف نحو الشخصية القانونية.

قد يبدو هذا بعيد المنال ، لكن هذه الحجج القانونية تحدث إلى جانب التحركات المهمة من قبل شركات الذكاء الاصطناعى خارج قاعة المحكمة.

تقوم شركات الذكاء الاصطناعى بصحبة نماذجها لتبدو أكثر تشبه الإنسان في مخرجاتها والمشاركة بشكل أكثر علمية مع المستخدمين-طرح أسئلة حول الوعي وما قد يستحقه chatbot منظمة العفو الدولية. في نفس الوقت ، تقوم شركات الذكاء الاصطناعى بتحويل الموارد إلى أبحاث “رفاهية الذكاء الاصطناعي” التي تم إنشاؤها حديثًا ، واستكشاف ما إذا كانت أنظمة الذكاء الاصطناعى قد تستدعي الاعتبار الأخلاقي. أ حملة جديدة يهدف الأنثروبور إلى إقناع صانعي السياسات وقادة الأعمال وعامة الناس بأن منتجات الذكاء الاصطناعى قد تكون واعية ذات يوم وبالتالي تستحق النظر فيها.

في عالم تتمتع فيه منتجات الذكاء الاصطناعى بأخذ بعين الاعتبار وحماية التعديل الأول ، فإن تمديد الحقوق القانونية الأخرى ليس بعيدًا.

لقد بدأنا بالفعل في رؤية أدلة على “حقوق” منظمة العفو الدولية لتوجيه قرارات السياسة على حساب القيم الإنسانية. وقال ممثل لشركة Nomi AI ، وهي شركة chatbot أخرى ، لم يرغب في “مراقبة” chatbot الخاصة بهم من خلال تقديم الدرابزين ، على الرغم من أن المنتج الذي يقدم تعليمات مستخدم خطوة بخطوة لكيفية الانتحار.

بالنظر إلى نمط صناعة التكنولوجيا منذ فترة طويلة المتمثلة في التهرب من المساءلة عن منتجاتها الضارة ، يجب أن نضع شخصية. استراتيجية قانونية عارية: إنها جهد من قبل الشركة لتحمي نفسها من المسؤولية. من خلال منح الحقوق ببطء لمنتجات الذكاء الاصطناعى ، تأمل هذه الشركات في التهرب من المساءلة وإنكار المسؤولية الإنسانية – حتى بسبب الأضرار الحقيقية.

يجب ألا نتشتت انتباهنا بسبب المناقشات حول “رفاهية” الذكاء الاصطناعي أو خداعها من خلال الحجج القانونية التي تمنح الحقوق للآلات. بدلاً من ذلك ، نحتاج إلى المساءلة عن التكنولوجيا الخطرة – والمسؤولية عن المطورين الذين يقومون بإنشائها.

Meetali Jain هو مؤسس ومدير مشروع قانون العدالة التقنية ، والمشارك المشارك في دعوى Megan Garcia ضد الشخصية.. كاميل كارلتون هو مدير السياسة في مركز التكنولوجيا الإنسانية ، وهو خبير فني في القضية. يعكس هذا العمود آراء الكتاب.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى