تكنولوجيا

يعرف البيت الأبيض مخاطر استخدام الذكاء الاصطناعي من قبل الوكالات الفيدرالية. وإليك كيفية التعامل معها.


ستتناول المتطلبات الجديدة من البيت الأبيض مخاطر الذكاء الاصطناعي الذي تستخدمه الوكالات الفيدرالية والذي يؤثر على الأمريكيين كل يوم. ويشمل ذلك الهيئات الحكومية مثل إدارة أمن النقل والرعاية الصحية الفيدرالية.

في يوم الخميس، أعلنت نائبة الرئيس كامالا هاريس عن سياسة شاملة من مكتب إدارة الميزانية تتطلب من جميع الوكالات الفيدرالية توفير الحماية ضد أضرار الذكاء الاصطناعي، وتوفير الشفافية في استخدام الذكاء الاصطناعي، وتوظيف خبراء في الذكاء الاصطناعي. وتعتمد هذه السياسة على الأمر التنفيذي الذي أصدره الرئيس جو بايدن في القمة العالمية حول سلامة الذكاء الاصطناعي في المملكة المتحدة في أكتوبر الماضي، إلى جانب المبادرات التي حددتها هاريس.

“أعتقد أن جميع القادة من الحكومة والمجتمع المدني والقطاع الخاص لديهم واجب أخلاقي وأخلاقي ومجتمعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الضرر المحتمل، مع ضمان قدرة الجميع على قال هاريس في مؤتمر صحفي: “تمتع بفائدتها الكاملة”. وشدد البيان على رؤية البيت الأبيض بضرورة استخدام الذكاء الاصطناعي لتعزيز المصلحة العامة.

وهذا يعني وضع قواعد أساسية صارمة لكيفية استخدام الوكالات الفيدرالية للذكاء الاصطناعي وكيفية الكشف عنه للجمهور.

ضمانات التمييز في مجال الذكاء الاصطناعي

إن الشرط الذي سيؤثر بشكل مباشر على الأميركيين أكثر من غيره هو تنفيذ الضمانات التي تحمي من “التمييز الخوارزمي”. سيطلب مكتب الإدارة والميزانية من الوكالات “تقييم واختبار ومراقبة” أي أضرار ناجمة عن الذكاء الاصطناعي. على وجه التحديد، يمكن للمسافرين إلغاء الاشتراك في استخدام TSA لتقنية التعرف على الوجه، والتي ثبت أنها أقل دقة للأشخاص ذوي البشرة الداكنة.

أنظر أيضا:

كشفت اختبارات جديدة أن الذكاء الاصطناعي يُظهر تحيزًا عنصريًا واضحًا عند استخدامه في التوظيف

بالنسبة لأنظمة الرعاية الصحية الفيدرالية مثل Medicaid وMedicare، يُطلب من الإنسان الإشراف على تطبيقات الذكاء الاصطناعي مثل التشخيص وتحليل البيانات وبرامج الأجهزة الطبية.

وتسلط سياسة مكتب الإدارة والميزانية الضوء أيضًا على الذكاء الاصطناعي المستخدم للكشف عن الاحتيال، والذي ساعد وزارة الخزانة الأمريكية على استرداد 325 مليون دولار من الاحتيال في الشيكات، ويتطلب إشرافًا بشريًا عند استخدام هذه التكنولوجيا. وتنص السياسة على أنه إذا لم تتمكن الوكالة من توفير الضمانات بشكل كافٍ، فعليها التوقف عن استخدام الذكاء الاصطناعي على الفور.

تقارير الشفافية لمحاسبة الوكالات

أقل تأثيرًا على الأمريكيين على أساس يومي، ولكن على نفس القدر من الأهمية، يطلب مكتب الإدارة والميزانية أيضًا من الوكالات الفيدرالية تقديم قوائم جرد للذكاء الاصطناعي الذي يستخدمونه وكيفية “معالجة المخاطر ذات الصلة”. من أجل توحيد قوائم الجرد والتأكد من أن التقارير تخضع للمساءلة، لدى مكتب الإدارة والميزانية تعليمات مفصلة بشأن ما يجب تقديمه.

البيت الأبيض يقوم بالتوظيف

إن العمل مع الذكاء الاصطناعي وتوفير العناية الواجبة سيتطلب الكثير من العمل بالنسبة للحكومة، ولهذا السبب يقومون بتوسيع نطاق التوظيف. ستتطلب سياسة مكتب الإدارة والميزانية من كل وكالة اتحادية تعيين “رئيس تنفيذي للذكاء الاصطناعي”. وقال مسؤول كبير في الإدارة إن الأمر متروك للوكالات الفردية لتحديد ما إذا كان كبير مسؤولي الذكاء الاصطناعي معينًا سياسيًا أم لا.

يريد البيت الأبيض تنمية القوى العاملة في مجال الذكاء الاصطناعي بشكل أكبر من خلال الالتزام بتوظيف 100 “متخصص في الذكاء الاصطناعي” من خلال البحث عن المواهب الوطنية. لذا، إذا كنت تعرف الكثير عن الذكاء الاصطناعي ولديك شغف بالعمل في الحكومة، فيمكنك الاطلاع على معرض التوظيف في 18 أبريل أو مراجعة موقع AI.gov التابع للإدارة للحصول على معلومات التوظيف.

محاولة عدم خنق الابتكار

وحتى لا تتفاقم الأمور الإلكترونية، تبذل السياسة أيضًا جهدًا لتعزيز الابتكار والتطوير من خلال تشجيع استخدام الذكاء الاصطناعي (بشكل مسؤول). على سبيل المثال، بموجب السياسة الجديدة، من المفترض أن تستخدم الوكالة الفيدرالية لإدارة الطوارئ (FEMA) الذكاء الاصطناعي لتحسين التنبؤ بالكوارث البيئية، وستستخدم مراكز السيطرة على الأمراض والوقاية منها (CDC) التعلم الآلي للتنبؤ بشكل أفضل بانتشار المرض. .

بشكل عام، تغطي سياسة مكتب الإدارة والميزانية الكثير من الأمور التي تهدف إلى خلق المزيد من المساءلة والشفافية والحماية للجمهور.

المواضيع
حكومة الذكاء الاصطناعي



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى