الأمم المتحدة تحذر من الذكاء الاصطناعي غير الخاضع للرقابة و"انتهاكه لحقوق الإنسان"

الرئيسية » إعلام ورقميات » الأمم المتحدة تحذر من الذكاء الاصطناعي غير الخاضع للرقابة و”انتهاكه لحقوق الإنسان”

دعا رئيس حقوق الإنسان في الأمم المتحدة إلى وقف استخدام بعض تقنيات الذكاء الاصطناعي، مثل التعرف على الوجه، إلى أن تتوفر “ضمانات كافية” ضد تأثيرها “الكارثي” المحتمل. وفي بيان يوم الأربعاء، شدد المفوض السامي للأمم المتحدة لحقوق الإنسان، ميشيل باتشيليت، على ضرورة فرض حظر تام على تطبيقات الذكاء الاصطناعي التي لا تتوافق مع القانون الدولي لحقوق الإنسان، بينما حثت أيضا على وقف مبيعات بعض التقنيات المثيرة للقلق.

وفي إشارة إلى أن خوارزميات الذكاء الاصطناعي والتعلم الآلي تصل الآن “إلى كل ركن من أركان حياتنا الجسدية والعقلية وحتى حالاتنا العاطفية تقريبا”، قالت باتشيليت إن التكنولوجيا لديها القدرة على أن تكون “قوة من أجل الخير”، ولكن يمكن أن يكون لها أيضا “آثار سلبية، وحتى كارثية، إذا استُخدمت دون إيلاء اعتبار كاف لكيفية تأثيرها على حقوق الإنسان”.

وجاء تحذير باتشيليت في الوقت الذي أصدر فيه مكتب حقوق الإنسان التابع للأمم المتحدة تقريرا يحلل تأثير أنظمة الذكاء الاصطناعي – مثل التنميط، واتخاذ القرار الآلي وتقنيات التعلم الآلي الأخرى – على مختلف الحقوق الأساسية، بما في ذلك الخصوصية والصحة والتعليم وحرية التعبير. ويسلط التقرير الضوء على عدد من التطورات المثيرة للقلق، بما في ذلك “نظام بيئي مترامي الأطراف لجمع وتبادل البيانات الشخصية غير الشفافة إلى حد كبير”، بالإضافة إلى كيفية تأثير أنظمة الذكاء الاصطناعي على “النهج الحكومية في العمل الشرطي” و”إقامة العدل” و”إمكانية الوصول للخدمات العامة”.

وأضاف التقرير أن صنع القرار المدفوع بالذكاء الاصطناعي يمكن أن يكون أيضا “تمييزيا” إذا كان يعتمد على بيانات قديمة أو غير ذات صلة، مشددا أيضا على أنه يمكن استخدام التكنولوجيا لإملاء ما يراه الناس ويشاركونه عبر شبكة الإنترنت. ومع ذلك، أشار التقرير إلى أن الحاجة الأكثر إلحاحا هي “إرشادات حقوق الإنسان” فيما يتعلق بتقنيات القياسات الحيوية – التي تقيس وتسجل السمات الجسدية الفريدة والقادرة على التعرف على الوجوه البشرية المحددة – لأنها “أصبحت حلا سريعا بشكل متزايد” للحكومات والهيئات الدولية وشركات التكنولوجيا لمجموعة متنوعة من المهام.

وعلى وجه الخصوص، يحذر التقرير من الاستخدام المتزايد للأدوات التي تحاول “استنتاج الحالة العاطفية والعقلية للأشخاص” من خلال تحليل تعبيرات الوجه وغيرها من “القياسات الحيوية التنبؤية” لتحديد ما إذا كان الشخص يمثل تهديدا أمنيا. وقالت هيئة حقوق الإنسان إن التقنيات التي تسعى إلى استخلاص “رؤى في أنماط السلوك البشري” ووضع تنبؤات على هذا الأساس تثير أيضا “أسئلة جدية”.

وفي إشارة إلى أن هذه التكنولوجيا تفتقر إلى “أساس علمي متين” وأنها عرضة للتحيز، حذر التقرير من أن استخدام “أنظمة التعرف على المشاعر” من قبل السلطات – على سبيل المثال، أثناء توقيف الشرطة والاعتقالات والاستجواب – يقوض حقوق الشخص في الخصوصية والحرية والمحاكمة العادلة. وقالت باتشيليت: “إن خطر التمييز المرتبط بالقرارات التي يقودها الذكاء الاصطناعي – القرارات التي يمكن أن تغير حياة البشر أو تحددها أو تلحق الضرر بها – أمر حقيقي للغاية”، مضيفة أن العالم لا يستطيع “الاستمرار في اللحاق بالركب” مع التطور السريع لتقنية الذكاء الاصطناعي.

روسيا اليوم

شارك:

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *