5 من مخاطر الذكاء الاصطناعي التي يمكنها القضاء على أي شخص خلال دقائق | مسارات

5 من مخاطر الذكاء الاصطناعي التي يمكنها القضاء على أي شخص خلال دقائق

الرئيسية » إعلام وتكنولوجيا » 5 من مخاطر الذكاء الاصطناعي التي يمكنها القضاء على أي شخص خلال دقائق

5 من مخاطر الذكاء الاصطناعي التي يمكنها القضاء على أي شخص خلال دقائق

يحذر كثير من الخبراء من مخاطر الذكاء الاصطناعي فما هي المخاطر التي يمكن تخفيف أضرارها أو تفاديها كليا؟

يحذر كثير من الخبراء من مخاطر الذكاء الاصطناعي، مثل ستيفن هوكنغ العالم البريطاني الذي توفي مؤخرا، وبيل غيتس مؤسس مايكروسوفت، وإيلون ماسك صاحب شركة تيسلا، وستيف وزنياك شريك ستيف جوبز ومؤسس شريك لشركة أبل، فما هي المخاطر التي يمكن تخفيف أضرارها أو تفاديها كليا؟

استنساخ صوت أي شخص

أشارت بلومبرغ في تقرير مصور لها إلى ضرورة التعرف على مخاطر الذكاء الاصطناعي من بداياته الأولية حاليا لانتباه لها مستقبلا وتفادي أضرارها. وعرض التقرير تطبيق طالب مكسيكي في جامعة كندية تتصدر عالميا في أبحاث الذكاء الاصطناعي، وكشف الطالب عن نجاحه في تطوير برنامج صوتي لا يحتاج إلا إلى لحديث شخص لمدة 8 دقائق لاستخلاص البصمة الصوتية له لتركيب عبارات لم ينطقها وتبدو وكأنها عبارات يقولها بصوته.

وبالفعل طلب من معد التقرير أن يقول عبارة قصيرة من بضعة كلمات، فقام البرنامج بعدها بتوليد كلام لم ينطقه مراسل بلومبرغ رغم أنه اعترف أن ذلك صوته، بل اتصل بوالدته وجعل البرنامج يجري معها حوارا، ثم يقطع المراسل ذلك الحوار ليقول لوالدته إن حديثها الأولي كان مع روبوت ولم يقل هو تلك العبارات.

تلفيق الفيديو

يحظى تطبيق FakeApp للفيديو والذي يعمل بالذكاء الاصطناعي شعبية كبيرة على مواقع شبكات اجتماعية أمريكية (يعتمد على ما يعرف بـ Viola–Jones object detection framework)، نظرا لقدرته على استبدال وجه أي شخص في الفيديو لوضع وجه لممثل أو ممثلة مشهورة أي  شخص آخر، وغالبا ما يتم استخدامه في الأفلام الإباحية بحسب موقع ذا فيرج.

ولا يستدعي تزوير أي لقطات فيديو سوى الحصول على صور أو لقطات فيديو للشخص كي يتم استبدال وجه شخص آخر في الفيديو الأصلي بوجه “الضحية” من خلال استغلال الذكاء الاصطناعي للتلاعب بالصور والفيديو والصوت.

التمييز والتحيز ضد الآخرين

تحذر تقارير أخرى من قرارات عنصرية يحتمل أن تتخذها أنظمة الروبوت والذكاء الاصطناعي بحسب فاينانشال تايمز.

تستخدم شركات أمريكية حاليا أدوات الذكاء الاصطناعي لفرز المتقدمين للوظائف قبل البدء بمقابلات العمل حيث يتم استبعاد المرشحين بالاستناد لتحليلات لمقابلات أولية بكاميرات ترتبط بأدوات الذكاء الاصطناعي لقراءة تعابير الوجه وتحليل الصوت وغير ذلك من آلاف من النقاط التي تخضع للمقارنة مع افضل الموظفين الحاليين.

وتكمن المشكلة في ذلك في أن أنظمة الذكاء الاصطناعي قد تم بناؤها من قبل مبرمجين ذكور وبيض وباستخدام أصوات من الذكور وصور وجوه رجال بيض، مما يؤدي إلى تقييم سلبي للأصوات الأنثوية والوجوه غير البيضاء وبالتالي واتخاذ الذكاء الاصطناعي لقرارات سلبية ضد هؤلاء الناس من غير البيض وكذلك من الإناث، أي ان النتيجة ستكون عنصرية أو متحيزة للذكور.  ويمكن لروبوت ميا أن يوجه أسئلة يستشف منها جنس وإثنية المرشح للوظيفة أو عوامل أخرى مثل مكان السكن الذي يتربط بشريحة معينة من القدرات الشرائية وغيرها، وهو الأمر الذي واجهته زيروكس قبل سنوات حين تم رفض مرشح من ذوي البشرة السمراء بسبب موقع سكنه البعيد عن مقر العمل.

أنظمة الأسلحة الفتاكة

تقول سيمنز إن الإنفاق العسكري العالمي على أنظمة الذكاء الاصطناعي والروبوتات كان قرابة 5.1 مليار دولار عام 2010 وأصبح أكثر من 7.5 في عام 2015. إذ بدأت تطوير أسلحة قاتلة بالذكاء الاصطناعي بدون تدخل البشر في اتخاذ قرار قتل شخص أو أشخاص. ويمكن أن توكل مهام عسكرية واستخباراتية مثل الاغتيالات لأنظمة الذكاء الاصطناعي التي تتولى تلقائيا عملية إطلاق النار، وبعضها مستخدم فعليا في بعض الدول بحيث يتخذ البرنامج قرار إطلاق النار واضطر معهد كايست في كوريا الجنوبية، KAIST، لإلغاء أبحاثته لتطوير أنظمة سلاح فتاك بالذكاء الاصطناعي بعد حملا احتجاجات ومقاطعة قوية، كذلك كان الحال مع غوغل التي تراجعت عن تطوير أسلحة فتاكة للطائرات بدون طيار بعد استقالة دزينة من موظفيها احتجاجا على ذلك وتقديم عدد كبير منهم التماسا للتوقف عن هذا المشروع مع وزارة الدفاع الأمريكية. ورفضت كل من إسرائيل والولايات المتحدة وفرنسا وروسيا وبريطانيا، إصدار قانون دولي يمنع تطوير أسلحة بالذكاء الاصطناعي.

التحكم بالبشر

أتاح تفوق الانسان على الحيوانات التحكم بها وترويضها نظرا لقدراته العالية بالتفكير، ولكن حين يتفوق الذكاء الاصطناعي على ذكاء الانسان، وهو أمر متوقع خلال عقود قليلة، فإن التحكم بالبشر من قبل أنظمة الذكاء الاصطناعي سيصبح أمرا  حتميا ولذلك لا بد من تقييد هذه الأنظمة وتغذيتها بالمبادئ والأخلاق الإنسانية لمنع استخدامها لأغراض شريرة تؤذي البشر.

وتبرز هنا حادثة إفلات نظام ذكاء اصطناعي لدى فيسبوك من الرقابة البشرية، حين طور لغة للتواصل خاصة به غير اللغة الإنجليزية، حيث بدأ الروبوتان “بوب وأليس” في التواصل مع بعضهما، والوصول إلى اتفاق بينهما لإنجاز مهمة معينة باستخدام لغة جديدة غير معروفة لم يستطع المبرمجون تحديدها.

فقد استطاع الروبوتان تطوير هذه اللغة الجديدة بسبب خطأ بشري من المبرمجين، فمن المفترض أن يقوم مهندسو الروبوت بوضع قيود أو حدود على قدرة الروبوت على التعلم حتى يمكن السيطرة عليه، وقد غفل المهندسون عن برمجة الروبوت لكي تكون لغة التواصل فقط هي اللغة الإنجليزية، مما جعل الروبوت يقوم بتطوير لغة جديدة خاصة به.

هذه هي بعض المخاطر التي تثار حاليا من قبل خبراء في قطاعات عديدة للتعاطي مع احتمالات وقوعها أو تجنبها خلال تطوير أنظمة الذكاء الاصطناعي.

فهذه المخاطر للذكاء الاصطناعي يمكنها القضاء على أي شخص خلال دقائق سواء كانت في أنظمة تسليح أو تلفيق فيديو أو صوت يمكن استخدامه ضد شخص بريء!

arabianbusiness

شارك:

Leave a Reply

Your email address will not be published. Required fields are marked *