باحثون ينعون الخصوصية والتعددية في عصر الذكاء

الرئيسية » إعلام ورقميات » باحثون ينعون الخصوصية والتعددية في عصر الذكاء

عندما يذكر الذكاء الاصطناعي تذكر معه مجموعة من التقنيات الأخرى، بدءاً من التقنية الحيوية وعلم الجينات، إلى التقنية العصبية، والروبوتات، والتقنية السيبرانية ونظم التصنيع. لقد أصبحت هذه التقنيات، على نحو متزايد، لا مركزية، وخارجة عن سيطرة الدولة، وفق إليونور باولز وهي باحثة في العلوم التقنية الناشئة في مركز أبحاث السياسات بمنظمة الأمم المتحدة. وهذه التقنيات فوق ذلك كله متاحة لمجموعة واسعة من الجهات الفاعلة في جميع أنحاء العالم. في حين أن هذه الاتجاهات قد تساهم في تطوير إمكانات هائلة للبشرية، إلا أن تقارب الذكاء الاصطناعي والتقنيات الحديثة قد يفرض أيضًا مخاطر غير مسبوقة على الأمن العالمي. ويخلق كما تقول باولز تحديات للنظام المتعدد الأطراف والأمم المتحدة والتي تعمل على مستوى الدول.

رقابة اجتماعية وبيولوجية

بفضل إمكاناتها لتمكين الاستجابات في الوقت الحقيقي والفعالة من حيث التكلفة والكفاءة لمجموعة متنوعة من القضايا المتعلقة بالتنمية البشرية والأمنية، تلعب تقنية الذكاء الاصطناعي دورًا مهمًا في إدارة المخاطر المعقدة على السكان المستضعفين وتجنب اندلاع الأزمات وبناء القدرة على الصمود ضد الصدمات داخل مجتمعاتنا. بينما يلتقي الذكاء الاصطناعي، مع التقنيات الأخرى، في جميع أركان عمل الأمم المتحدة، سيكون دوره حاسماً في جدول أعمال الوقاية. مع ذلك، من المحتمل أن يؤدي الذكاء الاصطناعي، كتقنية مزدوجة الاستخدام، إلى إضعاف قدرة السكان مثلما يقوم بتمكينهم. إن لقدرة الذكاء الاصطناعي على التدخل في السلوك البشري الخاص وربما السيطرة عليه انعكاسات مباشرة على جدول أعمال الأمم المتحدة المتعلق بالوقاية وحقوق الإنسان.

في الواقع، قد تتطلب الأشكال الجديدة من الرقابة الاجتماعية والبيولوجية إعادة تصور للإطار المعمول به حالياً لرصد وتنفيذ الإعلان العالمي لحقوق الإنسان. بالتأكيد ستتطلب المخاطر الأمنية المتطورة أن يقوم النظام المتعدد الأطراف بتوقع وفهم أفضل لمجال التقارب السريع الناشئ عن تقنية الذكاء الاصطناعي. لذلك، ترى باولز أن من الضروري استخدام التبصر الشامل والتوجيه المعياري في إطار جدول أعمال الوقاية وتقاطعه مع التقنيات الجديدة، استنادًا إلى الاهتمام المتجدد بميثاق الأمم المتحدة لتشكيل إنشاء أنظمة الذكاء الاصطناعي ونشرها وإدارتها. وتعتقد الباحثة أن البشرية دخلت في عصر التقارب التقني في سعيها إلى دمج حياتنا المادية والرقمية والبيولوجية. ويقوم علماء الحاسوب بتطوير خوارزميات تعلّم عميقة يمكنها التعرف على الأنماط ضمن كميات هائلة من البيانات بكفاءة تفوق طاقة البشر ودون إشراف. في الوقت نفسه، يقوم علماء الوراثة وعلماء الأعصاب بفك تشفير البيانات المتعلقة بالجينوم البشري وعمل الدماغ، والتعرف على صحة الإنسان والرفاهية والإدراك.

النتيجة هي أن القدرات الوظيفية لتفادي الأزمات التي لم يكن من الممكن تصورها في السابق أصبحت الآن حقيقة واقعة حيث تعمل على رفع مستوى الجهود من الطب الدقيق والأمن الغذائي إلى منع نشوب الصراعات. وترى باولز أن الذكاء الاصطناعي أصبح أداة قوية لجهود التنمية الدولية للأمم المتحدة. وتعتبر مبادرة النبض العالمي للأمم المتحدة (UN Global Pulse) رائدة في استخدامها التعلّم الآلي لرصد آثار التطرف العنيف على خطاب الكراهية على الإنترنت. يؤدي الجمع الأمثل للقياسات الحيوية والجينوم والبيانات السلوكية إلى “الحوسبة العاطفية” وهي خوارزميات يمكنها تحليلنا بنجاح وتحفيزنا والتواصل معنا.

ستراقبنا أنظمة الذكاء الاصطناعي من خلال الحوسبة العاطفية وتقوم بتسجيل انفعالاتنا وتقييمها. سننتقل حينها من القدرة التنبؤية لخوارزمية واحدة إلى أخرى. إن دخول هذا العالم من تقارب الذكاء الاصطناعي هو خطوة تجاه شبكة من المراقبة المنتشرة والدقيقة.

التلاعب بالمشاعر

ستحصل الخوارزميات المجهزة بتقنية التعرف على الوجه على فهم إدراكي أكثر دقة، ليس فقط لميزات القياسات الحيوية لدينا، ولكن أيضًا لعواطفنا وسلوكياتنا البشرية. هذا الشكل الجديد من الحوسبة المتطفلة في حياتنا الشخصية له آثار كبيرة على تقرير المصير والخصوصية ولاسيما خصوصية الأطفال. مثال على ذلك، الدمية الذكية المعروفة باسم “صديقتي كايلا” التي ترسل البيانات الصوتية والعاطفية للأطفال الذين يلعبون بها إلى السحابة الرقمية، مما أدى إلى رفع شكوى من قبل لجنة التجارة الفيدرالية بالولايات المتحدة كما تم حظر الدمية في ألمانيا. في الولايات المتحدة، يتم بالفعل استخدام التحليل العاطفي في قاعة المحكمة للكشف عن المشاعر في أشرطة الفيديو الخاصة بالشهادة. ويمكن أن يصبح هذا التقليد قريباً جزءا من مقابلات العمل لتقييم استجابات المرشحين ولياقتهم للوظيفة.

وتعتمد شركة واحدة بالفعل على أجهزة استشعار لاسلكية لتحليل موجات الدماغ لدى العمال ومراقبة صحتهم العاطفية. وينشر العملاق التكنولوجي “علي بابا” الملايين من الكاميرات المجهزة للتعرف على الوجه عبر عدد من المدن. يتم إنشاء قواعد البيانات التي ترعاها الحكومة للوجوه والجينومات والمعلومات المالية والشخصية للاتصال بالتصنيفات الائتمانية والوظائف وتصنيفات ولاء المواطنين، وكذلك تصنيفات عينات الحمض النووي للعثور على أفراد الأسرة ذوي الصلة. في الآونة الأخيرة، تم جمع صور وعينات اللعاب لطلاب من 5000 مدرسة، دون موافقة مسبقة، لتغذية قاعدة بيانات للوجوه والجينوم. علاوة على ذلك، تقوم شركة “كلاود ووك” وهي شركة لبرمجيات التعرف على الوجه بتطوير تقنية الذكاء الاصطناعي التي تتعقب حركات الأفراد وسلوكهم لتقييم فرصهم في ارتكاب جريمة.

يمكن لقدرة الذكاء الاصطناعي على دفع السلوك البشري الخاص والسيطرة عليه والتأثير على تقرير المصير بأن يعوق بشكل متزايد القدرة على رصد انتهاكات حقوق الإنسان وحمايتها. هذه القدرة محدودة بدرجة أكبر عندما يمتلك القطاع الخاص، على وجه الحصر تقريبًا، البيانات المطلوبة ويكون مجهزًا بشكل أفضل بالمعرفة اللازمة لفهم وتصميم الخوارزميات.

وتتحدث باولز عن برنامج الزيف العميق (Deepfak) كمثال، حيث يمكن الآن لبرامج الذكاء الاصطناعي المتطورة معالجة الأصوات والصور ومقاطع الفيديو مما يؤدي إلى انتحال شخصية من المستحيل تمييزها عن الأصل. تستطيع خوارزميات التعلّم العميق، قراءة الشفاه البشرية بدقة مدهشة وتوليف الكلام وإلى حد ما محاكاة تعبيرات الوجه. يمكن بسهولة إساءة استخدام هذه المحاكاة بمجرد إطلاقها خارج المختبر مع تداعيات تبعث على القلق (يحدث هذا بالفعل على مستوى منخفض في الواقع). عشية الانتخابات، يمكن لمقاطع الفيديو المنتجة ببرنامج الزيف العميق أن تصور زوراً مسؤولين حكوميين مشاركين في غسيل الأموال أو يمكن زرع الذعر العام من خلال مقاطع فيديو تحذر من أوبئة أو هجمات إلكترونية غير موجودة. وتؤكد باولز أن هذه الحوادث المزيفة يمكن أن تؤدي إلى تصعيد دولي.

تدهور الحقيقة والثقة

إن قدرة مجموعة من الجهات الفاعلة على التأثير على الرأي العام بمحاكاة مضللة يمكن أن تكون لها آثار قوية طويلة الأجل على الحفاظ على السلم والأمن الدوليين. من خلال تآكل الإحساس بالثقة والحقيقة بين المواطنين والدولة وبالفعل بين الدول، يمكن أن تشكل الأخبار المزيفة حقًا تآكلًا عميقًا لنظامنا الاستخباراتي والحكم العالمي. يمكن أن تؤدي قدرة التقنيات التي يحركها الذكاء الاصطناعي على التأثير على أعداد كبيرة من السكان إلى خلق سباق سيبراني. يمكن للدول القوية ومنصات التقنية الكبيرة من الدخول في منافسة مفتوحة على بياناتنا الجماعية كوقود لتوليد التفوق الاقتصادي والطبي والأمني. من المرجح بشكل متزايد أن تظهر أشكال “الاستعمار السيبراني”، لأن الدول القوية قادرة على تسخير الذكاء الاصطناعي والتقنية الحيوية لفهم سكان البلدان الأخرى والنظم الإيكولوجية الخاصة بها والتحكم فيها.

ومع ذلك، تؤكد الباحثة، أن المسؤولية الأخلاقية التي تأتي مع استخدام أنظمة الذكاء الاصطناعي في بيئتنا الأمنية المتطورة لم تعد ملكاً للدول فقط حيث يتم توزيعها بشكل متزايد بين المطورين والمستخدمين والقراصنة. يؤدي هذا الشكل من “المسؤولية الضمنية” إلى مجموعة شاملة من التحديات المترابطة للنظام متعدد الأطراف. وتشير عودة الأجندات القومية في جميع أنحاء العالم إلى تراجع قدرة النظام المتعدد الأطراف على لعب دور ذي معنى في الإدارة العالمية للذكاء الاصطناعي. قد لا ترى الشركات الكبرى قيمة كبيرة في تطبيق النهج متعدد الأطراف على ما تعتبره التقنيات المربحة. وقد تفضل الدول الأعضاء القوية بلورة مزاياها وقواعدها التنافسية عندما يتعلق الأمر بالتقنيات السيبرانية. قد يقاومون تدخل الأمم المتحدة في الإدارة العالمية للذكاء الاصطناعي لاسيما في ما يتعلق بالتطبيقات العسكرية.

رغم ذلك، تؤكد الباحثة أن هناك بعض الطرق المبتكرة التي يمكن للأمم المتحدة من خلالها المساعدة في بناء نوع من الشبكات التعاونية الشفافة التي قد تبدأ في معالجة “اضطراب نقص الثقة”. وتطالب باولز الأمم المتحدة بالعمل على تعزيز مشاركتها مع منصات التكنولوجيا الكبيرة التي تحرك ابتكار الذكاء الاصطناعي وأن توفر منتدى للتعاون الحقيقي المفيد، بالتعاون مع الجهات الفاعلة الحكومية والمجتمع المدني. ستحتاج الأمم المتحدة إلى أن تكون جسراً بين مصالح الدول التي تتبوأ مراكز قيادية في مجال التقنية وتلك التي تستقبلها.

صحيفة العرب

شارك:

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *