الذكاء الاصطناعي: سيناريوهات لبنانية مرعبة
تخيّل أن تتمكّن من كتابة وإنتاج ونشر خطاب للأمين العام لحزب الله يظهر فيه بكامل ملامحه رافعاً إصبعه الشّهير. أو حتى لرفيق الحريري. أو أن تتمكّن من إنتاج نشرة أخبار كاملة ومفبركة وتوزيعها. أو أن تصمم فيديو يبدو حقيقياً لحدث مرعب وتنشر الهلع بين الناس. أو أن تفبرك فضيحة لشخصية ما، فينتشر الفيديو كالنار في الهشيم قبل أن تظهر الحقيقة.
كل هذا، بل وأكثر، قد يصبح ممكناً مع تطوّر تقنيات الذكاء الاصطناعي واتاحتها كأي منتج أمام جميع المستهلكين. وهو ما بات يطرح اليوم أسئلة وتحديات أخلاقية دفعت بـ"أبو الذكاء الاصطناعي"، جيفري هينتون، للاستقالة من شركة "غوغل" وإعلان ندمه والتحذير من مخاطر هذا الاختراع. وإن كان ذنب نوبل باختراع الديناميت لا يغتفر بجائزة سيّست بدورها، فلربما لن يغفر شيء لهينتون ما قد يؤدي إليه سوء استخدام الذكاء الاصطناعي.
السيناريو اللبناني
إلى الآن، لا يزال استخدام تقنيات الذكاء الاصطناعي محدوداً، نظراً لأن معظم التقنيات ذات الجودة الأفضل ما زالت مدفوعة الثمن ومحدودة الخصائص. أما التقنيات المتوفرة للجميع بالمجان فمحدودة أو رديئة، ولا تنفذ الأوامر المطلوبة منها بدقة وتظهر شوائبها بوضوح فيسهل فضحها. هذا فيما لم تكشف كلّ التقنيات التي توصّل إليها العلماء في هذا المجال، ويبقى ما خفي منها أعظم أو تحت التجربة.
بعض المستخدمين في فرنسا، مثلاً، يستخدم التقنيات في محاولة لتجسيد ضحايا قضوا جراء جرائم شنيعة بأبشع الأشكال، والنطق بلسانهم من دون مراعاة حقوقهم ولا مشاعر ذويهم، خصوصاً أن العديد منهم لم تمض أشهر على مقتلهم ولم يستوعب بعد ذووهم ما حدث لهم. وإن كان ذلك يحصل في بلد تحمي فيه القوانين حقوق الإنسان وتعاقب من يتسبب بانتهاكها، وتواكب تطور وسائل التواصل الاجتماعي، فلنا أن نتخيّل ما سيكون عليه الحال في بلد كلبنان. فالقوانين في هذا البلد مترهلة، لا تطبق إلا على الأضعف، بينما تنقضي سنوات في دراسة مشاريع قوانين من دون إقرارها، كمشروع قانون الإعلام. وحتى الآن لم تواكب القوانين تطور الإعلام وانتشار الإعلام الالكتروني، فكيف لها أن تواكب الذكاء الاصطناعي؟!
التعمق في مخاطر استخدام هذه التقنيات في بلد كلبنان يبدو مرعباً، ويترك لكل فرد تخيّل ما قد يعانيه بالشخصي والعام جراء سوء استخدام هذه التقنيات. ولربما قد بدأ الإعلام والسياسيون تخيل كيف يمكن لهم استخدام هذه التقنيات في أجنداتهم السياسية وحروبهم الإعلامية. ومن المرجح أن يصبح هذا الذكاء سلاحاً يعمّق الأزمات اللبنانية ويستخدم في توتير الأجواء متى تدعو الحاجة لذلك. وهنا يطرح السؤال: مَن مِن الأحزاب بدأ يخصص فريقاً للاستفادة من هذه التقنيات؟ الجواب يبدو سهلاً. وإن كان تعميم الأكاذيب سهل من دون هذه التقنيات فكيف سيكون في ظلها؟
التحيّز الجندري
من الإشكاليات الأخلاقية التي تطرح، التحيز الجندري لتقنيات الذكاء الاصطناعي. فقد لفت تقرير نشرته اليونسكو في 23 نيسان الماضي، إلى الأمر. واستشهد التقرير بمثل لبحث عن كلمة "تلميذة" في محرك البحث حيث لفت إلى ظهور نتائج مليئة بالنساء والفتيات في جميع أنواع الأزياء الجنسية. "والمثير للدهشة أنك إذا كتبت كلمة "تلميذ"، فستظهر النتائج في الغالب تلاميذ صغار عاديين. لا يوجد رجال أو عدد قليل جدًا من الرجال يرتدون أزياء جنسية" وفق التقرير. إذاً فالنتائج مبنية على الأحكام المسبقة النمطية المتجذرة بعمق في مجتمعاتنا. يحذر التقرير من هذا الانحياز. إذ تعالج البيانات المعقدة وتعطي الأولوية للنتائج بناءً على تفضيلات المستخدم والموقع. "بالتالي، يمكن أن يصبح محرك البحث غرفة صدى تحافظ على التحيزات في العالم الحقيقي وترسخ تلك التحيزات والصور النمطية على الإنترنت". وفي محاولة لعدم إعادة إنتاج الصور النمطية للمرأة في المجال الرقمي، تسعى اليونسكو لمحاربة التحيز الجنساني في الذكاء الاصطناعي من خلال توصيتها بشأن أخلاقيات الذكاء الاصطناعي. وكانت مجلة فيتشر العلمية قد ذكرت أن 80% من أساتذة الذكاء الاصطناعي هم من الرجال. وهو بالتأكيد ما يساهم في هذا التحيّز. ومنذ العام 2021 دعت أودري أزولاي، المديرة العامة لليونسكو، العالم لتبني قواعد أخلاقية للذكاء الاصطناعي معتبرة أن "هذا هو تحدي عصرنا"، لكن التقنيات تسير من دون الالتفات إلى الأمر.
إحياء الضحايا
تعيد تطبيقات الذكاء الاصطناعي تكوين الضحايا الذين فارقوا الحياة. تستخدم صورهم الحقيقية لخلق نسخة تروي قصصهم المروعة. الأمر استدعى الكثير من التعليقات التي تدعو لاحترام الضحايا وعائلاتهم. وترى في نشر فيديوهات من دون موافقة الأقارب نقص في الأخلاق. ويمكن تخيّل كيف سيكون عليه الحال في لبنان عندما تبدأ هذه الفيديوهات بالانتشار. أو تخيل الشخصيات السياسية التي قضت اغتيالاً والتي سيتمّ تجسيدها والنطق بلسانها، وما قد يسببه الأمر من حساسيات. كذلك قد تستخدم هذه التقنيات في الحرب على الشخصيات ومحاولات اغتيالها معنوياً. ما يدعو لوجوب استباق الأمر وبدأ التفكير به. وكل هذا يجب أن يؤطره قانون لأن البشر غير قادرين على فرض حدودهم الخاصة واحترام حقوق غيرهم.
قاعدة البيانات واستخداماتها
تتغذى قاعدة بيانات الذكاء الاصطناعي على المواد التي يصنعها البشر وتستخدمها في تطبيقاتها. وهي بالتالي لا تجسد الحقيقة أو الذكاء بشكله المطلق والمتخيّل والمترفع عن الانحيازات البشرية وأخطائها. كما أن البيانات التي تدخّل لا تمثل الحقيقة بل وجهة نظر الجهة القادرة على إدخالها. بالتالي ستظلّ خاضعة لسلطة الأقدر على ذلك. وكنتيجة، ستدخل هذه التطبيقات في الصراعات السياسة وحرب البروباغندا.
ومن بين السيناريوهات المرعبة المرتبطة بقاعدة البيانات تلك التي تتنبأ باستخدام الحكومات وتحديداً الديكتاتورية منها لتقنيات الذكاء الاصطناعي في جمع البيانات وتحليلها وتخزينها لمراقبة مواطنيها والسيطرة عليهم.
وقد أعلن الاتحاد الدولي لكرة القدم (فيفا)، في 18 من الشهر الجاري، أنه تمكن، عبر برنامج يستخدم الذكاء الاصطناعي لتتبع الإساءات بحق اللاعبين على وسائل التواصل الاجتماعي في مونديال 2022، من تحديد هوية أكثر من 300 شخص سيتم تقديم بياناتهم إلى سلطات إنفاذ القانون. هذا الإجراء وإن قيل إن الهدف منه مكافحة التمييز والتهديد الذي يتعرض له اللاعبون، لكنه ينذر بالأسوأ. إذ يمكن أيضاً استخدامه من قبل الحكومات في ملاحقة معارضيها أو منتقديها. فقد استطاعت التقنية التي استخدمتها الفيفا في مسح 20 مليون منشور وتعليق وصنفت 19 ألف منهم بأنه مسيء. ما يعني أنه بات بإمكان الحكومات أيضاً مسح ملايين المنشورات بوقت قياسي وإمكانيات مالية محدودة من رصد معارضيها ومحاسبتهم.
لا تتوقف تقنيات الذكاء الاصطناعي عند هذا الحد. ويطول الحديث عن هذه التقنيات فيما العديد من الفرضيات عرضة للبحث والنقاش في أوساط العلماء. ويمكن الاستمرار بتخيل المزيد من السيناريوهات المرتبطة بها كالاستخدامات العسكرية وغزو الفضاء والاغتيالات وتعظيم سيطرة قلة من البشر على الجماعات والتحكم بها وغيرها...
وإذ تترافق الدعاية المبالغ بها للذكاء الاصطناعي بسيناريوهات سوداء يحيكها العقل البشري، هي بدورها مبالغ بها، يبقى هذا الخوف مبرراً، لكنه يستدعي مواكبة علمية وقانونية للحد من مخاطره والاستفادة المثلى منه. ويستدعي أيضاً أن يستثمر لبنان وجامعاته في هذه التقنيات لمواكبة التطور السريع. ومن يعرف؟ لعل الذكاء الاصطناعي ينجح في ما فشل به حكامنا.