المملكة عزَزت مبكراً أخلاقيات الابتكار الرقمي ..

كيف ينجو العالم العربي من«فخ» الذكاء الاصطناعي؟

في واقعة غريبة، حدثت مؤخراً، رفع زوجان أميركيان دعوى قضائية ضد شركة “أوبن إيه آي” صاحبة برنامج “جي بي شات”، طالبا فيها الشركة بتعويض مالي ضخم، بعد أن اتهما البرنامج المدعوم الذكاء الاصطناعي، بتشجيع ابنهما “آدم” البالغ من العمر 16 عاماً على إنهاء حياته. وقال الزوجان، في أوراق الدعوى المُقدّمة إلى محكمة كاليفورنيا العليا والمكوّنة من 40 صفحة، إن الفتى “آدم” أخبر روبوت الدردشة بأنه يفكر في التخلص من حياته. ولكن البرنامج الذي لم يُفعِّل “بروتوكول الطوارئ”، أو يحاول إثناءه عن الفكرة، بل ربما شجعّه على ذلك، بما يؤكد وجود عيوب تقنية أو “فجوة أخلاقية” في برمجة الروبوت. وأوردت الدعوى مقتطفات من محادثات جرت بين الصبي والبرنامج في أبريل الماضي، قال فيها “تشات جي بي تي” للمراهق الأمريكي: “أنت لست مديناً لأحد ببقائك على قيد الحياة”! ورغم فوائد الذكاء الاصطناعي في تحسين الكفاءة والإنتاجية، وتقليل الأخطاء البشرية، وتعزيز الابتكار في مختلف الصناعات، تأتي هذا الحوادث المؤسفة وسط تحذيرات أطلقها العالم والفيزيائي جيفري هينتون، الحائز جائزة “نوبل” في الفيزياء، من أن احتمال سيطرة تقنية الذكاء الاصطناعي على الجنس البشري خلال عشرين سنة فقط، قد يصل إلى واحد من كل خمسة من البشر. وأضاف الدكتور هينتون، المُلقّب بـ “عراب الذكاء الاصطناعي”، أن “أفضل طريقة لفهم ذلك عملياً هي أننا كمن يمتلك شبل نمر لطيفاً. ما لم تكن متأكداً من أنه لن يرغب في قتلك عندما يكبر، فعليك أن تقلق”. ووقّع د. هينتون، وعدد من أبرز العلماء والمُطورين على بيان “مخاطر الذكاء الآلي”، الذي دعوا فيه البشرية إلى جعل الحد من “خطر الانقراض” الناجم عن هذه التقنية أولوية عالمية، إلى جانب المخاطر الأخرى مثل الأوبئة والحروب النووية. ولا تأتي تحذيرات الرجل من فراغ، فهو خبير في مجال الشبكات العصبية الاصطناعية، ويُعدّ المسؤول الأول عن تطوير التقنية، عندما ابتكر عام 1986 نماذج تعلُمّ آلي تُحاكي وظائف الدماغ البشري. وكانت هذه الفكرة هي النواة التي قامت عليها - فيما بعد- الكثير من برامج الذكاء الآلي. واستقال الرجل من منصبه القيادي في شركة “غوغل”، مطلع مايو الماضي، بعد ما عمل في الشركة لأكثر من عقد، مؤكداً أنه تقدّم باستقالته حتى يتمكن من التحدث بحرية عن مخاطر التقنية التي أسهم هو نفسه في تطويرها، معرباً في تصريحات لصحيفة “نيويورك تايمز” بعد استقالته، عن ندمه الشديد على المشاركة في أبحاث تطوير الذكاء الاصطناعي. السحر ضد الساحر أصدرت جهات دولية عديدة تحذيرات من تحوّل الذكاء التوليدي إلى سلاح ماضٍ في أيدي بعض الجماعات أو الدول، الأمر الذي ينتج عنه وقوع أطياف واسعة من البشر في “فخ” التقنية الجديدة. وخلال قمة “الذكاء الاصطناعي من أجل الخير” العالمية لعام 2025، التي عُقدت بمدينة جنيف السويسرية مؤخراً، شدد مسؤولون تابعون للأمم المتحدة على أهمية التحرز من المخاطر التي قد تتسبب فيها التقنية الجديدة. وقالت بوغدان مارتن، رئيسة وكالة الأمم المتحدة المتخصصة في تكنولوجيا المعلومات والاتصالات: “إن أكبر خطر نواجهه ليس أن يقضي الذكاء الاصطناعي على الجنس البشري، بل الخطر المُحدق هو السباق العالمي الحالي لدمجه في كل مكان، دون فهم كافٍ لما يعنيه ذلك للناس ولكوكبنا”. وفي بحث نشرته مجلة “التمويل والتنمية”، التابعة لصندوق النقد الدولي، أواخر العام الماضي، قالت المجلة إن من المخاطر المُثيرة للقلق البالغ ما يتمتع به الذكاء التوليدي من قدرة فائقة على سرد قصص مُزيفة، تجد صدى في معتقدات الأفراد ووجهات نظرهم الراسخة، ما قد يُعزز من ظاهرة “غرف الصدى” و”الصوامع الأيديولوجية”. وحسب هيرفيه تورب، رئيس وحدة الاستشارات الرقمية في الصندوق الدولي، فسواء كان الأمر يتعلّق بقصة مُلفقة، أو صورة مُركبة، أو فيديو مُصطنع، فإن مُخرجات الذكاء التوليدي المنشورة على وسائل التواصل الاجتماعي في أيامنا هذه، يمكن أن تكون مقنعة لدرجة تخلق شعوراً زائفاً بكونها واقعاً حقيقياً. ويُعد “التزييف العميق” المُصطنع بواسطة الذكاء الاصطناعي، من الأساليب العدائية التي يمكن أن تُستعمل ضد شخصية معينة أو جهة ما؛ لغرض تشويه صورتها أو الإساءة إلى سمعتها أمام الرأي العام. وذكر الدكتور محمد سعد أبو عامود، الباحث في مركز الأهرام للدراسات السياسية الاستراتيجية بالقاهرة، أنه يُضاف إلى ذلك ما يُطلق عليه “المخاطر الهجين”، ومنها مخاطر التضليل المعلوماتي والإعلامي، والاستخدام المتعمد لمعلومات كاذبة بقصد التأثير في الرأي العام، ومحاولات اختلاق الأكاذيب لأغراض التلاعب بالجماهير. ويؤكد د. أبو عامود، في دراسته بعنون “إدارة المخاطر الاستراتيجية للذكاء الاصطناعي في بيئة دولية متغيرة”، أن هناك أشكالاً جديدة من المعلومات المُضللة ظهرت إلى الواجهة، على مدار العقد الماضي، وتم تطويرها من خلال التقدّم في أساليب الحوسبة والبنية التحتية، وتوفر المنصات المُستخدمة على نطاق واسع، مثل وسائل التواصل الاجتماعي، قنوات قوية لتوزيع المعلومات المُضللة. بالإضافة إلى هذه القنوات، توفر هذه الخدمات للجهات الفاعلة الخبيثة أدوات جاهزة لتجربة تأثير حملات المعلومات المضللة. وسط هذه تحذيرات التي يُطلقها المختصون من احتمالية “انقلاب السحر على الساحر”، ما هو الحل؟ خصوصاً أن من المتوقّع نمو حجم سوق الذكاء الاصطناعي بنسبة 120% على الأقل على أساس سنوي، وأن تصل القيمة السوقية لمجال الذكاء الاصطناعي على مستوى العالم إلى نحو 1.59 تريليون دولار بحلول عام 2030، وهو ما يفرض المزيد من التحديات الأخلاقية على عالمنا العربي. وفق جيفري هينتون، فإن النموذج الوحيد الذي نعرفه لشيء أكثر ذكاءً، يتحكم فيه كائن أقل ذكاءً، هو الأم التي تتحكم بها مشاعرها تجاه طفلها. وبناء على ذلك، فإن الحل - في تقديره- يتمثل في دمج ما سمّاه “غرائز الأمومة” داخل أنظمة الذكاء الاصطناعي، بحيث تهتم بالبشر وتعاملهم كأم، حتى بعد أن تتفوق عليهم في القوة والدهاء! “مساءلة” الخوارزميات تمكّنت الشركات التكنولوجيا الكبرى، حتى الآن على الأقل، من تجنب المسؤولية عن الأضرار التي قد تنتج عن أنظمة الذكاء الخاصة بها. وتحمي هذه الشركات نفسها من خلال سياسات مثل عدم المطالبة بملكية المحتوى الذي تولده الأنظمة؛ وهو ما يُعقد مهمة تحديد المسؤولية في حالات العواقب السلبية. وتقول الباحثة هند سمير، إنه في ظل هذه الظروف، تظل التساؤلات مطروحة حول كيفية تحقيق العدالة والمساءلة؛ إذ تسعى سوق التكنولوجيا إلى الحفاظ على هيمنة الشركات الكبرى على الابتكار والموارد، وسط غياب قواعد مُحددة لما يُعرف بـ أخلاقيات الذكاء الاصطناعي”. وتُسلِّط هذه الانحرافات في السوق الضوء على التحديات الكبيرة التي تواجه تنظيم الذكاء الاصطناعي، سواء في الاستخدامات العسكرية أو المدنية، مع الحاجة إلى وضع أطر قانونية تراعي المخاطر الاجتماعية والأخلاقية المرتبطة بهذه التقنيات المتطورة. يُضاف إلى كل تلك التحديات، الطبيعة العابرة للحدود الوطنية لأنظمة الذكاء المُستحدثة، وهيمنة اللغة الإنجليزية كشكل من أشكال البيانات التي يتم تدريب الأنظمة عليها، إلى جانب التفاوتات العالمية في كفاءات هذا الذكاء بين الدول النامية والمتقدمة، كما لا تستطيع البنية القانونية للدول مواكبة التطورات السريعة في مجال الذكاء الاصطناعي؛ إذ يتطلب ذلك مراجعة شاملة للنهج القانوني لإدارة هذا المجال. لذلك، تبنّت المملكة تعزيز مبادئ الذكاء الاصطناعي الأخلاقي على مستوى العالم، التي دعمت مبكراً توصيات منظمة “اليونسكو” بشأن أخلاقياته، وأيدتها 193 دولة في نوفمبر 2021. وكانت المملكة في طليعة الدول التي أسست المبادئ والأطر اللازمة لأخلاقيات الذكاء الاصطناعي، التي تحكم سلوكياته من ناحية القيم الإنسانية، لينبثق عن هذه الجهود عدد من الإنجازات الدولية، منها إعلان “ميثاق الرياض” للذكاء الاصطناعي في العالم الإسلامي، وإنشاء المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي، وإقرار “اليونسكو” له كمركز دولي من الفئة الثانية. وأصدرت “الهيئة السعودية للبيانات والذكاء الاصطناعي” (سدايا) في عام 2023 النسخة الأولى من مبادئ أخلاقيات الذكاء الاصطناعي، بهدف توجيه المنظمات في المملكة نحو استخدام التقنيات بشكل مسؤول وآمن. وتضمنت المبادئ عناصر أساسية، منها: النزاهة والإنصاف، والخصوصية والأمن، والموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، بالإضافة إلى المبادئ المتعلقة بالإنسانية والمنافع الاجتماعية والبيئية. ويقول الدكتور رضا عبد الله البيومي، الأستاذ بكلية الحقوق جامعة المنصورة المصرية، في دراسة له بعنوان “الحماية القانونية من مخاطر الذكاء الاصطناعي: دراسة تحليلية مقارنة”، إنه “نطراً لخطورة هذه التقنية، تبنى مجلس حقوق الإنسان التابع للأمم المتحدة في 15 يوليو 2023 قراراً دعا فيه المجتمع الدولي إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي، وتعزيز شفافية أنظمة الذكاء الاصطناعي، وضمان جمع وتخزين ومشاركة وحذف البيانات المخصصة لتلك التكنولوجيا بطرق تتوافق مع حقوق الإنسان”. وحسب الدراسة نفسها، فإن إساءة استخدام تطبيقات الذكاء الآلي جريمة يُعاقب عليها القانون المصري رقم (175) لسنة 2018، الخاص بـمكافحة جرائم تقنية المعلومات، فقد جَرَّم المُشَرِّع المصري في هذا القانون إساءة استخدام التطبيقات والتكنولوجيا الحديثة. وتتحقق جريمة إساءة استخدام الذكاء الاصطناعي بتوافر ركنين، أحدهما مادي والآخر معنوي. فأمّا الركن المادي؛ فهو استعمال برنامج معلوماتي أو تقنية معلوماتية في معالجة معطيات شخصية للغير. وأمّا الركن المعنوي، فيتخذ صورة القصد الجنائي، بأن تتجه إرادة الجاني إلى استعمال برامج تقنية المعلومات في اصطناع بيانات شخصية للغير، بربطها بمحتوى منافٍ للآداب العامة، أو لإظهاره بصوره تمس بشرفه أو اعتباره، مع العلم بكافة عناصر الركن المادي.