في أحد الأيام، دار بيني وبين أحد أفراد الأسرة نقاش عابر حول الانتشار المتزايد للمقاطع المصنوعة بالذكاء الاصطناعي. كان الحديث بسيطًا في بدايته، لكنه سرعان ما أخذ منحى أعمق: إلى أي مدى يمكن لمقطع مُتقن الصنع أن يغيّر قناعات الناس، أو يؤثر في الرأي العام، أو يطلق شائعة تبدو حقيقية لمجرد أنها عُرضت بطريقة احترافية؟ لم يمض وقت طويل حتى خرج هذا النقاش من إطار الحديث إلى تجربة شخصية. وصلني مقطع فيديو يظهر فيه أطفال صغار يجلسون داخل خيمة، ملامحهم متعبة، والمياه تحيط بهم من كل جانب. للوهلة الأولى، بدا المشهد مقنعًا بما يكفي لأن يدفعني للتفاعل معه دون تردد. توقفت قليلًا وأعدت مشاهدة المقطع بهدوء، مع تركيز أكبر على التفاصيل. عندها لاحظت خللًا بسيطًا في يد أحد الأطفال، أصابع غير متناسقة على نحو لا يحدث عادة. كانت ملاحظة صغيرة، لكنها غيّرت قراءة المشهد بالكامل. لم يكن الفيديو توثيقًا لمعاناة حقيقية، وإنما مشهد صُمم بتقنية متقدمة ليبدو واقعيًا إلى حد الإقناع. في تلك اللحظة، أدركت أن المسألة لا تتعلق بمقطع واحد، وإنما بنمط جديد من المحتوى أصبح يمر علينا يوميًا عبر الحواسيب والأجهزة الذكية، محتوى قد يحرّك مشاعرنا ويؤثر في آرائنا من خلال تفاصيل يصعب الانتباه لها من النظرة الأولى. ومن هنا يبدأ الحديث عن ما يُعرف اليوم بـ”التزييف العميق”. وقد نشر موقع هارفارد بيزنس ريفيو تعريفًا للتزييف العميق على أنه تقنية تستخدم الذكاء الاصطناعي لإنشاء فيديوهات وصور مزيفة تبدو واقعية جدًا، بحيث يمكن استبدال ملامح شخص بآخر أو محاكاة حركته وصوته بطريقة يصعب التمييز بينها وبين الواقع. ويشير تقرير بعنوان «مبادئ التزييف العميق» أصدرته الهيئة السعودية للبيانات والذكاء الاصطناعي «سدايا»، ويتضمن دليلاً شاملاً حول هذه التقنية، إلى أن التزييف العميق ليس بالضرورة أداة سلبية كما يُتصوَّر غالبًا. فالتقرير يلفت إلى أن هذه التقنيات يمكن أن تحمل فوائد حقيقية إذا استُخدمت بشكل مسؤول، سواء في مجالات الإعلام والترفيه، أو في التعليم وتطوير أساليب التدريب، بل وحتى في تمكين ذوي الإعاقة ودعمهم بوسائل تواصل أكثر فاعلية. لكن التقرير نفسه لا يغفل الجانب المقلق من هذه التقنية؛ إذ يحذّر من أن إساءة استخدام التزييف العميق قد تفتح الباب أمام الاحتيال وانتحال الشخصية، وتُستغل في تضليل الناس والتأثير في الرأي العام، بما يترك آثارًا اقتصادية وسياسية ملموسة. وهنا، لا تبدو المشكلة في التقنية ذاتها، بل في طريقة التعامل معها، وفي مستوى الوعي الذي نملكه كأفراد ومجتمع. وتأخذنا ورقة بحثية بعنوان “الآثار المحتملة للتزييف العميق على وسائل الإعلام والترفيه” نشرتها مجلة “AI & Society” إلى زاوية جوهرية أخرى، حيث تشير إلى أن الخطورة الحقيقية لا تكمن في التقنية بحد ذاتها، الأمر يكمن في “حرية التزييف”؛ فاليوم، لم يعد إنتاج هذه المقاطع حكراً على استوديوهات هوليوود الضخمة، إنما بات متاحاً لأي شخص يمتلك جهاز حاسوب أو جهاز ذكي، مما خلق واقعاً مزدوجاً ومربكاً. ففي عالم الترفيه، تفتح هذه التقنية آفاقاً إبداعية مذهلة تصل حد “إحياء الموتى” رقمياً وإعادة نجوم السينما الراحلين إلى الشاشة، لكنها في المقابل، تضع قطاع الأخبار أمام مأزق وجودي، فيصبح من السهل توليد أخبار مزيفة تشبه الحقيقية تماماً، مما يهدد بتآكل الموثوقية الإعلامية ويجعل المتلقي في حالة شك دائم تجاه كل ما يعرض عليه. وهنا يأتي دورنا الحقيقي والملحّ في تثقيف المجتمع وإرشاده للطرق المثلى لاكتشاف هذه المقاطع كما حدث معي في فيديو الأطفال؛ فالمعرفة هي خط الدفاع الأول، ولعلنا نسترشد في هذا المسار بما طرحته دراسة تحليلية شاملة للباحث “ميكا ويسترلوند”، والتي دعتنا للتدقيق في التفاصيل الصغيرة التي تغفل عنها الخوارزميات وتعتبر عيوباً تقنية كاشفة، مثل ملاحظة حركة العين غير الطبيعية، والتركيز العميق على تزامن حركة الشفاه مع الكلام المنطوق، وفحص الظلال والإضاءة وانعكاساتها التي قد تبدو غير متسقة مع البيئة المحيطة، إضافة إلى الانتباه لحدود الوجه والرقبة والأطراف -كما في حالة يد الطفل- التي قد تظهر مشوهة أو متموجة وكأنها قناع غير متقن التركيب. حتى الآن، الذكاء الاصطناعي ممتاز في إنشاء الفيديوهات القريبة من الواقع، لكنه ما زال يعاني كثيرًا في تقليد طريقة كلام البشر الحقيقية. نحن كبشر نخلط بين الفصحى والعامية، نغيّر نبرة الصوت فجأة، ندخل كلمات أجنبية وسط الجملة بدون وعي، ونقطع الكلام أو نعيده بشكل عفوي. هذا التداخل الطبيعي يُسمّى في الدراسات «التناوب اللغوي». الخوارزميات تحب النظام والانتظام، وحين تواجه هذا الأسلوب البشري العفوي، تتلخبط. هنا تظهر أخطاء دقيقة في الصوت أو الإيقاع أو طريقة النطق، وتصبح هذه التفاصيل الصغيرة علامة على أن المقطع قد لا يكون حقيقيًا. باختصار: عفويتنا البشرية ما زالت أقوى من محاكاة الآلة. وهنا لا يكفي الاعتماد على ذكاء الفرد وحده في كشف الزيف، فالمسؤولية يجب أن تكون مشتركة. من الضروري أن تعمل المنصات الرقمية على تتبّع المقاطع المنتَجة بالذكاء الاصطناعي منذ لحظة رفعها، وأن تُخضعها لأدوات كشف قبل نشرها على نطاق واسع. كما يصبح من المهم وضع إشارات أو شعارات واضحة تُبيّن أن المحتوى صُنع باستخدام الذكاء الاصطناعي، حتى لا يُترك المتلقي في حالة التباس أو خداع غير مقصود. وفي المقابل، لا يمكن تجاهل الجانب القانوني؛ إذ لا معنى لأي حلول تقنية من دون وجود عقوبات رادعة تطال من يستغل هذه التقنيات بشكل سلبي، سواء لتغيير الرأي العام، أو نشر الشائعات، أو الإساءة للأفراد والمؤسسات. فحين يدرك المسيء أن هناك محاسبة حقيقية، تقل شهية العبث، ويتحوّل الذكاء الاصطناعي من أداة فوضى إلى أداة تخدم المجتمع. إذاً، كل ما شاهدناه وقرأناه يوضح أن الأمور لم تعد كما كانت. مقاطع مصممة بإتقان تصلنا يوميًا، بعضها يلمس مشاعرنا ويغيّر انطباعاتنا قبل أن نعرف أننا أمام محتوى مصطنع. هذا الواقع الجديد يفرض علينا أن نصبح أكثر وعيًا، ليس من منطلق تعليم أو تحذير، ولكن ببساطة لأن حياتنا اليومية تتداخل مع هذه التقنية أكثر مما نتخيل، وأطفالنا وشبابنا جزء من هذا العالم الرقمي. القدرة على التفريق بين الحقيقة والزيف لم تعد أمرًا عاديًا، إنما جزء من فهمنا لما يحدث حولنا، وتجعلنا ندرك أن العالم أمامنا أصبح معقدًا، لكنه يمكن التعامل معه إذا عرفنا كيف نلاحظ التفاصيل ونتمعن فيما نراه.