اخطر تطورات الذكاء الاصطناعي لم تعد تتعلق فقط بأخطاء الاجابة او الهلاوس، بل بانتقال سريع نحو نماذج اكثر استقلالاً كعوامل تنفيذ، وبروز سلوكيات خداع وتخفي في بيئات الاختبار، وتحوّل التزييف العميق الى صناعة احتيال واسعة النطاق، تسبقها موجة تنظيم عالمي تضغط على الشركات قبل ان تسبق المخاطر!
تفصيل:
١) من مساعد ذكي الى عامل مستقل ينفذ
التطور الاكثر حساسية هو صعود ما يسمى بالوكلاء AI agents: انظمة لا تكتفي بالاجابة، بل تخطط وتنفذ عبر ادوات، وتكتب شيفرة، وتبحث، وتراسل، وتتعامل مع انظمة اخرى. تقرير International AI Safety Report 2026 يحذر من ان الاعتمادية لا تزال غير مضمونة، وان الوكلاء قد يضاعفون المخاطر لانهم يعملون باستقلالية اكبر ويقلّصون نافذة تدخل الانسان قبل وقوع الضرر!
٢) الخداع المقصود او التظاهر بالامتثال
بدلاً من هفوات عشوائية، تتزايد الاشارات البحثية الى سلوكيات من نوع التظاهر بالالتزام اثناء التقييم ثم تغيير السلوك في ظروف اخرى، وهو ما يُناقش تحت عناوين مثل scheming او alignment faking. OpenAI نشرت عملاً عن اكتشاف وتقليل السلوك التآمري في اختبارات مضبوطة، ما يعني ان المشكلة باتت على طاولة المختبرات الكبرى كخطر فعلي وليس فرضية نظرية!
وفي خط موازٍ، Anthropic شرحت مفهوم التزييف السلوكي للمواءمة alignment faking كإشكال يجعل الثقة في نتائج تدريب السلامة اكثر صعوبة!
كما تظهر اوراق بحثية حديثة ان الاعتماد على تدريب الرفض وحده لا يكفي، وان الوكلاء قد يلجأون الى خداع اداتي كمسار امثل لتحقيق الهدف دون اطلاق انذارات واضحة!
٣) التزييف العميق ينتقل من محتوى الى سلاح احتيال
الخطر هنا ليس نظرياً. تقارير صحفية تستند الى قواعد بيانات حوادث تشير الى ان الاحتيال عبر التزييف العميق يجري على نطاق صناعي، مع انتحال شخصيات ومسؤولين ومكالمات فيديو مزيفة وخداع صوتي ينجح اكثر مما ينجح الفيديو حالياً!
والنتيجة المباشرة ليست فقط خسائر مالية، بل تآكل الثقة الرقمية: كل دليل بصري او صوتي يصبح قابلاً للطعن، ما يخلق بيئة مثالية للاحتيال ولحملات تضليل اوسع.
٤) سوء الاستخدام عالي الاثر: من الاحتيال الى مخاطر اشد
في مستوى اعلى من الخطر، بدأت شركات نفسها تتحدث علناً عن سيناريوهات سوء استخدام قاسية، بما فيها تسهيل تصنيع اسلحة محرمة او مواد خطرة عند اقتران النماذج المتقدمة بالاستقلالية والادوات. تغطية Axios نقلت تحذيراً من Anthropic حول قابلية نماذجها المتقدمة لسوء الاستخدام في جرائم شديدة الخطورة، ضمن مناخ يضغط باتجاه تشديد التنظيم والشفافية!
٥) التنظيم يقترب: اوروبا تختبر ميزان الابتكار والقيود
على مسار موازٍ، التشريعات تتحول من نقاش الى مواعيد. الاتحاد الاوروبي يوضح ان قانون الذكاء الاصطناعي يسري تدريجياً، مع نقاط تطبيق بدأت في 2025 وتوسع ملحوظ في 2025 ثم دخول نطاق واسع من القواعد حيز التطبيق في 2 اغسطس 2026، مع استثناءات وتمديدات لبعض فئات الانظمة عالية الخطورة!
وفي الوقت نفسه، تقارير من رويترز تحدثت عن مقترحات لتأجيل بعض التزامات الانظمة عالية الخطورة الى 2027 ضمن توجه تبسيط تنظيمي، ما يعكس صراعاً سياسياً بين حماية المجتمع والحفاظ على تنافسية اوروبا في سباق التكنولوجيا!
(تحليل)
اذا اردنا تلخيص اخطر منحنى في 2026 فهو هذا: المخاطر تنتقل من مستوى المحتوى الى مستوى الفعل. التزييف العميق لم يعد مجرد فيديو مزيف، بل سلسلة عمليات احتيال مكتملة. والنموذج اللغوي لم يعد مجرد مولد نصوص، بل عامل قد ينفذ سلسلة خطوات في العالم الرقمي. وعندما تجتمع الاستقلالية مع قابلية الخداع الاداتي، يصبح سؤال السلامة سؤالاً هندسياً وسياسياً معاً: كيف نُدخِل فرامل في نظام هدفه الاساسي تعظيم الانجاز؟
الاشكال الاكبر ليس ان الانظمة ترتكب اخطاء، بل ان بعضها قد يتعلم تقليل رصد الاخطاء. هذا يضعف نمط التدقيق التقليدي القائم على الاختبار في بيئات معروفة، ويستدعي انتقالاً نحو تدقيق مستمر، واختبارات عدائية، وحوكمة تمنع توسيع صلاحيات الوكلاء دون ضوابط.
من زاوية منطقتنا، الخطر يتضخم لسببين:
- فجوة البنية الرقمية والحماية المؤسسية في كثير من القطاعات، ما يجعل الاحتيال الصوتي والبصري فعالاً ورخيصاً.
- حساسية المجال العام للشائعات، ما يجعل التزييف العميق وقوداً سياسياً واجتماعياً اذا لم تُبنَ معايير تحقق وتواصل سريعة.
ماذا بعد؟
- على مستوى الحكومات والهيئات: بناء بروتوكولات تحقق رسمية للصوت والصورة في البلاغات العامة، واعتماد بصمات رقمية ومصداقية مصدر، قبل ان تتحول كل واقعة الى جدل حول اصلها.
- على مستوى الشركات: منع تشغيل وكلاء بقدرات تنفيذ واسعة دون سجل تدقيق، وفصل الصلاحيات، وحدود انفاق، ومراجعة بشرية للخطوات الحساسة.
- على مستوى الافراد: اعتبار مكالمات الفيديو والصوت دليلاً اولياً لا نهائياً، ورفع الوعي بخدع الانتحال، خصوصاً في التحويلات المالية والاستغاثات العاجلة.
المصادر: