شهد الذكاء الاصطناعي (AI) انتقالًا سريعًا من مرحلة التجريب إلى التبني الشامل على مستوى المؤسسات، وذلك بفضل التطورات في مجال الذكاء الاصطناعي التوليدي. في عام 2025، أفادت 88% من المؤسسات باستخدامها للذكاء الاصطناعي في وظيفة واحدة على الأقل من وظائفها التجارية، مقارنةً بـ 78% في العام السابق. ويعكس هذا الارتفاع مدى اندماج الذكاء الاصطناعي في العمليات وصنع القرار.
في الوقت نفسه، لا يزال قادة إدارة المخاطر يصنفون المخاطر السيبرانية على أنها التهديد الأول للمؤسسات، وهو تصنيفٌ لا يزال قائمًا ومن المتوقع أن يستمر حتى عام 2028، وفقًا لأحدث استطلاع عالمي لإدارة المخاطر أجرته شركة Aon. وتُعد أساليب الهجوم المدعومة بالذكاء الاصطناعي، بما في ذلك التصيد الاحتيالي المتقدم والتزييف العميق، من بين أهم المخاوف التي تواجه فرق الأمن وإدارة المخاطر، وذلك لأسباب وجيهة.
يُسرّع الذكاء الاصطناعي وتيرة الهجمات ونطاقها، ويزيد من تعقيد حالات الفشل التشغيلي، ويُضاعف الاعتماد على أنظمة الطرف الثالث. لذا، باتت الحوكمة المبكرة والمساءلة الواضحة والضوابط الفعّالة من المتطلبات الأساسية التي لا غنى عنها لقادة الأعمال.
ويتضح جليًا مدى تزايد هذا الخطر: فقد سجّل مؤشر ستانفورد للذكاء الاصطناعي 233 حادثة ضارة متعلقة بالذكاء الاصطناعي في عام 2024، بزيادة قدرها 56% مقارنةً بالعام السابق، مما يُبيّن مدى سرعة انتشار المخاطر الناجمة عن الذكاء الاصطناعي في مختلف القطاعات والمناطق الجغرافية.<sup>2</sup>
كما يُطوّر المهاجمون أساليبهم باستمرار. وفقًا لتحليل شركة كراود سترايك لعام 2025، أظهرت رسائل البريد الإلكتروني التصيدية المصممة بواسطة الذكاء الاصطناعي معدلات نقر تصل إلى حوالي 54%، مقارنة بحوالي 12% للهجمات التقليدية.3 كما ارتفعت حوادث التصيد الصوتي (التصيد الصوتي)، وتسلط عمليات الاحتيال البارزة باستخدام تقنية التزييف العميق – بما في ذلك قضية بقيمة 25 مليون دولار تم الإبلاغ عنها على نطاق واسع – الضوء على العواقب التشغيلية والمالية للخداع المدعوم بالذكاء الاصطناعي.


























































