الذكاء الاصطناعي شهد انتقالًا سريعًا من مرحلة الإختبار إلى التبني الشامل على مستوى المؤسسات، وذلك بفضل التطورات فيو الفوئد المتأتية منه،و ما أكثرها. ففي العام 2025، أفادت 88% من المؤسسات انها بدأت تستخدم هذا الذكاء الاصطناعي في وظيفة واحدة على الأقل من وظائفها التجارية، مقارنةً بـ 78% في العام السابق. ويعكس هذا الارتفاع مدى اندماج الذكاء الاصطناعي في العمليات وصنع القرار.
في المقابل ، لا يزال الاكتواريون يصنّفون المخاطر السيبرانية على أنها التهديد الأول للمؤسسات، وهو تصنيفٌ لا يزال قائمًا ومن المتوقع أن يستمر حتى عام 2028، وفقًا لأحدث استطلاع عالمي لإدارة المخاطر أجرته شركة Aon. وتُعد أساليب الهجوم المدعومة بالذكاء الاصطناعي، بما في ذلك التصيّد الاحتيالي المتقدّم والتزييف العميق، من بين أهم المخاوف التي تواجه فرق الأمن وإدارة المخاطر، وذلك لأسباب وجيهة.
يُسرّع الذكاء الاصطناعي وتيرة الهجمات ونطاقها، ويزيد من تعقيد حالات الفشل التشغيلي، ويُضاعف الاعتماد على أنظمة الطرف الثالث. لذا، باتت الحوكمة المبكرة والمساءلة الواضحة والضوابط الفعّالة من المتطلبات الأساسية التي لا غنى عنها لقادة الأعمال. ويتضح جليًا مدى تزايد هذا الخطر: فقد سجّل مؤشر ستانفورد للذكاء الاصطناعي 233 حادثة ضارة متعلقة بالذكاء الاصطناعي في العام 2024، بزيادة قدرها 56% مقارنةً بالعام السابق، مما يُبيّن مدى سرعة انتشار المخاطر الناجمة عن الذكاء الاصطناعي في مختلف القطاعات والمناطق الجغرافية. كذلك يُطوّر المهاجمون أساليبهم باستمرار. فوفقًا لتحليل شركة كراود سترايك لعام 2025، أظهرت رسائل البريد الإلكتروني التصيّدية المصمّمة بواسطة الذكاء الاصطناعي، معدلات نقر تصل إلى حوالي 54%، مقارنة بحوالي 12% للهجمات التقليدية. الى ذلك، ارتفعت حوادث التصيّد الصوتي، وتسلّط عمليات الاحتيال البارزة باستخدام تقنية التزييف العميق – بما في ذلك قضية بقيمة 25 مليون دولار تمّ الإبلاغ عنها على نطاق واسع – الضوء على العواقب التشغيلية والمالية للخداع المدعوم بالذكاء الاصطناعي.



























































