دراسة حديثة : 87% من الموظفين في مصر يستخدمون الذكاء الاصطناعي
في يوم 22 أكتوبر، 2025 | بتوقيت 10:32 ص

كتبت: نجوى طه
أجرت كاسبرسكي دراسة حديثة عنوانها «الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم»، وقد شملت مصر، وبينت نتائجها أنّ 87% من الموظفين المشمولين بالاستطلاع يستخدمون أدوات الذكاء الاصطناعي في مهام العمل. لكن لم يتلقّ إلا 46% من أولئك الموظفين تدريبات على جوانب الأمن السيبراني المرتبطة بالذكاء الاصطناعي، التي تعرف بأنها من العناصر الجوهرية للحماية من أخطار استخدام الذكاء الاصطناعي، بدءاً من تسريب البيانات وانتهاء بعمليات حقن أوامر الذكاء الاصطناعي الخبيثة.
أشار 90 % من المشاركين في مصر إلى إدراكهم معنى مصطلح «الذكاء الاصطناعي التوليدي»، وقد تجاوزت هذه المعرفة الجوانب النظرية؛ إذ باتت أدوات الذكاء الاصطناعي جزءاً جوهرياً من حياتهم اليومية. يستخدم 87% من المشاركين أدوات الذكاء الاصطناعي في أعمالهم؛ سواء لكتابة النصوص وتحريرها 71%، أو في كتابة رسائل البريد الإلكتروني المرتبطة بالعمل 53%، أو في إنشاء صور وفيديوهات باستخدام الذكاء الاصطناعي 54%، أو في تحليل البيانات 54%.
وأظهر الاستطلاع فجوة خطيرة في جاهزية الموظفين للتعامل مع أخطارالذكاء الاصطناعي؛ إذ أفاد 17% من الموظفين بعدم حصولهم على أي تدريب مرتبط بالذكاء الاصطناعي. أما الموظفون الذين حضروا دورات تدريبية بهذا المجال، فأشار 62% منهم إلى أنّ تلك الدورات ركزت على طريقة استخدام أدوات الذكاء الاصطناعي بفعالية وإنشاء الأوامر، أما الموظفون الذين تدربوا على جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي فاقتصرت نسبتهم على 46% فقط.
صحيح أنّ أدوات الذكاء الاصطناعي، التي تفيد في أتمتة المهام اليومية، شاعت كثيراً في المؤسسات، غير أنها جزء من «تكنولوجيا معلومات الظل»، لا سيما إذا استخدمها الموظفون دون توجيه من الشركة. وفي هذا الصدد قال 77% من المشاركين إنّ استخدام أدوات الذكاء الاصطناعي التوليدي مسموح في عملهم، بينما أقر 20% بعدم السماح بها، في حين أبدى 2% عدم يقينهم من قرار شركتهم بشأنها.
إذا أرادت الشركات أن يكون استخدام موظفيها للذكاء الاصطناعي أكثر أماناً وشفافية، فعليها تطبيق سياسة شاملة على مستوى الشركة كافة بشأن هذه المسألة. فتمنع هذه السياسة استخدام الذكاء الاصطناعي في وظائف معينة ولأنواع معينة من البيانات، وتستطيع تنظيم أدوات الذكاء الاصطناعي المتاحة للموظفين، فتسمح حصراً باستخدام الأدوات من القائمة المعتمدة في الشركة. ولا بد من توثيق هذه السياسة رسمياً، وعلى الموظفين تلقي التدريب المناسب فيها. وبعدما تضع الشركات قائمة بإجراءات السلامة الرقمية وضوابطها، ينبغي لها مراقبة استخدام الذكاء الاصطناعي، وتحديد الخدمات الشائعة، وتوظيف هذه المعلومات لتخطيط الإجراءات المستقبلية وتحسين تدابيرها الأمنية.
كما يقول راشد المومني، المدير العام لمنطقة الشرق الأوسط لدىكاسبرسكي: «لا يجب المنع التام أو الاستخدام المطلق غير المقيد عند استخدام الذكاء الاصطناعي في جميع أقسام الشركة. فالاستراتيجية الأكثر فعالية هي اتباع سياسة متوازنة تتيح للموظفين مستويات متفاوتة من الوصول إلى الذكاء الاصطناعي، وذلك وفقاً لحساسية البيانات في كل قسم من الشركة. وإذا ترافق هذا الأمر مع التدريب المناسب، فسيزيد مستويات الكفاءة والمرونة، ويحافظ على معايير أمنية قوية».
توصي كاسبرسكي المؤسسات باتباع التدابير التالية لضمان استخدام الذكاء الاصطناعي بأمان وثقة:
*أجرت وكالة تولونا للأبحاث هذا الاستطلاع عام 2025 بطلب من كاسبرسكي. وتضمنت عينة الدراسة إجراء 2,800 مقابلة مرئية عبر الإنترنت مع موظفين وأرباب أعمال يستخدمون الحواسيب في عملهم ضمن 7 دول هي: تركيا، وجنوب إفريقيا، وكينيا، وباكستان، ومصر، والمملكة العربية السعودية، ودولة الإمارات العربية المتحدة.







