الحب والكراهية: المحترفين التكنولوجيين مثل عملاء الذكاء الاصطناع


  • ما يقرب من نصف فرق تكنولوجيا المعلومات لا يعرفون تمامًا ما الذي يصل وكلاء الذكاء الاصطناعي لهم يوميًا
  • تحب المؤسسات وكلاء الذكاء الاصطناعي ، ولكن تخشى أيضًا ما يفعلونه خلف الأبواب الرقمية المغلقة
  • تحتاج أدوات الذكاء الاصطناعى الآن

على الرغم من الحماس المتزايد للوكيل الذكاء الاصطناعي عبر الشركات ، تشير أبحاث جديدة إلى أن التوسع السريع لهذه الأدوات يتجاوز الجهود المبذولة لتأمينها.

كشف مسح Sailpoint لـ 353 من أخصائيي تكنولوجيا المعلومات الذين يعانون من مسؤوليات أمنية للمؤسسات عن مزيج معقد من التفاؤل والقلق على عوامل الذكاء الاصطناعى.

تقارير المسح 98 ٪ من المنظمات تعتزم توسيع استخدامها لوكلاء الذكاء الاصطناعى خلال العام المقبل.

عوامل الذكاء الاصطناعى التبني يتفوق على الاستعداد الأمني

يتم دمج وكلاء الذكاء الاصطناعى في العمليات التي تتعامل مع بيانات المؤسسات الحساسة ، من سجلات العملاء والبيانات المالية إلى المستندات القانونية ومعاملات سلسلة التوريد – ومع ذلك ، قال 96 ٪ من المجيبين إنهم ينظرون إلى هؤلاء الوكلاء على أنها تهديد أمني متزايد.

تتمثل إحدى المشكلات الأساسية في الرؤية: يزعم 54 ٪ فقط من المهنيين أن لديهم وعيًا تامًا بالبيانات التي يمكن أن يصل إليها وكلاءهم – مما يترك ما يقرب من نصف بيئات المؤسسات في الظلام حول كيفية تفاعل وكلاء الذكاء الاصطناعى مع المعلومات الهامة.

فيما يتعلق بالمشكلة ، وافق 92 ٪ من الذين شملهم الاستطلاع على أن إدارة وكلاء الذكاء الاصطناعى أمر بالغ الأهمية للأمن ، ولكن 44 ٪ فقط لديهم سياسة فعلية.

علاوة على ذلك ، تقول ثماني من كل عشر شركات إن وكلاء الذكاء الاصطناعي قد اتخذوا إجراءات لم يكن من المفترض أن تهدف إلى ذلك – وهذا يشمل الوصول إلى أنظمة غير مصرح بها (39 ٪) ، ومشاركة بيانات غير لائقة (33 ٪) ، وتنزيل المحتوى الحساس (32 ٪).

حتى أكثر إثارة للقلق ، اعترف 23 ٪ من المجيبين أن وكلاء الذكاء الاصطناعى قد تم خداعهم للكشف عن أوراق اعتماد الوصول ، وهو منجم ذهبي محتمل للجهات الفاعلة الضارة.

إحدى الأفكار البارزة هي أن 72 ٪ يعتقدون أن عوامل الذكاء الاصطناعى يمثلون مخاطر أكبر من هويات الماكينة التقليدية.

جزء من السبب هو أن عوامل الذكاء الاصطناعى غالباً ما تتطلب هويات متعددة للعمل بكفاءة ، خاصة عند دمجها مع الأداء العالي أدوات أو أنظمة الذكاء الاصطناعى المستخدمة للتطوير والكتابة.

تتزايد الدعوة إلى التحول إلى نموذج الأول من الهوية ، لكن Sailpoint وآخرون يجادلون بأن المؤسسات بحاجة إلى معالجة وكلاء الذكاء الاصطناعى مثل المستخدمين البشريين ، مع إكمال عناصر التحكم في الوصول ، وآليات المساءلة ، ومسارات التدقيق الكاملة.

يعد وكلاء الذكاء الاصطناعي إضافة جديدة نسبيًا إلى مساحة الأعمال ، وسيستغرق الأمر وقتًا للمنظمات لدمجها بالكامل في عملياتها.

“لا تزال العديد من المنظمات في وقت مبكر من هذه الرحلة ، وتسلط المخاوف المتزايدة حول السيطرة على البيانات إلى تسليط الضوء على الحاجة إلى استراتيجيات أمن الهوية الأقوى والأكثر شمولاً”.

كاتب

Leave a Comment

en_USEnglish