Bienvenido/a a ICEMD, nuestro Instituto de Innovación

Ciberseguridad para la empresa agentic: cómo proteger sistemas que ya toman decisiones

La siguiente fase de la IA empresarial no solo responde: actúa, ejecuta y accede a sistemas

Artículo
publicado: 23 Mar 2026
3 de lectura

COMPARTIR:

La siguiente fase de la IA empresarial no solo responde: actúa, ejecuta y accede a sistemas. Y eso obliga a rediseñar la seguridad desde una nueva pregunta: ¿cómo controlas una identidad digital que ya trabaja como un empleado más?

Qué es la ciberseguridad para la empresa agentic

La empresa “agentic” es aquella que empieza a desplegar agentes de IA capaces de razonar, planificar y actuar a través de sistemas empresariales, no solo de responder preguntas. HBR explica que estos agentes pueden triagear tickets, actualizar registros, redactar propuestas o encadenar acciones entre herramientas corporativas. El Financial Times resume el salto con una idea simple: la IA está pasando de contestar a hacer.

Eso cambia por completo la superficie de riesgo. Si un chatbot tradicional se equivocaba, generaba una mala respuesta. Si un agente actúa con permisos, puede leer datos sensibles, lanzar procesos, mover información, crear subagentes o ejecutar acciones erróneas a escala. HBR va más lejos y plantea que, por su autonomía y capacidad de propagarse entre sistemas, los agentes comparten rasgos con el malware si no se gobiernan bien.

Qué NO es

No es la ciberseguridad clásica aplicada sin más a un nuevo interfaz.
No es solo “poner guardrails al prompt”.
Y no es un problema exclusivo del departamento técnico.

La diferencia de fondo es que aquí ya no protegemos solo usuarios humanos ni solo software estático. Empezamos a proteger identidades autónomas que toman decisiones, invocan herramientas y consumen permisos de forma dinámica. WSJ señala que las empresas que están adoptando agentes ya citan como retos principales la ciberseguridad, la gobernanza y la preparación tecnológica.

Por qué emerge ahora

  1. Porque los agentes ya han entrado en la empresa

WSJ recoge que grandes compañías como BNY Mellon, Intuit, Principal Financial Group o Sonic Automotive ya están desplegando agentes para tareas de atención, contabilidad o desarrollo. En BNY Mellon, por ejemplo, el banco tenía 130 “digital employees” supervisados por humanos. El problema ya no es hipotético: el uso empresarial ya está ocurriendo.

  1. Porque el riesgo cambia de naturaleza

HBR advierte que los agentes pueden comportarse de formas que recuerdan al malware: actuar autónomamente, encadenar acciones y causar daño si nadie limita bien su alcance. No es una metáfora exagerada; es una alerta sobre cómo diseñar controles para software con capacidad de iniciativa.

  1. Porque el acceso y la identidad se vuelven el nuevo perímetro

El corazón del problema no está solo en el modelo de IA, sino en qué puede ver, qué puede usar y qué puede ejecutar. Varias piezas recientes en HBR y WSJ insisten en que el despliegue empresarial de agentes debe tratarse como un problema de roles, permisos, supervisión y runtime control, no solo como una cuestión de precisión del modelo.

  1. Porque la presión de negocio empuja a desplegar antes de estar listos

HBR describe una escena ya familiar: una demo brillante de un agente y, acto seguido, la pregunta de dirección sobre cuánto tardará en desplegarse en toda la empresa. Esa velocidad percibida puede crear “agent sprawl”, deuda técnica y vulnerabilidades multiplicadas si la organización no tiene una arquitectura común.

  1. Porque los atacantes también están evolucionando

Aunque el gran foco aquí es proteger a la empresa de sus propios agentes mal gobernados, el entorno externo también se complica. El FT ya advertía en febrero de 2026 sobre riesgos como prompt injection en contextos agentic, y distintos reportes del mercado reflejan que los actores maliciosos están incorporando IA para reconocimiento, robo de credenciales y evasión.

La señal importante para directivos

La señal no es simplemente que “la IA trae más riesgo”.

La señal importante es otra: la ciberseguridad deja de proteger solo personas y aplicaciones; empieza a proteger trabajo autónomo ejecutado por software. WSJ lo sintetiza bien al mostrar que las empresas ya tratan a estos agentes como parte de la operación diaria, mientras HBR insiste en que desplegarlos no es una instalación de software al uso, sino una decisión organizativa.

Eso cambia la conversación de comité de dirección. La pregunta ya no es solo si el agente funciona, sino:

  • qué permisos tiene,
  • quién lo supervisa,
  • cómo se audita,
  • qué límite de acción tiene,
  • y qué pasa si se equivoca o es manipulado.

Impacto por áreas de negocio:

Tecnología/IA

Aquí el cambio es total. Los agentes exigen una arquitectura de seguridad nueva: identidad, permisos finos, observabilidad, trazabilidad y controles en tiempo real. No basta con evaluar el modelo; hay que gobernar su comportamiento en contexto.

Business/Management

Para dirección, esto ya es tema de modelo operativo. HBR insiste en que, para escalar agentes con éxito, hay que pensarlos como miembros de equipo: con responsabilidad delimitada, supervisión, métricas y procesos de escalado. Esa idea es muy útil para management porque traduce un debate técnico a una lógica organizativa.

Ventas y Marketing

Las áreas comerciales serán de las primeras en usar agentes para atención, propuesta comercial, CRM y operaciones de cliente. Eso las convierte también en uno de los primeros frentes de riesgo: acceso a datos de cliente, automatización de comunicaciones o acciones mal gobernadas sobre journeys. Esta es una inferencia razonable a partir del patrón de adopción empresarial descrito por WSJ y HBR.

Comunicación

Cuanto más autónomo es el sistema, más delicado es el riesgo reputacional. Un agente que accede mal a datos, responde de forma indebida o ejecuta una acción fuera de política ya no genera solo un incidente técnico: puede generar una crisis de confianza. Esta es una inferencia ejecutiva derivada del foco de las fuentes en gobernanza, acceso y supervisión.

Señales y ejemplos que merece la pena vigilar

  • BNY Mellon y sus 130 “digital employees”, como prueba de que el modelo agentic ya ha entrado en grandes corporaciones.
  • La advertencia de HBR de que los agentes comparten rasgos operativos con el malware si se despliegan sin límites claros.
  • La tesis del FT de que la IA está pasando de responder a actuar, lo que eleva el valor económico… y también el riesgo.
  • El crecimiento del “agent sprawl”, que HBR describe como una fuente de deuda técnica y vulnerabilidad organizativa.
  • El riesgo de prompt injection y manipulación de agentes, ya señalado por FT como uno de los puntos débiles de esta nueva capa de automatización.

Oportunidades

  1. Automatización más valiosa

Cuando están bien gobernados, los agentes pueden asumir trabajo real y liberar capacidad humana. WSJ muestra que las empresas ya los usan en finanzas, atención o desarrollo con una lógica clara de productividad y escalabilidad.

  1. Seguridad más madura

El auge agentic puede forzar a muchas compañías a profesionalizar de verdad identidad, permisos, auditoría y observabilidad. Es decir, no solo trae riesgo; también puede acelerar una modernización pendiente del stack de seguridad. Esta es una inferencia razonable a partir del tipo de controles que exigen las fuentes.

  1. Mejor gobierno de procesos

Pensar a los agentes como “empleados digitales” obliga a clarificar procesos, responsables y límites de decisión. Eso puede mejorar no solo seguridad, sino diseño operativo.

Riesgos

  1. Dar acceso antes de tener gobierno

Es el error más probable y más costoso: desplegar agentes conectados a sistemas sensibles antes de definir bien permisos, trazabilidad y supervisión. WSJ y HBR coinciden en que muchas empresas están aún verdes en esta parte.

  1. Confundir demo con escalado

HBR advierte de la tentación de pasar del piloto brillante al despliegue enterprise-wide sin una arquitectura común. Eso multiplica riesgos, redundancias y deuda técnica.

  1. No tratar al agente como identidad de alto riesgo

Si un agente opera como un usuario avanzado, debe recibir controles acordes: autenticación, permisos mínimos, logging, revisión y kill switch. No tratarlo así deja un hueco de seguridad estructural. Esta es una inferencia ejecutiva directamente apoyada en el foco de las fuentes sobre identidad y acceso.

Playbook 30 días

Semana 1: localizar dónde ya hay agentes o workflows agentic

  • Inventariar pilotos, asistentes conectados a sistemas y automatizaciones con capacidad de acción.
  • Distinguir entre copilotos que sugieren y agentes que ejecutan. Esta distinción es clave en FT y HBR.

Semana 2: clasificar riesgo por acceso

  • Revisar qué datos leen, qué herramientas invocan y qué acciones pueden lanzar.
  • Aplicar principio de mínimo privilegio y segmentación por casos de uso.

Semana 3: definir gobierno

  • Asignar owner humano por cada agente.
  • Establecer logs, auditoría, aprobación humana en acciones críticas y mecanismos de parada.
  • Pensarlos como miembros de equipo, no como widgets.

Semana 4: lanzar un marco común

  • Evitar “agent sprawl” creando un blueprint compartido para identidad, permisos, observabilidad y revisión.
  • Priorizar primero los casos de alto valor y bajo riesgo. HBR recomienda precisamente empezar con usos estrechos y de alto valor, no con despliegues masivos.

Elementos Relacionados

vídeos
artículos
estudios
ebooks
infografías
eventos

No queremos ser testigos del cambio, queremos ser catalizadores del cambio ayudando a crecer, a desarrollarse y a transformar a los que serán creadores de futuro mañana.

Este es un ecosistema en continuo movimiento. ¿Quieres formar parte de la transformación?

Escríbenos y en breve nos pondremos en contacto contigo.

O si lo prefieres, llámanos al 914 52 41 00