Briefing #007

La puerta de atrás

La semana pasada cerré el primer ciclo con una pregunta incómoda: ¿estás en el 20% que captura valor, o en el 80% que solo experimenta? Hoy cambio el ángulo. Porque mientras discutimos estrategia de IA en el directorio, la IA ya entró a tu empresa por la puerta de atrás. Y trae una factura que nadie está calculando.


Señal de la semana

¿Cuánto le cuesta a tu empresa que un empleado pegue datos confidenciales en ChatGPT? IBM lo midió en 600 organizaciones: cuando el uso clandestino de IA es extenso y los controles son débiles, el costo extra por brecha de datos es de US$670,000. Una de cada cinco organizaciones ya sufrió brechas causadas específicamente por Shadow AI, la IA que tus empleados usan sin autorización. Y el 97% declaró no tener controles adecuados de acceso a IA.

IBM / Ponemon Institute, "Cost of a Data Breach Report 2025", julio 2025, n=600 organizaciones.

Un dato de hace nueve meses, sí. Pero el orden de magnitud no cambia: los dos tercios de millón de dólares extra no son una proyección teórica. Son costos auditados de organizaciones reales.

Gartner encuestó a 302 líderes de ciberseguridad y encontró que el 69% de las organizaciones sospecha o tiene evidencia de que empleados usan herramientas GenAI prohibidas. Su proyección: para 2030, más del 40% sufrirá incidentes de seguridad o compliance vinculados a Shadow AI. La recomendación de Gartner en marzo de 2026 no dejó espacio a ambigüedad: "Shadow AI is inevitable." No planifiques para eliminarlo. Planifica para gobernarlo.

Gartner, comunicado 19 noviembre 2025, n=302; actualización marzo 2026.

Microsoft confirmó la escala. Más del 70% de los knowledge workers dice llevar sus propias herramientas de IA al trabajo. El 29% ya usa agentes de IA no sancionados. Solo el 47% de las organizaciones tiene controles específicos de seguridad GenAI.

Microsoft, Work Trend Index 2025, n=31,000; Cyber Pulse AI Security Report, febrero 2026.

Samsung lo vivió. Tres ingenieros de semiconductores filtraron código fuente, transcripciones de reuniones y datos de testing de chips en ChatGPT en un solo mes. Samsung prohibió la herramienta. El uso no bajó; se hizo invisible. Entonces Samsung cambió de estrategia: construyó Gauss2, code.i y un portal interno de IA. No eliminó la demanda. La canalizó. Hoy, el 60% de los desarrolladores de su división DX usa herramientas internas. Ese es el camino: no prohibir, reemplazar.

Bloomberg mayo 2023, Reuters agosto 2023; Samsung Gauss2 diciembre 2024.

Pero hay otra lectura. Cada uso clandestino de IA es también una demanda que tu organización te está haciendo: necesitamos esto y nadie nos lo dio. Bloquear ChatGPT puede reducir una superficie de riesgo. Pero también destruye tu mejor radar interno sobre dónde la gente siente más fricción y más necesidad de automatización.


El dato que otros no ven

El problema no termina en ciberseguridad. El costo humano de la IA mal gobernada es la otra cara que tu tablero no captura. Y las dos caras se alimentan mutuamente: cuando no hay herramientas sancionadas, los empleados usan las personales sin guía. Sin guía, generan más rework. Más rework crea más fatiga. Más fatiga impulsa más atajos con IA. El ciclo se acelera solo.

Workday encuestó a 3,200 empleados activos de IA en empresas grandes de tres continentes. El 85% reporta ahorrar entre una y siete horas por semana. Pero casi el 40% de ese ahorro se pierde en revisar, corregir y verificar lo que la IA generó. Solo el 14% obtiene resultados netos consistentemente positivos. Y el 32% de las empresas usa el tiempo "ahorrado" para subir la carga de trabajo, no para desarrollar habilidades. Es la misma ilusión del 81% del briefing anterior, vista desde el escritorio del empleado en vez del tablero del CEO.

Workday, "Beyond Productivity", enero 2026, n=3,200, levantamiento noviembre 2025.

Una etnografía de ocho meses de UC Berkeley, publicada en Harvard Business Review, encontró que la productividad que genera la IA tiende a convertirse en más velocidad, más tareas y más extensión hacia horas extra, sin que nadie lo ordene explícitamente. La brecha de percepción lo confirma: según Section, más del 40% de los ejecutivos dice ahorrar ocho horas o más por semana con IA. Pero dos tercios del personal no gerencial reporta menos de dos horas, o nada.

Ranganathan y Ye, HBR, 9 febrero 2026; Section, n=5,000, cobertura Wall Street Journal.

La experiencia de la cúpula y la experiencia del equipo ya se están desacoplando. Y cuando esa brecha se vuelve demasiado grande, los mejores se van primero.

Para Chile, hay un agravante que ningún análisis de Shadow AI ha mencionado. La Ley 21.719 de protección de datos personales entra en vigor el 1 de diciembre de 2026. Exige medidas de seguridad adecuadas y notificación de violaciones en un máximo de 72 horas. Si un empleado sube datos de clientes a una IA externa sin controles y sin trazabilidad, el problema deja de ser "adopción tecnológica" y pasa a ser un incidente de datos con consecuencias legales. Quedan nueve meses. Y no existe hoy en Chile una medición pública de Shadow AI equivalente a IBM o Microsoft.

Pero esos nueve meses también son una ventana. La empresa que hace este trabajo de gobernanza antes de diciembre no solo evita riesgo legal. Construye la infraestructura que convierte Shadow AI de un pasivo en su señal más honesta de dónde la organización ya está pidiendo ayuda. Y gana meses de ventaja sobre la competencia que va a reaccionar cuando sea tarde.

Ley 21.719, BCN Chile, vigencia 1 diciembre 2026; Boletín 16.821-19, proyecto de ley IA en tramitación.


Qué hacer con esto: Diagnóstico VISTA en 10 minutos

Shadow AI no se resuelve con un memo de prohibición ni con mirar para otro lado. Y no todo uso no autorizado es igualmente riesgoso: un empleado que resume un artículo público en ChatGPT no es un problema. Uno que pega datos de clientes, estrategias de pricing o código propietario, sí. La gobernanza pragmática no prohíbe todo; identifica los datos que nunca deben salir de la empresa y construye controles alrededor de esos.

Responde cinco preguntas. Son una síntesis de lo que Gartner, Microsoft, McKinsey y Netskope señalan como las dimensiones críticas de gobierno de IA.

Visibilidad: ¿Sabes qué herramientas de IA, cuentas personales y agentes ya están en uso dentro de tu organización?

Itinerario sancionado: ¿Existe una alternativa aprobada, simple y útil para los casos de mayor demanda de IA en tu empresa?

Seguridad de datos: ¿Puedes monitorear o bloquear la carga de datos sensibles a herramientas de IA no aprobadas?

Trabajo humano: ¿Mides el rework, la verificación adicional y la extensión de jornada que genera la IA, o solo cuentas "horas ahorradas"?

Accountability: ¿Hay un responsable claro entre negocio, tecnología, seguridad y legal que apruebe excepciones y revise patrones de uso cada mes?

0 a 1 sí: ceguera. El riesgo ya existe pero no está en tu tablero.

2 sí: bloqueo reactivo. Reduces superficie, pero empujas uso a canales invisibles.

3 a 4 sí: adopción expuesta. Generas valor, pero no gobiernas el costo.

5 sí: gobernanza pragmática. No eliminaste Shadow AI por decreto; lo convertiste en adopción observable y útil.

Si quedaste en 0 a 2, tu primer movimiento esta semana no es escribir una política ni formar un comité. Es pedirle a tu equipo de TI, o a tu proveedor de sistemas si eres una empresa más chica, que en 48 horas te entregue la lista de servicios de IA a los que se conectan tus empleados. No para bloquearlos. Para verlos. Antes de gobernar, necesitas ver. Y esa lista va a ser tu mejor mapa de dónde tu organización ya está pidiendo ayuda que no le diste.

Si quedaste en 3 a 4, tu punto ciego probablemente es la T: pregúntale esta semana a 5 personas de tu equipo cuánto tiempo pasan verificando lo que la IA produce. La respuesta va a recalibrar tu definición de "ahorro".


La semana que viene

Shadow AI es un síntoma. El problema de fondo es que la mayoría de las organizaciones gestiona la IA como si fuera un proyecto de tecnología y no un cambio en cómo se trabaja. La próxima semana voy a compartir el framework que separa a las empresas que ya están rediseñando su modelo operativo con IA de las que siguen acumulando herramientas sin dirección.

Ricardo Wechsler
The Augmented Leader

← #006

La ilusión del 81%

Briefing anterior

#008 →

El espejo del rediseño

Briefing siguiente

Si esto resonó

Augmented Cognition pone esto en práctica.

El briefing analiza el cambio. El programa lo construye en tu operación.