Por Henry Ramírez.
Santo Domingo, R.D.- El historial de tus chats de hoy es, probablemente, el testamento de cómo estás regalando tu empresa. En el debate sobre la seguridad en IA, no hace falta un ataque de denegación de servicio ni un ransomware sofisticado para hundir un negocio en 2026. Basta con la inercia de un empleado abrumado que busca un resumen rápido.
La seguridad en IA se ha convertido en el agujero negro por donde se escapa el valor real de las compañías. Lo que parece una ayuda para redactar un correo o analizar una hoja de ruta es, en realidad, una donación voluntaria de propiedad intelectual a la internet pública. Nirav Murthy, la mente detrás de Camp Network, lo tiene claro: estamos ante un suicidio corporativo por goteo.
La trampa de la comodidad en la era algorítmica
Murthy, que viene de gestionar las tripas financieras de gigantes como Spotify y los grandes estudios de Hollywood, acaba de levantar 30 millones de dólares con una misión casi profética. Su advertencia no es técnica, es cultural. El problema no es el algoritmo, sino nuestra total falta de pudor al alimentar herramientas de IA con datos sensibles.
Copiamos contratos. Pegamos bases de datos enteras. Subimos hojas de ruta estratégicas que han costado años diseñar. Y lo hacemos sin pestañear, a cambio de un resumen de tres párrafos que nos ahorra diez minutos de lectura. Es un intercambio ruinoso.
“Trata tus prompts como propiedad intelectual sensible”, me soltó Murthy durante nuestra charla. La lógica es aplastante: si te molestaría que esa información apareciera en la pantalla de tu competidor mañana por la mañana, ¿por qué demonios la estás poniendo en una IA pública hoy?
La seguridad en IA no va de evitar que un bot aprenda a hablar, sino de evitar que aprenda tus secretos. En 2026, la velocidad del desarrollo tecnológico ha dejado atrás a cualquier marco legal. Mientras los abogados intentan entender cómo regular el uso de datos, las empresas están entrenando gratis a los modelos que, eventualmente, podrían reemplazarlas.
Lo curioso es que este detalle no apareció en los grandes anuncios de las Big Tech este año. Se habla de potencia de cálculo y de capacidades multimodales, pero se pasa de puntillas sobre quién es el dueño del contexto que se genera en cada sesión.
Murthy propone un cambio de paradigma radical: dejar de ver la inteligencia artificial como un juguete de productividad y empezar a aplicarle protocolos de seguridad de grado bancario. Esto implica flujos de trabajo aprobados, reglas predeterminadas y, sobre todo, una vigilancia extrema sobre qué datos salen del servidor local hacia la nube.
Como bien señala Camp Network, el error es tratar la IA con la misma ligereza que una búsqueda en Google. Pero Google no se quedaba con la estructura interna de tus costes; la IA sí lo hace. Cada interacción es una pieza más de un rompecabezas que la competencia puede terminar armando sin saberlo.
¿Estamos usando la tecnología para ir más rápido o simplemente alimentando a un rival por pura pereza editorial? El valor de una empresa reside en lo que sabe y cómo lo aplica. Si ese “saber” se vuelve público a través de un prompt descuidado, la ventaja competitiva desaparece en milisegundos.
La solución no es prohibir la herramienta, sino madurar su uso. Pasar del entusiasmo ciego a la desconfianza técnica. Ahora queda ver cuántas empresas logran cerrar el grifo antes de que sus propios datos se conviertan en su mayor amenaza.
![]()



