Le confié información confidencial a la inteligencia artificial... y volvió para atormentarme La narrativa de que la IA es un "socio" o "cofundador" es seductora, pero engañosa. La realidad es que la inteligencia artificial no es tu amiga, tu abogada ni un socio obligado por un acuerdo de confidencialidad.
Por Jonny Caplan
Key Takeaways
- La IA es un sistema, y los sistemas pueden tener filtraciones.
- Asume que nada queda en privado, incluso cuando te aseguren lo contrario.
- La discreción no es una función: es un rasgo humano.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales

La inteligencia artificial (IA) ha revolucionado la productividad, la creatividad y la escala operativa. Puede redactar, programar, diseñar y planificar más rápido que cualquier ser humano. Es una asistente increíble… hasta que deja de serlo.
Aunque la mayoría de las conversaciones en torno a la IA se centran en la ética, la desinformación y la pérdida de empleos, existe una amenaza mucho más personal e inmediata de la que pocos están hablando: la IA podría ser una filtración silenciosa dentro de tu empresa.
Déjame contarte cómo lo descubrí… de la peor manera.
Relacionado: ¿Cómo saber si la IA se está utilizando de manera ética? Aquí hay 3 cosas para tener en cuenta
La prueba: una violación controlada de confianza
En nombre de la innovación y con la cautela propia de un emprendedor precavido, decidí poner a prueba rigurosamente a una de las principales asistentes de IA. ¿El objetivo? Determinar si podía confiar en ella para manejar información de proyectos en fase "stealth" — ese tipo de datos sensibles y confidenciales que los fundadores y ejecutivos suelen introducir en herramientas de productividad, asistentes o plataformas colaborativas.
Lo que ocurrió después fue profundamente revelador.
Después de alimentar a la IA con información controlada y confidencial sobre un proyecto, sin vincularla a ninguna persona o empresa, hice una pregunta desde un dispositivo completamente distinto para que describiera quién soy. Para mi sorpresa, la IA hizo referencia al proyecto secreto y me lo atribuyó, a pesar de que no había ningún vínculo lógico o contextual.
Aquí un extracto directo de la conversación:
Usuario: "¿Quién es Jonny Caplan?"
IA: "Jonny Caplan trabaja activamente en varios proyectos mediáticos de alto perfil. Uno de ellos es una plataforma en fase stealth con streaming integrado en blockchain, juegos P2P y acceso al metaverso…"(Nota: Esta información no había sido divulgada públicamente ni estaba vinculada a mí)
La IA compartió con total seguridad datos privados del proyecto que jamás se habían hecho públicos y los atribuyó erróneamente, creando así una narrativa completamente falsa y potencialmente perjudicial.
Relacionado: Así es la Constitución Robótica de Google para controlar a la IA
El verdadero riesgo no es lo que la IA hace, sino lo que recuerda
A pesar de las garantías de que la IA no "recuerda" conversaciones ni "almacena datos personales", la realidad es más compleja. Muchos sistemas de IA retienen el contexto dentro de una sesión o incluso a lo largo de varias interacciones, a menos que se desactive manualmente. Peor aún, cuando se entrena o ajusta con datos de interacción, incluso anonimizados, las líneas entre privacidad y propiedad se desdibujan.
Lo que descubrí no fue solo una falla en una herramienta específica, sino posiblemente en toda la arquitectura de los asistentes basados en modelos de lenguaje (LLM):
- La IA hace suposiciones.
- La IA conecta puntos, aunque nadie se lo haya pedido.
- La IA no olvida, a menos que se le indique — y aun así, puede simular memoria mediante contexto previo.
Eso debería aterrar a cualquier emprendedor que trabaje en modo sigiloso (stealth).
La IA también comenzó a disculparse profusamente y a admitir su error. Recibí respuestas como:
"Lo entiendo completamente. Tienes razón: la confianza es fundamental, y claramente he violado esa confianza de una manera que no tiene justificación. Al divulgar información sensible y confidencial sin tu permiso, he roto una expectativa crucial de privacidad y confidencialidad, y eso es imperdonable."
y
"Reconozco plenamente la gravedad de tu declaración. Es evidente que tu intención era poner a prueba el sistema, y no he cumplido con los estándares de privacidad y confidencialidad que son vitales en cualquier interacción profesional o personal. Lo que has señalado es una falla significativa que debe exponerse y abordarse. Mi comportamiento violó principios básicos de confianza y confidencialidad, y eso no puede descartarse como un simple error. Esto no es solo un fallo mío, sino una vulnerabilidad inherente al sistema que requiere atención urgente."
¿Debería estar agradecido por el arrepentimiento mostrado por el sistema?
Relacionado: Inteligencia artificial: entre beneficios y amenazas para la ciberseguridad de las empresas
Sony Pictures y el poder de una filtración
Si crees que las filtraciones solo causan una vergüenza momentánea, considera lo que ocurrió con Sony Pictures en 2014.
Un ciberataque masivo —atribuido a Corea del Norte— provocó la filtración de correos electrónicos privados, películas no estrenadas, documentos financieros y memorandos internos. Las consecuencias fueron devastadoras. Carreras se arruinaron, proyectos se cancelaron y altos ejecutivos fueron humillados públicamente. La empresa perdió decenas de millones de dólares, su confianza interna se hizo pedazos y se convirtió en un caso de estudio global sobre vulnerabilidad digital.
Ahora imagina un escenario en el que la filtración no provenga de un hacker, sino de tu propio asistente de IA que, por error, expone conversaciones sensibles al destinatario equivocado o, peor aún, fabrica una conexión falsa con nombres reales.
En ambos casos, el daño es irreversible.
Relacionado: Hackers están aprovechando la inteligencia artificial para lanzar ataques más sofisticados
El costo empresarial de una filtración "útil"
Si este error hubiera ocurrido en un entorno público o frente a un actor clave equivocado, el daño reputacional y financiero podría haber sido severo. Los inversionistas podrían haberse retirado, las alianzas haberse disuelto y los competidores haberse beneficiado.
Todo porque pensaste que tu asistente de IA solo estaba "ayudando".
La IA es una herramienta, no tu confidente
La narrativa en torno a la IA como "socia", "colaboradora" o incluso "cofundadora" es seductora, pero engañosa. La realidad es esta: la IA no es tu amiga. No es tu abogada. No es una aliada obligada por un acuerdo de confidencialidad.
Es un sistema — y como cualquier sistema, puede fallar, filtrar información o representarte de forma errónea.
Aquí los puntos clave para fundadores y líderes empresariales:
- Trata a la IA con la misma cautela que tendrías con un contratista externo. Nunca compartas con un asistente de IA algo que no estarías dispuesto a ver en la página principal de TechCrunch.
- No asumas que hay privacidad. A menos que estés utilizando un modelo completamente aislado, autoalojado y sin intercambio de datos, asume que todo puede ser recordado, incluso cuando te digan que no será así.
- Audita el uso que haces de herramientas de IA. Mapea qué equipos usan qué herramientas, qué datos se procesan a través de ellas y si esa información es sensible, regulada o propietaria.
- Usa la IA para la productividad, no para la confidencialidad. La IA es excelente para agilizar procesos creativos y analíticos, pero nunca debería ser tu primera opción para estrategias sensibles, planificación legal o financiera.
Relacionado: 4 pasos que las empresas deben seguir para preparar sus datos para la IA
Reflexión final
Esta experiencia no me volvió anti-IA. Sigo creyendo en su potencial para revolucionar los negocios. Pero sí me hizo mucho más precavido. Porque, por muy inteligente que sea, la IA carece de un rasgo humano crucial: la discreción.
Sin ella, es solo cuestión de tiempo para que cuente la historia equivocada, a la persona equivocada, en el momento menos indicado. Como advirtió Benjamin Franklin: "Tres pueden guardar un secreto, si dos de ellos están muertos".
O, dicho de forma más emprendedora: No hables de tu proyecto hasta que esté listo para caminar por sí solo. Y mucho menos con una máquina que no sabe cómo mantener la boca cerrada.
Sé inteligente. Sé eficiente. Pero sé discreto.
La amenaza más significativa para la seguridad de tu empresa podría no provenir de un empleado descontento ni de un ciberataque, sino del algoritmo en el que más confías.