¿Alguna vez has copiado y pegado un contrato o documento sensible en ChatGPT para que lo resuma o te ayude a redactarlo mejor?
Es probable que sin saberlo hayas puesto en riesgo su confidencialidad… y hasta violado una cláusula de protección de datos.
En el más reciente episodio del podcast Los Dioses de la IA, Alberto Cruz y David Uvalle explican por qué cada vez más empresas en el mundo están prohibiendo o limitando el uso de modelos de lenguaje como ChatGPT, Claude o Gemini en entornos laborales.
“Aunque el documento viaje encriptado por tu red, en el momento en que lo pegas en la ventana del modelo, ya salió de tu sistema y entró en el dominio de un tercero”, explica Uvalle.
Esto aplica incluso si el modelo jura que no guarda datos. Desde una perspectiva legal, el simple hecho de procesarlo fuera de tu entorno ya puede violar políticas internas, cláusulas de confidencialidad o acuerdos de no divulgación (NDAs).
¿Qué se está haciendo en el mundo corporativo?
Empresas como Samsung, JPMorgan Chase, Apple, y hasta gobiernos enteros, han restringido o bloqueado completamente el uso de estas plataformas en sus redes.
¿Por qué? Porque no se trata solo de eficiencia, sino de seguridad jurídica y reputacional.
“Lo que hoy parece una ayuda para redactar un correo, mañana puede ser la razón por la que pierdes un cliente o una licitación”, advierte Cruz.
En este episodio, también se discuten:
- Las diferencias entre IA generativa pública y soluciones privadas entrenadas internamente.
- Casos reales donde el uso de IA terminó en filtraciones involuntarias.
- Recomendaciones prácticas para proteger la información de tu empresa.
¿Y tú? ¿Tienes una política de IA en tu trabajo?
Si no la tienes, este episodio debería ser obligatorio para ti y tu equipo.
Porque mientras todos hablamos del potencial de la inteligencia artificial, pocos están mirando sus zonas grises.
🎧 Escucha el episodio completo aquí: