¿Cuidas la información que le das a la AI?

foto nota
(15/09/25). Compartimos una entrevista con Gabriel Marin, CTO de COR, sobre cómo proteger información sensible en el uso de inteligencia artificial generativa. 

En un contexto en el cual la inteligencia artificial ha logrado infiltrarse en casi todos los rincones de las agencias creativas, la seguridad de la información es un tema aún poco explorado que no podemos dejar de lado. 

Con el auge de los modelos de lenguaje grande (LLM) como GPT, Claude y Gemini, la automatización de procesos se ha vuelto una herramienta indispensable. Sin embargo, estas tecnologías plantean desafíos importantes relacionados con la privacidad y la protección de los datos que compartimos con ellas.

Gabriel Marin, CTO de COR, explica lo que se sabe -y lo que no- sobre el destino de los datos que se cargan en la AI, y qué medidas se pueden tomar para proteger información sensible. 

-¿Qué sucede con la información que le brindamos a los LLM?

-Los modelos, dependiendo del tipo de suscripción y uso, pueden o no utilizar la información que uno envía para entrenar a sus modelos. Eso no se monitorea realmente, y en la actualidad esa incertidumbre es una de las preocupaciones principales de quienes utilizan AI. 

-¿Qué significa sanitizar los datos?

-Sanitizar los datos significa reemplazar información sensible, como nombres propios, por tokens ininteligibles. Esto hace que se pueda aprovechar el análisis de los modelos LLM pero sin poner en juego la información particular, como nombres de personas, clientes, marcas, emails, entre otros. 

Esta práctica permite proteger información sensible tanto acerca de la compañía, como en relación con clientes o proyectos, para preservar la seguridad y confidencialidad de las operaciones, evitando así que esa data pueda ser eventualmente utilizada de manera indebida, o expuesta en otros contextos. 

El proceso de sanitización de datos puede parecer complicado, pero existen soluciones bastante accesibles para las agencias. “En la industria es frecuente la utilización de librerías y servicios de terceros para automatizar la tarea de sanitización de datos, son soluciones validadas y muy utilizadas”, apunta. 

De esta manera, toda la información que va a ser subida a algún modelo de inteligencia artificial es previamente “curada” por servicios que automatizan el proceso, minimizando los riesgos de exposición. 

-¿Por qué es clave para la seguridad de tu negocio y cómo hacerlo de forma efectiva?

-Sanitizar la información es un procedimiento clave porque protege tu información y la que tus clientes comparten con vos, para que aún utilizando AI puedas mantenerla privada y segura. 

Además de proteger la información, sanitizar los datos te da un control completo sobre el uso que se le da a la información sensible. No solo es una práctica responsable, sino que también es una manera de construir una cultura de transparencia y confianza con tus clientes.

Buenas prácticas para sanitizar antes de consultar un modelo LLM

Automatiza el proceso de sanitización: Utiliza librerías o servicios de terceros que te permitan sanitizar automáticamente los datos antes de enviarlos. Así evitarás errores humanos y garantizarás que los datos estén completamente protegidos.

Identifica la información sensible: Antes de enviarla, revisa qué datos son estrictamente confidenciales. Esto incluye nombres, correos electrónicos, direcciones y cualquier otro dato que pueda identificar a personas o empresas.

Usa tokens para reemplazar los datos sensibles: En lugar de enviar información real, reemplázala por tokens ininteligibles. Esto asegura que los modelos de IA no puedan hacer uso de los datos que pueden comprometer tu privacidad.

Revisa las políticas de privacidad de los proveedores de AI: Asegúrate de que los proveedores de AI que utilizas tengan políticas claras sobre cómo gestionan los datos y si los utilizan para entrenar sus modelos. Opta por servicios que ofrezcan garantías de seguridad y privacidad.

Realiza auditorías periódicas: Es importante que periódicamente revises el proceso de sanitización y ajustes cualquier parte del flujo que pueda estar expuesta a riesgos. Mantén tu sistema actualizado y seguro.

No obstante, la protección de datos no está solo reservada a la utilización de herramientas de inteligencia artificial, sino que es una premisa que impacta en todas las operaciones de una firma. COR certificó normas ISO 27001 y SOC 2, garantizando altos estándares internacionales de seguridad y calidad en sus soluciones de software.

Agregar a Mi Latin

Compartir

 footer-face footer-face footer-insta footer-whatsapp footer-email footer-instagram

Notas relacionadas

Conoce más en LatinSpots.com

section-pink-register-band

Comerciales Más Vistos

LatinSpots Magazine

Acceda gratuitamente a las últimas ediciones de LatinSpots Magazines

Suscribite
magazines-subscribe

Conferencias EL OJO

Acceda a las conferencias de Latinspots

Ver paquetes
conferences-subscribe

Membresías

Acceda a nuestra membresía para obtener más beneficios

Ver Membresías
membership-subscribe