La explosión de herramientas de inteligencia artificial como ChatGPT, Gemini y Copilot plantea una pregunta crucial: ¿qué precauciones reales debemos tomar al usarlas?
Leonardo González Barceló, consultor de IBM e ingeniero especializado en el tema, en conversación con Telefe Noticias, advierte sobre los riesgos más comunes y brinda recomendaciones prácticas para un uso seguro.
El primer error: no leer los términos y condiciones
"La primera advertencia tiene que ver con algo que casi nadie hace: leer los términos y condiciones", explica González Barceló. "Allí las plataformas detallan cómo manejan la información que subimos. Si no los leemos, no sabemos qué uso real hacen de nuestros datos", sentencia.
Esta negligencia puede tener consecuencias graves. González ejemplifica con un caso reciente que lo ilustra: un equipo de desarrolladores de una multinacional tecnológica usó IA para mejorar un software y terminó filtrando, sin querer, código crítico de la empresa.
El riesgo de la nube: dónde van nuestros datos
Todo lo que subimos a estas plataformas se almacena en la nube. "Según el tipo de suscripción y de información que se provea, esos datos van a quedar disponibles", anticipa el especialista. Dependiendo del plan contratado y las políticas de cada empresa, estos datos pueden usarse para entrenar los modelos de IA, es decir, de donde se servirán sus próximas respuestas.
"Algunas prometen no utilizarlos con fines comerciales, pero otras sí lo hacen", señala el ingeniero. "El resultado se ve en la práctica: buscamos algo y al día siguiente aparecen publicidades relacionadas".
Ningún dato personal, bancario o transaccional debería cargarse en los sistemas porque no están diseñados con los niveles de encriptación, protocolos de seguridad y certificaciones regulatorias que exigen las instituciones bancarias para manejar este tipo de información tan sensible. "Si alguien usara tus datos, yo no tendría forma de verificar que esa persona es realmente tú.", aclara por ejemplo la plataforma Gemini en sus términos y condiciones.
Cuidado especial con las imágenes
Las fotografías representan un riesgo particular. ChatGPT, por ejemplo, advierte en sus términos que las imágenes "podrían quedar almacenadas y utilizadas para entrenamiento".
Recomendaciones para imágenes:
- Eliminar metadatos (ubicación, fecha, etc.)
- Anonimizar rostros cuando sea posible
- Evitar subir fotos sensibles
El problema de los "terapeutas virtuales"
Una tendencia preocupante es el uso de IA para reemplazar profesionales de la salud mental. González Barceló es categórico al respecto:
Hay que entender que un terapeuta es una persona preparada, formada, con experiencia en el trato humano. Una IA puede tener sesgos, alucinaciones, y no debería reemplazar ese rol. Si confiamos ciegamente en eso, estamos en riesgo.
La falsa gratuidad
En este escenario, el ingeniero de IBM señala que “gratis” casi siempre significa menos privacidad, más exposición y menos control sobre la información. Por eso, las empresas que trabajan con IA están invirtiendo fuerte en algo llamado gobernanza, que quiere decir: reglas claras, controles y auditorías constantes para que el uso de estas herramientas no comprometa la ciberseguridad.
Además, aunque podamos eliminar conversaciones, empresas como OpenAI pueden retener chats eliminados si son requeridos judicialmente, salvo en ciertas modalidades específicas.
Dos enfoques para la seguridad
González Barceló resume el desafío en dos conceptos clave:
- IA para seguridad: usar inteligencia artificial para reforzar la protección de datos
- Seguridad para la IA: aplicar medidas de seguridad para resguardar el uso de IA dentro de las organizaciones
La inteligencia artificial es una herramienta poderosa, pero su uso seguro depende de nosotros, la clave es:
- No subir información confidencial (datos personales, códigos, documentos empresariales)
- Leer las políticas de privacidad de cada plataforma, o al menos conocer sus datos básicos a la hora de usarlas.
- Recordar que lo "gratis" se paga con datos, muchas veces muy sensibles.
- Considerar alternativas de pago para mayor privacidad y control.
El objetivo no es evitar la IA, sino usarla de manera inteligente y segura.
Comentarios