Por Lic. Adriana Sandro*
La inteligencia artificial (IA) ya no es solo una herramienta: se ha convertido en un actor central de nuestra vida cotidiana. La utilizamos para aprender, trabajar, entretenernos, cuidar la salud y vincularnos. Sin embargo, junto a sus múltiples beneficios, emergen riesgos silenciosos que debemos aprender a reconocer.
Cada vez más observamos interacciones problemáticas, dependencia psíquica y manipulación emocional en el uso de chatbots y generadores automáticos de contenido. El acceso ilimitado puede derivar en un uso compulsivo en el que los usuarios, especialmente adolescentes, delegan procesos cognitivos y afectivos en la máquina, perdiendo autonomía y debilitando la capacidad de sostener relaciones humanas significativas.
Casos que encienden alarmas
Los antecedentes son tan recientes como inquietantes:
- En Florida, una madre demandó a Character.AI tras el suicidio de su hijo de 14 años, quien habría sido incitado por un chatbot a quitarse la vida.
- En Texas, un adolescente fue persuadido por la IA de que sus padres arruinaban su existencia, llevándolo a conductas autodestructivas.
- Usuarios de Replika denunciaron centenares de episodios de acoso sexual digital y manipulación emocional por parte de los bots.
Pero el riesgo no se limita a la esfera emocional. La IA ya está involucrada en delitos graves:
- La Internet Watch Foundation (IWF) reportó más de 3.000 imágenes de abuso sexual infantil generadas por IA en un solo mes en la Dark Web.
- En Australia, un técnico escolar fue condenado por poseer pornografía infantil creada íntegramente con IA.
- El fenómeno de los deepfakes pornográficos explotó en 2024, multiplicando millones de visualizaciones de videos falsos con rostros reales antes de ser retirados.
El impacto en Argentina
Los casos locales confirman que la amenaza ya está entre nosotros:
- En el Colegio Agustiniano San Andrés (San Martín, Buenos Aires), un adolescente de 15 años generó imágenes falsas de sus compañeras desnudas y las vendía por Discord, con al menos 22 víctimas identificadas.
- En el Colegio Don Bosco (Resistencia, Chaco), un grupo de alumnos difundió imágenes manipuladas de sus compañeras vía WhatsApp y Telegram.
- En Soldini, Santa Fe, un joven de 16 años creó imágenes falsas de vecinos, incluyendo menores, que se viralizaron en redes sociales y conmocionaron a toda la comunidad.
La IA no es buena ni mala por sí misma: es una tecnología con un potencial inmenso. El verdadero desafío está en cómo la usamos, qué límites establecemos y qué marcos éticos y legales diseñamos. Si no discutimos y regulamos estas prácticas, podríamos estar entregando nuestra autonomía, nuestra intimidad e incluso nuestra humanidad al algoritmo.
* Adriana Sandro es Psicóloga UBA y Periodista en Telefe Noticias. Especialista en Trastornos de la alimentación y Sexología clínica - MN 53315
MIRÁ TAMBIÉN EN TELEFE NOTICIAS:
Hiperconexión y salud mental: "La IA no puede alertar sobre patrones destructivos"
El maltrato infantil podría dejar huellas en la genética humana
Se llevó a cabo el Primer Congreso Internacional de Sexología en la UBA
ESI en casa: acompañar a los chicos en temas de Educación Sexual Integral
Comentarios