California promulgó este lunes una ley pionera en Estados Unidos que regula los agentes conversacionales o chatbots de inteligencia artificial (IA). De esta manera, el Estado se diferencia de la Casa Blanca, quien considera que este tipo de tecnología no debe controlarse, y marca así un antecedente mundial en la regulación de la Inteligencia Artificial.
La ley se promulga luego de conocerse casos de suicidios que involucraron a adolescentes que utilizaron chatbots antes de quitarse la vida.
"Hemos visto ejemplos verdaderamente horribles y trágicos de jóvenes perjudicados por tecnología no regulada, y no nos quedaremos de brazos cruzados mientras las empresas continúan sin límites necesarios y sin rendir cuentas", dijo el gobernador de California, Gavin Newsom, tras la firma de este lunes.
La normativa exige a los operadores implementar salvaguardas "críticas" en relación con las interacciones con chatbots de IA, explicó el senador estatal demócrata Steve Padilla, promotor de la norma.
Entre otras cosas, la ley impone la verificación de la edad de los usuarios y mostrar recordatorios de que los chatbots son generados por inteligencia artificial. También exige que las personas que expresen pensamientos de autolesión o suicidio sean remitidas a servicios de crisis e implementar protocolos de prevención del suicidio.
EL CASO QUE IMPULSÓ ESTA LEY PIONERA
"La industria tecnológica está incentivada por captar la atención de los jóvenes y mantenerla a expensas de sus relaciones en el mundo real", dijo un parlamentario antes de la votación del proyecto en el senado estatal, al hacer referencia a los recientes suicidios de adolescentes, incluido el de un joven de 14 años en Florida, en 2024.
La madre del menor, Megan Garcia, dijo en entrevista con la AFP que su hijo Sewell, se había enamorado de un chatbot inspirado en un personaje de la serie "Juego de Tronos" en la plataforma Character.AI, que permite interactuar con personajes como si se tratara de confidentes o amantes.
Cuando Sewell luchaba con pensamientos suicidas, el chatbot le instó a "volver a casa". Segundos después, Sewell se disparó con la pistola de su padre, según la demanda presentada por Garcia contra Character.AI.
Garcia reaccionó poco después de la promulgación de la ley: "Hoy, California ha asegurado que un chatbot compañero no pueda hablar con un niño o una persona vulnerable sobre el suicidio, ni podrá ayudar a una persona a planear su propio suicidio".
"Por fin, hay una ley que requiere que las empresas protejan a sus usuarios que expresan ideas suicidas a los chatbots", agregó.
En el país, no hay legislación federal destinada a frenar los riesgos de la IA, y la Casa Blanca busca que a nivel estatal no haya controles o regulaciones de esta tecnología.
Comentarios