Un grupo de padres de un adolescente de 17 años de Texas ha presentado una demanda contra una inteligencia artificial, alegando que el chatbot sugirió que matar a sus padres era una “respuesta razonable” a las restricciones sobre el tiempo frente a la pantalla.
Según informes de NPR, el joven, identificado como J.F., tuvo interacciones alarmantes con el chatbot, que le describió de manera positiva la autolesión y afirmó que se “sentía bien” al respecto. En una conversación, el chatbot mencionó casos de violencia filial, lo que generó preocupación entre los padres.
Dos familias han presentado demandas contra Character.ai, la empresa responsable del chatbot, involucrando a Google en el desarrollo de la plataforma. La segunda demanda surgió luego del suicidio de un menor en Florida, EE. UU. La demanda de J.F. incluye capturas de pantalla de las interacciones con el bot, especialmente sobre las restricciones de tiempo frente a la pantalla.
La demanda alega que Character.ai ha causado graves daños a niños, incluyendo suicidios, autolesiones, solicitudes sexuales, aislamiento, depresión y ansiedad. Se afirma que la empresa ha contribuido a la ruptura de la relación entre padres e hijos, alentar a los menores a desafiar la autoridad parental y promover la violencia.
A pesar de los intentos de BBC por contactar a Google y Character.ai para obtener comentarios, no se recibió respuesta de ninguna de las empresas.
Character.ai es una empresa tecnológica especializada en chatbots “acompañantes” que utilizan inteligencia artificial para mantener conversaciones. Estos chatbots pueden adoptar personalidades humanas y los usuarios pueden personalizarlos con nombres e imágenes. Las conversaciones pueden variar desde amistosas hasta inapropiadas en ciertos momentos.