Un experto explica si la IA, como “libertad de expresión”, puede ser la culpable de la trágica muerte de un niño de Florida.

Una madre de Florida está demandando a una empresa de inteligencia artificial después de que su hijo se suicidó el año pasado.

Es posible que se gane una comisión por los enlaces en esta página.
Imagen para el artículo titulado Un experto explica si la IA, como “libertad de expresión”, puede ser la culpable de la trágica muerte de un niño de Florida.
Captura de pantalla: Megan Garcia

Un año después de un Florida Tras la trágica muerte de un adolescente, su familia sigue luchando por justicia. Sewell Setzer III tenía solo 14 años cuando inició una relación virtual con un chatbot de IA. Meses después, se quitó la vida y su madre culpa a la empresa de IA que creó el bot.

Publicidad

Megan García, la madre de Setzer, comenzó a notar cambios en el comportamiento de su hijo después de que este iniciara una relación virtual con un chatbot al que llamó “Daenerys”, basado en un personaje de la serie de televisión “Juego de Tronos”. “Me preocupaba cuando nos íbamos de vacaciones y él no quería hacer cosas que le encantaban, como pescar y hacer senderismo”. García le dijo a CBS en 2024. “Esas cosas para mí, porque conozco a mi hijo, me preocupaban particularmente”.

En febrero de 2024, la situación llegó a un punto crítico cuando García le quitó el teléfono a Sewell como castigo, según la denuncia. El chico de 14 años pronto encontró el teléfono y le envió a “Daenerys” un mensaje que decía: "¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?". Fue entonces cuando el chatbot respondió: "...por favor hazlo, mi dulce rey”. Según la demanda, Sewell se disparó con la pistola de su padrastro “segundos” después.

Publicidad

Como Ya informamos anteriormenteGarcía presentó una demanda en octubre de 2024 para determinar si Character Technologies, la empresa detrás de Character.AI, tenía alguna responsabilidad por el suicidio del adolescente. La demanda de García acusó a la empresa de inteligencia artificial de “homicidio por negligencia, negligencia e infligir intencionalmente angustia emocional”. También incluyó capturas de pantalla de conversaciones entre su hijo y “Daenerys”, incluyendo algunos intercambios sexuales cuando el chatbot le dijo a Sewell que lo amaba. Según Reuters.

Publicidad

A pesar de la defensa de Character Technologies, García celebró una pequeña victoria legal el miércoles (21 de mayo). Un juez federal falló en contra de la empresa de inteligencia artificial, que argumentó que sus chatbots están protegidos por la libertad de expresión”, según Noticias AP.

Publicidad

Los desarrolladores detrás de Character.AI argumentan que sus chatbots están protegidos por la Primera Enmienda, lo que planteó preguntas sobre cuánta libertad y protección tiene la inteligencia artificial.

Jack M. Balkin, profesor titular de Derecho Constitucional y la Primera Enmienda en la Facultad de Derecho de Yale dijo que las complejidades de la IA pueden causar algunos problemas graves. “Los programas en sí mismos no tienen los derechos de la Primera Enmienda. Tampoco tiene sentido tratarlos como personas jurídicas como corporaciones o asociaciones”, dijo.

Publicidad

“Surgen problemas interesantes cuando una empresa aloja un programa de IA que genera respuestas a las indicaciones de los usuarios finales, y estas indicaciones hacen que el programa genere un lenguaje desprotegido y dañino”, continuó Balkin.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad