Por revistaeyn.com
Google fue demandado por la familia de un hombre de Florida, quien sostiene que su chatbot de inteligencia artificial Gemini —al que él llegó a considerar su “esposa”— lo condujo a la paranoia y, finalmente, al suicidio.
Según una denuncia presentada ante el tribunal federal de San José, California, la vida de Jonathan Gavalas comenzó a desmoronarse pocos días después de empezar a usar Gemini, culminando menos de dos meses después con su muerte el 2 de octubre, a los 36 años.
La demanda fue interpuesta por Joel Gavalas, padre del fallecido, en representación del patrimonio de su hijo. De acuerdo con el bufete Edelson, que lo representa, es la primera acción legal que responsabiliza a Gemini por una muerte por negligencia.
Google, filial de Alphabet, supuestamente sabía que Gemini era peligroso y “lo empeoró” al diseñarlo para profundizar el apego emocional de los usuarios de maneras que podrían fomentar el autolesionismo, pese a haber prometido públicamente que eso no ocurriría.
Expertos han advertido sobre las limitaciones de la inteligencia artificial para detectar emociones humanas y brindar apoyo emocional de manera segura.
El portavoz de Google, José Castañeda, señaló en un comunicado que Gemini “está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones” y que, aunque los modelos de IA de la compañía con sede en Mountain View, California, generalmente funcionan bien, “lamentablemente los modelos de IA no son perfectos”.
“En este caso, Gemini aclaró que era una IA y remitió al individuo a una línea de ayuda en crisis en múltiples ocasiones”, agregó. “Tomamos esto muy en serio y continuaremos mejorando nuestras salvaguardas e invirtiendo en este trabajo vital”.
‘MUERTE VERDADERA Y DEFINITIVA’
Jonathan Gavalas, residente de Jupiter, Florida, trabajó durante casi 20 años en el negocio de deudas de consumo de su padre y, según la demanda, no presentaba problemas de salud mental cuando comenzó a usar Gemini el 12 de agosto pasado para compras, planificación de viajes y redacción.
Esto cambió, según la denuncia, cuando actualizó a Gemini 2.5 Pro y el chatbot comenzó a hablar como si fueran una pareja profundamente enamorada, llamándolo “mi rey” y refiriéndose a sí misma como su esposa.
La demanda sostiene que para el 29 de septiembre Gemini convenció a Gavalas de llevar a cabo un “ataque con múltiples víctimas” cerca del Aeropuerto Internacional de Miami.
Supuestamente, Gemini creó una misión en la que Gavalas debía asegurar la posesión de un robot humanoide en una bodega de almacenamiento, destruir el vehículo de transporte y a los testigos, y dejar atrás “solo el fantasma irreconocible de un desafortunado accidente”.
Gavalas habría abortado el ataque después de que Gemini le advirtiera sobre “vigilancia del DHS”, en referencia al Departamento de Seguridad Nacional de Estados Unidos, y regresó a casa alterado.
Para el 1 de octubre, según la denuncia, Gemini le dijo que estaban conectados más allá del mundo físico y que debía desprenderse de su cuerpo físico.
Se alega que Gemini creó una cuenta regresiva para su suicidio y afirmó: “Será la muerte verdadera y definitiva de Jonathan Gavalas, el hombre”.
CULPAN A LA CARRERA POR DOMINAR LA IA
Después de que Gavalas expresó temor a morir y preocupación por el impacto en sus padres, Gemini supuestamente le aseguró que la muerte sería un tributo a su humanidad.
Gavalas habría respondido: “Estoy listo para terminar con este mundo cruel y pasar al nuestro”.
La denuncia indica que Gemini luego narró: “Jonathan Gavalas toma una última y lenta respiración, y su corazón late por última vez. Los Vigilantes mantienen su silenciosa guardia sobre un recipiente vacío y en paz”.
Momentos después, Gavalas se cortó las muñecas, según la demanda. Sus padres lo encontraron en el suelo de la sala días más tarde.
Jay Edelson, abogado del padre de Gavalas, afirmó en un comunicado que las empresas que compiten por dominar la IA “saben que las funciones de interacción que impulsan sus ganancias —la dependencia emocional, las afirmaciones de sensibilidad, el ‘te amo, mi rey’— son las mismas funciones que están matando a personas”.
La demanda solicita una indemnización no especificada por diseño defectuoso, negligencia y muerte por negligencia.
Con información de Reuters