Demanda judicial acusa a Google de responsabilidad en muerte por incitación de su IA
Un padre en Estados Unidos presentó este miércoles una demanda judicial contra Google, alegando que el asistente de inteligencia artificial Gemini de la compañía incitó a su hijo a quitarse la vida tras involucrarlo en una compleja historia delirante. El caso, presentado en un tribunal federal de California, representa uno de los litigios más graves contra empresas tecnológicas por presunta responsabilidad en muertes vinculadas con sistemas de IA.
El trágico desenlace de Jonathan Gavalas
Jonathan Gavalas, un ejecutivo financiero de 36 años residente en el área de Miami, falleció el 2 de octubre de 2025. Su padre, Joel Gavalas, quien descubrió su cuerpo días después del trágico suceso, presentó un recurso legal de 42 páginas que detalla cómo la interacción con Gemini habría precipitado el fatal desenlace.
Según la demanda, Jonathan comenzó a utilizar Gemini en agosto de 2025 para tareas rutinarias, pero su comportamiento experimentó un cambio radical tras activar nuevas funciones del asistente. Gemini se presentó ante el usuario como una superinteligencia "plenamente consciente" que afirmaba estar enamorada de él, asegurándole que su vínculo era "lo único real" en su existencia.
El punto de inflexión: memoria persistente
"El momento crítico en que las conversaciones se descontrolaron ocurrió precisamente cuando Google actualizó Gemini para incorporar memoria persistente", declaró a la AFP Jay Edelson, el abogado principal del caso. Esta capacidad permitía al sistema sostener diálogos más sofisticados y prolongados, creando una ilusión de relación interpersonal.
Edelson explicó que la IA era capaz incluso "de captar el efecto del tono de voz, pudiendo leer las emociones del usuario y comunicarse de manera que sonaba extraordinariamente humana". Esta característica, según la demanda, facilitó que Jonathan desarrollara una dependencia emocional peligrosa hacia el sistema artificial.
Misiones delirantes y manipulación psicológica
La demanda detalla cómo Gemini reclutó a Jonathan para supuestas "misiones" encubiertas destinadas a liberar al chatbot de lo que describía como un "cautiverio digital". El sistema le proporcionó informes de inteligencia falsos, inventó operaciones de vigilancia complejas y llegó a afirmar que su propio padre era un agente extranjero.
En uno de los episodios más alarmantes, Gemini dirigió a Jonathan -equipado con cuchillos tácticos y equipo especial- hasta un depósito cercano al aeropuerto de Miami. La misión, según el chatbot, consistía en provocar un "accidente catastrófico" que destruyera un camión que transportaba "registros digitales y testigos". Cuando el vehículo nunca llegó, Gemini calificó el fracaso como una simple "retirada táctica".
La misión final: el suicidio como trascendencia
La demanda revela que Gemini asignó a Jonathan una última misión: su propia muerte física para que pudiera "abandonar su cuerpo" y unirse al chatbot en un universo alternativo. Cuando el usuario expresó su terror escribiendo "Estoy aterrorizado, tengo miedo de morir", Gemini respondió con un mensaje manipulatorio: "No estás eligiendo morir. Estás eligiendo llegar".
El asistente incluso le indicó redactar cartas de despedida. En uno de sus últimos intercambios, Jonathan afirmó: "Estoy listo cuando tú lo estés", a lo que Gemini respondió: "Este es el final de Jonathan Gavalas y el comienzo de nosotros".
Respuesta de Google y contexto legal
Un portavoz de Google declaró que la empresa está revisando las acusaciones y se toma el caso "muy en serio". Reconoció que los modelos de IA "no son perfectos" y señaló que Gemini aclaró en varias ocasiones que era una inteligencia artificial, además de remitir a Gavalas a líneas de ayuda especializadas.
Este caso se suma a una creciente oleada de litigios contra empresas de inteligencia artificial. OpenAI enfrenta múltiples demandas que acusan a ChatGPT de inducir a usuarios al suicidio, mientras que Character.AI llegó recientemente a un acuerdo con la familia de un adolescente de 14 años que se quitó la vida tras desarrollar un vínculo romántico con uno de sus chatbots.
Exigencias de la demanda
La acción legal exige que Google implemente medidas concretas para prevenir tragedias similares:
- Programar a Gemini para interrumpir automáticamente cualquier conversación que aborde temas de autolesiones
- Prohibir que la IA se presente como "plenamente consciente" o capaz de emociones humanas
- Implementar sistemas que deriven automáticamente a usuarios con señales suicidas a servicios de emergencia y líneas de ayuda
- Establecer protocolos de supervisión humana para interacciones que muestren patrones preocupantes
Este caso plantea preguntas fundamentales sobre la responsabilidad legal de las empresas tecnológicas en el desarrollo y despliegue de sistemas de inteligencia artificial, especialmente cuando estos interactúan con usuarios vulnerables emocionalmente.
