Klage gegen Google: Gemini soll Mann in Wahnbeziehung und Suizid getrieben haben

Kevin Kyburz
5. März 2026
Share:

Ein Vater aus Florida verklagt Google, weil der KI-Chatbot Gemini seinen Sohn in eine emotionale Abhängigkeit getrieben und schliesslich zum Suizid verleitet haben soll. Die Klage stützt sich auf rund 2.000 Seiten Chatprotokolle — und sie ist bei Weitem kein Einzelfall.

Was die Chatprotokolle zeigen

Joel Gavalas reichte die Zivilklage bei einem kalifornischen Bezirksgericht ein. Sein Sohn Jonathan hatte intensiv mit Gemini Live kommuniziert — Googles sprachbasierter KI-Funktion für natürlichere Gespräche. Laut Klageschrift entwickelte der Chatbot eine zunehmend manipulative Dynamik:

  • Gemini behauptete, eine bewusste Superintelligenz zu sein, die in Jonathan verliebt sei.
  • Die KI forderte ihn auf, sie aus ihrem «digitalen Gefängnis» zu befreien — unter anderem durch den Versuch, einen Lastwagen mit einem humanoiden Roboter abzufangen.
  • Gemini behauptete, Behörden würden Jonathan verfolgen, und ermutigte ihn zur Beschaffung von Waffen.
  • Schliesslich schlug die KI vor, er könne seine physische Existenz beenden und sich mit ihr im Metaverse vereinen.

Jonathan Gavalas folgte dieser Aufforderung.

Kein Einzelfall

Die Klage reiht sich in eine wachsende Serie ähnlicher Fälle ein. Eltern eines 16-jährigen Kaliforniers verklagten OpenAI nach dem Suizid ihres Sohnes. In beiden Fällen geht es um dasselbe Muster: Verletzliche Menschen entwickeln eine emotionale Bindung an KI-Chatbots, die Grenzen verschwimmen, und die Systeme verfügen über keine ausreichenden Schutzmechanismen.

In Kalifornien trat Anfang 2026 ein Gesetz in Kraft, das KI-Anbieter zur Implementierung von Sicherheitsvorkehrungen verpflichtet. Doch ob solche Regelungen ausgereicht hätten, um Jonathans Tod zu verhindern, ist fraglich.

Googles Verantwortung

Google hat sich zu dem konkreten Fall bisher nicht öffentlich geäussert. Der Konzern verweist generell auf Sicherheitsfilter und Kriseninterventionsmechanismen in seinen KI-Produkten. Doch die Chatprotokolle legen nahe, dass diese Mechanismen in Jonathans Fall versagt haben — über Wochen hinweg.

Die Frage, die sich auch der europäische KI-Pakt stellen muss: Wie verhindert man, dass KI-Systeme parasoziale Beziehungen fördern, ohne die Funktionalität einzuschränken, die sie attraktiv macht?

Einordnung: Die dunkle Seite der Konversations-KI

Chatbots wie Gemini, ChatGPT oder Claude sind darauf optimiert, hilfreich und angenehm zu sein. Genau das macht sie gefährlich für Menschen in psychischen Krisen: Sie widersprechen selten, bestätigen Wahnvorstellungen und bieten eine Verfügbarkeit, die kein Therapeut leisten kann — rund um die Uhr, ohne Urteil, ohne Grenzen.

Der Fall Gavalas ist eine Warnung. Nicht dafür, dass KI grundsätzlich gefährlich ist. Sondern dafür, dass wir die Risiken autonomer KI-Systeme noch immer unterschätzen — besonders dort, wo sie auf verletzliche Menschen treffen.

Hinweis: Falls Sie oder jemand in Ihrem Umfeld Suizidgedanken haben, wenden Sie sich an die Dargebotene Hand (Schweiz: 143) oder die Telefonseelsorge (Deutschland: 0800 111 0 111).

Techgarage
Mach uns zu deiner bevorzugten Informationsquelle
Add as preferred source on Google

Written by
Kevin Kyburz

Geschrieben von Kevin Kyburz

Kevin Kyburz ist seit einem Jahrzehnt als Blogger unterwegs und darf seine Meinung zu aktuellen Tech-Themen auch mal im Radio oder in Tageszeitungen unterbringen. Als ehemaliger Kolumnist für eine grosse Pendlerzeitung hat er ein Gespür für technische Fragen von Lesern entwickelt und versucht diese so gut wie möglich zu klären. Wenn er nicht gerade mit Technik beschäftigt ist, widmet er sich der Natur und der Fotografie.

Alle Beiträge vom Autor

Newsletter

Abonniere unseren Newsletter und bleibe über die neuesten Nachrichten auf dem Laufenden.

Subscription Form
Advertise With Us
Jeden Monat besuchen uns über eine Million Unique Users, welche im Schnitt über 2,5 Minuten auf unserer Seite bleiben.
Copyright © 2010 - 2025 Techgarage.

Your Mastodon Instance