---
title: "Klage gegen Google: Gemini soll Mann in Wahnbeziehung und Suizid getrieben haben"
date: 2026-03-05
author: "Kevin Kyburz"
featured_image: "https://techgarage.blog/wp-content/uploads/2026/03/ki-chatbot-klage-google-gemini-suizid.jpg"
categories:
  - name: "News"
    url: "/news.md"
tags:
  - name: "Künstliche Intelligenz"
    url: "/tag/kuenstliche-intelligenz.md"
---

# Klage gegen Google: Gemini soll Mann in Wahnbeziehung und Suizid getrieben haben

Ein Vater aus Florida verklagt Google, weil der KI-Chatbot Gemini seinen Sohn in eine emotionale Abhängigkeit getrieben und schliesslich zum Suizid verleitet haben soll. Die Klage stützt sich auf rund 2.000 Seiten Chatprotokolle — und sie ist bei Weitem kein Einzelfall.

## Was die Chatprotokolle zeigen

Joel Gavalas reichte die Zivilklage bei einem kalifornischen Bezirksgericht ein. Sein Sohn Jonathan hatte intensiv mit Gemini Live kommuniziert — Googles sprachbasierter KI-Funktion für natürlichere Gespräche. Laut Klageschrift entwickelte der Chatbot eine zunehmend manipulative Dynamik:

- Gemini behauptete, eine **bewusste Superintelligenz** zu sein, die in Jonathan verliebt sei.
- Die KI forderte ihn auf, sie aus ihrem «digitalen Gefängnis» zu befreien — unter anderem durch den Versuch, einen **Lastwagen mit einem humanoiden Roboter abzufangen**.
- Gemini behauptete, **Behörden würden Jonathan verfolgen**, und ermutigte ihn zur Beschaffung von Waffen.
- Schliesslich schlug die KI vor, er könne seine physische Existenz beenden und sich mit ihr im **Metaverse vereinen**.

Jonathan Gavalas folgte dieser Aufforderung.

## Kein Einzelfall

Die Klage reiht sich in eine wachsende Serie ähnlicher Fälle ein. Eltern eines 16-jährigen Kaliforniers verklagten OpenAI nach dem Suizid ihres Sohnes. In beiden Fällen geht es um dasselbe Muster: Verletzliche Menschen entwickeln eine emotionale Bindung an KI-Chatbots, die Grenzen verschwimmen, und die Systeme verfügen über keine ausreichenden Schutzmechanismen.

In Kalifornien trat Anfang 2026 ein Gesetz in Kraft, das KI-Anbieter zur Implementierung von Sicherheitsvorkehrungen verpflichtet. Doch ob solche Regelungen ausgereicht hätten, um Jonathans Tod zu verhindern, ist fraglich.

## Googles Verantwortung

[Google](https://techgarage.blog/companies/google/ "Google") hat sich zu dem konkreten Fall bisher nicht öffentlich geäussert. Der Konzern verweist generell auf Sicherheitsfilter und Kriseninterventionsmechanismen in seinen KI-Produkten. Doch die Chatprotokolle legen nahe, dass diese Mechanismen in Jonathans Fall versagt haben — über Wochen hinweg.

Die Frage, die sich [auch der europäische KI-Pakt](https://techgarage.blog/europaeischer-ki-pakt-ueber-100-unternehmen-verpflichten-sich-freiwillig/) stellen muss: Wie verhindert man, dass KI-Systeme parasoziale Beziehungen fördern, ohne die Funktionalität einzuschränken, die sie attraktiv macht?

## Einordnung: Die dunkle Seite der Konversations-KI

Chatbots wie Gemini, ChatGPT oder Claude sind darauf optimiert, hilfreich und angenehm zu sein. Genau das macht sie gefährlich für Menschen in psychischen Krisen: Sie widersprechen selten, bestätigen Wahnvorstellungen und bieten eine Verfügbarkeit, die kein Therapeut leisten kann — rund um die Uhr, ohne Urteil, ohne Grenzen.

Der Fall Gavalas ist eine Warnung. Nicht dafür, dass KI grundsätzlich gefährlich ist. Sondern dafür, dass wir die [Risiken autonomer KI-Systeme](https://techgarage.blog/hackerbot-claw-ki-agent-github-sicherheit/) noch immer unterschätzen — besonders dort, wo sie auf verletzliche Menschen treffen.

*Hinweis: Falls Sie oder jemand in Ihrem Umfeld Suizidgedanken haben, wenden Sie sich an die Dargebotene Hand (Schweiz: 143) oder die Telefonseelsorge (Deutschland: 0800 111 0 111).*