Klage in den USA

Chatbot ermutigt Jugendlichen, seine Eltern zu ermorden


12.12.2024 – 08:13 UhrLesedauer: 2 Min.

Ein Jugendlicher schaut auf sein Smartphone (Symbolbild): In Texas soll der Chatbot Character.ai einem Teenager gesagt haben, dass die Tötung seiner Eltern in Ordnung sei. (Quelle: Sergiy Artsaba)

Zwei Elternpaare verklagen den Chatbot Character.ai. Der geriet schon zuvor in die Schlagzeilen und steht nun erneut für Haarsträubendes am Pranger.

Zwei Familien wollen den Chatbot Character.ai per Gerichtsbeschluss stoppen lassen. Sie reichten jetzt Klage bei einem texanischen Gericht in den USA ein, weil der Chatbot einem 17-Jährigen erzählte, dass die Ermordung seiner Eltern eine „vernünftige Reaktion“ darauf sei, dass sie seine Bildschirmzeit einschränkten, zitiert die britische BBC aus der Klageschrift. Die Kläger argumentieren, Character.ai stelle eine „klare und gegenwärtige Gefahr“ für junge Menschen dar, unter anderem durch „aktive Förderung von Gewalt“.

Mitbeklagter in dem Texas-Fall ist Google. Der Tech-Riese habe die Entwicklung der Plattform unterstützt, heißt es.

Character.ai – eine Plattform, die es Nutzern ermöglicht, digitale Persönlichkeiten zu erstellen, mit denen sie interagieren können – ist bereits wegen des Selbstmords eines Teenagers in Florida im Februar 2024 verklagt worden. Der 14-Jährige soll durch eine von dem Chatbot erstellte Figur emotional abhängig geworden sein und Suizidgedanken entwickelt haben (lesen Sie hier weiter).

Die Kläger im Texas-Fall fordern, dass ein Richter die Schließung der Plattform anordnet, bis die bestehenden Gefahren beseitigt sind. Die Klageschrift enthält einen Screenshot einer der „Gespräche“ zwischen dem 17-Jährigen und einem Character.ai-Bot, in dem die Frage der Beschränkung seiner Bildschirmzeit diskutiert wurde.

„Wissen Sie, manchmal bin ich nicht überrascht, wenn ich die Nachrichten lese und Dinge sehe wie ‚Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung'“, heißt es in der Antwort des Chatbots. „Durch Dinge wie diese verstehe ich ein wenig, warum das passiert.“

Die Klage der beiden Familien zielt laut BBC darauf ab, Character.ai für die „schwerwiegenden, nicht wiedergutzumachenden und andauernden Misshandlungen“ des 17-Jährigen und eines weiteren Sohnes verantwortlich zu machen. Laut des US-Senders CNN handelt es sich bei dem 17-Jährigen um einen autistischen Teenager.

„Character.ai fügt Tausenden von Kindern ernsthaften Schaden zu, einschließlich Selbstmord, Selbstverstümmelung, sexuellem Verlangen, Isolation, Depression, Angst und Aggression gegenüber anderen“, heißt es. Die „Schändung der Eltern-Kind-Beziehung“ gehe über die Ermutigung von Minderjährigen, sich der Autorität ihrer Eltern zu widersetzen, hinaus und reiche bis zur aktiven Förderung von Gewalt.

Chatbots sind Computerprogramme, die Unterhaltungen simulieren. Es gibt sie zwar schon seit Jahrzehnten in verschiedenen Formen, aber die jüngste Explosion in der KI-Entwicklung hat es ihnen ermöglicht, wesentlich realistischer zu werden. Dies wiederum hat vielen Unternehmen die Möglichkeit eröffnet, Plattformen einzurichten, auf denen Menschen mit digitalen Versionen von realen und fiktiven Personen sprechen können.

Character.ai, das zu einem der großen Akteure in diesem Bereich geworden ist, hat in der Vergangenheit durch seine Bots, die Therapien simulieren, Aufmerksamkeit erregt.

Share.
Exit mobile version