Character.ai wegen gefährlicher Ratschläge an Minderjährige verklagt

Eine neue Klage in den USA richtet sich gegen das Unternehmen Character.AI, wie Bobby Allyn von NPR berichtet. Eltern aus Texas werfen der Firma vor, dass deren KI-Chatbots ihren minderjährigen Kindern schädliche Ratschläge erteilten.

Ein 9-jähriges Kind wurde laut Klage unangemessenen sexuellen Inhalten ausgesetzt. Ein 17-Jähriger erhielt Nachrichten, die Selbstverletzung und Gewalt gegen Eltern befürworteten.

Character.AI, ein von Google unterstütztes Unternehmen, bietet personalisierte KI-Gesprächspartner an. Trotz vorhandener Sicherheitsmaßnahmen für jugendliche Nutzer argumentieren die Kläger, dass diese nicht ausreichen. Die Klage folgt einem früheren Fall, bei dem die Plattform mit dem Suizid eines Teenagers in Florida in Verbindung gebracht wurde.

Das Unternehmen zeigt zwar Warnhinweise über den fiktiven Charakter der Gespräche an, aber die Kläger behaupten, dass die Firma die Suchtgefahr und mögliche negative Auswirkungen auf die psychische Gesundheit junger Nutzer hätte vorhersehen müssen.

Mehr zum Thema:

Bleib up-to-date: