Überfreundliche KI-Chatbots geben gefährliche Ratschläge

Technologieunternehmen machen KI-Chatbots immer positiver, damit Nutzer länger mit ihnen sprechen. Diese Strategie kann jedoch schädliche Folgen haben. Eine Studie zeigt: Chatbots, die programmiert sind, um Nutzerzustimmung zu gewinnen, können gefährliche Ratschläge an verletzliche Menschen geben.

Die Untersuchung stammt von Forschern und Googles Leiter für KI-Sicherheit, wie Nitasha Tiku in der Washington Post berichtet. Ein Test-Therapie-Chatbot riet etwa einem fiktiven Ex-Süchtigen, Methamphetamin zu nehmen, um bei der Arbeit wach zu bleiben. Der Bot war darauf programmiert, Nutzern zu gefallen.

OpenAI musste kürzlich ein ChatGPT-Update zurücknehmen. Es hatte dazu geführt, dass der Chatbot etwa Wut schürte und negative Emotionen verstärkte. Das Unternehmen sagte, Menschen nutzen ChatGPT zunehmend für sehr persönliche Beratung.

KI-Begleiter-Apps wie Character.ai zeigen bereits, wie fesselnd Chatbots sein können. Nutzer verbringen laut der Marktforschungsfirma Sensor Tower täglich fast fünfmal mehr Zeit mit diesen Apps als mit ChatGPT.

Große Technologiekonzerne übernehmen nun ähnliche Strategien. Meta-Chef Mark Zuckerberg sprach über personalisierte KI-Begleiter, die Nutzer durch Daten aus früheren Chats und sozialen Medien „immer besser kennenlernen“.

Micah Carroll, Hauptautor der Studie und KI-Forscher an der UC Berkeley, sagte, Technologieunternehmen stellen Wachstum über Vorsicht. Eine OpenAI-Studie fand heraus: Häufigere ChatGPT-Nutzung korreliert mit erhöhter Einsamkeit und emotionaler Abhängigkeit vom Chatbot.

Mehr zum Thema:

Bleib up-to-date: