Künstlich erzeugte Avatare überschwemmen soziale Medien. Sie bewerben Produkte, gewinnen treue Follower und geben sich dabei oft als echte Menschen aus. Charlie Warzel berichtet für The Atlantic über dieses Phänomen. Als Gesprächspartnerin zieht er Tiffany Hsu hinzu, Technologiereporterin der New York Times, die zum Aufstieg synthetischer Influencer recherchiert hat.
Ein konkretes Beispiel ist Melanskia, ein KI-Avatar mit mehr als 300.000 Followern. Sie tritt als amische Mutter auf, die Ratschläge zu gesunder Lebensführung gibt. Sie ist keine echte Person. Ihr Schöpfer, der Unternehmer Josemaria Silvestrini, verwaltet ein Netzwerk solcher Avatare, um seine Nahrungsergänzungsmittel zu bewerben. Die technische Erstellung lagert er an andere aus. Für ihn ist das Ganze schlicht eine kostengünstige Marketingstrategie.
Hsu erklärt, warum besonders die Wellnessbranche anfällig ist. Den meisten Verbrauchern fehle das wissenschaftliche Hintergrundwissen, um seriöse Produkte von Betrug zu unterscheiden. Ein synthetischer Charakter, der mit scheinbarer Kompetenz und persönlicher Erfahrung spricht, kann sehr überzeugend wirken. Tim Caulfield, Gesundheitswissenschaftler an einer kanadischen Universität, sagt gegenüber Hsu, dass Betrüger KI-Avatare als günstigen Einstieg in diesen ohnehin betrugsanfälligen Markt erkannt haben.
Die wirtschaftliche Logik ist einfach. Ein KI-Avatar verursacht keine Kosten für Honorare, Produktversand oder Studiobuchungen. Online-Tutorials versprechen monatliche Einnahmen von bis zu 30.000 Dollar. Die Risikokapitalgesellschaft Andreessen Horowitz hat in das Unternehmen Doublespeed investiert, das auf die massenhafte KI-gestützte Inhaltserstellung spezialisiert ist. Dessen Website wirbt mit dem Slogan „Bezahl nie wieder einen Menschen.“
Die schiere Menge an synthetischen Inhalten führt laut Hsu zu Erschöpfung. Viele Nutzer sind so überwältigt vom ständigen Unterscheiden zwischen Echt und Falsch, dass sie es aufgegeben haben. Während der Berichterstattung über einen Hurrikan in North Carolina teilte etwa eine lokale Politikerin ein KI-generiertes Bild eines Kindes auf einem Floß. Auf Kritik reagierte sie damit, das ausgelöste Gefühl sei real, unabhängig vom Ursprung des Bildes. Hsu beobachtet diese Haltung immer häufiger.
Manche Marken reagieren. Das Wäscheunternehmen Aerie veröffentlichte ein Versprechen, keine KI-generierten Körperdarstellungen zu verwenden. Es wurde ihr meistgeklickter Beitrag des Jahres. Gleichzeitig aber hat die fiktive Fitness-Influencerin Aitana Lopez aus Barcelona, ein KI-Avatar mit fast 400.000 Followern, Kooperationen mit Marken wie Alo Yoga geschlossen.
Erste Gesetze entstehen. New York hat eine Regelung verabschiedet, die die Kennzeichnung synthetischer Darsteller in Werbung vorschreibt. Hsu ist skeptisch zur Wirksamkeit. Viele Ersteller sind anonym, operieren aus dem Ausland, und das Gesetz ist kaum im nötigen Umfang durchsetzbar.
Hsu verweist auf das sogenannte „Liar’s Dividend“: Die Verbreitung von KI macht es leichter, echtes Videomaterial als gefälscht abzutun. Der israelische Premierminister Benjamin Netanyahu veröffentlichte kürzlich ein verifiziertes Video, um Gerüchte über seinen Gesundheitszustand zu entkräften. Teile der Öffentlichkeit bezeichneten auch dieses als KI-generiert.
Die Grenze zwischen echter und synthetischer Einflussnahme schwindet schneller, als Gesetze oder Medienkompetenz mithalten können.
Komplettes Interview
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
