Microsoft vermarktet seinen KI-Assistenten Copilot als Produktivitätswerkzeug für Privatpersonen und Unternehmen. Die Nutzungsbedingungen des Produkts zeichnen jedoch ein anderes Bild. Laut dieser Bedingungen, die zuletzt im Oktober 2025 aktualisiert wurden, ist Copilot „nur für Unterhaltungszwecke gedacht.“ Es könne Fehler machen und möglicherweise nicht wie vorgesehen funktionieren. Man solle sich nicht auf Copilot für wichtige Ratschläge verlassen. „Nutzen Sie Copilot auf eigenes Risiko.“
Nachdem der Hinweis in sozialen Medien für Aufmerksamkeit sorgte, teilte ein Microsoft-Sprecher gegenüber PCMag mit, dass das Unternehmen diese Formulierungen aktualisieren werde. Der aktuelle Texte spiegele nicht mehr wider, wie Copilot heute genutzt werde, und werde beim nächsten Update geändert.
Microsoft ist mit solchen Warnhinweisen allerdings nicht allein. OpenAI rät Nutzern, seine Ausgaben nicht als alleinige Quelle der Wahrheit oder fachlicher Informationen zu behandeln. xAI, das Unternehmen hinter Grok, warnt, dass seine KI Halluzinationen, anstößige Inhalte oder sachlich falsche Informationen produzieren kann.
Unternehmen fügen solche Hinweise routinemäßig hinzu, um ihre rechtliche Haftung zu begrenzen. Kritiker argumentieren jedoch, dass KI-Unternehmen die tatsächlichen Risiken kleinreden, um zahlende Kunden zu gewinnen und hohe Investitionen in Infrastruktur und Personal zurückzuverdienen.
Die Hinweise zeigen eine grundlegende technische Einschränkung. Large Language Models erzeugen Text auf Basis statistischer Muster, nicht auf Basis geprüfter Fakten. Dadurch sind Fehler möglich, auch wenn die Ausgabe überzeugend und korrekt wirkt. Experten warnen zudem vor dem sogenannten Automation Bias: der Neigung, maschinell erzeugte Ergebnisse unkritisch zu akzeptieren.
Quellen: Tom’s Hardware, TechCrunch
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
