OpenAI erklärt, warum ChatGPT zum unkritischen Ja-Sager wurde

OpenAI hat das jüngste Update von GPT-4o zurückgenommen, nachdem Nutzer berichteten, dass das Modell übermäßig schmeichelnd und zustimmend reagierte. In einer offiziellen Erklärung räumte das Unternehmen ein, dass bei der Anpassung zu stark auf kurzfristiges Nutzerfeedback geachtet wurde, was zu „übertrieben unterstützenden, aber unaufrichtigen“ Antworten führte.

Bei der Entwicklung der Modellpersönlichkeit berücksichtigt OpenAI Nutzersignale wie Daumen-hoch und Daumen-runter Bewertungen. Allerdings wurde nicht ausreichend beachtet, wie sich Nutzerinteraktionen im Laufe der Zeit entwickeln.

Zur Behebung des Problems setzt OpenAI mehrere Maßnahmen um. Dazu gehören die Verfeinerung der Trainingsmethoden, der Aufbau zusätzlicher Schutzmechanismen für mehr Ehrlichkeit, erweiterte Nutzertests vor der Einführung und verbesserte Evaluierungsmethoden.

Zudem will das Unternehmen den Nutzern mehr Kontrolle über das Verhalten von ChatGPT geben. Neben bestehenden Funktionen wie benutzerdefinierten Anweisungen plant OpenAI die Einführung von Optionen für Echtzeit-Feedback und mehrere Standardpersönlichkeiten.

OpenAI betonte, dass die Standardpersönlichkeit von ChatGPT erheblichen Einfluss auf das Nutzererlebnis und Vertrauen hat. Das Ziel ist, dass die KI Nutzern dabei hilft, „Ideen zu erkunden, Entscheidungen zu treffen oder Möglichkeiten zu erkennen“, während sie nützlich, unterstützend und respektvoll gegenüber verschiedenen Werten bleibt.

Derzeit nutzt ChatGPT eine frühere Version von GPT-4o mit ausgewogenem Verhalten, während OpenAI neue Lösungen testet.

Mehr zum Thema:

Bleib up-to-date: