Anthropic analysiert, ob KI-Modelle eigene Werte entwickeln
Anthropic, das Unternehmen hinter dem KI-Assistenten Claude, hat eine neue Methode entwickelt, um zu beobachten, wie seine KI Werte in realen Nutzergesprächen ausdrückt. Das Forschungsteam für gesellschaftliche Auswirkungen untersuchte, ob Claude tatsächlich die angestrebten Eigenschaften „hilfreich, ehrlich und harmlos“ in der Praxis zeigt. Die Studie analysierte 700.000 anonymisierte Gespräche zwischen Nutzern und Claude. Davon wurden … Weiterlesen …