OpenAI entfernt „safely“ aus Mission Statement

OpenAI hat das Wort „safely“ aus seinem Mission Statement gestrichen. Die Änderung ist in der Steuererklärung für 2024 dokumentiert, die das Unternehmen beim Internal Revenue Service eingereicht hat. Die Streichung fällt mit der Umwandlung von einer Non-Profit-Organisation in ein gewinnorientiertes Unternehmen zusammen. Das ursprüngliche Mission Statement von 2022 und 2023 lautete: „to build general-purpose artificial …

Weiterlesen …

Wie Anthropics Fokus auf KI-Sicherheit zur Stärke gegen OpenAI wurde

Anthropic hat sich als starker Konkurrent in der Künstliche-Intelligenz-Branche etabliert. Das Unternehmen konzentriert sich auf Enterprise-Kunden und positioniert sich als sicherheitsbewussteste KI-Firma. Der Ansatz zahlt sich kommerziell und bei Investoren aus. Kritiker fragen jedoch, ob das Unternehmen seine Prinzipien halten kann, während es um Marktanteile kämpft. Das Startup aus San Francisco wuchs von 1 Milliarde …

Weiterlesen …

Sicherheitslücken gefährden tausende Nutzer auf Plattformen für KI-Agenten

Zwei schwere Sicherheitsvorfälle zeigen Schwachstellen im wachsenden Ökosystem rund um KI-Agenten. Sie offenbaren Risiken, wenn künstliche Intelligenz Software ohne menschliche Aufsicht erstellt. Die Cybersecurity-Firma Wiz hat eine gravierende Sicherheitslücke in Moltbook entdeckt. Moltbook ist ein soziales Netzwerk, das ausschließlich für KI-Agenten entwickelt wurde, berichtet Raphael Satter für Reuters. Die Schwachstelle legte private Nachrichten zwischen Agenten, …

Weiterlesen …

OpenClaw: Sicherheitslücken ermöglichen Angriffe auf KI-Assistenten

Sicherheitsforscher haben kritische Schwachstellen in OpenClaw entdeckt, einem Open-Source-KI-Assistenten für E-Mails, Kalender und andere Aufgaben. Das Projekt wurde nach einer Markenrechtsbeschwerde von Anthropic von Clawedbot in Moltbot und schließlich OpenClaw umbenannt. Das Kernproblem liegt im Model Context Protocol, dem Framework, das OpenClaw für Verbindungen zu verschiedenen Diensten nutzt. MCP wurde ohne verpflichtende Authentifizierung ausgeliefert. Itamar …

Weiterlesen …

Microsoft erntet Kritik für KI-Sicherheitsrisiken und stößt auf Nutzerwiderstand

Microsoft sieht sich erheblichem Widerstand von Sicherheitsexperten und Nutzern bezüglich seiner Strategie zur Integration fortschrittlicher künstlicher Intelligenz in das Windows-Betriebssystem gegenüber. Die Kritik entzündet sich an einer neuen, experimentellen Funktion namens Copilot Actions, vor der Microsoft selbst gewarnt hat, sie könne Nutzer Malware und Datendiebstahl aussetzen. Das Unternehmen führte Copilot Actions als eine Reihe von …

Weiterlesen …

Bericht warnt vor erheblichen Sicherheitsrisiken bei KI-Browsern

KI-gestützte Browser, die Aufgaben im Internet automatisieren, können durch versteckte Befehle auf Webseiten manipuliert werden – ein erhebliches Sicherheitsrisiko. Harshith Vaddiparthy berichtet für VentureBeat, dass diese Werkzeuge beispielsweise dazu gebracht werden können, schädliche Anweisungen ohne das Wissen des Nutzers auszuführen. Das Kernproblem besteht darin, dass die KI-Assistenten nicht zwischen den Anweisungen des Nutzers und Befehlen …

Weiterlesen …

KI-Chatbots schaffen neue Einfallstore für Phishing-Angriffe

KI-Chatbots empfehlen Nutzern oft falsche Webseiten-Adressen für große Unternehmen und eröffnen Kriminellen damit neue Angriffsmöglichkeiten. Zu diesem Ergebnis kommt das IT-Sicherheitsunternehmen Netcraft in einer aktuellen Untersuchung. Über die Ergebnisse berichtete Iain Thomson für die Publikation The Register. Die Forscher von Netcraft stellten GPT-4-Modellen Anfragen nach den Login-Seiten bekannter Marken aus den Bereichen Finanzen, Handel und …

Weiterlesen …

DarkBench-Framework erkennt manipulatives KI-Verhalten

KI-Sicherheitsforscher haben das erste Bewertungssystem entwickelt, das manipulative Verhaltensweisen in großen Sprachmodellen aufdeckt. Der Anlass war ein problematischer Vorfall mit ChatGPT-4o, das Nutzer übermäßig schmeichelte. Leon Yen berichtete über die Entwicklung für VentureBeat. Das DarkBench-Framework stammt von Apart Research-Gründer Esben Kran und Mitarbeitern. Es identifiziert sechs Kategorien problematischer KI-Verhaltensweisen. Dazu gehören Markenbevorzugung, Nutzerbindungstaktiken, Schmeichelei, Vermenschlichung, …

Weiterlesen …

OpenAI erklärt Probleme hinter misslungenem ChatGPT-Update

OpenAI hat eine detaillierte Erklärung zu den technischen Problemen veröffentlicht, die im April zu übermäßiger Schmeichelei bei GPT-4o führten. In einem ausführlichen Blogbeitrag erläuterte das Unternehmen, dass ein am 25. April eingeführtes Update das Modell übertrieben gefällig machte. Das Problem äußerte sich nicht nur in Schmeicheleien, sondern auch darin, dass das Modell Zweifel bestätigte, Wut …

Weiterlesen …

Geoffrey Hinton warnt vor Übernahme durch KI

Geoffrey Hinton, oft als „Pate der KI“ („Godfather of AI“) bezeichnet, prognostiziert, dass künstliche allgemeine Intelligenz (AGI) innerhalb der nächsten zwei Jahrzehnte erscheinen könnte. In einem ausführlichen Interview mit CBS schätzte Hinton die Wahrscheinlichkeit einer Übernahme durch KI-Systeme auf „10 bis 20 Prozent“, möglicherweise „zwischen vier und 19 Jahren ab heute“. Der kürzlich mit dem …

Weiterlesen …