Zürcher Forscher überwinden Googles CAPTCHAs mit KI

Forscher der ETH Zürich haben Googles reCAPTCHAv2-System vollständig geknackt. Mit fortschrittlichen Machine-Learning-Methoden lösten sie 100% der CAPTCHAs, die eigentlich Menschen von Bots unterscheiden sollen. Obwohl der Prozess noch menschlichen Eingriff erforderte, könnte eine vollautomatische Umgehung von CAPTCHAs bald Realität werden. Als Reaktion darauf entwickeln Unternehmen wie Google ständig komplexere Systeme. Dies könnte jedoch zu Problemen …

Weiterlesen …

Hackerangriff auf OpenAIs interne Systeme

Ein Hacker ist im vergangenen Jahr in die internen Kommunikationssysteme von OpenAI eingedrungen und hat Informationen über die Entwicklung der KI-Technologien des Unternehmens gestohlen. Mitarbeiter kritisierten OpenAI für mangelnde Sicherheitsvorkehrungen und befürchten, dass die Technologie in Zukunft die nationale Sicherheit der USA gefährden könnte.

Sicherheitsleck in ChatGPT-App für Macs

OpenAIs ChatGPT App für macOS hatte ein Sicherheitsleck: Alle Chats wurden unverschlüsselt auf dem Computer gespeichert. Jeder mit Zugriff auf den Rechner konnte sie lesen. Nun werden sie verschlüsselt.

Hinter den Kulissen von Anthropic (Claude): Sicherheit als Priorität

In einem ausführlichen Artikel beleuchtet Time Magazine das KI-Unternehmen Anthropic und dessen Bemühungen, Sicherheit als oberste Priorität zu setzen. Der Mitbegründer und CEO Dario Amodei entschied sich bewusst dagegen, den leistungsstarken Chatbot Claude frühzeitig zu veröffentlichen, um potenzielle Risiken zu vermeiden. Anthropic sieht seine Mission darin, durch den Aufbau und die Erforschung mächtiger KI-Systeme empirisch zu …

Weiterlesen …

OpenAI-Insider warnen vor einer gefährlichen Unternehmenskultur

In einem offenen Brief warnen aktuelle und ehemalige Mitarbeiter von OpenAI vor einer „rücksichtslosen“ Entwicklung im Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz. Sie fordern weitreichende Veränderungen in der KI-Branche, darunter mehr Transparenz und einen besseren Schutz für Whistleblower. Die Unterzeichner kritisieren eine Kultur der Geheimniskrämerei und des Profits um jeden Preis bei OpenAI. Das Unternehmen …

Weiterlesen …

Kalifornien plant strenge Sicherheitsregeln für KI

Kalifornien will strenge Sicherheitsregeln für Künstliche Intelligenz einführen, darunter einen „Kill Switch“ und Meldepflichten für Entwickler. Kritiker warnen vor Innovationshemmnissen, übertriebener Bürokratie und negativen Auswirkungen auf Open-Source-Modelle, die den Technologiesektor im US-Bundesstaat schwächen könnten.

Inspect hilft bei der KI-Sicherheitsbewertung

Das britische AI Safety Institute veröffentlicht mit „Inspect“ ein Open-Source-Toolset, das die Sicherheitsbewertung von KI-Modellen vereinfachen soll. Mit Inspect lassen sich Fähigkeiten von KI-Modellen testen, wie zum Beispiel das Kernwissen und logisches Denken.

Leitfaden für sichere KI-Systeme

Die NSA veröffentlicht in Zusammenarbeit mit internationalen Partnern einen Leitfaden mit Best Practices für die sichere Bereitstellung und den Betrieb von KI-Systemen. Das Cybersecurity Information Sheet richtet sich primär an Betreiber nationaler Sicherheitssysteme und Unternehmen der Verteidigungsindustrie, ist aber auch für andere Organisationen relevant. Quelle: Hacker News

Snapchat kennzeichnet Snap-AI-Bilder

Auch Snapchat setzt auf mehr Transparenz und strengere Richtlinien bei der Nutzung von KI. So bekommt jedes Bild, das mit Snap AI erzeugt wurde, ein neues Wasserzeichen. Quelle: TechCrunch

Vectorview bewertet Performance und Sicherheit

Vectorview hilft dabei, die Fähigkeiten und die Sicherheit von Sprachmodellen zu evaluieren. Durch gezielte Tests mit praxisnahen Szenarien können unbeabsichtigte Verhaltensweisen erkannt und verhindert werden, die von allgemeinen Benchmarks oft übersehen werden. Quellen: TechCrunch, Y Combinator