Galileo evaluiert KI-Modelle für den Unternehmenseinsatz

Galileo, ein KI-Startup unter der Leitung von Vikram Chatterji, hat in einer Serie-B-Finanzierungsrunde 45 Millionen US-Dollar erhalten und damit seit seiner Gründung vor drei Jahren insgesamt 68 Millionen US-Dollar eingesammelt. Das Unternehmen konzentriert sich auf die Bewertung von KI-Modellen, um sicherzustellen, dass sie effektiv arbeiten und keine falschen Informationen generieren oder sensible Daten preisgeben, berichtet …

Weiterlesen …

Test deckt Schwachstellen führender KI-Modelle auf

Ein neues Tool hat überprüft, inwiefern führende KI-Modellen dem KI-Gesetz der EU genügen, und dabei deutliche Schwachstellen entdeckt. Wie Martin Coulter für Reuters berichtet, schneiden einige Modelle großer Technologieunternehmen in Bereichen wie Cybersicherheit und diskriminierender Output schlecht ab. Das von LatticeFlow AI entwickelte „Large Language Model Checker“ bewertet KI-Modelle in Dutzenden Kategorien. Während die Modelle …

Weiterlesen …

Ehemaliger Palantir CISO wechselt zu OpenAI

Dane Stuckey, ehemaliger CISO von Palantir, wird neuer CISO bei OpenAI. Laut Kyle Wiggers von TechCrunch wird er dort an der Seite von Matt Knight arbeiten, dem Leiter der Sicherheitsabteilung. Stuckey verkündete seinen Wechsel am Dienstagabend auf X/Twitter. Er betonte die Wichtigkeit von Sicherheit für OpenAIs Mission. Stuckey begann seine Karriere bei Palantir 2014 im …

Weiterlesen …

Anthropic aktualisiert Sicherheitsrichtlinien für KI

Anthropic hat seine Sicherheitsrichtlinien für KI aktualisiert, um Missbrauch zu verhindern, berichtet VentureBeat-Autor Michael Nuñez. Die neuen „Capability Thresholds“ definieren Schwellenwerte für riskante Fähigkeiten von KI-Modellen, etwa im Bereich Biowaffen oder autonome KI-Forschung. Erreicht ein Modell einen solchen Schwellenwert, greifen zusätzliche Sicherheitsmaßnahmen. Die überarbeitete Richtlinie legt auch detailliertere Verantwortlichkeiten für einen „Responsible Scaling Officer“ fest, …

Weiterlesen …

Kaliforniens Gouverneur lehnt KI-Sicherheitsgesetz ab

Kaliforniens Gouverneur Gavin Newsom hat ein umstrittenes KI-Sicherheitsgesetz abgelehnt. Der Demokrat begründete seine Entscheidung damit, dass der Gesetzentwurf nur die größten und teuersten KI-Modelle berücksichtige, ohne deren Einsatz in Hochrisikosituationen zu beachten. Newsom betonte, dass auch kleinere Modelle kritische Entscheidungen treffen könnten, während größere Modelle oft für risikoarme Aktivitäten eingesetzt würden. Das abgelehnte Gesetz hätte …

Weiterlesen …

Russland, Iran und China setzen auf KI für Desinformation im US-Wahlkampf

Russland, Iran und China setzen verstärkt auf KI, um die US-Wähler vor der Präsidentschaftswahl im November zu beeinflussen. Das erklärten US-Geheimdienstbeamte laut eines Berichts von Joseph Menn in der Washington Post. Demnach konzentriere sich vor allem Russland darauf, die demokratische Kandidatin Kamala Harris zu diskreditieren. Moskau manipuliert Reden von Harris und erstellt gefälschte Inhalte mit …

Weiterlesen …

Cloudflare will Websites vor KI-Bots schützen

Cloudflare führt neue Werkzeuge ein, um Websites vor KI-Bots zu schützen und deren Scraping zu kontrollieren. Das Unternehmen bietet allen Kunden, auch den 33 Millionen kostenlosen Nutzern, eine Überwachung und selektive Blockierung von KI-Daten-Scraping-Bots an. CEO Matthew Prince erklärt, dass diese Maßnahmen den Websitebetreibern mehr Kontrolle darüber geben sollen, wie und wann KI-Bots ihre Inhalte …

Weiterlesen …

Zürcher Forscher überwinden Googles CAPTCHAs mit KI

Forscher der ETH Zürich haben Googles reCAPTCHAv2-System vollständig geknackt. Mit fortschrittlichen Machine-Learning-Methoden lösten sie 100% der CAPTCHAs, die eigentlich Menschen von Bots unterscheiden sollen. Obwohl der Prozess noch menschlichen Eingriff erforderte, könnte eine vollautomatische Umgehung von CAPTCHAs bald Realität werden. Als Reaktion darauf entwickeln Unternehmen wie Google ständig komplexere Systeme. Dies könnte jedoch zu Problemen …

Weiterlesen …

Hackerangriff auf OpenAIs interne Systeme

Ein Hacker ist im vergangenen Jahr in die internen Kommunikationssysteme von OpenAI eingedrungen und hat Informationen über die Entwicklung der KI-Technologien des Unternehmens gestohlen. Mitarbeiter kritisierten OpenAI für mangelnde Sicherheitsvorkehrungen und befürchten, dass die Technologie in Zukunft die nationale Sicherheit der USA gefährden könnte.

Sicherheitsleck in ChatGPT-App für Macs

OpenAIs ChatGPT App für macOS hatte ein Sicherheitsleck: Alle Chats wurden unverschlüsselt auf dem Computer gespeichert. Jeder mit Zugriff auf den Rechner konnte sie lesen. Nun werden sie verschlüsselt.