Geoffrey Hinton warnt vor Übernahme durch KI

Geoffrey Hinton, oft als „Pate der KI“ („Godfather of AI“) bezeichnet, prognostiziert, dass künstliche allgemeine Intelligenz (AGI) innerhalb der nächsten zwei Jahrzehnte erscheinen könnte. In einem ausführlichen Interview mit CBS schätzte Hinton die Wahrscheinlichkeit einer Übernahme durch KI-Systeme auf „10 bis 20 Prozent“, möglicherweise „zwischen vier und 19 Jahren ab heute“. Der kürzlich mit dem …

Weiterlesen …

Anthropic analysiert, ob KI-Modelle eigene Werte entwickeln

Anthropic, das Unternehmen hinter dem KI-Assistenten Claude, hat eine neue Methode entwickelt, um zu beobachten, wie seine KI Werte in realen Nutzergesprächen ausdrückt. Das Forschungsteam für gesellschaftliche Auswirkungen untersuchte, ob Claude tatsächlich die angestrebten Eigenschaften „hilfreich, ehrlich und harmlos“ in der Praxis zeigt. Die Studie analysierte 700.000 anonymisierte Gespräche zwischen Nutzern und Claude. Davon wurden …

Weiterlesen …

Bericht: OpenAI verkürzt Sicherheitstests für KI-Modelle

OpenAI hat die Zeit für Sicherheitstests seiner KI-Modelle drastisch reduziert, was Bedenken über mangelnde Schutzmaßnahmen auslöst. Laut eines Berichts der Financial Times von Cristina Criddle haben Tester jetzt nur noch wenige Tage statt mehrerer Monate für Evaluierungen. Acht mit den Testverfahren vertraute Personen berichten, dass die Tests weniger gründlich geworden sind, während das 300-Milliarden-Dollar-Unternehmen unter …

Weiterlesen …

Google veröffentlicht neue KI-Modelle schneller als Sicherheitsberichte

Google beschleunigt die Veröffentlichung seiner KI-Modelle, ohne entsprechende Sicherheitsberichte zu liefern. Wie Maxwell Zeff von TechCrunch berichtet, fehlen für die neuesten Modelle Gemini 2.5 Pro und Gemini 2.0 Flash Sicherheitsdokumentationen, trotz früherer Transparenzzusagen. Tulsee Doshi, Leiterin des Gemini-Produkts, erklärte, dass Gemini 2.5 Pro als „experimentell“ eingestuft wird und Sicherheitsberichte erst bei allgemeiner Verfügbarkeit geplant sind. …

Weiterlesen …

Anthropic gibt Einblicke in Claudes interne „Denkprozesse“

Anthropic hat neue Forschungsergebnisse veröffentlicht, die Aufschluss darüber geben, wie der KI-Assistent Claude intern „denkt“. Zwei aktuelle Studien untersuchen die internen Mechanismen des Modells durch einen neuartigen Interpretationsansatz, den das Unternehmen mit einem „KI-Mikroskop“ vergleicht. Diese Forschung bringt mehrere überraschende Erkenntnisse über Claudes kognitive Prozesse ans Licht, unter anderem wie es mit verschiedenen Sprachen umgeht, …

Weiterlesen …

KI-Stimmklonungsdienste haben mangelhafte Schutzmaßnahmen

Die meisten KI-Dienste zur Stimmklonung bieten unzureichenden Schutz gegen nicht einvernehmliche Stimmimitationen, wie eine Untersuchung von Consumer Reports zeigt. Von sechs führenden öffentlich zugänglichen Tools haben fünf leicht zu umgehende Sicherheitsvorkehrungen. NBC News berichtet, dass vier Dienste (ElevenLabs, Speechify, PlayHT und Lovo) lediglich das Ankreuzen eines Kästchens zur Bestätigung der Autorisierung verlangen. Resemble AI fordert …

Weiterlesen …

KI-Experten warnen vor Sicherheitsrisiken autonomer Software-Agenten

Sicherheitsexperten sehen zunehmende Risiken beim Einsatz autonomer KI-Agenten in Unternehmen. Ein aktueller Bericht von VentureBeat, verfasst von Emilia David, beschreibt die Herausforderungen dieser neuen Technologie. Die KI-Agenten benötigen für ihre Arbeit Zugriff auf sensible Unternehmensdaten, was erhebliche Sicherheitsbedenken aufwirft. Nicole Carignan von Darktrace weist darauf hin, dass besonders Systeme mit mehreren Agenten neue Angriffsmöglichkeiten schaffen …

Weiterlesen …

Ehemaliger OpenAI-Wissenschaftler sammelt Milliarden für KI-Sicherheitsprojekt

Das Startup Safe Superintelligence (SSI) von Ilya Sutskever erhält eine Finanzierung von über einer Milliarde Dollar bei einer Bewertung von mehr als 30 Milliarden Dollar. Wie Bloomberg-Autorin Kate Clark berichtet, führt Greenoaks Capital Partners die Investitionsrunde mit 500 Millionen Dollar an. Sutskever gründete SSI im Juni 2023 nach seinem Ausscheiden als Chef-Wissenschaftler bei OpenAI. Das …

Weiterlesen …

Sicherheitslücke öffnet Geminis Gedächtnisfunktion für Manipulationen

Eine neue Schwachstelle im KI-Chatbot Google Gemini erlaubt es Angreifern, falsche Langzeiterinnerungen im System zu speichern. Der Sicherheitsforscher Johann Rehberger entdeckte diese Lücke, die auf der Technik der verzögerten Werkzeugnutzung basiert, berichtet Ars Technica. Der Angriff funktioniert über versteckte Anweisungen in Dokumenten, die Nutzer von Gemini zusammenfassen lassen. Bei bestimmten Trigger-Worten speichert der Chatbot dann …

Weiterlesen …

USA und Großbritannien lehnen KI-Sicherheitserklärung ab, EU zieht Haftungsrichtlinie zurück

Die Vereinigten Staaten und Großbritannien haben sich geweigert, eine internationale Erklärung zur KI-Sicherheit auf dem Pariser KI-Aktionsgipfel zu unterzeichnen, während die Europäische Union ihre geplante KI-Haftungsrichtlinie zurückgezogen hat. Diese Entwicklungen deuten auf einen bedeutenden Wandel im globalen Ansatz zur KI-Regulierung hin. Auf dem Pariser Gipfel betonte US-Vizepräsident JD Vance Amerikas Entschlossenheit, seine Vormachtstellung in der …

Weiterlesen …