OpenAIs CriticGPT hilft beim KI-Training

OpenAI entwickelt eine neue Methode, um das Traing von KI-Modellen zu verbessern. Bisher wurden menschliche Bewerter eingesetzt, um die Qualität der KI-Outputs zu prüfem. Nun soll eine zusätzliche KI namens CriticGPT die menschlichen Trainer unterstützen. 

AWS untersucht Perplexity

Amazon untersucht derzeit, ob die KI-Suchmaschine Perplexity AI gegen die Nutzungsbestimmungen der Amazon Web Services verstößt. Perplexity soll Websites mit Inhalten auch dann abgreifen, wenn diese dies mithilfe des Robots Exclusion Protocol (robots.txt) verboten wurde. Mehr dazu hier.

YouTube erlaubt Nutzern, KI-Imitate zu melden

YouTube erlaubt es Nutzern nun, die Entfernung von KI-generierten Inhalten zu beantragen, die ihr Gesicht oder ihre Stimme simulieren.YouTube prüft jeden Antrag individuell und berücksichtigt dabei Faktoren wie die Kennzeichnung des Inhalts als synthetisch, die eindeutige Identifizierung der Person und den möglichen Wert des Inhalts.

Meta ändert KI-Hinweis

Meta tauscht seinen „Made with AI“-Tag für Fotos gegen „AI Info“ aus. Dies soll die Verwirrung um die Kennzeichnung von Fotos beheben, die lediglich mit KI-gestützten Werkzeugen bearbeitet wurden. 

DeepMind JEST beschleunigt KI-Training

Googles DeepMind-Forscher haben eine neue Methode namens JEST entwickelt, die das KI-Training deutlich beschleunigt und gleichzeitig den Energiebedarf senkt. Durch die optimierte Auswahl von Trainingsdaten kann JEST die Anzahl der Iterationen um das 13-fache und den Rechenaufwand um das 10-fache reduzieren. 

Hackerangriff auf OpenAIs interne Systeme

Ein Hacker ist im vergangenen Jahr in die internen Kommunikationssysteme von OpenAI eingedrungen und hat Informationen über die Entwicklung der KI-Technologien des Unternehmens gestohlen. Mitarbeiter kritisierten OpenAI für mangelnde Sicherheitsvorkehrungen und befürchten, dass die Technologie in Zukunft die nationale Sicherheit der USA gefährden könnte.

Sicherheitsleck in ChatGPT-App für Macs

OpenAIs ChatGPT App für macOS hatte ein Sicherheitsleck: Alle Chats wurden unverschlüsselt auf dem Computer gespeichert. Jeder mit Zugriff auf den Rechner konnte sie lesen. Nun werden sie verschlüsselt.

Kosten durch Deepfake-Betrug steigen auf 40 Mrd. US-Dollar bis 2027

Die Kosten durch Deepfake-Betrug werden laut Deloitte bis 2027 auf 40 Milliarden US-Dollar steigen, wobei Banken und Finanzdienstleister besonders gefährdet sind. Die Technologie werde immer ausgefeilter und erschwinglicher, sodass Angreifer Deepfake-Videos, -Stimmen und -Dokumente erstellen können, um Unternehmen zu täuschen. Besonders CEOs sind Ziel solcher Angriffe, die häufig mit Phishing-Attacken, Ransomware und anderen Cyberbedrohungen kombiniert werden.

Figma zieht KI-Tool „Make Designs“ zurück

Figma hat sein neues AI-Tool „Make Designs“ vorübergehend aus dem Verkehr gezogen, nachdem es Designs für eine Wetter-App erstellte, die Apples Version verblüffend ähnlich waren. Dies wirft die Frage auf, ob die von Figma verwendeten Modelle von OpenAI oder Amazon auf Apples Designs trainiert wurden. Figma hat die Verantwortung für den Vorfall übernommen und will die …

Weiterlesen …

Aufruhr um Microsofts KI-Chef

Microsofts KI-Chef Mustafa Suleyman sorgt mit der Aussage für Aufruhr, alle online verfügbaren Inhalte seien „Freeware“. Demnach dürfe jeder diese Inhalte kopieren und für eigene Kreationen nutzen, solange Urheber nicht explizit widersprechen. Diese Aussage wird von vielen Experten angezweifelt und bereits jetzt gibt es mehrere Klagen gegen Microsoft und OpenAI wegen Urheberrechtsverletzungen im Zusammenhang mit KI-Training.