Neue Quellen für bessere KI-Trainingsdaten

Große Sprachmodelle (LLMs) werden nicht mehr nur mit Daten aus dem Internet trainiert. Früher basierten LLMs auf dem riesigen Datenfundus des Internets, doch die Grenzen dieses Ansatzes sind erreicht. Um LLMs weiterzuentwickeln, greifen Unternehmen wie OpenAI auf neue Datentypen zurück: Gezielte Kommentierung und Filterung verbessern die Qualität bestehender Daten, menschliches Feedback optimiert das Verhalten der Modelle, …

Weiterlesen …

Die unrühmliche Geschichte eines KI-getriebenen Newsportals

BNN Breaking, eine Nachrichtenseite mit Millionen von Lesern, einem internationalen Journalistenteam und einer Partnerschaft mit Microsoft, erwies sich als Quelle zahlreicher Fehler und Falschmeldungen. Ehemalige Mitarbeiter berichten, dass die Seite in großem Umfang auf KI-generierte Inhalte setzte, die oft ohne ausreichende Prüfung veröffentlicht wurden. Dies führte zu Beschwerden von Personen, die fälschlicherweise in Artikeln genannt wurden, …

Weiterlesen …

Hinter den Kulissen von Anthropic (Claude): Sicherheit als Priorität

In einem ausführlichen Artikel beleuchtet Time Magazine das KI-Unternehmen Anthropic und dessen Bemühungen, Sicherheit als oberste Priorität zu setzen. Der Mitbegründer und CEO Dario Amodei entschied sich bewusst dagegen, den leistungsstarken Chatbot Claude frühzeitig zu veröffentlichen, um potenzielle Risiken zu vermeiden. Anthropic sieht seine Mission darin, durch den Aufbau und die Erforschung mächtiger KI-Systeme empirisch zu …

Weiterlesen …

OpenAI-Insider warnen vor einer gefährlichen Unternehmenskultur

In einem offenen Brief warnen aktuelle und ehemalige Mitarbeiter von OpenAI vor einer „rücksichtslosen“ Entwicklung im Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz. Sie fordern weitreichende Veränderungen in der KI-Branche, darunter mehr Transparenz und einen besseren Schutz für Whistleblower. Die Unterzeichner kritisieren eine Kultur der Geheimniskrämerei und des Profits um jeden Preis bei OpenAI. Das Unternehmen …

Weiterlesen …

Forscher arbeiten an besserer lokaler KI

Forscher erzielen große Fortschritte bei der Entwicklung von 1-Bit-LLMs, die trotz deutlich geringerem Speicherbedarf und Energieverbrauch eine ähnliche Leistung wie ihre größeren Pendants erreichen können. Diese Entwicklung könnte die Tür für komplexere KI-Anwendungen auf alltäglichen Geräten wie Smartphones öffnen, da sie weniger Rechenleistung und Energie benötigen.

Kalifornien plant strenge Sicherheitsregeln für KI

Kalifornien will strenge Sicherheitsregeln für Künstliche Intelligenz einführen, darunter einen „Kill Switch“ und Meldepflichten für Entwickler. Kritiker warnen vor Innovationshemmnissen, übertriebener Bürokratie und negativen Auswirkungen auf Open-Source-Modelle, die den Technologiesektor im US-Bundesstaat schwächen könnten.

Zwei Drittel aller Unternehmen nutzen generative KI regelmäßig

Eine neue Umfrage von McKinsey zeigt, dass bereits 65% der Unternehmen regelmäßig Generative AI einsetzen und die Mehrheit erwartet, dass diese Technologie zu signifikanten Veränderungen in ihren Branchen führen wird. Allerdings haben 44% der Befragten auch negative Folgen durch den Einsatz von Gen AI erlebt, wie z.B. ungenaue Ergebnisse oder Cybersicherheitsprobleme, weshalb Experten betonen, dass …

Weiterlesen …

Tribeca Festival zeigt Kurzfilme erstellt mit OpenAIs Sora

Das Tribeca Festival zeigt dieses Jahr erstmals Kurzfilme, die komplett mit OpenAIs kommender Video-KI Sora erstellt wurden. Fünf Filmemacher präsentieren ihre mit Sora generierten Werke und diskutieren die neue Technologie im Rahmen des Festivals.

Mistral bekommt 640 Millionen US-Dollar

Das französische Startup Mistral AI sichert sich in einer Finanzierungsrunde 640 Millionen US-Dollar und erreicht damit eine Bewertung von fast 6 Milliarden Dollar. Mit dem frischen Kapital will Mistral seine Ressourcen für die Entwicklung von Open-Source-KI-Modellen ausbauen und im globalen Wettbewerb mit OpenAI und Anthropic mithalten.

Meta will Nutzerinhalte für KI-Training einsetzen

Meta möchte offenbar Inhalte von Instagram und Facebook nutzen, um seine KI-Modelle zu trainieren. Europäische Nutzer können der Verwendung ihrer Daten für KI-Training widersprechen, müssen das aber aktiv beantragen. Die Formulierung von Meta in der entsprechenden E-Mail ist zudem vage und suggeriert, dass die Nutzer einen Grund für ihren Widerspruch angeben müssen. Die britische Datenschutzbehörde und …

Weiterlesen …