KI-Halluzinationen treiben wissenschaftliche Entdeckungen voran

Wissenschaftler nutzen zunehmend KI-generierte „Halluzinationen“ als effektives Werkzeug für Durchbrüche in der Forschung, berichtet William J. Broad in der New York Times. Diese computergenerierten Erfindungen helfen demnach bei der Entwicklung neuer Proteine, Medikamente und medizinischer Behandlungen. Der Nobelpreisträger David Baker verwendete KI-Halluzinationen etwa, um Millionen neuer, in der Natur nicht vorkommender Proteine zu erschaffen, die …

Weiterlesen …

Bedeutende KI-Durchbrüche verändern Technologielandschaft

In den vergangenen vier Wochen hat sich die KI-Landschaft grundlegend weiterentwickelt. Der Technologieforscher Ethan Mollick dokumentiert in seiner Analyse mehrere bahnbrechende Entwicklungen. So ist die Anzahl leistungsfähiger KI-Modelle deutlich gestiegen. Aktuell existieren sechs bis zehn Modelle auf GPT-4-Niveau, während Ende 2023 nur eines verfügbar war. Unternehmen wie OpenAI, Google, Meta und Anthropic haben neue Systeme …

Weiterlesen …

Warum KI-Modelle sich an langen Texten verschlucken

Große Sprachmodelle erreichen bei der Verarbeitung umfangreicher Texte zunehmend ihre technischen Grenzen, wie Timothy B. Lee in einer ausführlichen Analyse für Ars Technica berichtet. Das Hauptproblem liegt in der quadratisch steigenden Rechenleistung bei wachsender Textlänge. Aktuelle Modelle wie GPT-4o können etwa 200 Seiten Text verarbeiten, während Google’s Gemini 1.5 Pro etwa 2.000 Seiten bewältigt. Die …

Weiterlesen …

Neue Rechentechnik verhilft kleinen Sprachmodellen zu Durchbruch

Forscher von Hugging Face haben eine neue Methode entwickelt, die kleinen Sprachmodellen ermöglicht, bessere Leistungen als größere Modelle zu erzielen. Wie Ben Dickson für VentureBeat berichtet, erreichte ein Llama-3-Modell mit nur 3 Milliarden Parametern die gleiche Leistung wie seine Version mit 70 Milliarden Parametern bei komplexen mathematischen Aufgaben. Die Methode basiert auf der Skalierung der …

Weiterlesen …

Neue Studie zeigt simple Methode für KI-Jailbreak

Forscher von Anthropic haben eine automatisierte Methode entdeckt, die Sicherheitssperren von KI-Systemen offenbar leicht überwinden kann. Wie Emanuel Maiberg in 404 Media berichtet, funktioniert diese „Best-of-N Jailbreaking“ genannte Technik durch zufällige Änderungen in der Schreibweise und Großschreibung von Texteingaben. Die Methode war bei mehr als 50 Prozent der Versuche erfolgreich und wurde an führenden KI-Modellen …

Weiterlesen …

Apple und Nvidia kooperieren bei KI-Beschleunigung

Apple und Nvidia haben die Integration von Apples ReDrafter-Technologie in Nvidias TensorRT-LLM-Framework bekannt gegeben, die eine schnellere Verarbeitung großer Sprachmodelle (LLMs) auf Nvidia-GPUs ermöglicht. ReDrafter, ein von Apple entwickelter Open-Source-Ansatz für spekulatives Dekodieren, nutzt rekurrente neuronale Netze zur Vorhersage zukünftiger Token bei der Texterzeugung, kombiniert mit Beam-Search und Tree-Attention-Algorithmen. Die Zusammenarbeit hat zu deutlichen Leistungsverbesserungen …

Weiterlesen …

KI-Modelle zeigen bedeutende Fortschritte im Jahr 2024

Laut eines umfassenden Berichts von Artificial Analysis (PDF) haben KI-Modelle im Jahr 2024 bemerkenswerte Fortschritte erzielt. Mehrere Unternehmen haben das Leistungsniveau von OpenAIs GPT-4 erreicht oder übertroffen. Die Analyse zeigt, dass führende Sprachmodelle wie Claude 3.5 Sonnet und Gemini 1.5 Pro neue Maßstäbe in Bezug auf ihre Fähigkeiten gesetzt haben. Open-Source-Modelle von Meta, Mistral und …

Weiterlesen …

Neues KI-Bewertungsmodell erreicht GPT-4-Niveau mit weniger Ressourcen

Das Startup Patronus AI hat ein bahnbrechendes KI-Bewertungsmodell entwickelt, das mit deutlich geringerem Ressourceneinsatz vergleichbare Ergebnisse wie größere Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, verwendet das neue Open-Source-Modell namens Glider nur 3,8 Milliarden Parameter und erreicht dennoch die Leistung von GPT-4 in wichtigen Bewertungskriterien. Das von ehemaligen Meta-AI-Forschern gegründete Unternehmen hat Glider so …

Weiterlesen …

Google stellt neue Methode zur Überprüfung der KI-Genauigkeit vor

Google hat ein neues Bewertungssystem namens FACTS Grounding eingeführt, das die Genauigkeit von Sprachmodellen bei der Verwendung von Quellinformationen überprüft. Das vom FACTS-Team bei Google DeepMind und Google Research entwickelte System umfasst 1.719 Testbeispiele aus verschiedenen Bereichen wie Finanzen, Technologie und Medizin. Drei fortschrittliche KI-Modelle – Gemini 1.5 Pro, GPT-4o und Claude 3.5 Sonnet – …

Weiterlesen …

KI-Trainingsdaten zeigen wachsende Macht der Technologiekonzerne

Eine umfassende Studie der Data Provenance Initiative hat besorgniserregende Entwicklungen bei KI-Trainingsdaten aufgedeckt. Wie Melissa Heikkilä für MIT Technology Review berichtet, wurden fast 4.000 öffentliche Datensätze aus 67 Ländern analysiert. Die Ergebnisse zeigen eine zunehmende Konzentration der Datenquellen bei großen Technologieunternehmen. Seit 2018 dominiert das Web-Scraping die Datensammlung für KI-Entwicklung. Plattformen wie YouTube liefern über …

Weiterlesen …