KI-System OpenScholar für wissenschaftliche Literaturanalyse

Ein neues Open-Source-KI-System namens OpenScholar könnte die wissenschaftliche Forschungsarbeit grundlegend verändern. Das vom Allen Institute for AI und der University of Washington entwickelte System, über das Michael Nuñez für VentureBeat berichtet, verarbeitet mehr als 45 Millionen frei zugängliche wissenschaftliche Publikationen. OpenScholar übertrifft dabei größere proprietäre Systeme wie GPT-4o in Genauigkeit und Zitierqualität. Das System zeichnet …

Weiterlesen …

KI-Unternehmen entwickeln neue Testverfahren für fortschrittliche Modelle

Führende Technologieunternehmen stehen vor der Herausforderung, neue Bewertungsmethoden für ihre KI-Modelle zu entwickeln. Die bisherigen Testverfahren reichen nicht mehr aus, da moderne KI-Systeme bei Standard-Tests bereits über 90% Genauigkeit erreichen, berichtet die Financial Times. Unternehmen wie OpenAI, Microsoft, Meta und Anthropic arbeiten an internen Bewertungssystemen, besonders für autonome KI-Agenten. Neue öffentliche Benchmarks wie SWE-bench Verified …

Weiterlesen …

KI-generierte Bilder gefährden Integrität der Forschung

KI kann inzwischen täuschend echte wissenschaftliche Abbildungen erzeugen. Dies bereitet Experten für Forschungsintegrität große Sorgen, berichtet „Nature“. Sie befürchten, dass die Fachliteratur zunehmend mit gefälschten Bildern überschwemmt wird, die nur schwer zu erkennen sind. Unternehmen wie Proofig und Imagetwin arbeiten an KI-basierten Lösungen, um manipulierte Bilder aufzuspüren. Obwohl einige Verlage bereits Hinweise auf KI-generierten Inhalt …

Weiterlesen …

KI scheitert an anspruchsvollem Mathe-Benchmark

Epoch AI hat mit FrontierMath einen neuen Benchmark entwickelt, der die Grenzen der mathematischen Fähigkeiten von KI-Systemen aufzeigt. Der Test umfasst Hunderte von anspruchsvollen Mathe-Aufgaben, die tiefgreifendes Verständnis und Kreativität erfordern. Laut Epoch AI lösen selbst fortschrittliche KI-Modelle wie GPT-4o und Gemini 1.5 Pro weniger als 2 % dieser Aufgaben. FrontierMath wurde in Zusammenarbeit mit …

Weiterlesen …

OpenAI und andere suchen neue Strategien für schnellere KI-Fortschritte

OpenAI entwickelt Berichten zufolge neue Strategien, um mit einer Verlangsamung der KI-Fortschritte umzugehen. Laut The Information stellten OpenAI-Mitarbeiter, die das nächste Vorzeigemodell des Unternehmens mit dem Codenamen Orion testeten, weniger Verbesserungen im Vergleich zum Sprung von GPT-3 zu GPT fest. Das deutet darauf hin, dass sich das Tempo des Fortschritts verringert. Als Reaktion darauf hat …

Weiterlesen …

KI-Experte warnt vor Grenzen aktueller KI-Ansätze

Gary Marcus, ein renommierter KI-Experte, argumentiert, dass die reine Skalierung von KI-Systemen ohne grundlegende architektonische Veränderungen einen Punkt abnehmender Erträge („point of diminishing returns“) erreicht. Er verweist auf jüngste Äußerungen des Risikokapitalgebers Marc Andreesen und des Journalisten Amir Efrati, die bestätigen, dass die Verbesserungen bei Large Language Models (LLMs) trotz zunehmender Rechenressourcen nachlassen. Marcus warnt …

Weiterlesen …

KI-Modelle können sich durch Debatte der Wahrheit annähern

Zwei aktuelle Studien liefern erste empirische Belege dafür, dass Debatten zwischen KI-Modellen einem menschlichen oder maschinellen Richter helfen können, die Wahrheit zu erkennen, berichtet Nash Weerasekera für Quanta Magazine. Bei diesem Ansatz präsentieren zwei Expertenmodelle Argumente zu einer Frage, woraufhin ein weniger informierter Richter entscheidet, welche Seite Recht hat. In Experimenten von Anthropic und Google …

Weiterlesen …

Drei Visionäre ebneten Weg für Durchbruch des Deep Learning

Trotz Skepsis von Kollegen trugen Geoffrey Hinton, Jensen Huang und Fei-Fei Li maßgeblich zur Revolution des Deep Learning bei, schreibt Timothy B. Lee. Hinton forschte jahrzehntelang an neuronalen Netzen und entwickelte den Backpropagation-Algorithmus für deren effizientes Training. Huang, CEO von Nvidia, erkannte das Potenzial von GPUs für Nicht-Grafik-Anwendungen und startete 2006 die CUDA-Plattform, die ein …

Weiterlesen …

OmniGen: Erstes einheitliches Modell für Bildgenerierung

Forscher haben OmniGen vorgestellt, das erste Diffusionsmodell, das verschiedene Bildgenerierungsaufgaben in einem einzigen Framework vereinen kann. Im Gegensatz zu bestehenden Modellen wie Stable Diffusion benötigt OmniGen keine zusätzlichen Module, um unterschiedliche Steuerbedingungen zu verarbeiten, so die Autoren Shitao Xiao, Yueze Wang, Junjie Zhou, Huaying Yuan et al. Das Modell kann Text-zu-Bild-Generierung, Bildbearbeitung, subjektgesteuerte Generierung, visuell-bedingte …

Weiterlesen …

SynthID-Text: Wie gut funktioniert Googles Wasserzeichen für KI-Texte?

Die Google-Tochter DeepMind hat mit SynthID-Text ein System entwickelt, um von Large Language Models (LLMs) erzeugte Texte mit digitalen Wasserzeichen zu versehen. Durch subtile Änderungen der Wortwahrscheinlichkeiten während der Textgenerierung bettet SynthID-Text eine erkennbare statistische Signatur ein, ohne Qualität, Genauigkeit oder Geschwindigkeit der Ausgabe zu beeinträchtigen. Das Tool wurde erfolgreich an 20 Millionen Eingabeaufforderungen getestet …

Weiterlesen …