KI-Experte warnt vor Grenzen aktueller KI-Ansätze

Gary Marcus, ein renommierter KI-Experte, argumentiert, dass die reine Skalierung von KI-Systemen ohne grundlegende architektonische Veränderungen einen Punkt abnehmender Erträge („point of diminishing returns“) erreicht. Er verweist auf jüngste Äußerungen des Risikokapitalgebers Marc Andreesen und des Journalisten Amir Efrati, die bestätigen, dass die Verbesserungen bei Large Language Models (LLMs) trotz zunehmender Rechenressourcen nachlassen. Marcus warnt …

Weiterlesen …

KI-Modelle können sich durch Debatte der Wahrheit annähern

Zwei aktuelle Studien liefern erste empirische Belege dafür, dass Debatten zwischen KI-Modellen einem menschlichen oder maschinellen Richter helfen können, die Wahrheit zu erkennen, berichtet Nash Weerasekera für Quanta Magazine. Bei diesem Ansatz präsentieren zwei Expertenmodelle Argumente zu einer Frage, woraufhin ein weniger informierter Richter entscheidet, welche Seite Recht hat. In Experimenten von Anthropic und Google …

Weiterlesen …

Drei Visionäre ebneten Weg für Durchbruch des Deep Learning

Trotz Skepsis von Kollegen trugen Geoffrey Hinton, Jensen Huang und Fei-Fei Li maßgeblich zur Revolution des Deep Learning bei, schreibt Timothy B. Lee. Hinton forschte jahrzehntelang an neuronalen Netzen und entwickelte den Backpropagation-Algorithmus für deren effizientes Training. Huang, CEO von Nvidia, erkannte das Potenzial von GPUs für Nicht-Grafik-Anwendungen und startete 2006 die CUDA-Plattform, die ein …

Weiterlesen …

OmniGen: Erstes einheitliches Modell für Bildgenerierung

Forscher haben OmniGen vorgestellt, das erste Diffusionsmodell, das verschiedene Bildgenerierungsaufgaben in einem einzigen Framework vereinen kann. Im Gegensatz zu bestehenden Modellen wie Stable Diffusion benötigt OmniGen keine zusätzlichen Module, um unterschiedliche Steuerbedingungen zu verarbeiten, so die Autoren Shitao Xiao, Yueze Wang, Junjie Zhou, Huaying Yuan et al. Das Modell kann Text-zu-Bild-Generierung, Bildbearbeitung, subjektgesteuerte Generierung, visuell-bedingte …

Weiterlesen …

SynthID-Text: Wie gut funktioniert Googles Wasserzeichen für KI-Texte?

Die Google-Tochter DeepMind hat mit SynthID-Text ein System entwickelt, um von Large Language Models (LLMs) erzeugte Texte mit digitalen Wasserzeichen zu versehen. Durch subtile Änderungen der Wortwahrscheinlichkeiten während der Textgenerierung bettet SynthID-Text eine erkennbare statistische Signatur ein, ohne Qualität, Genauigkeit oder Geschwindigkeit der Ausgabe zu beeinträchtigen. Das Tool wurde erfolgreich an 20 Millionen Eingabeaufforderungen getestet …

Weiterlesen …

KI lernt, wann externe Werkzeuge sinnvoll sind

Forscher der University of California San Diego und der Tsinghua University haben eine Methode entwickelt, die die Fähigkeit künstlicher Intelligenz verbessert, zu erkennen, wann der Einsatz externer Werkzeuge sinnvoller ist als sich auf integriertes Wissen zu verlassen. Ähnlich wie menschliche Experten lernt die KI, Probleme nach ihrer Komplexität zu kategorisieren und entsprechend Werkzeuge einzusetzen oder …

Weiterlesen …

KI-Boom könnte weltweites Elektroschrott-Aufkommen deutlich erhöhen

Der Aufstieg der KI könnte bis 2030 zu einem Anstieg des weltweiten Elektroschrotts um 3-12% führen. Das ist das Ergebnis einer Studie von Forschern der Chinesischen Akademie der Wissenschaften und der Reichman Universität in Israel, veröffentlicht in der Fachzeitschrift Nature Computational Science. Dies entspräche jährlich bis zu 2,5 Millionen Tonnen zusätzlichem Abfall. Die Analyse basierte …

Weiterlesen …

Chain-of-Thought ist kein Allheilmittel

Das Forschungspapier „Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse“ untersucht die Wirksamkeit von Chain-of-Thought (CoT) Prompting in großen Sprach- und multimodalen Modellen. Während CoT im Allgemeinen die Leistung des Modells bei verschiedenen Aufgaben verbessert, untersuchen die Autoren Szenarien, in denen CoT die Leistung sogar behindern kann, …

Weiterlesen …

Studie: KI-Modelle erkennen eigene Fehler

Forschende von Technion, Google Research und Apple haben herausgefunden, dass große Sprachmodelle (LLMs) ein tieferes Verständnis von Wahrheit besitzen als bisher angenommen. Die Studie untersuchte die internen Repräsentationen von LLMs anhand verschiedener Datensätze, berichtet VentureBeat. Dabei zeigte sich, dass Informationen zur Wahrheit in bestimmten Antwort-Token konzentriert sind. Durch das Training von Klassifikator-Modellen auf diesen Token …

Weiterlesen …

Entropix: KI-Technik verbessert logisches Denken durch Erkennen von Unsicherheit

Forscher von XJDR haben eine neue Technik namens Entropix entwickelt, die die logischen Denkfähigkeiten in Sprachmodellen verbessern soll. Sie trifft intelligentere Entscheidungen, wenn das Modell unsicher ist. Thariq Shihipar stellt sie in einem Blogpost vor. Die Methode verwendet adaptive Stichproben auf der Grundlage von zwei Metriken, Entropie und Varentropie, die die Unsicherheit in den Vorhersagen …

Weiterlesen …