Google DeepMind hat ein KI-System entwickelt, das bei der Lösung von Geometrieaufgaben der Internationalen Mathematik-Olympiade (IMO) bessere Ergebnisse erzielt als durchschnittliche Goldmedaillengewinner, berichtet TechCrunch. AlphaGeometry2 kombiniert ein Gemini-Sprachmodell mit einer symbolischen Engine zur Analyse geometrischer Diagramme und Entwicklung mathematischer Beweise. Das System löste 42 von 50 IMO-Aufgaben der letzten 25 Jahre und übertraf damit den Durchschnitt der Goldmedaillengewinner von 40,9 Punkten. Für das Training nutzte DeepMind über 300 Millionen synthetische Theoreme und Beweise. Dennoch hat das System noch Schwierigkeiten mit bestimmten Aufgabentypen, besonders bei nichtlinearen Gleichungen und Ungleichungen.
DeepMinds AlphaGeometry2 löst Mathe-Olympiade besser als Goldmedaillengewinner
Schlagwörter: DeepMind