Google will die Genauigkeit seiner KI-Modelle verbessern. Um „Halluzinationen“ zu vermeiden, arbeitet das Unternehmen mit Partnern wie Moody’s, Thomson Reuters und ZoomInfo zusammen. Sie sollen KI-Systeme mit aktuellen Informationen füttern. Ein neuer „Confidence Score“ soll außerdem anzeigen, wie sicher die KI ist, eine korrekte Antwort gegeben zu haben.
Google veröffentlicht mit Gemma 2 darüber hinaus eine neue Reihe leichter KI-Modelle. Neben einem 27 Milliarden Parameter großen Modell gibt es nun auch eine 9-Milliarden-Parameter-Variante, die besonders für Anwendungen auf Geräten wie Smartphones oder IoT-Geräten geeignet ist. Die Modelle sollen Entwicklern mehr Flexibilität bieten und können frei genutzt und angepasst werden. Google plant außerdem, in Zukunft ein noch kleineres Modell mit 2,6 Milliarden Parametern zu veröffentlichen.
Googles neues Text-zu-Bild-Modell Imagen 3 ist zudem nun auf der hauseigenen Plattform Vertex AI verfügbar. Die verbesserte Bild-KI soll schnellere Bildgenerierung, präziseres Prompt-Verständnis, fotorealistische Menschen und bessere Textdarstellung in Bildern bieten.
Google erweitert seine KI-Plattform Vertex AI außerdem um die Modelle Mistral Small, Mistral Large und Mistral Codestral. Dies folgt der jüngsten Aufnahme von Anthropics Claude 3.5 Sonnet und zeigt Googles Ansatz, Unternehmen eine breite Palette an KI-Tools und -Modellen anzubieten.
Meta wiederum testet Nutzer-generierte KI-Chatbots auf Instagram.Die Chatbots, die über das Meta AI Studio erstellt werden, sollen zunächst in den USA in den direkten Nachrichten auftauchen und klar als KI gekennzeichnet sein. Ziel ist es, Nutzern die Interaktion mit KI-Avataren ihrer Lieblings-Influencer und zu bestimmten Themen zu ermöglichen. Langfristig sollen auch Unternehmen die Möglichkeit erhalten, eigene KI-Chatbots zu erstellen, um die Kommunikation mit Kunden zu verbessern.
Meta hat mit „3D Gen“ außerdem ein KI-System vorgestellt, das in Sekundenschnelle hochwertige 3D-Modelle aus Textbeschreibungen generieren soll. Die Kombination aus „3D AssetGen“ für die Erstellung der 3D-Modelle und „3D TextureGen“ für die Generierung realistischer Texturen soll die Produktion komplexer Objekte in bisher unerreichter Geschwindigkeit ermöglichen.
Meta hat darüber hinaus vortrainierte Modelle veröffentlicht, die auf der Multi-Token-Vorhersage basieren. Diese Technik, die Meta erstmals im April in einem Forschungspapier vorgestellt hatte, ermöglicht es Modellen, mehrere Wörter gleichzeitig vorherzusagen, anstatt nur das nächste Wort in einer Sequenz. Dadurch lassen sich die Modelle schneller trainieren und können gleichzeitig eine bessere Leistung erzielen.
Und Meta hat mit MobileLLM ein neues Sprachmodell entwickelt, das speziell für den Einsatz auf Smartphones und anderen Geräten mit begrenzten Ressourcen optimiert ist. MobileLLM übertrifft vergleichbare Modelle in seiner Leistung und zeigt, dass auch kleinere Modelle in spezifischen Anwendungen mithalten können.