Google Prompt Poet hilft mit komplexen Prompts

Google hat mit Prompt Poet ein innovatives Tool für fortgeschrittenes Prompt Engineering eingeführt. Wie Michael Trestman bei VentureBeat berichtet, vereinfacht das von Character.ai entwickelte System die Erstellung komplexer Prompts für große Sprachmodelle durch ein benutzerfreundliches Template-System. Prompt Poet integriert dabei nahtlos externe Daten und ermöglicht so kontextbezogene KI-Antworten. Die Besonderheit von Prompt Poet liegt in …

Weiterlesen …

Replit Agent hilft beim Coden kompletter Anwendungen

Replit hat einen KI-Agenten eingeführt, der komplette Anwendungen von Grund auf erstellen kann. Wie Chris McKay in einem Beitrag für Maginative berichtet, geht es dabei um weit mehr als einen Coding-Assistenten. Der Agent kann selbstständig Software entwickeln, von der Projektplanung über das Schreiben von Code bis hin zum Debugging und Deployment. Laut Replit-CEO Amjad Masad …

Weiterlesen …

Neues KI-Modell der Entwickler-Suchmaschine Phind

Phind führt ein neues KI-Modell namens Phind-405B ein, das auf technische Aufgaben spezialisiert ist. Das Unternehmen gab dies in einem Blogbeitrag bekannt. Phind ist eine intelligente Suchmaschine für Entwickler, die generative KI nutzt, um Probleme zu lösen und Ideen in funktionierende Produkte umzusetzen. Das neue Modell basiert auf Meta Llama 3.1 405B und kann 128.000 …

Weiterlesen …

AnythingLLM: Chat mit Dokumenten

Eine neue KI-Anwendung namens AnythingLLM ermöglicht es Nutzern, mit beliebigen Dokumenten zu chatten. Die Software unterstützt verschiedene KI-Sprachmodelle und Vektordatenbanken. Laut der Entwickler können Nutzer damit eine private ChatGPT-ähnliche Anwendung erstellen, die lokal oder remote gehostet werden kann. AnythingLLM bietet Funktionen wie Multimodalität, Multi-User-Support und eingebettete Chat-Widgets. Die Anwendung ist in drei Hauptteile gegliedert: ein …

Weiterlesen …

Maitai überwacht und optimiert LLM-Outputs

Ein neues KI-Startup namens Maitai hat eine Plattform entwickelt, die den Einsatz von Large Language Models (LLMs) in der Praxis optimieren soll. Wie die Gründer Christian und Ian auf Hacker News berichten, analysiert Maitai als Proxy den Datenverkehr zwischen Anwendung und LLM. Das System erkennt automatisch Fehler, korrigiert sie in Echtzeit und verbessert die Modelle …

Weiterlesen …

Anthropic hilft mit besseren Prompts

Anthropic hat neue Funktionen für sein Sprachmodell Claude veröffentlicht, die Entwicklern helfen sollen, bessere Prompts zu erstellen und so die Leistung ihrer KI-Anwendungen zu optimieren. 

LiveBench ist ein neuer Benchmark für LLMs

LiveBench ist ein neuer Benchmark für große Sprachmodelle, die von einem Wissenschaftlerteam entwickelt wurde. Im Gegensatz zu bestehenden Benchmarks verwendet er ständig aktualisierte Fragen aus aktuellen Quellen und bewertet die Antworten automatisch anhand objektiver Kriterien. Das Team hat sich besonders bemüht, die Gefahr der „Contamination“ zu vermeiden, bei der die Trainingsdaten eines Sprachmodells die Testdaten eines …

Weiterlesen …

Kongs „AI Gateway“ ist eine neue Plattform für Enterprise-KI

Kong Inc. hat sein „AI Gateway“ veröffentlicht, eine Plattform, die Unternehmen die Kontrolle und sichere Nutzung von generativer KI in verschiedenen Cloud-Umgebungen erleichtern soll. Laut Kong ermöglicht das Gateway die Integration und Verwaltung verschiedener KI-Technologien über eine einzige Schnittstelle und bietet unter anderem Sicherheitsfunktionen, die Missbrauch durch Manipulation der Eingaben (Prompts) für KI-Modelle verhindern sollen.

Nvidia zeigt neues Modell für synthetische Daten

Nvidias neues, offenes Sprachmodell Nemotron-4 340B soll laut Unternehmensangaben die Generierung synthetischer Daten revolutionieren und Unternehmen die Möglichkeit geben, maßgeschneiderte KI-Modelle zu entwickeln. 

Mistral bietet mehr Optionen für Anpassungen

Das französische KI-Startup Mistral bietet neue Möglichkeiten zur Anpassung seiner generativen Modelle, darunter kostenpflichtige Tarife und ein neues Software Development Kit (SDK). Damit können Entwickler und Unternehmen die Modelle für spezifische Anwendungsfälle optimieren.