Anthropic veröffentlicht Leitfaden für effektive KI-Agenten

Anthropic hat einen detaillierten Leitfaden zur Entwicklung effektiver KI-Agenten auf Basis großer Sprachmodelle (LLMs) veröffentlicht, der auf ihrer Zusammenarbeit mit zahlreichen Teams aus verschiedenen Branchen basiert. Die Autoren Erik Schluntz und Barry Zhang betonen, dass die erfolgreichsten Implementierungen auf einfachen, kombinierbaren Mustern basieren und nicht auf komplexen Frameworks. Das Unternehmen unterscheidet zwischen zwei Arten von …

Weiterlesen …

Apple und Nvidia kooperieren bei KI-Beschleunigung

Apple und Nvidia haben die Integration von Apples ReDrafter-Technologie in Nvidias TensorRT-LLM-Framework bekannt gegeben, die eine schnellere Verarbeitung großer Sprachmodelle (LLMs) auf Nvidia-GPUs ermöglicht. ReDrafter, ein von Apple entwickelter Open-Source-Ansatz für spekulatives Dekodieren, nutzt rekurrente neuronale Netze zur Vorhersage zukünftiger Token bei der Texterzeugung, kombiniert mit Beam-Search und Tree-Attention-Algorithmen. Die Zusammenarbeit hat zu deutlichen Leistungsverbesserungen …

Weiterlesen …

ChatGPT erweitert Desktop-Integration

OpenAI hat die Integrationsmöglichkeiten von ChatGPT für Desktop-Anwendungen deutlich ausgebaut. Wie Emilia David von VentureBeat berichtet, umfasst die Erweiterung nun zahlreiche Entwicklungsumgebungen (IDEs), Terminal-Programme und Textanwendungen. Die neue Version unterstützt bekannte Entwicklertools wie MatLab, die JetBrains IDE-Familie sowie verschiedene Texteditoren, darunter Apple Notes und Notion. Auch der erweiterte Sprachmodus (Advanced Voice Mode) funktioniert jetzt mit …

Weiterlesen …

Coding-Assistent Cursor erhält 100 Millionen Dollar Finanzierung

Der KI-gestützte Programmierassistent Cursor hat eine Series-B-Finanzierung von 100 Millionen Dollar erhalten. Wie Marina Temkin von TechCrunch berichtet, führte Thrive Capital die Finanzierungsrunde an. Die Bewertung des Unternehmens liegt nun bei 2,6 Milliarden Dollar. Cursor wurde 2022 von vier MIT-Studenten gegründet. Das Unternehmen verzeichnet mittlerweile monatliche Einnahmen von 4 Millionen Dollar. Der Dienst bietet ein …

Weiterlesen …

Neues KI-Bewertungsmodell erreicht GPT-4-Niveau mit weniger Ressourcen

Das Startup Patronus AI hat ein bahnbrechendes KI-Bewertungsmodell entwickelt, das mit deutlich geringerem Ressourceneinsatz vergleichbare Ergebnisse wie größere Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, verwendet das neue Open-Source-Modell namens Glider nur 3,8 Milliarden Parameter und erreicht dennoch die Leistung von GPT-4 in wichtigen Bewertungskriterien. Das von ehemaligen Meta-AI-Forschern gegründete Unternehmen hat Glider so …

Weiterlesen …

Google stellt neue Methode zur Überprüfung der KI-Genauigkeit vor

Google hat ein neues Bewertungssystem namens FACTS Grounding eingeführt, das die Genauigkeit von Sprachmodellen bei der Verwendung von Quellinformationen überprüft. Das vom FACTS-Team bei Google DeepMind und Google Research entwickelte System umfasst 1.719 Testbeispiele aus verschiedenen Bereichen wie Finanzen, Technologie und Medizin. Drei fortschrittliche KI-Modelle – Gemini 1.5 Pro, GPT-4o und Claude 3.5 Sonnet – …

Weiterlesen …

OpenAI macht KI-Modell o1 für Entwickler verfügbar

OpenAI hat sein fortschrittliches KI-Modell o1 für Drittentwickler freigegeben. Wie Carl Franzen für VentureBeat berichtet, erfolgt der Zugang über die API-Schnittstelle des Unternehmens. Das im September 2024 vorgestellte o1-Modell unterscheidet sich von herkömmlichen Sprachmodellen durch erweiterte Analysefähigkeiten. Es überprüft seine Antworten selbstständig, um Fehler zu vermeiden. Das Modell verarbeitet komplexe Aufgaben auf hohem Niveau. Die …

Weiterlesen …

Nvidia und DataStax stellen neues KI-Speichersystem vor

Nvidia und DataStax haben eine neue KI-Technologie eingeführt, die den Speicherbedarf für generative KI-Systeme um das 35-fache reduziert. Wie Michael Nuñez für VentureBeat berichtet, ermöglicht der Nvidia NeMo Retriever in Kombination mit DataStax’s KI-Plattform eine schnellere und präzisere Informationssuche in mehreren Sprachen. Bei der Wikimedia Foundation hat die Technologie bereits die Verarbeitungszeit von 10 Millionen …

Weiterlesen …

Cohere stellt kompaktes KI-Sprachmodell Command R7B vor

Das KI-Unternehmen Cohere hat ein neues kompaktes Sprachmodell namens Command R7B eingeführt. Wie Taryn Plumb von VentureBeat berichtet, unterstützt das Modell 23 Sprachen und ist auf RAG-Technologie (Retrieval-Augmented Generation) spezialisiert. Command R7B übertrifft vergleichbare Modelle von Google, Meta und Mistral bei Mathematik- und Programmieraufgaben. Das Modell verfügt über eine Kontextlänge von 128K und läuft auf …

Weiterlesen …

Neue KI-Technik reduziert Speicherverbrauch von Sprachmodellen

Das japanische Startup Sakana AI hat eine innovative Technologie entwickelt, die den Speicherverbrauch von großen Sprachmodellen um bis zu 75% senkt. Ben Dickson berichtet über diese neue Methode namens „universal transformer memory“. Das System verwendet neural attention memory modules (NAMMs), die automatisch entscheiden, welche Informationen wichtig sind und welche verworfen werden können. Die Technologie wurde …

Weiterlesen …