Google-Forscher geben KI „unbegrenzte“ Aufmerksamkeitsspanne

Google-Forscher haben mit „Infini-attention“ eine Technik entwickelt, die es Sprachmodellen ermöglicht, Texte von theoretisch unendlicher Länge zu verarbeiten, ohne zusätzlichen Speicher- und Rechenaufwand zu benötigen. Quelle: VentureBeat

Google zeigt neue KI-Angebote für Unternehmen

Google präsentierte auf seiner jährlichen Cloud-Computing-Konferenz in Las Vegas eine Reihe von Updates für seine KI-Angebote im Unternehmensbereich. Trotz jüngster Pannen bei verbraucherorientierten Tools betonte das Unternehmen, dass die Technologie sicher und einsatzbereit für den Unternehmensbereich sei. Google Cloud CEO Thomas Kurian demonstrierte, wie das leistungsstärkste KI-Modell Gemini für Werbung, Cybersicherheit, Videos und Podcasts genutzt werden … Weiterlesen …

Förderprogramm für generative KI

Google.org startet ein 20-Millionen-Dollar-Förderprogramm für gemeinnützige Organisationen, die generative KI-Technologien entwickeln. Das sechsmonatige Programm umfasst finanzielle Unterstützung, technisches Training, Workshops und Mentoring, um die Teilnehmer bei der Umsetzung ihrer KI-Projekte zu unterstützen, die von Übersetzungsdiensten für Flüchtlinge bis hin zur Optimierung von Anträgen auf Sozialleistungen reichen.

Diese acht Personen haben ChatGPT möglich gemacht – bei Google

Dieser Wired-Artikel erzählt die Geschichte hinter der Entwicklung der „Transformer“, einer revolutionären KI-Architektur, die moderne Sprachmodelle wie ChatGPT antreibt. Ein Team von acht Google-Forschern entwickelte den Transformer im Jahr 2017 auf der Grundlage des Konzepts der Aufmerksamkeit (Attention). Das Team arbeitete intensiv an der Fertigstellung des Papiers vor einem wichtigen Konferenztermin, und ihr Durchbruch wurde … Weiterlesen …

Google VLOGGER animiert Menschen von nur einem Foto

Google-Forscher zeigen VLOGGER, das aus einem einzigen Foto lebensechte Videos von Menschen erstellen kann, die sprechen, gestikulieren und sich bewegen. Das eröffnet eine Reihe potenzieller Anwendungen, wirft aber auch Bedenken hinsichtlich Fälschungen und Fehlinformationen auf. Quelle: VentureBeat

Google bezahlt Verleger für KI-Tool-Nutzung

Google bezahlt Verleger dafür, ein neues KI-Angebot zu nutzen. Laut Google soll es vor allem Journalisten kleinerer Medienangebote bei der Arbeit helfen, heißt es bei AdWeek.

Google blamiert sich mit Geminis „political correctness“

Wir hatten bereits über Googles KI-Offensive unter dem „Gemini“-Banner berichtet, aber bald darauf machte vor allem der integrierte Bildgenerator Schlagzeilen: Er war offenbar zu sehr auf Diversität getrimmt. Was generell eine gute Idee ist, ergibt keinen Sinn, wenn man etwa ein Bild der „Gründerväter“ der USA haben möchte. Google schränkte folgend den Bildgenerator ein, so dass … Weiterlesen …

Was KI-Suchmaschinen wie Perplexity fürs Content-Marketing bedeuten

Im Content-Marketing werden gern Themen behandelt, die eine möglichst breite Leserschaft ansprechen. Auf diese Weise sollen die anvisierten Zielgruppen die Website des Unternehmens entdecken und sich im nächsten Schritt etwa in einen Newsletter eintragen. Die Inhalte zielen auf den Beginn der Customer Journey. Diese Themen aber sind oftmals recht banal. Dementsprechend zeichnet sich nicht erst … Weiterlesen …

Viele Updates für Google Gemini

Google hat die Schlagzahl bei der KI-Entwicklung sichtbar erhöht. Zugleich vereint das Unternehmen seine Aktivitäten unter der Marke „Gemini“. Der ChatGPT-Konkurrent Google Bard hört deshalb nun auf den Namen Google Gemini und die proprietären KI-Modelle heißen ebenfalls Gemini. Bislang nutzte Googles Chatbot das „Gemini Pro“ KI-Modell, nun ist außerdem „Gemini Ultra“ in seiner Version 1.0 … Weiterlesen …

Google zeigt Gemma, eine neue Familie von Open-Source-KI-Modellen

Während Googles Gemini-Angebote (siehe oben) proprietär sind, hat das Unternehmen nun zwei Open-Source-Modelle unter dem Namen Gemma vorgestellt, die sich frei nutzen lassen. Sie sind nach offiziellen Angaben auf Grundlage derselben Techniken entstanden, die für Gemini zum Einsatz kamen. Mit 2 Milliarden und 7 Milliarden Parametern sind die beiden Gemma-Modelle klein und haben begrenzte Fähigkeiten. … Weiterlesen …