Few-Shot Learning

Few-Shot Learning bezeichnet eine Methode in der künstlichen Intelligenz, bei der ein KI-Modell neue Aufgaben mit nur wenigen Beispielen lernen kann. Im Gegensatz zum klassischen maschinellen Lernen, das oft tausende von Trainingsdaten benötigt, kommt Few-Shot Learning mit einer Handvoll Beispielen aus – manchmal reichen sogar nur zwei oder drei. Man kann sich das wie einen …

Weiterlesen …

Überlass KI nicht das Schreiben

Mich faszinieren und begeistern generative KI-Tools wie ChatGPT und andere. Aber es macht mich bisweilen fassungslos, wie sie zum Einsatz kommen. Vor Kurzem habe ich etwa KI-Plugins für WordPress ausprobiert. (Für den Smart Content Report arbeite ich derzeit an einem noch tiefer gehenden Bericht. Trage dich in den Newsletter ein, um den nicht zu verpassen.) …

Weiterlesen …

Transformer

Transformer sind eine bahnbrechende Architektur für künstliche neuronale Netze, die 2017 von Google entwickelt wurde und heute die Grundlage für moderne KI-Sprachmodelle wie ChatGPT, Claude oder Googles Gemini bildet. Der Name „Transformer“ bezieht sich auf die Fähigkeit dieser Systeme, Eingabedaten (zum Beispiel Texte) in eine andere Form zu transformieren. Das Besondere an Transformern ist ihre …

Weiterlesen …

Ist KI ein Produkt oder ein Feature?

Derzeit gibt es im KI-Markt zwei wesentliche Strömungen: KI als Produkt und KI als Feature. KI als Produkt kommt vor allem von Startups wie etwa OpenAI, Anthropic, Ideogram oder Runway. Du erstellst dir einen Account und bezahlst meist einen monatlichen Abopreis, um diese Tools nutzen zu können. Oft gibt es eine kostenlosen Probezugang mit Nutzungsbeschränkungen, …

Weiterlesen …

LLM Router

LLM Router (Large Language Model Router) ist ein System, das eingehende Anfragen automatisch an das jeweils am besten geeignete Sprachmodell weiterleitet. Ähnlich wie ein Verkehrsleitsystem entscheidet der Router, welches der verfügbaren KI-Modelle eine bestimmte Aufgabe am effizientesten lösen kann. Diese Auswahl erfolgt basierend auf verschiedenen Kriterien wie der Art der Anfrage, der erforderlichen Expertise, den …

Weiterlesen …

Drei Visionäre ebneten Weg für Durchbruch des Deep Learning

Trotz Skepsis von Kollegen trugen Geoffrey Hinton, Jensen Huang und Fei-Fei Li maßgeblich zur Revolution des Deep Learning bei, schreibt Timothy B. Lee. Hinton forschte jahrzehntelang an neuronalen Netzen und entwickelte den Backpropagation-Algorithmus für deren effizientes Training. Huang, CEO von Nvidia, erkannte das Potenzial von GPUs für Nicht-Grafik-Anwendungen und startete 2006 die CUDA-Plattform, die ein …

Weiterlesen …

Wenn KI Inhalte zu Daten macht, braucht es Menschen, um ihnen Sinn zu geben

Generative KI lässt die Unterscheidung zwischen Inhalten und Daten verschwimmen, so Robert Rose in einem Artikel für das Content Marketing Institute. Mit zunehmender Verbreitung von KI werden Unternehmen Menschen in neuen Rollen benötigen, um zu steuern, wie aus KI-generierten Erkenntnissen sinnvoller Mehrwert geschaffen wird, anstatt sich mit „ausreichend guten“ KI-Inhalten zufrieden zu geben. Rose betont, …

Weiterlesen …

Sind viele KI-Agenten in Wahrheit nur ausgeklügelte Automatisierung?

Viele kürzlich angekündigte „KI-Agenten“ seien in Wirklichkeit nur hochentwickelte Automatisierungssysteme, schreiben Brian Evergreen und Pascal Bornet für VentureBeat. Echte KI-Agenten können recherchieren, denken, entscheiden und handeln, um ein Ziel völlig autonom zu erreichen. Automatisierung hingegen folgt lediglich vordefinierten Abläufen, wenn bestimmte Bedingungen erfüllt sind. Um echte Agenten zu identifizieren, müsse man das Verhalten eines Systems …

Weiterlesen …

Die Frage, die ich mir bei neuen Tools und Services immer stelle

Ich sehe häufig, dass sich die Diskussion um den Sinn und Nutzen von KI-Tools allein darum dreht, ob sie die eigene Arbeit vollständig erledigen können oder nicht. Die Antwort ist oft klar: Nein, können sie nicht. Wenn du willst, findest du einen Weg, die KI dämlich aussehen zu lassen. Bis zu einem gewissen Grad ist …

Weiterlesen …

Lerne, wie eine KI zu denken

Wie Künstliche Intelligenz denkt und arbeitet – das lässt sich anhand einiger grundlegender Prinzipien besser verstehen. Die sogenannten Large Language Models (LLM) funktionieren im Kern wie ein hochentwickeltes Textvorhersage-System, das auf Basis riesiger Datenmengen das jeweils nächste Wort in einem Satz vorhersagt, erklärt Ethan Mollick in seinem 100. Substack-Beitrag. Diese KI-Systeme arbeiten mit einem begrenzten …

Weiterlesen …