Forscher aus Washington und Chicago haben mit „ArtPrompt“ eine neue Methode entwickelt, um Sicherheitsmaßnahmen in Sprachmodellen zu umgehen. Demnach können Chatbots wie GPT-3.5, GPT-4, Gemini, Claude und Llama2 mit ASCII-Art-Prompts dazu gebracht werden, auf Anfragen zu antworten, die sie eigentlich ablehnen sollten. Dazu gehören etwa Ratschläge zum Bombenbau und zur Herstellung von Falschgeld. Quellen: Tom’s Hardware, Ars Technica