Jailbreak mit ASCII-Trick

Forscher aus Washington und Chicago haben mit „ArtPrompt“ eine neue Methode entwickelt, um  Sicherheitsmaßnahmen in Sprachmodellen zu umgehen. Demnach können Chatbots wie GPT-3.5, GPT-4, Gemini, Claude und Llama2 mit ASCII-Art-Prompts dazu gebracht werden, auf Anfragen zu antworten, die sie eigentlich ablehnen sollten. Dazu gehören etwa Ratschläge zum Bombenbau und zur Herstellung von Falschgeld. Quellen: Tom’s HardwareArs Technica

Mehr zum Thema:

Bleib up-to-date: