Wenn man einem KI-Chatbot viele Fragen stellt, kann man ihn offenbar damit überlisten, seine Leitplanken zu überwinden.
„Many-shot jailbreaking“: KI-Modelle überlisten durch zu viele Fragen
Wenn man einem KI-Chatbot viele Fragen stellt, kann man ihn offenbar damit überlisten, seine Leitplanken zu überwinden.