„Many-shot jailbreaking“: KI-Modelle überlisten durch zu viele Fragen

Wenn man einem KI-Chatbot viele Fragen stellt, kann man ihn offenbar damit überlisten, seine Leitplanken zu überwinden.

Wenn man einem KI-Chatbot viele Fragen stellt, kann man ihn offenbar damit überlisten, seine Leitplanken zu überwinden.