Veröffentlicht am 5. Februar 2025 von oschrammAnthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.