Veröffentlicht am 30. März 2025 von oschrammNeuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter Von „Gaslighting“ spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.