OpenAI hat GPT-5 vorgestellt, das sicherer sein soll. Doch neue Jailbreak-Techniken zeigen, dass es auch Schwächen hat.In KürzeGPT-5 nutzt „Safe-Completions“ für sicherere AntwortenNeuartige Jailbreaks umgehen SicherheitsmechanismenUnternehmen müssen zusätzliche Schutzmaßnahmen integrieren OpenAI...




