Zunehmender Missbrauch von GenAI: Deepfake-Tools werden immer zugänglicher
Mit Jailbreak-as-a-Service-Frontends können Nutzer böswillige Fragen an Large Language Models in spezielle Eingabeaufforderungen verpacken, was den ethischen Codex der KI-Tools umgeht. Tools wie SwapFace und Avatar AI VideoCallSpoofer bieten die Möglichkeit, Echtzeit-Videoanrufe zu fälschen. […]