Die Gefahr durch künstliche Intelligenz wächst mit Blick auf Deepfake-Pornografie rasant.
Mit dem enormen Aufschwung von Künstlicher Intelligenz nimmt die Bedrohung durch Deepfake-Pornografie alarmierende Ausmaße an, wie CNN berichtet. Laut Carrie Goldberg, die als Anwältin Opfer von Online-Belästigung und Sexualverbrechen vertritt, ist es heute möglich, jedes beliebige Gesicht auf einen nackten Körper zu setzen – selbst wenn diese Person niemals ein Nacktbild von sich versendet oder gar geknipst hat. Immer mehr Menschen fallen derartigen Cyber-Verbrechen zum Opfer, allen voran prominente Persönlichkeiten wie Taylor Swift oder Giorgia Meloni, aber auch Ottonormalverbraucher sowie minderjährige Mädchen.
Besonders für junge Betroffene ist es äußerst problematisch, wenn ihnen so etwas widerfährt. Goldberg erklärt, dass die Opfer im digitalen Raum meist verloren und überfordert sind – sie schämen sich und wüssten nicht, wie sie mit der Situation umgehen sollen. Dabei ist Goldberg nach der erste entscheidende Schritt, um sich zu schützen, die “Beweise” zu sichern – auch wenn man die Bilder am liebsten sofort löschen würde. Ohne Beweise wird es nämlich schwierig, die ganze Sache strafrechtlich zu verfolgen.
Neben der Sicherung von Beweisen können Opfer verschiedene Möglichkeiten zur Entfernung der Bilder in Anspruch nehmen. Plattformen wie Google oder Meta bieten Formulare zur Löschung an, während sich Organisationen wie StopNCII.org für die sofortige Entfernung der Bilder über mehrere Plattformen hinweg einsetzen.