Deepfake-Pornografie - Deepfake pornography

Deepfake-Pornografie oder einfach gefälschte Pornografie ist eine Art synthetischer Porno , der durch Ändern einer bereits vorhandenen pornografischen Veröffentlichung durch Anwenden von Deepfake- Technologie auf die Gesichter des Schauspielers oder der Schauspielerin erstellt wird. Deepfake-Pornos waren sehr umstritten, da sie häufig verwendet wurden, um die Gesichter weiblicher Prominenter auf die Körper von Pornodarstellern zu legen, deren Abbild normalerweise ohne deren Zustimmung verwendet wird.

Geschichte

Deepfake-Pornografie tauchte 2017 prominent im Internet auf, insbesondere auf Reddit . Der erste, der Aufmerksamkeit erregte, war der Deepfake von Daisy Ridley , der in mehreren Artikeln vorgestellt wurde. Andere prominente pornografische Deepfakes waren von verschiedenen anderen Prominenten. Ein im Oktober 2019 veröffentlichter Bericht des niederländischen Cybersicherheits-Startups Deeptrace schätzt, dass 96 % aller Online-Deepfakes pornografisch waren.

Im Dezember 2017 veröffentlichte Samantha Cole in Vice einen Artikel über r/deepfakes , der die erste Mainstream-Aufmerksamkeit auf Deepfakes lenkte, die in Online-Communitys geteilt wurden. Sechs Wochen später schrieb Cole in einem Folgeartikel über den starken Anstieg der KI-gestützten gefälschten Pornografie. Seit 2017 veröffentlicht Samantha Cole von Vice eine Reihe von Artikeln über Neuigkeiten rund um Deepfake-Pornografie.

Seitdem haben mehrere Social-Media-Kanäle verboten oder Anstrengungen unternommen, Deepfake-Pornografie einzuschränken. Vor allem das Subreddit r/deepfakes auf Reddit wurde am 7. Februar 2018 aufgrund des Richtlinienverstoßes gegen „unfreiwillige Pornografie“ verboten. Im selben Monat gaben Vertreter von Twitter bekannt , dass sie Konten sperren würden, die verdächtigt werden, nicht einvernehmliche Deepfake-Inhalte zu veröffentlichen.

Scarlett Johansson , ein häufiges Thema von Deepfake-Pornos, sprach im Dezember 2018 öffentlich gegenüber der Washington Post über das Thema. In einer vorbereiteten Erklärung drückte sie aus, dass sie trotz Bedenken nicht versuchen würde, ihre Deepfakes zu entfernen, da sie davon überzeugt ist, dass sie haben keinen Einfluss auf ihr öffentliches Image und dass unterschiedliche Gesetze in den einzelnen Ländern und die Natur der Internetkultur jeden Versuch machen, die Deepfakes zu entfernen, "eine verlorene Sache". Während Prominente wie sie durch ihren Ruhm geschützt sind, aber sie glaubt , dass deepfakes eine ernste Bedrohung für die Frauen von geringerer Bedeutung darstellen , die ihren Ruf beschädigt durch Darstellung in unfreiwilliger deepfake Pornografie oder haben könnten Rache Porno .

DeepNude

Im Juni 2019 wurde eine herunterladbare Windows- und Linux- Anwendung namens DeepNude veröffentlicht, die neuronale Netzwerke, insbesondere generative gegnerische Netzwerke , verwendet, um Kleidung von Frauenbildern zu entfernen. Die App hatte sowohl eine kostenpflichtige als auch eine unbezahlte Version, die kostenpflichtige Version kostete 50 US-Dollar. Am 27. Juni haben die Macher die Anwendung entfernt und den Verbrauchern erstattet, obwohl verschiedene Kopien der App, sowohl kostenlos als auch kostenlos, weiterhin existieren. Auf GitHub wurde die Open-Source- Version dieses Programms namens "open-deepnude" gelöscht. Die Open-Source-Version hatte den Vorteil, dass sie mit einem größeren Datensatz von Nacktbildern trainiert werden konnte, um die Genauigkeit der resultierenden Nacktbilder zu erhöhen.

Deepfake-CSAM

Die Deepfake-Technologie hat die Erstellung von Material zum sexuellen Missbrauch von Kindern (CSAM), das oft auch als Kinderpornografie bezeichnet wird, schneller, sicherer und einfacher als je zuvor gemacht. Deepfakes können verwendet werden, um neues CSAM aus bereits vorhandenem Material zu erstellen oder CSAM aus Kindern zu erstellen, die nicht sexuell missbraucht wurden. Deepfake CSAM kann jedoch echte und direkte Auswirkungen auf Kinder haben, einschließlich Verleumdung, Pflege, Erpressung und Mobbing. Darüber hinaus stellt Deepfake-Kinderpornografie weitere Hürden für die Polizei dar, die strafrechtliche Ermittlungen und die Identifizierung von Opfern erschweren.

Ethische Debatte

Kann Deepfake Pornografie Software missbraucht werden Pseudo erstellen Rache Porno auf ein Individuum, das eine Form von Belästigung angesehen werden kann.

Derzeit ist das von Software wie DeepNude produzierte Filmmaterial noch lange nicht ausgereift genug, um bei forensischer Analyse nicht von echtem Filmmaterial zu unterscheiden.

Bemühungen von Unternehmen, Deepfake-Pornografie-Filmmaterial einzuschränken

Am 31. Januar 2018 begann Gfycat damit, alle Deepfakes von seiner Website zu entfernen.

Im Februar 2018 wurde r/deepfakes von Reddit verboten, weil es unfreiwillige Pornografie geteilt hatte. Auch andere Websites haben die Verwendung von Deepfakes für unfreiwillige Pornografie verboten, darunter die Social-Media-Plattform Twitter und die Pornografie-Site Pornhub . Einige Websites haben jedoch keine Deepfake-Inhalte verboten, darunter 4chan und 8chan .

Ebenfalls im Februar 2018 sagte Pornhub , dass es Deepfake-Videos auf seiner Website verbieten würde, da es als „nicht einvernehmlicher Inhalt“ gilt, der gegen ihre Nutzungsbedingungen verstößt. Sie haben Mashable zuvor auch erklärt, dass sie als Deepfakes gekennzeichnete Inhalte entfernen werden. Autoren von Motherboard von Buzzfeed News berichteten, dass die Suche nach "Deepfakes" auf Pornhub immer noch mehrere aktuelle Deepfake-Videos ergab.

Die Chat-Site Discord ist in der Vergangenheit gegen Deepfakes vorgegangen und hat eine generelle Haltung gegenüber Deepfakes eingenommen. Im September 2018 fügte Google seiner Verbotsliste "unfreiwillige synthetische pornografische Bilder" hinzu, sodass jeder den Block von Ergebnissen anfordern kann, die seine gefälschten Akte zeigen.

Verweise