Logo der Niedersächsischen Landeszentrale für politische Bildung Niedersachsen klar Logo

DeepFakes – Von kreierten Wahrheiten und geschaffenen Realitäten

Stellen Sie sich vor, Sie sehen auf YouTube ein Video, in dem Donald Trump als Präsident der Vereinigten Staaten China den Krieg erklärt. Ich bin mir sicher, Sie könnten nicht mit Garantie sagen, ob dieses Video echt ist. Vor dem Hintergrund von Trumps politischem Leitmotiv „Es gibt keine Tabus, alles ist möglich“ und dem Urvertrauen in das Medium Video fällt diese Entscheidung besonders schwer. Einen Einblick in DeepFakes bietet dieses Video. [0]

Warum sind DeepFakes, wie wir sie im hier vorgestellten Video sehen, so erfolgreich? Wie verändern sie die politische Kommunikation? Und bedeuten sie das Ende einer Ära, in der bewegte Bilder als Wahrheiten galten?

Schmuckgrafik Videokamera   Bildrechte: iStock / LightFieldStudios
Was sind DeepFakes?

Ein solches Szenario wie das oben skizzierte ist keine pure Fiktion mehr, auch kein rein theoretisches Konzept der politischen Kommunikation. Eindrückliches Beispiel für angewandte DeepFakes – eine Kombination aus Deep Learning[1] und Fakes – ist ein Video, in dem Trump die belgische Öffentlichkeit – augenscheinlich – zu einem Austritt aus dem Klimavertrag von Paris bewegen will.[2] Hinter dem Begriff Deep Learning verbergen sich Algorithmen und komplexe Verkettungen von Künstlichen Intelligenzen (KI), neuronale Netze genannt, die aus großen Datenmengen selbstständig Prognosen erstellen können. Fake meint das bewusste Manipulieren des Ursprungsmaterials.[3] So lässt sich z. B. aus wenigen Aufnahmen von Barack Obama ein neues, „gefaktes“ Bild des ehemaligen US-Präsidenten erschaffen. Dieses Bild wäre somit nie wirklich fotografiert, sondern durch eine Software künstlich erstellt – gefaked – worden. Nicht einmal Algorithmen können den Unterschied zwischen realen Bildern und Imitationen erkennen, und schon gar nicht wir Menschen.[4]

Beim DeepFaking werden vorhandene Videos, Audiodateien oder sogar bloß einzelne Bilder[5] von Personen genutzt, um neue, authentisch wirkende Videos zu erstellen. Mit dem sehr populären Tool „DeepFaceLab“[6] ist es erstaunlich einfach, überzeugende DeepFakes zu erschaffen. Das Programm erledigt bis auf die Auswahl der zu verwendenden Videos sämtliche Umsetzungsschritte allein. Seitdem mithilfe dieses Programms im Jahre 2017[7] die ersten Videos dieser Art entstanden sind, hat sich zudem die Qualität der DeepFakes stark weiterentwickelt.

Das Problem

Videos sind ein wichtiger Bestandteil der Medienlandschaft, allein YouTube hat rund zwei Milliarden monatliche aktive Nutzer_innen.[8] Abseits ihres Unterhaltungszwecks dienen Videos dazu, bspw. Straftaten festzuhalten, die Meinungsbildung zu fördern oder, wie im Fall der österreichischen „Ibiza-Affäre“, durch investigativen Journalismus eine Regierung zu Fall zu bringen. Die meisten Menschen haben großes Vertrauen[9] in die Echtheit und Authentizität von Videos; und das aus gutem Grund: Da Videos bereits seit Beginn der 1890er Jahre existieren,[10] Manipulationen aber erst viel später möglich wurden, konnte sich die Überzeugung, Videoaufnahmen seien quasi zwangsläufig wahrheitsgetreue Abbilder der Realität, verfestigen. Bis heute.

Zunächst sind DeepFakes schlichtweg Manipulationen von Videos – allerdings sehr geschickt produzierte und täuschend echt wirkende Manipulationen. Das Verhalten einer Person wird so detailliert nachgestellt, dass allein durch Beobachtung die Echtheit nicht mehr beurteilt werden kann. Sogar die Sprechweise einer Person kann durch Social Engineering[11] nahezu perfekt nachempfunden werden. Personen aus dem öffentlichen Leben werden zu Marionetten des_der Manipulierenden, die dank KI nahezu alles tun und sagen, was ihr_e Schöpfer_in befiehlt. Vor allem kann der_die Manipulierende die künstlichen Kreationen nutzen, um den eigenen Ansichten mehr Autorität zu verleihen.

Zudem funktionieren DeepFakes psychologisch hochgradig komplex. Das menschliche Gehirn hat für den Umgang mit Aussagen ohne direkt überprüfbaren Wahrheitsgehalt die „Bestätigungstendenz“ (den sog. Confirmation Bias) „entwickelt“. Eine zweifelhafte Situation wird so umgedeutet, dass sie den eigenen, bereits bestehenden Ansichten entspricht.[12]


Das Ende der Wahrheit

Als Ende des Jahres 1938 in den USA zum ersten Mal Ausschnitte von H. G. Wells’ „Krieg der Welten“ im Radio liefen, gerieten viele Zuhörer_innen in Panik und glaubten an eine nahende Alien-Invasion.[13] In den vergangenen 81 Jahren hat sich in der Darstellungsweise von Geschichten vieles verändert, Filme erschaffen wie nie zuvor alternative Realitäten. Die Technologie, die dabei zum Einsatz kommt, ist so weit fortgeschritten, dass man diese fiktiven Szenerien selbst für Abbilder der „Realität“ halten kann. Woher wissen wir trotzdem, dass wir nicht in der apokalyptischen Welt von „Mad Max“ leben? Kurz gesagt: durch unsere Fähigkeit, zu abstrahieren – also durch das Einordnen des Gesehenen oder Gehörten anhand zusätzlicher Informationen. Ohne diese Informationen ist jedoch nicht mehr möglich, die Wahrheit zu erkennen.

Auch wenn der Journalismus eine entscheidende Rolle bei der Einordnung von Fakten spielt, stehen wir doch vor einer gewaltigen „Wahrheitskrise“. Eine Studie des Pew Research Center[14] aus dem Jahr 2019 zeigt, dass das Vertrauen in Nachrichten bereits massiv gesunken ist und in der Folge weniger Nachrichten konsumiert werden. Dies liegt u.a. daran, dass es sehr viel Mühe kosten würde, jede einzelne Nachricht zu überprüfen, weshalb viele Menschen lieber gleich darauf verzichten, sich mit den Meldungen auseinanderzusetzen. Aviv Ovadya, Fake-News-Forscher an der Stanford University, prägte passend dazu den Term „reality apathy“[15], zu Deutsch: Realitäts-Apathie, also das nahezu vollkommene Desinteresse an den Geschehnissen in der Realität außerhalb der eigenen Lebenswelt.

Gleichzeitig gerät die Realität, insbesondere Fakten, in den Bereich der „plausible deniability“ (zu Deutsch: „Glaubhafte Abstreitbarkeit“): Jede Information könnte erfunden worden sein, was es sehr einfach macht, Bildern oder Videos nach Gutdünken kurzerhand die Authentizität abzusprechen. So hat bspw. der Kommunikationsminister des Landes Kamerun im Jahr 2018 ein von Amnesty International veröffentlichtes Video, in dem Kameruns Armee Zivilisten exekutiert, als Fake News bezeichnet.[16]


Die Lösung?

„Once a political narrative is shifted, it’s almost impossible to bring it back to its original trajectory.”
Eileen Donahoe

Auch wenn Künstliche Intelligenzen nicht nur immer besser darin werden, DeepFakes zu schaffen, sondern auch darin, diese zu entlarven, genügt es nicht, die Fälschungen im Nachhinein offenzulegen, weil das Interesse an solch retrospektiven Aufklärungen in einer schnelllebigen Medienlandschaft meist viel zu gering ist. Ein anderer Ansatz sieht vor, Original-Videos online mit einem digitalen Wasserzeichen zu versehen und in einer Blockchain zu speichern. In einer Blockchain werden Informationen nicht, wie es bei herkömmlichen Datensystemen üblich ist, neben-, sondern nacheinander gespeichert. Daher besteht jede Information zum Teil auch aus einer vorausgegangenen Information. Zusätzlich werden durch kryptografische Maßnahmen, ähnlich dem mittelalterlichen Konzept des Kerbstockes, mehrere Versionen des Datensatzes permanent miteinander verglichen. Dieses Verfahren wird auch bei den meisten digitalen Währungen angewendet und ist vor Manipulationen nahezu sicher. Trotz dieser technischen Lösungen ist es eine – zunehmend – wichtige Aufgabe der politischen Bildung, dafür zu sorgen, dass Menschen durch DeepFakes nicht in Apathie verfallen, sondern die eigene Medienkompetenz weiterentwickeln und souveräne Nutzer_innen digitaler Medien bleiben bzw. werden.

Um diesen Artikel mit einem positiven Schlussakkord zu beenden: DeepFakes lassen sich durchaus auch positiv nutzen. Das „Project Revoice“ bspw. hat eine Technologie entworfen, mit der an ALS erkrankte Menschen ihre Stimme zurückerhalten können.[17] Auch Synchronsprecher_innen ermöglicht DeepFake-Technologie eine neue Arbeitsebene: Die Filmcharaktere können erstmals an die Sprache der Synchronsprecher_innen angepasst werden – und nicht andersherum. Um allerdings zwischen den negativen und positiven Facetten von DeepFakes unterscheiden zu können, bedarf es zunächst eines kompetenten Umgangs mit dieser Technologie.




[0][0] [0] [0] [0] [0] [0] [0] [0] [0] Das Video "Face2Face: Real-time Face Capture and Reenactment of RGB Videos (CVPR 2016 Oral)" wird zur Verfügung gestellt von Prof. Nießner und seiner Forschungsgruppe Visual Computing & Artificial Intelligence an der TU München: http://niessnerlab.org/projects/thies2016face.html

[1] Vgl. Rouse, Margaret: deepfake (deep fake AI) – Definition, in: WhatIs, Juni 2018, URL: https://whatis.techtarget.com/definition/deepfake [eingesehen am 17.02.2020].

[2] Vgl. von der Burchard, Hans: Belgian socialist party circulates „deep fake“ Donald Trump video, in: Politico, 21.05.2018, URL: https://www.politico.eu/article/spa-donald-trump-belgium-paris-climate-agreement-belgian-socialist-party-circulates-deep-fake-trump-video/, 21.05.2018 [eingesehen am 17.02.2020].

[3] Vgl. Jones, Nicola: Computer Science: The learning machines, in: Nature, H. 505, 09.01.2014, S. 146–148.

[4] Vgl. Schwartz, Oscar: You thought fake news was bad? Deep fakes are where truth goes to die, in: The Guardian, 12.09.2019, URL: https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth [eingesehen am 17.02.2020].

[5] Vgl. Breithut, Jörg: Künstliche Intelligenz – Forscher lassen Mona Lisa sprechen, in: Spiegel Online, 24.05.2019, URL: https://www.spiegel.de/netzwelt/gadgets/kuenstliche-intelligenz-forscher-lassen-die-mona-lisa-sprechen-a-1269221.html [eingesehen am 17.02.2020].

[6] Das Tool „DeepFaceLab“ ist über ein GitHub Repository zu erreichen unter URL: https://github.com/iperov/DeepFaceLab [eingesehen am 30.03.2020].

[7] Vgl. Nguyen, Thanh Thi u.a.: Deep Learning for Deepfakes Creation and Detection, 25.09.2019, URL: https://arxiv.org/pdf/1909.11573.pdf [eingesehen am 11.03.2020].

[8] So die Angaben von YouTube unter URL: https://www.youtube.com/intl/en-GB/about/press/ [eingesehen am 17.02.2020].

[9] Siehe Statista Research Department: How much trust do you have in the following media?, in: statista, 26.11.2019, URL: https://www.statista.com/statistics/422735/europe-trust-in-the-media-by-type/ [eingesehen am 11.03.2020].

[10] Smith, Ian: „Roundhay Garden Scene“ recorded in 1888 is believed to be the oldest surviving film in existence, in: The Vintage News, 10.01.2016, URL: https://www.thevintagenews.com/2016/01/10/roundhay-garden-scene-is-believed-to-be-the-oldest-known-video-footage/ [eingesehen am 17.02.2020].

[11] Vgl. Köpf, Alexander: Deepfake Voice: Betrüger imitieren Stimme eines CEO und erbeuten 243.000 US-Dollar, in: GameStar, 03.09.2019, URL: https://www.gamestar.de/artikel/deepfake-voice-betrueger-imitieren-stimme-eines-ceo-und-erbeuten-243000-us-dollar,3348516.html [eingesehen am 17.02.2020].

[12] Vgl. Oswald, Margit E./Grosjean, Stefan: Confirmation Bias, in: Pohl, Rüdiger F. (Hrsg.): Cognitive illusions – a handbook on fallacies and biases in thinking, judgement and memory, New York 2004, S. 79–96.

[13] Vgl. Schmidt, Volker: „Krieg der Welten“ – Die Außerirdischen sind da, in: Zeit Online, 30.10.2013, URL: https://www.zeit.de/wissen/geschichte/2013-10/krieg-der-welten-radio-orson-welles [eingesehen am 17.02.2020].

[14] Siehe Mitchell, Amy u.a.: Many Americans Say Made-Up News Is a Critical Problem That Needs To Be Fixed, in: Pew Research Center, 05.06.2019, URL: https://www.journalism.org/2019/06/05/many-americans-say-made-up-news-is-a-critical-problem-that-needs-to-be-fixed/ [eingesehen am 17.02.2020].

[15] Warzel, Charlie: He Predicted The 2016 Fake News Crisis. Now He’s Worried About An Information Apocalypse, in: Buzzfeed News, 11.02.2018, URL: https://www.buzzfeednews.com/article/charliewarzel/the-terrifying-future-of-fake-news [eingesehen am 17.02.2020].

[16] Siehe Daoud, Samira: Cameroon: Credible evidence that Army personnel responsible for shocking extrajudicial executions caught on video, in: Amnesty International: News, 12.07.2018, URL: https://www.amnesty.org/en/latest/news/2018/07/cameroon-credible-evidence-that-army-personnel-responsible-for-shocking-extrajudicial-executions-caught-on-video/ [eingesehen am 11.03.2020].

[17] Vgl. dazu den Unternehmensauftritt unter URL: https://www.projectrevoice.org/ [eingesehen am 30.03.2020].

Autor: Alexander Steding

Inhalte, die von Dritten verfasst wurden, beruhen auf der jeweiligen fachlichen Einschätzung oder Meinung. Sie spiegeln nicht unbedingt die Haltung der LpB wider.

zum Seitenanfang
zur mobilen Ansicht wechseln