You are here

„Deep-Fake“-Technologie?

Zu Beginn ein geschmackloser Witz, ein sehr geschmackloser Witz sogar. Halten Sie es aus?

Gahh! Beinahe schäme ich mich ihn hier preiszugeben. Sie sehen: Ich kämpfe mit mir…Okay okay, aber nur dieses eine Mal und zwar aus guten Gründen…

Der Witz: Was haben die Saudi-Schlapphüte mit Jamal Khashoggi gemacht?

Die Antwort: Sie haben ihn…gehackt.

Aua! Tut mir leid. Geschmackloser kann kein Witz sein. Vielleicht wirkt er auf Englisch noch grausamer.

Eigentlich gibt es aber Schlimmeres als meinen geschmacklosen Witz. Zum Beispiel die „deep-fake“ Technologie. Mal davon gehört?

Aber der Reihe nach. Zuerst ein Beispiel der alten Fake-Technologie, als sie noch nicht „deep“ war:

Bis 1927 waren J. Stalin und L. Trotzki die wichtigsten Figuren der jungen Bolschewiki-Revolution. In diesem Jahr kam es dann zum Showdown. Stalin siegte, Trotzki ging ins Exil (um dann später in Mexiko „gehackt“ zu werden – siehe die Geschichtsbücher).

Vor vielen Jahren erzählte mir D., dass seine zwei Onkel leidenschaftliche Kommunisten waren. Einer stand auf Trotzki, der andere war Stalin-Fanboy. Seit 1927 sprachen sie miteinander nie wieder. So wirkt die Politik auf Normalsterbliche.

Aber zurück zur Fake-Technologie: Stalin ließ damals alle Fotos von Trotzki aus dem Verkehr ziehen. Auf Fotos, wo beide zu sehen waren – und jetzt endlich die Fake-Technologie – veranlasste er, dass das Konterfei Trotzkis ausgemerzt wurde, was damals richtiges Retuschier-Know-how erforderte.

Heute eine Figur auf einem Foto verschwinden zu lassen ist ein Kinderspiel, erst recht, wenn man am Rechner arbeitet.

Aber nun endlich zur „Deep-Fake“-Technologie. Wie der Name schon sagt geht diese Technologie in die Tiefe.

Dank einem neuen – wie man heute schön sagt – „Algorithmus“, vermag ein Techniker nicht nur die Darstellung eines Menschen nach Gutdünken zu verändern – bzw. verfälschen. Er kann jemandem in einem Video-Auftritt richtige, Ton-echte Worte in den Mund legen, und zwar so überzeugend, dass man meint, der Mensch in Frage hat die Worte tatsächlich gesagt.

Die New York Times hat in jüngster Zeit ausführlich über dieses Thema berichtet.

Beispiel: Man nimmt ein Video von Barack Obama und lässt ihm – s e h r überzeugend – deklarieren: „Ja, eigentlich finde ich Donald Trump sehr sympathisch. Er hat recht. Ich habe als Präsident nur dummes Zeug gemacht.“

Dank der „Deep-Fake“-Technologie kann man jeden so reden lassen, wie man es für die jeweiligen Propagandazwecke nötig hat, und es wirkt immer überzeugend.

Ich bin mir nicht sicher, ob diese ultimative Desinformationstechnique bereits ernsthaft in Usus gekommen ist. Aber warten Sie nur. Das Ergebnis wird sein, dass keiner mehr weiß, was wahr und was eine Fiktion ist.

Und so komme ich dazu, noch ein letztes Mal vom Schicksal des ermordeten Khashoggi zu sprechen. Stellen Sie sich vor: Es taucht irgendwann mal ein Interview mit ihm auf, indem er Meinungen äußert, die man bisher von ihm nicht gekannt hat: zum Beispiel über seine Treue und Liebe zum Saudi Herrschergeschlecht. Vielleicht könnte man sogar durch die „Deep-Fake“-Technologie seine „Hacker“ entlasten.

Nur ein Gedankenspiel. Erwähnte Technologie ist jedenfalls äußerst zukunftsträchtig. Falls Sie bisher noch nichts davon erfahren haben, vergessen Sie nicht: Sie haben es erst beim Sprachbloggeur gelesen…

Add new comment

Filtered HTML

  • Web page addresses and e-mail addresses turn into links automatically.
  • Allowed HTML tags: <a> <p> <span> <div> <h1> <h2> <h3> <h4> <h5> <h6> <img> <map> <area> <hr> <br> <br /> <ul> <ol> <li> <dl> <dt> <dd> <table> <tr> <td> <em> <b> <u> <i> <strong> <font> <del> <ins> <sub> <sup> <quote> <blockquote> <pre> <address> <code> <cite> <embed> <object> <param> <strike> <caption>

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.
CAPTCHA
This question is for testing whether you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.