Jan Werum

Unbegrenzte Möglichkeiten – Deepfakes im Marketing

Deepfakes halten verstärkt Einzug in Marketing und Medien. Jan Werum über neue Möglichkeiten und die Rolle des Journalismus.

Ein großes Banner schmückt das unfertige Pleiteprojekt „Elbtower“ in Hamburg. Hier wirbt der Autovermieter Sixt für günstige Mietwagen und schreibt „Damit ihnen nicht das Geld ausgeht“. Verantwortlich für die virale Kampagne ist die Agentur Jung von Matt. Es wirkt tatsächlich so, als wäre das übergroße Banner am Rohbau des einstigen Prestigeobjekts befestigt. Die Wahrheit ist aber, dass es sich bloß um einen gut gemachten Deepfake handelt.

Deepfakes halten mehr und mehr Einzug in Werbung und Marketing. Zwar waren Deepfakes dank Photoshop und Co. schon immer möglich, aber die Hürden sind dank MidJourney, ChatGPT, Clipdrop und Co. deutlich niedriger geworden.

Sixt ist aber bei weitem nicht das einzige Unternehmen, dass mithilfe von KI-Tools Werbekampagnen entwickelt. Auch die Deutsche Vermögensberatung hat jüngst mit einem Clip für Aufmerksamkeit gesorgt, der ihr Markengesicht Jürgen Klopp in verschiedenen Berufen zeigt. Stattgefunden haben diese Sequenzen so nie. Klopps Gesicht wurde bloß mit KI in die Situationen gesetzt und so ein täuschend echter Clip erzeugt. Auch der Energieanbieter Tibber hat schon mit Angela Merkels Antlitz geworben, ohne die ehemalige Bundeskanzlerin vor der Kamera gehabt zu haben.

 

Der Fortschritt der Erzeugungstools

Dank verschiedener Tools wie Open AI Sora sind die Möglichkeiten von Deepfakes für die Werbeindustrie nahezu unbegrenzt. Agenturen werben offensiv mit den neuen Optionen. Eine Grußbotschaft des verstorbenen Gründers zum Firmenjubiläum? Kein Problem! Alles was es dafür braucht sind 1000 bis 2500 Euro und gutes Bildmaterial des nicht mehr lebenden Chefs. Aufwendigere Projekte werden mit bis zu 50.000 Euro angepriesen.

 

Wie bei jeder Technologie kommt es aber auch bei diesen Möglichkeiten darauf an, wie sie eingesetzt werden.

 

Tatsächlich ist es so, dass auch Privatanwender heute ohne großes Knowhow schon beachtliche Deepfakes erzeugen können. Wie bei jeder Technologie kommt es aber auch bei diesen Möglichkeiten darauf an, wie sie eingesetzt werden. Allein im Januar dieses Jahres hat Youtube über 1000 sogenannter Scam-Deepfakes gelöscht. Doch die Erkennungstools können dem Fortschritt der Erzeugungstools kaum Schritt halten. Mal wirbt die scheinbare Jennifer Aniston für kostenlose MacBooks, mal wirbt scheinbar Nachrichtensprecher Christian Sievers für dubiose Finanzprodukte. 81% der Deutschen glauben, dass sie Deepfakes nicht erkennen können.

 

Wahres von Unwahrem unterscheiden

Große Redaktionen haben mittlerweile eigene Abteilungen eingerichtet, um solche Fakes zu erkennen. Aber die Ressourcen der Medien – in Zeiten sinkender Auflagezahlen und Umsätze – sind begrenzt. Anbieter wie die Telekom präsentieren schon Aufklärungskampagnen und warnen vor böswilligen Deepfakes.

Auch der Journalismus selbst war schon Sender von Deepfakes

 

Aber ist das ganze neu? Nicht wirklich. Schon immer war es für Medien und Konsumenten schwierig Wahres von Unwahrem zu unterscheiden. Als 2019 Notre-Dame in Paris brannte hatten die Internetgrößen Google und Youtube größte Schwierigkeiten diese Nachricht zuzuordnen, da sie sie für ein Fake hielten. Das berühmte Foto des Reichstagsbrandes, das immer wieder auf Titelseiten landet, stammt tatsächlich aus dem DDR-Spielfilm „Der Teufelskreis“. Als jüngst 180 000 Menschen gegen Rechtsextremismus auf die Straße gingen, hatten Mitglieder der AFD Fotos gepostet, die belegen sollten, dass Menschen auf dem Wasser der Alster standen und wollten so die Echtheit der Bilder infrage stellen. Tatsächlich wurden die Fotos einfach nur aus einem niedrigem Winkel geschossen und so entstand dieser Eindruck. Fakes waren sie allerdings nicht, das war bloß die Geschichte, die aus politischen Motiven erzeugt werden sollte.

Aber auch der Journalismus selbst war schon Sender von Deepfakes. So hatte die Zeitschrift „Die Aktuelle“ 2023 offenbar ein Interview mit Michael Schumacher geführt. Problem: Das Interview war KI generiert und nur mangelhaft als solches gekennzeichnet. Es kostete kurze Zeit später den Job der Chefredakteurin.

 

KI verschiebt die Einstiegshürde

 

An diesen Beispielen lässt sich erkennen, dass es gar keiner Künstlichen Intelligenz bedarf um Deepfakes zu erzeugen, denn sie sind nur ein Faktor für den Erfolg eines Deepfakes. Das sind nach meiner Einschätzung die Hauptfaktoren für die Existenz böswilliger Deepfakes:

  • Algorithmen von sozialen Medien lieben Aufmerksamkeit und das begünstig handwerklich gut gemachte Deepfakes.
  • Medien haben Schwierigkeiten, die schiere Anzahl der Nachrichten und Beiträge auf Fakes zu überprüfen.
  • Jeder ist dank der sozialen Medien zum Sender und Verbreiter von Nachrichten geworden und nicht wie früher bloß Rezipient:in. Dadurch hat sie die Rolle des Gatekeepers gewandelt.
  • Tools auf Grundlage generativer KI haben die Einstiegshürde für Deepfakes drastisch nach unten verschoben.

 

Zusammenfassend lässt sich sagen, dass es Deepfakes und Fakenews schon immer in Medien und Werbung gegeben hat, aber heute in einer nie dagewesenen Anzahl im Umlauf sind. Wie bei jeder Technologie kommt es darauf an, welche Absichten man damit verfolgt. Der Journalismus sollte ein System entwickeln, um entsprechende Beiträge besser detektieren zu können. Aber besonders sollte er aufpassen, wie er selbst KI einsetzt und wie er sich zukünftig selbst regulieren will, um keine Glaubwürdigkeit zu verspielen.

Begrüßenswert ist es, dass sich der Fokus zunehmend verschiebt und nicht mehr nur Risiken beleuchtet werden, sondern auch Chancen untersucht werden. So hat die Universität Leipzig jüngst ein umfassendes Forschungsprojekt dazu gestartet.

Wir als ARIC e.V. stehen für einen Responsible AI, das bedeutet Chancen und Risiken immer bedacht abzuwägen und vor allem Aufklärungsarbeit zu leisten – denn ein Drittel der Bevölkerung hat noch nie von „Deepfakes“ gehört.

 

 


Unsere Arbeit zu Deepfakes

Das ARIC hat gerade einen internen Arbeitskreis ins Leben gerufen, der sich aus interdisziplinärer Perspektive mit Deepfakes auseinandersetzt.

 


Über den Autoren

Jan Werum arbeitet als Kommunikationsexperte beim ARIC. Neben KI-Themen befasst er sich für HQIC mit Quantentechnologien. Zuvor hat war lange bei einem Startup im Bereich autonome Robotik tätig.

Ihr erreicht ihn per Mail unter: werum[at]aric-hamburg.de