Projektvorstellung – Im ARIC hat sich ein neuer interner Arbeitskreis formiert, der sich mit den Zusammenhängen zwischen Künstlicher Intelligenz und Meinungsbildung/Propaganda beschäftigt und beispielsweise zu Deep Fakes informiert. Das Thema ist besonders in Bezug auf das Superwahljahr 2024 wichtig. Aktuell wird gerade ein Essay zum Thema verfasst.
14. April 2024: Mit den Fortschritten in der generativen Künstlichen Intelligenz (GenAI) rücken zunehmend die Risiken in den Fokus, die Deepfakes in Bezug auf Propaganda und Desinformation darstellen. Mit dieser Technologie können überzeugende Bilder und Videos erstellt werden. Diese Entwicklung stellt eine wesentliche Herausforderung dar, denn Medien haben seit jeher einen starken Einfluss auf die Meinungsbildung. Veränderungen des Medialen sollten deshalb besondere Aufmerksamkeit erfahren, denn sie haben Auswirkungen auf Informationsrezeption und -verarbeitung.
„Es ist (…) unzureichend, die Diskussion über KI-bedingte Gefahren für Propaganda ausschließlich auf Deepfakes zu beschränken.”
Die diesjährigen Landtags-, EU-Parlaments und US-amerikanischen Präsidentschaftswahlen geben einen Einblick in den Einfluss generativer KI auf politische Prozesse. Es ist allerdings unzureichend, die Diskussion über KI-bedingte Gefahren für Propaganda ausschließlich auf Deepfakes zu beschränken. Obwohl die Erzeugung täuschend realer Videos und Bilder erhebliche Risiken mit sich bringt, existiert die Möglichkeit, Bilder für propagandistische Inhalte zu instrumentalisieren schon seit Langem.
Von wesentlicher Bedeutung ist auch der Einfluss von KI, welcher nicht direkt auf visueller Ebene sichtbar ist. Es handelt sich um Wirkmechanismen auf individueller Ebene, die jedoch auf gesellschaftlicher Ebene großes Gefahrenpotenzial bergen.
„Der Wettbewerb um die Aufmerksamkeit der Nutzenden und die Optimierung durch KI verschärfen die Situation weiter”
Als ARIC sind wir bestrebt, das Bewusstsein für die versteckten Einflüsse von KI auf die Gesellschaft zu schärfen und Strategien zu deren Bekämpfung zu entwickeln. Der Schwerpunkt liegt dabei auf Plattformen, deren Nutzungserfahrung durch KI gesteuert wird. Seit der Verlagerung der Informationsverbreitung ins Internet steuern Algorithmen zunehmend, was User sehen und was sie nicht sehen (Thaler & Sunstein, 2008). Dies wird besonders in sozialen Netzwerken deutlich, deren Geschäftsmodelle auf Datensammlung und zielgerichteter Werbung durch Nutzertracking und Predictive Analytics basieren (Russel, 2019; Zuboff, 2019). Fortgeschrittene KI-Systeme optimieren die Usererfahrung, um Engagement sowohl in der Gegenwart als auch in der Zukunft zu maximieren. Durch die Maximierung des Userengagements mit Hilfe fortschrittlicher Technologien werden psychologische Anfälligkeiten gezielt ausgenutzt (Zuboff, 2019, S. 288; Yeung, 2019). Die Tendenz des Menschen, Informationen unbewusst aufzunehmen, unabhängig von bewussten Überzeugungen, eröffnet Möglichkeiten für Manipulation durch emotionale Anreize (Kramer, 2014). Algorithmen verstärken diese Dynamik, indem sie bevorzugt Inhalte empfehlen, die bestehende Überzeugungen bekräftigen (Russel, 2019), was zur Entstehung von Echokammern und einem Anstieg radikaler politischer Ansichten führt (Garimella, 2018; Sunstein, 2018). Der Wettbewerb um die Aufmerksamkeit der Nutzenden und die Optimierung durch KI verschärfen die Situation weiter, indem sie eine immer mehr aufgeheizte und polarisierte Informationslandschaft erschaffen.
„Der Einfluss von gefälschten Inhalten, die nicht von echten unterscheidbar sind, stellt jedoch eine zusätzliche Dimension in Bezug auf die Möglichkeiten der Manipulation von Meinungsbildung dar.”
In Gesellschaften, in denen polarisierende Meinungen nebeneinander bestehen, erfüllen Deepfakes ähnliche Funktionen wie bisherige Informationspraktiken, indem sie Polarisierung und Spaltung weiter verstärken. Der Einfluss von gefälschten Inhalten, die nicht von echten unterscheidbar sind, stellt jedoch eine zusätzliche Dimension in Bezug auf die Möglichkeiten der Manipulation von Meinungsbildung dar. Angesichts dieser Herausforderungen ist es unser Ziel, ein Bewusstsein für die vielfältigen Einflüsse von KI auf die Gesellschaft zu schaffen und effektive Strategien zu ihrer Bekämpfung zu entwickeln.
Das ARIC erarbeitet derzeit in einem interdisziplinären Arbeitskreis ein Positionspapier, welches die oben skizzierten Wirkmechanismen von KI-Algorithmen in Verschränkung mit Propagandamethoden aufzeigt und die Beeinflussung von Meinungsbildung auf individueller und gesellschaftlicher Ebene verdeutlicht.
Wir wollen die Gesellschaft für dieses wichtige Thema sensibilisieren und eine kritische Selbstreflexion diesbezüglich anstoßen. Das ARIC wird zukünftig Bildungs- und Aufklärungsformate zu dieser Thematik anbieten, um bei diesem Prozess zu unterstützen.
Ansprechpersonen
Für Vorschläge, Anfragen und Vernetzung stehen diese Ansprechpersonen zur Verfügung:
Graydon Pawlik
(Global, Social & Political Thought)
gp[at]aric-hamburg.de
Louisa Rockstedt
(Kulturwissenschaften, Digitale Medien)
rockstedt[at]aric-hamburg.de
Beteiligte am Arbeitskreis
- Anselm Fehnker (Informatik)
- Graydon Pawlik (Global, Social & Political Thought)
- Sabrina Pohlmann (Soziologie)
- Louisa Rockstedt (Kulturwissenschaften, Digitale Medien)
- Dr. Natalie Rotermund (Neurowissenschaften)
- Nicolas Schulz (Psychologie, Künstliche Intelligenz)
- Jan Werum (Kommunikationswissenschaften, Journalismus)
Quellen
- Garimella, K., et al. (2018) ‘Political discourse on social media: Echo chambers, gatekeepers, and the price of bipartisanship,’ in Proceedings of the 2018 World Wide Web Conference, Association for Computing Machinery, pp. 913 – 922.
- Kramer, A. D. I., Guillory, J. E., Hancock, J. T. (2014) ‘Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111, 8788–90.
- Russell, S. (2019) Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
- Sunstein, C. (2018) #Republic: Divided Democracy in the Age of Social Media,’ Princeton university Press.
- Thaler, R. & Sunstein, C. (2008) Nudge, London: Penguin Books.
- Yeung, K. (2012) ‘Nudge as fudge,’ The Modern Law Review, 75(1), pp. 122–148.
- Zuboff, S. (2019) The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power,’ Profile Books.