Maximilian Kiener ist Prof. an der Universität Hamburg-Harburg.

Interview | Die ethische Sicht auf KI

Maximilian Kiener ist Juniorprofessor an der TU Hamburg-Harburg, wo er das Institut für Ethik in der Technologie leitet. Zusammen mit seinem Team erforscht Themen der KI-Ethik aus Sicht der Philosophie. Interview hat er seine Vorstellung von verantwortungsvoller KI mit uns geteilt und erklärt, welche Chancen die KI-Ethik auch für Unternehmer:innen bietet.

 

ARIC: Du bist Juniorprofessor für Technologieethik. Wie bist du dazu gekommen, dich auf dieses Thema zu spezialisieren?

Prof. Maximilian Kiener: Ich bin in der analytischen Philosophie und Ethik ausgebildet wurden. Die hatten immer schon eine große Affinität zu Mathematik und den Naturwissenschaften. Und gleichzeitig habe ich mich in Oxford auf die angewandte Ethik spezialisiert. Das hat dazu geführt, dass die Auseinandersetzung mit Intelligenz und Computation für mich ein spannendes Thema wurde.

Und dann haben diese Themen eben einen unheimlichen Einfluss auf unser Leben und stellen ethische Fragen. KI ist in unserer Zeit eine disruptive Entwicklung, die unheimlich viele Chancen bietet, aber auch mit Augenmaß angewendet werden muss.

 

Was verstehst du unter verantwortungsvoller KI?

Zunächst einmal eine Praxis der Rechenschaft. Ich mache bestimmte Dinge. Wenn das gut oder schlecht läuft, schulde ich anderen Antworten – eine Rechenschaft. Bei KI ist das ein brisanter Punkt, weil die leistungsfähigen Punkte nicht mehr gut verständlich und erklärbar sind. Wie geben wir uns gegenseitig Rechenschaft über opake Technologien?
Es kann immer mal etwas schiefgehen. Die Befürchtung ist, dass bei der Anwendung von KI Situationen entstehen, in denen überhaupt nicht klar ist, wer die Verantwortung trägt; Wenn ein autonomes Auto jemanden anfährt oder ein psychologischer Roboter jemanden paralysiert. Da ist gefragt, dass wir Verantwortung zuschreiben können, um mit diesen Schadensfällen umzugehen.

Aber das Stichwort Responsible AI ist noch einmal weiter gefasst. Aus meiner Sicht umfasst das den proaktiven Umgang mit ethischen Normen. Ich warte nicht, bis mir Dinge auf die Füße fallen, sondern ich überlege mir jetzt schon: Welche Daten muss ich denn sammeln? Wie darf ich das sammeln, dass es validiert, dass das fair ist und nicht nur bestimmten Personengruppen zugute kommt. Dieses vorausschauende Denken ist sehr wichtig. Und dann in einem zweiten Schritt, dass eine Accountability Practice bestehen bleibt. Dass auch Unternehmen anerkennen: Wenn sie denn diese Technologie entwickeln und einsetzen, dass sie anderen eine Antwort schuldig sind, wie sie das machen und, dass das in einen gesellschaftlichen Diskurs eingebettet wird. Ich glaube, diese beiden Bestandteile sind der Kern von Responsible AI.

 

„Wie können wir sicherstellen, dass diese extrem leistungsfähige Technologie für uns noch verständlich bleibt?”

 

Gibt es Positivbeispiele oder best practices, die du teilen kannst?

Ein Ankerpunkt ist der EU-AI-Act, der das Recht auf Erklärung stark macht. Das ist eine sehr positive Entwicklung. Die Befürchtung ist aber, dass das ein politisches Versprechen bleibt, das technologisch nicht wirklich einlösbar ist.

In der Medizin ist das eine große Sache: Wenn KI in der Diagnostik eingesetzt wird, wie das Patient:innen in der Zusammenarbeit mit Ärzten vermittelt wird. Wie können wir sicherstellen, dass diese extrem leistungsfähige Technologie für uns noch verständlich bleibt? Und was ist eine gute Erklärung?

 

„Ich nehme bei der Wirtschaft eine Überforderung war.”

 

Hast du das Gefühl, dass die akademischen Stimmen auch in der Praxis wahrgenommen werden? Oder ist das ein, vielleicht auch ungewollter, Elfenbeinturm?

Ich nehme bei der Wirtschaft eine Überforderung war. Die Unternehmen sehen sich vielen Regularien ausgesetzt. Die sind oft abstrakt. Kleine und mittlere Unternehmen tun sich schwer, zu konkretisieren: Was bedeutet das für mich in der Praxis? Verordnungen geben häufig keine konkrete Anleitung, wie etwas umgesetzt wird. Für viele Unternehmen sind Hochrisiko KI-Anwendungen gar nicht relevant.

Mein Eindruck ist, dass sich ein ernsthaftes Interesse an der Ethik durchsetzt. Einerseits glaube ich, dass ethisches Handeln einen konkreten wirtschaftlichen Mehrwert schaffen kann. Es hilft, frühzeitig Weichen zu stellen, um spätere Probleme abzuwenden. Ethik ist eine Art proaktive Rechtskonformität. Manchmal sind Begriffe im Recht unbestimmt – Ethik kann uns helfen, das zu konkretisieren und an die Unternehmenswerte anzupassen. Sie kann Orientierung geben.

Ethik kann auch einen Mehrwert für Unternehmen schaffen, indem sie hilft, Ressourcen zu priorisieren. Oftmals ist nicht klar: Wo sollen wir unser Geld und unsere Personalkraft einsetzen, weil es so viele Risiken gibt. Eine ethische Einschätzung kann helfen, die ernsthaftesten Situationen zu identifizieren und dort Ressourcen einzusetzen.

Letztendlich ist es für Unternehmen aber auch eine fundamentale, existenzielle Charakterfrage: Was möchte ich eigentlich als Unternehmen? Möchte ich, dass die Welt mit meinen Produkten ein bisschen besser wird? Oder richte ich mich an finanziellen Dingen aus?

Meine Hoffnung ist, dass Unternehmertum über das Finanzielle hinaus eine Gestaltungsvision zeigt, die Ethik beinhaltet. Und ich sehe das als Exzellenzanspruch: Exzellente Produkte oder Dienstleistungen auf den Markt zu bringen, bedeutet auch, Ethik ernst zu nehmen.

 

„Wie können wir KI mit unserer menschlichen Intelligenz koppeln, dass dadurch eine hybride Intelligenz entsteht”

 

Welche Fälle sind gerade in der Praxis besonders relevant?

Der medizinische Bereich ist sehr spannend. Es ist der Bereich, in dem KI jetzt schon Menschen deutlich übertreffen kann: Ein KI-System kann in der Diagnostik bereits besser sein als eine menschliche Radiologin. Ein KI-System kann Medikamente schneller entwickeln als ein Forscherteam. Wie gehen wir damit um, wenn KI erfahrene Expert:innen übertrifft und wir dieses Thema aber gar nicht mehr genau verstehen können? Hier haben wir einen großen Benefit, aber auch viele Herausforderungen.

Auch alle Dinge, wo es um Interaktion zwischen Menschen und KI geht. Große Sprachmodelle könnten in den nächsten Jahren noch deutlich personalisierter werden. Man stelle sich ein ChatGPT vor, das stärker mit Spezialwissen angereichert und stark personalisiert wird und dann die Fähigkeit erwirbt, über größere Zeiträume hinweg zu planen. In diesem Bereich werden sich viele Fragen stellen. Das hat großen Einfluss auf die Optimierung von Abläufen in Unternehmen, im Informationsabruf, in der Effizienzsteigerung von Abläufen, im Kundenservice, aber auch in der Innovationsgestaltung. Wie können wir KI mit unserer menschlichen Intelligenz koppeln, dass dadurch eine hybride Intelligenz entsteht, die uns einen Schub nach vorne gibt?

 

Wie gefährlich ist KI für unsere Demokratie, beispielsweise im Wahlkampf?

KI in den sozialen Medien kann die Verbreitung von populären Inhalten fördern. Popularität ist aber nicht Korrektheit. Außerdem birgt das die Gefahr der Polarisierung. Und KI öffnet die Möglichkeit der höchst personalisierten Einflussnahme. Das kennen wir alle von Amazon „Dieser Artikel könnte ihnen auch gefallen“. Aber so geht das auch mit politischer Einflussnahme. Man könnte psychometrische Profile erstellen und Einfluss aus das Wahlverhalten der Nutzerinnen erstellen.

Andererseits denke ich auch, dass KI unsere Demokratie besser machen und uns als Gesellschaft weiterbringen kann. Auf der Website pol.is wurde KI genommen, um eine komplexe Debatte zu strukturieren und die Personen herzunehmen, die am Wahrscheinlichsten einen Fortschritt in der Debatte machen können. KI kann uns also auch helfen, in einer komplexen öffentlichen Debattenkultur, in der wir uns einer großen Informationsflut ausgesetzt sehen, neue Ordnung hineinzubringen und besser miteinander zu sprechen.

Aber das geht in beide Richtungen. KI ist wie der römische Gott Janus mit zwei Gesichtern: Es kann nach hinten oder nach vorne gehen.

 

Angenommen, wir befinden uns in einer positiv verlaufenden Zukunft in zehn Jahren, wo KI im guten Sinne genutzt wird. Wie könnte das aussehen?

KI ist immer da gut, wo wir ein kognitives Breitbandproblem haben und die Informationen nicht verarbeiten können und es einfach zu viele Dinge sind. Es gibt einen interessanten Forscher, Cesar Hidalogo. Er denkt, KI könnte uns helfen, in Avataren Gesetzesvorschläge auszuarbeiten. Über die würden wir dann entscheiden. Aber die komplexen Verarbeitungsprozesse von Informationen könnten so automatisiert werden, dass für uns geistige Ressourcen der Reflexion freiwerden. Die wichtigen Entscheidungen würden wir behalten. Die positive Version wäre, dass das klappt. Ob das realistisch ist, bleibt abzuwarten.

Interview: Sabrina Pohlmann

 


Mit unseren Interviews wollen wir euch verschiedenen Perspektiven und Akteure im Themenfeld KI vorstellen. Die Positionen unserer Interviewpartner:innen spiegeln nicht zwingend die Positionen des ARIC wieder.


 

Weitere Interviews: