Menschenrechtsbildung im Zeitalter Künstlicher Intelligenz
Künstliche Intelligenz (KI) prägt zunehmend unseren Alltag. Wir chatten mit digitalen Assistenten, klicken uns durch Kaufempfehlungen, die auf KI-Algorithmen basieren, nutzen KI-Systeme für die Texterstellung oder generieren damit künstliche Bilder.
Die Online-Veranstaltung „Menschenrechtsbildung im Zeitalter Künstlicher Intelligenz“ vom 29. Februar 2024 mit rund 50 Teilnehmenden bot Gelegenheit, über die Herausforderungen und Chancen von KI zu sprechen und dabei ihre Auswirkungen auf die Menschenrechte und die Bildungsarbeit in den Blick zu nehmen. Dabei standen unter anderem folgende Fragen im Mittelpunkt:
- Wie können Bildungsprogramme das Bewusstsein für die ethischen Dimensionen von KI schärfen, insbesondere im Hinblick auf mögliche Auswirkungen auf grundlegende Menschenrechte wie Privatsphäre, Meinungsfreiheit und Gleichbehandlung?
- Wie können wir uns vor Diskriminierungen durch KI schützen und gegen Vorurteile und Diskriminierungen durch algorithmische Entscheidungsprozesse vorgehen?
- Wie können wir sicherstellen, dass die Verwendung von KI in Lehr- und Lernprozessen verantwortungsbewusst, transparent, fair und im Einklang mit Menschenrechtsprinzipien erfolgt?
- Woran erkennen wir falsche Informationen und wie können wir gegen Desinformationen vorgehen?
Nach der Begrüßung von Sandra Reitz, vom Deutschen Institut für Menschenrechte, folgte eine Paneldiskussion mit
- Tahireh Panahi, Juristin und wissenschaftliche Mitarbeiterin an der Universität Kassel und im Projekt Dynamiken der Desinformation Erkennen und Bekämpfen (DYNAMO)
- Nils-Eyk Zimmermann, Politikwissenschaftler und Mitglied im europäischen Netzwerk für Menschenrechts- und Demokratiebildung DARE – Democracy and Human Rights Education in Europe
- Theresa Züger, Medienwissenschaftlerin und Leiterin der Forschungsgruppe Public Interest AI am Alexander von Humboldt Institut für Internet und Gesellschaft.
Zu Beginn der Diskussion erläuterte Züger, dass es keine einheitliche Definition für KI gebe, sondern je nach Kontext – zum Beispiel ob es um gesellschaftliche, wissenschaftliche oder kulturelle Fragen gehe – unterschiedliche Erklärungsmodelle herangezogen würden.
Anschliessend stellte die Medienwissenschaftlerin Beispiele vor, wie KI heutzutage im Sinne der Menschenrechte eingesetzt wird:
- Um Menschenrechtsverletzungen an einer Demonstration 2019 in Chile zu dokumentieren, wurde mit KI-basierter Technologie der Einsatz (Ausmaß, Konzentration etc.) von Tränengas dokumentiert und sichtbar gemacht.
- Die UN haben ein digitales Mediation Tool Kit entwickelt, das Mediator*innen in der Konfliktarbeit unterstützt.
- Das Projekt Sea Clear: Mit Drohnen (statt wie früher Taucher*innen) kann der Meeresgrund von Müll gesäubert werden.
Umgekehrt nannte Züger aber auch Beispiele, wo KI zu Diskriminierungen führen und Menschenrechte verletzen könne:
- Die Niederlande haben in der Verwaltung ein KI-System eingesetzt, um über Kindergeld-Anträge zu entscheiden, dessen Algorithmen nachweislich Familien mit Migrationsgeschichte diskriminierte
- Im Bereich Flucht/Migration beziehungsweise Militär: Grenzüberwachungen mit Drohnen; Dialektdetektoren, um Identitäten zu überprüfen; automatisierte Waffensysteme
Auch die Juristin Panahi bekräftigte, dass KI zahlreiche menschenrechtliche Risiken enthalte. KI könne zum Beispiel Sprachstile von Menschen imitieren oder in Sekundenschnelle Desinformationskapmagnen erstellen. Freiwillige Verhaltsenskodexe und bindende Regularien wie der geplante AI-Act der Europäischen Union seien daher wichtig, um Einsatzmöglichkeiten von KI-Systemen zu kontrollieren und nach Risiken einstufen zu können.
Der Politikwissenschaftler Zimmermann stellte fest, dass die meisten Menschen der KI heutzutage ambivalent gegenüberstehen würden. Bildungspraktiker*innen, auch aus der Menschenrechtsbildung, hätten die Aufgabe, über Anwendungsmöglichkeiten und Nutzen, aber auch über menschenrechtliche Risiken von KI aufzuklären. Denn wer seine Rechte kenne, könne die künftige Entwicklung der KI besser einordnen und bewerten.
Die Ambivalenz gegenüber KI trat auch hervor, als die Panelist*innen gebeten wurden, auf einer Skala von 1 bis 10 anzugeben, ob KI ihrer Ansicht nach eher zu einer absolut dystopischen Welt (1) oder im Gegenteil zu einer Utopie (10) führen werde. Während Züger eine 3 nannte, da der Mainstream der KI-Entwicklung nicht das Gemeinwohl fördere und menschenrechtliche Risiken außer Acht lasse, gab Panahi optimistisch eine 8 an: Zwar würden heutzutage weltweit Menschenrechtsstandards missachtet, doch könne die KI langfristig vielleicht zu einem gesellschaftlichen Umbruch beitragen und positive Entwicklungen befördern. Zimmermann schließlich entschied sich für eine 6 und zeigte sich vorsichtig zuversichtlich, da inzwischen immerhin verschiedene Regulierungs- und Gesetzgebungsprozesse stattfänden.
Die drei Gäste diskutierten danach verschiedene Fragen, etwa die nach den Möglichkeiten von KI, Menschenrechte zu stärken oder wie KI im Sinne des gesellschaftlichen Zusammenhalts in Zukunft reguliert werden solle und wie sich die politische Bildung durch die KI in den nächsten 25 Jahren verändern werde.
Im Anschluss an die Paneldiskussion wurden vier Workshops angeboten:
- Workshop a: Artificial Intelligence and Discrimination (in englischer Sprache, mit Damion Mannings, AI Ethics Education Leader)
- Workshop b: Was sind Desinformationsnarrative in Deutschland und wie geht man dagegen vor? (mit Sami Nenno, Alexander von Humboldt Institut für Internet und Gesellschaft)
- Workshop c: Lifehack Digitalisierung“ – Ansätze zur Auseinandersetzung mit KI in der praktischen Jugendbildungsarbeit (mit Annette Ullrich, Dozentin für Neue Medien, Stiftung Wannseeforum)
- Workshop d: De- und Rekonstruktion von KI (mit Nushin Yazdani, Künstlerin und KI-Design-Forscherin)
Zur Programmübersicht der Veranstaltung