Die Anwendung künstlicher Intelligenz menschenrechtlich fundieren
·
Meldung
Der Einsatz Künstlicher Intelligenz bietet enorme Chancen – der Blick auf die menschenrechtlichen Risiken zeigt jedoch, dass vor allem die Anwendung algorithmischer Entscheidungssysteme dringend einer Regulierung bedarf. Auf EU-Ebene verhandelt die EU-Kommission derzeit eine Verordnung, die eben diese Regulierung herstellen soll. Damit geht die Erwartung einher, dass die EU als einer der drei großen Handelsblöcke Standards setzen wird, die sich auch auf die Rechtsetzung in anderen Ländern auswirken wird.
Mit der heute veröffentlichten Information „Algorithmische Entscheidungssysteme – Menschenrechtliche Vorgaben und Entwicklungen auf internationaler Ebene“ erläutert das Institut, wie verschiedene UN-Menschenrechtsgremien menschenrechtliche Fragen bei der Anwendung von Künstlicher Intelligenz beurteilen und welche Verpflichtungen sich für Staaten daraus ergeben.
Menschenrechtlichen Risiken vorbeugen
So erfordert ein menschenrechtsbasierter Umgang mit Künstlicher Intelligenz, dass menschenrechtliche Auswirkungen geprüft, Diskriminierungsrisiken ausgeschlossen und Partizipation von Betroffenen in der Entwicklung und Evaluation von algorithmischen Entscheidungssystemen sichergestellt wird. Nutzer_innen sollten zudem über die Existenz, den Zweck, die Beschaffenheit und die Wirkung des algorithmischen Entscheidungssystems informiert werden und Zugang zu ausreichendem, wirksamem, raschem und angemessenem Rechtsschutz erhalten. Schließlich braucht es auch Aufsichtsbehörden, die die Einhaltung dieser Standards kontrollieren und, wenn notwendig, sanktionieren können.
Der Blick auf die bisherige Praxis zeigt, dass aus menschenrechtlicher Perspektive dringender Handlungsbedarf besteht. Die menschenrechtlichen Auswirkungen von algorithmischen Entscheidungssystemen werden vor ihrem Einsatz – wenn überhaupt – nur unzureichend analysiert. So nutzte beispielsweise Amazon in Bewerbungsverfahren ein algorithmisches Entscheidungssystem, das mit den Daten von in der Vergangenheit erfolgreichen Bewerber_innen trainiert worden war. Da die Mehrheit dieser Bewerber_innen Männer war, schlussfolgerte das System, dass Männer die besseren Kandidaten seien und diskriminierte so in der Vorauswahl Frauen. Dieses Beispiel zeigt, dass diskriminierende und andere menschenrechtlich negative Auswirkungen meist erst im laufenden Einsatz deutlich werden und oft auch nur dann, wenn Betroffene sich an Gerichte wenden oder Journalist_innen, Forscher_innen oder zivilgesellschaftliche Organisationen die Auswirkungen der algorithmischen Entscheidungssysteme näher untersuchen. Staaten sind daher verpflichtet, regulierend einzugreifen, um sicherzustellen, dass sie bei der Anwendung von algorithmischen Entscheidungssystemen Menschenrechte achten, schützen, fördern und gewährleisten.
Der Entwurf eines Gesetzes zur Anpassung des nationalen Rechts an die Reform des Gemeinsamen Europäischen Asylsystems (GEAS-Anpassungsgesetz) enthält Regelungen, die die Rechte von Schutzsuchenden beschränken und zudem unionsrechtlich nicht zwingend sind. Das…
Die Monitoring-Stelle UN-Kinderrechtskonvention des Deutschen Instituts für Menschenrechte hat im Auftrag des Hessischen Ministeriums für Soziales und Integration im Zeitraum 2023–2024 das Monitoring der Kinder- und Jugendrechte in Hessen durchgeführt. Im…
Millionen Menschen sind weltweit auf der Flucht vor Krieg, Gewalt oder Verfolgung. Andere migrieren, um zu arbeiten oder zu studieren. Das DIMR beschäftigt sich unter anderem mit Asyl, Migration, EU-Politik und Seenotrettung.
Wir verwenden Cookies. Einige sind notwendig für die Funktion der Website, andere helfen uns, die Website zu verbessern. Um unseren eigenen Ansprüchen beim Datenschutz gerecht zu werden, erfassen wir lediglich anonymisierte Nutzer*innendaten mit „Matomo“. Um unser Internetangebot für Sie ansprechender zu gestalten, binden wir außerdem externe Inhalte ein.