Inklusion auf das Feld der künstlichen Intelligenz erweitern

Immer mehr Firmen setzen für ihre Prozesse künstliche Intelligenz (KI) ein, zur Senkung der Betriebskosten und für eine bessere Effizienz. Banken verwenden KI zur Aufdeckung von Betrug. Kliniken benutzen KI zur Unterstützung der Patientenuntersuchungen. Personalvermittler setzen KI ein, um Bewerber mit grossem Potential zu ermitteln.

Bedenken gibt es, weil KI immer mehr in Entscheidungsprozessen verwendet wird. Können wir wirklich darauf vertrauen, dass künstliche Intelligenz eine faire Entscheidung für alle trifft? Wie viel Einfluss hat KI auf unsere Entscheidungen?

Maschinelles Lernen und wie es funktioniert

Einen Begriff, den wir oft im Zusammenhang mit KI hören, ist maschinelles Lernen. Bei diesem Prozess werden einem Computer Daten zugeführt, in denen er Muster erkennt. Durch diesen Lernprozess verbessert oder schafft der Computer Algorithmen und wendet diese auf neue Daten an. Auf diese Weise sollen genauere und somit bessere Entscheidungen getroffen werden – soweit die Theorie.

Ein Grund, warum KI bei Firmen beliebt ist: Computer können eine grosse Menge an Daten verarbeiten und geben sofort eine Rückmeldung, viel schneller als Menschen. Das spart Zeit und Geld. Auch werden menschliche Fehler und Vorurteile vermieden, wenn das KI-System korrekt erstellt wurde.

brille vor laptopmonitor

KI ist dafür bekannt, dass sie Daten unverzüglich auswerten kann. Aber kann sie auch Voreingenommenheit vermeiden und faire Entscheidungen treffen?

Die Betonung liegt auf «korrekt», denn Computer denken nicht wie Menschen. Um menschliche Intelligenzprozesse wie Generalisierung und Problemlösung zu simulieren, sind Computer auf die Daten angewiesen, mit denen wir sie füttern. Daher kann KI, wenn sie nicht korrekt gehandhabt wird, Vorurteile in der Gesellschaft verstärken.

Bias und Diskriminierung durch KI

Ein KI-System kann auf unterschiedliche Weise einseitig beeinflusst werden. Shari Trewin von der IBM-Forschung für Barrierefreiheit legt in einer Arbeit dar, wie eine Verzerrung – ein sogenannter Bias – auf das System übertragen wird: nämlich indem die Daten, mit denen das System «trainiert» wurde, parteiische menschliche Entscheidungen enthalten. Wenn zum Beispiel Personalchefs Bewerbungen von Menschen mit Behinderung systematisch aussortieren, dann wird das KI-System, das mit diesen Daten gespeist wurde, diese Bewerbungen ebenfalls künftig ausser Acht lassen.

Die mangelnde Repräsentativität in Datensets ist eine weitere grosse Herausforderung auf dem Weg zu KI-Fairness. Intensität und Auswirkung von Behinderungen und ihnen zugrundeliegenden Gesundheitsproblemen sind sehr unterschiedlich, und oft verändern sie sich mit der Zeit. Diese Heterogenität von Behinderung macht es schwieriger, ein KI-System so zu programmieren, dass es für Menschen mit Behinderung ebenso fair ist wie für Menschen unterschiedlichen Geschlechts oder unterschiedlicher Rasse.

frau und rollstuhlfahrer vor podcast

Aufgrund der Heterogenität von Behinderung ist es schwierig, repräsentative Datensets zu erstellen, um künstliche Intelligenz fairer für Menschen mit Behinderung zu machen. (Quelle: https://mockmate.com/)

Auch wie die Algorithmen gebaut werden, kann zu Bias führen. Ein Rekrutierungsunternehmen und dessen KI-System, das von mehr als 100 Arbeitgebern – darunter internationale Firmen – verwendet wird, gab 2019 Anlass zu ernsten Bedenken bezüglich Diskriminierung. Laut einem Bericht der Washington Post werden die Gesichtsbewegungen, Wortwahl und Sprechstimme mittels Computer- oder Handykamera analysiert. Diese Analysen fliessen in die Bewertung der Beschäftigungsfähigkeit mit ein, auf deren Grundlage das KI-System die engere Auswahl der Kandidaten trifft.

Einige KI-Ethikexperten kritisierten, dass ein solcher Algorithmus nichts als Pseudowissenschaft sei: Es sei extrem schwierig, aus Gesichtsausdrücken Emotionen und Charaktereigenschaften abzuleiten, besonders bei Menschen mit Behinderungen, die unterschiedliche und immer neue Gesundheitsprobleme haben. Die Verwendung eines solchen KI-Systems zur engeren Auswahl von Kandidaten bedeute, dass Menschen mit gewissen Behinderungen sofort vom System aussortiert würden.

KI fairer für Menschen mit Behinderungen machen

Schlussendlich ist es der Mensch, der Vorurteile bei künstlichen Intelligenzen schafft. Auch wenn das Leben niemals fair ist, sollten wir zumindest diese KI-Vorurteile abbauen, so dass alle ähnlich fair behandelt werden können.

waage mit computer und doktor

KI-Fairness ist für Menschen mit Behinderungen auch wichtig, weil immer mehr medizinische Entscheidungen aufgrund von KI-Algorithmen gefällt werden. (Quelle: https://news.mit.edu)

Inklusion ist ein grundlegender Schritt auf dem Weg zu fairer KI. Menschen mit Behinderungen sollten bei der Entwicklung von KI-Systemen so früh wie möglich einbezogen werden. Ihre persönlichen Erfahrungen können den KI-Entwicklern helfen, Bias zu identifizieren, was die Algorithmen für Entscheidungsprozesse objektiver und fairer macht.

Auf der anderen Seite sollten wir KI mit Bedacht einsetzen. In einem Interview über KI und Gesundheit sagte Kerstin N. Vokinger, Assistenzprofessorin der Rechtsfakultät der Universität Zürich:

«Künstliche Intelligenz ist nicht schlauer als wir. Aber wenn wir sie mit unseren Fähigkeiten kombinieren, kann sie neue Möglichkeiten bieten.»

Wir sollten uns weder vor KI fürchten noch zu sehr darauf verlassen. Stattdessen sollten wir an Massnahmen zu Verbesserung der Algorithmen arbeiten, um sicherzustellen, dass sie erklärbar, nachvollziehbar und transparent sind.

Anikó Hannák, Assistenzprofessorin des Seminars für Informatik an der Uni Zürich, betonte in einem Interview über KI und Bias die Verpflichtung, im Internet die gleichen Regeln gegen Diskriminierung anzuwenden wie in der realen Welt. Eine regelmässige Überprüfung der Anwendung von künstlicher Intelligenz würde diese fairer machen. Doch sie sagte auch:

«Viele Firmen richten ihre Online-Plattformen auf mehr Profit aus, und Fairness bleibt auf der Strecke.»

KI-Fairness zu überprüfen kostet Geld: Entweder können es sich Firmen nicht leisten, ihre KI regelmässig auf Fairness zu überprüfen, oder es fehlt ihnen die Motivation oder das Bewusstsein, um sich um KI-Fairness zu bemühen.

Die gute Nachricht ist, dass bereits Massnahmen laufen, um diese Probleme zu beheben. Die EU investiert derzeit erhebliche Summen in die Entwicklung von Systemen zur Überwachung von KI-Fairness. Sie reguliert und sanktioniert auch Missbrauch von KI. So wurde Google 2019 wegen Wettbewerbsverzerrung verurteilt, weil die Plattform in ihren Suchergebnissen die eigenen Produkte bevorzugte.

Durch Transparenz Vertrauen schaffen

Ein weiterer wichtiger Schritt zur Erreichung von KI-Fairness wäre eine bessere Transparenz bei der Entwicklung von KI. Firmen sollten beispielsweise veröffentlichen, in welchem Umfang und wie sie KI bei Entscheidungsprozessen einsetzen. Transparenz hilft Nutzern von KI-Technologie, insbesondere Personen mit Behinderungen, nicht diskriminiert und ausgenutzt zu werden.

Nun zurück zur Frage: Können wir uns bei unseren Entscheidungen wirklich auf KI verlassen? Bradley Hayes, Assistenzprofessor in Computerwissenschaften an der Universität Colorado Boulder, beantwortet diese Frage mit dem Konzept der erklärbaren KI im folgenden TEDx Talk.

«Indem wir unsere Roboter und KI-Systeme erklärbar machen, können wir verstehen, wann sie die richtigen Regeln erfasst haben und ob wir ihnen vertrauen können. Wenn wir die Verständnislücken zwischen unseren Gedankengängen und denen unserer KI-Systeme überbrücken können, können wir sicher sein, dass wir die Zukunft schaffen, die wir uns vorstellen.»

Was haltet Ihr von KI? Seht Ihr mehr Risiken oder Nutzen in ihr?

Kommentare (0)

Noch keine Kommentare vorhanden.
Sei der Erste, der dies kommentiert!

Beitrag bewerten