Als Podcast anhören

Kann künstliche Intelligenz rassistisch sein? Und ob sie das kann. Vielleicht sogar noch mehr als echte Menschen.

Eine künstliche Intelligenz (KI) lernt autonom. Wir geben ihr nur das Ziel vor, aber nicht, wie genau sie dorthin gelangen soll. Ihr Lösungsweg ist nicht transparent. Die KI sucht nach Mustern, leitet daraus ihre eigenen Regeln ab, die wir nicht genau kennen.

Nehmen wir zum Beispiel die automatische Gesichtserkennung bei der Einreise am Flughafen. Die dort verwendete KI erhält im Lernprozess unzählige Bilder von Menschen präsentiert – allerhand Menschen. Darunter natürlich auch Drogenschmuggler. Wenn jetzt die Mehrheit der Drogenkuriere eine dunkle Hautfarbe hat, assoziiert die KI die Hautfarbe mit der illegalen Tätigkeit. Auch wenn die Hautfarbe nicht mit der Handlung zu tun hat.

Ein so trainiertes KI-System wird dunkelhäutige Menschen systematisch benachteiligen – aufgrund eines Merkmals, das rein äusserlich ist und mit Drogenhandel nichts zu tun hat.

Solches zu verhindern, ist das Ziel der Organisation «Black in Robotics». Geleitet wird sie von Ayanna Howard, Professorin am Human-Automation Systems Lab am Georgia Institute of Technology. Und Monroe Kennedy III vom Assistive Robotics and Manipulation Lab an der Stanford Universität. Gemeinsam fordern sie in der Zeitschrift Science, dass diese neuen Technologien so gebaut und nur dann eingesetzt werden dürfen, wenn der potenzielle Nutzen die möglichen Risiken für alle betroffenen Gruppen überwiege. Und nur dann, wenn die Leistung der Roboter und KI-Systeme in keinem Zusammenhang mit Merkmalen steht, die für diese Leistung irrelevant ist.

Um zu verhindern, dass sich rassistische Vorurteile in die Algorithmen eines neuen Roboters einschleichen, müssen die Teams, die diese neuen Technologien entwickeln, vielfältig zusammengesetzt sein. Und das betrifft jetzt nicht nur die Hautfarbe, sondern auch ethnische Zugehörigkeit, Alter oder Geschlecht.

_____________

📬 Das Neuste und Wichtigste aus der Wissenschaft, jeden Dienstag und Donnerstag per E-Mail:
Abonniere hier unseren Newsletter! ✉️

_____________

Diese vorurteilslose Ethik ist eine der vier Voraussetzungen, damit Systeme mit künstlicher Intelligenz in der Bevölkerung breite Akzeptanz finden.
Zweitens müssen ihre Entscheidungen nachvollziehbar sein, die Entscheidungswege transparent. Drittens müssen sie so ausgestaltet sein, dass sie für Hacker unangreifbar sind. Und viertens muss – bevor sie eingesetzt werden – die Verantwortlichkeit geklärt sein. Wer haftet, wenn etwas schiefläuft?

«Black in Robotics» setzt sich dafür ein, dass Roboter keine systemischen Ungleichheiten schaffen. Oder anders gesagt, dass kein Mensch bloss als Teil einer Gruppe wahrgenommen wird, sondern immer als das, was er ist: ein Individuum.

Der Faktist

Der Faktist schaut ganz genau hin. Im Dschungel der wissenschaftlichen Studienresultate behält er den Überblick. Zeigt, was zusammenhängt. Und was einfach nicht aufgeht. Der Faktist ist Beat Glogger, Gründer und Chefredaktor von higgs. Jeden Dienstag als Sendung auf Radio 1 und als Video auf higgs.
Alle Beiträge anzeigen
Diesen Beitrag teilen
Unterstütze uns

regelmässige Spende