Das musst du wissen
- Die EU-Ethik-Leitlinien für KI sollten eigentlich auch vorgeben, was mit KI in Europa nicht gemacht werden darf.
- Diese Vorgaben sollten als nicht-verhandelbar, als sogenannte rote Linien gelten.
- Doch auf Druck von Industrievertretern innerhalb des Gremiums, wurden jegliche Verweise auf rote Linien gestrichen.
Künstliche Intelligenz aus Europa soll vertrauenswürdig sein – so will es die EU, die gestern ihre Ethik-Leitlinien für künstliche Intelligenz (KI) vorstellte. Doch diese Leitlinien sind scheinbar auf Druck einiger Mitglieder der zuständigen Expertengruppe verwässert worden. Dies berichtet der Philosoph Thomas Metzinger von der Universität Mainz auf Anfrage.
Metzinger war Teil des 52-köpfigen Expertengremiums, welches die Leitlinien erarbeitete und hatte den Auftrag, zusammen mit einem Kollegen, nicht-verhandelbare ethische Prinzipien, sogenannte rote Linien festzulegen. Gemeint waren Dinge, die in Europa mit KI nicht gemacht werden sollen. Dazu gehörte unter anderem die Erforschung tödlicher autonomer Waffensysteme – wie sie die USA bereits betreiben – oder die automatisierte Identifikation von Personen mittels Gesichtserkennung.
Alles ist nun verhandelbar
«Wir haben solche roten Linien in einen Entwurf der Leitlinien aufgenommen», sagt Metzinger. «Daraufhin haben Gruppenmitglieder, viele von ihnen aus der Industrie, darauf bestanden, dass wir jegliche Verweise auf rote Linien im Dokument wieder streichen.»
Einige von Metzingers nicht-verhandelbaren Prinzipien finden im Dokument zwar als «critical concerns» Erwähnung. Doch er sagt: «Nun gibt es in dem Dokument nichts mehr, was nicht verhandelbar wäre».
Dass die Ethik-Leitlinien insbesondere bei der Entwicklung von KI-Waffensystemen keine konkrete rote Linie ziehen, sei erstaunlich und problematisch, sagt die Ethikerin Eva Weber-Guskar, die derzeit im Rahmen der «Digital Society Initiative» an der Universität Zürich zu KI-Ethik forscht. «Aus der Geschichte der Atomwaffen sollte man gelernt haben, dass es wichtig ist, solchen Entwicklungen so früh wie möglich Schranken zu setzen.»
Industrie dominierte
Grund für die Abschwächung seiner Forderungen, war nach Metzingers Meinung die unausgewogene Zusammensetzung der Expertengruppe. «Sie war von Leuten aus der Industrie dominiert», sagt der Philosoph. Nur vier der 52 Mitglieder seien Philosophen mit einer Ethik-Expertise gewesen. Gemäss Recherchen von Netzpolitik.org kamen 26 Vertreter aus der Industrie.
Trotz aller Kritik seien die Leitlinien dennoch «die beste Plattform, die wir je hatten», sagt Metzinger. Sie seien in den europäischen Grundwerten verankert und hätten eine solide rechtliche Grundlage. «China und die USA haben nichts dergleichen.» Das sieht auch Ethikerin Weber-Guskar so.
Dennoch findet sie den Begriff der «vertrauenswürdigen KI» problematisch. «Vom jetzigen Standpunkt spricht vieles dafür, dass man nur Menschen im engen Sinn vertrauen kann.» Bei Maschinen solle man eher von Verlässlichkeit sprechen, so Weber-Guskar. «Vertrauenswürdigkeit kann und sollte man aber sicher von den Entwicklern künstlicher Intelligenz fordern.» Das werde allerdings nicht reichen. «Wir brauchen auch gesetzliche Regulation für den Einsatz von künstlicher Intelligenz.»