Können Maschinen denken? Mit dieser Frage eröffnete der britische Mathematiker Alan Turing sein berühmtestes Werk. Der 1950 veröffentlichte Text legte den Grundstein für die Konzeption und Definition der Künstlichen Intelligenz (KI). Um seine Frage zu beantworten, erfand Turing das «Nachahmungsspiel», das noch heute zur Beurteilung der Intelligenz einer Maschine verwendet wird.
Das Spiel, das später als Turing-Test bekannt wurde, besteht aus drei Spielenden: Spieler A ist ein Mann, Spielerin B ist eine Frau, Person C stellt die Fragen. Bei C spielt das Geschlecht keine Rolle.
Die fragende Person kann die beiden anderen Spielenden nicht sehen und stellt eine Reihe von schriftlichen Fragen, um festzustellen, wer der Mann und wer die Frau ist. Das Ziel des männlichen Befragten ist es, die fragende Person durch trügerische Antworten in die Irre zu führen, während die befragte Frau ihre korrekte Identifizierung erleichtern soll.
Stellen Sie sich nun vor, dass Spieler A durch einen Computer ersetzt wird. Turing schrieb, dass, wenn die fragende Person nicht in der Lage ist, zwischen einem Computer und einem Menschen zu unterscheiden, der Computer als intelligente Entität betrachtet werden sollte, da er einem Menschen kognitiv ähnlich wäre.
Siebzig Jahre später lassen die Ergebnisse des Tests aufhorchen: «Derzeit gibt es kein einziges System Künstlicher Intelligenz, das den ersten Turing-Test bestanden hat», sagt Hervé Bourlard, Leiter des Forschungsinstituts Idiap in Martigny im Kanton Wallis. Dieses hat sich auf künstliche und kognitive Intelligenz spezialisiert.
Weder künstlich noch intelligent
Nachdem der Begriff der Künstlichen Intelligenz bereits in den 1970er-Jahren aus der Mode gekommen war – er galt als unmodern und lächerlich –, wurde er in den 1990er-Jahren wieder salonfähig. «Aus Gründen der Werbung, des Marketings und der Wirtschaft», sagt Bourlard, der auch Professor für Elektrotechnik ist, «aber ohne wirkliche Fortschritte zu machen, ausser bei der Leistungsfähigkeit der mathematischen Modelle.»
Bourlard bleibt skeptisch gegenüber dem Ausdruck und seiner heutigen Verwendung. Ihm zufolge gibt es so etwas wie «Künstliche Intelligenz» nicht, da kein System auch nur das Geringste von menschlicher Intelligenz widerspiegle. Selbst ein zwei oder drei Monate altes Baby könne Dinge machen, wozu eine KI niemals in der Lage wäre.
Ein Beispiel? Nehmen wir ein volles Glas Wasser, das auf einem Tisch steht. Ein kleines Kind weiss, dass das Glas Wasser, wenn es auf den Kopf gestellt wird, zu einem leeren Glas wird. «Deshalb verschüttet es dieses so gerne. Keine Maschine der Welt kann diesen Unterschied verstehen», sagt Bourlard.
Was dieses Beispiel zeigt, gilt auch für den gesunden Menschenverstand – eine Fähigkeit, die den Menschen von anderen Lebewesen unterscheidet, die aber von Maschinen nicht nachgeahmt werden kann und auch nie nachgeahmt werden könne, so Bourlard.
Die Intelligenz steckt in den Daten
KI ist jedoch in vielen Geschäftsbereichen gut etabliert und trägt zunehmend bei zu Entscheidungsprozessen in vielen Bereichen wie etwa Personalwesen, Versicherungen und Bankkrediten.
Durch die Analyse des menschlichen Verhaltens im Internet lernen die Maschinen, wer wir sind und was wir mögen. Empfehlungssysteme filtern weniger relevante Informationen heraus und empfehlen uns Filme, die wir sehen sollten, Nachrichten, die wir lesen sollten, Kleidung, die uns gefallen könnte.
Aber das allein mache Künstliche Intelligenz noch nicht intelligent, sagt Bourlard, der das Idiap seit 1996 leitet. Er zieht es vor, über maschinelles Lernen zu sprechen. Laut Bourlard gibt es drei Aspekte, welche die KI auf ihre eigene Weise leistungsfähig machen: Rechenleistung, mathematische Modelle und sehr grosse und weit verbreitete Datenbanken.
Immer leistungsfähigere Computer und die Digitalisierung von Information haben es ermöglicht, mathematische Modelle enorm zu verbessern. Das Internet mit seinen unendlichen Datenbanken tat sein Übriges und dehnte die Möglichkeiten von KI-Systemen immer weiter aus.
Mit einer Reihe von Demonstrationen, die ab dem 1. April 2022 im «Musée de la main» in Lausanne zu sehen sein werden, will das Institut Idiap der Öffentlichkeit zeigen, wie zentral Daten für Maschinen sind.
Besuchende werden zum Beispiel erleben können, wie die KI-basierte Technologie hinter unseren Smartphone-Kameras die Qualität von Bildern mit geringer Auflösung deutlich verbessern kann, je nachdem, mit welchen Daten sie trainiert wurde.
Das ist kein einfacher Prozess, sondern erfordert eine Menge qualitativ hochwertiger Daten, die von einem Menschen (wenn auch nicht vollständig manuell) kommentiert oder «etikettiert» werden müssen, um sie für eine Maschine verständlich zu machen.
«Wir haben es hier nicht mit etwas zu tun, das ein Eigenleben hat, sondern mit einem System, das mit Daten gefüttert wird», sagt Michael Liebling, der die Computational Bioimaging Group bei Idiap leitet.
Das bedeutet nicht, dass die KI keine Risiken birgt. Die Grenzen der Maschinen hängen von den Grenzen der Daten ab. Dies, so Liebling, sollte die Menschen zum Nachdenken darüber anregen, wo die wirkliche Gefahr liege.
«Besteht die Gefahr wirklich darin, dass eine Science-Fiction-Maschine die Welt erobert? Oder liegt es an der Art und Weise, wie wir Daten verbreiten und mit Anmerkungen versehen? Ich persönlich glaube, dass die Bedrohung eher in der Art und Weise liegt, wie die Daten verwaltet werden, als in den Maschinen selbst», sagt Liebling.
Tech-Giganten wie Google und Facebook sind sich der Macht datengestützter Modelle durchaus bewusst und haben ihr Geschäft darauf aufgebaut. Dieser Aspekt, zusammen mit der Automatisierung menschlicher Aufgaben, beunruhigt die wissenschaftliche Gemeinschaft am meisten.
Die ehemalige Google-Forscherin Timnit Gebru wurde sogar entlassen, weil sie die sehr umfangreichen und undurchschaubaren Sprachmodelle kritisiert hatte, die der weltweit meistgenutzten Suchmaschine zugrunde liegen.
Die Einschränkung von Modellen des maschinellen Lernens besteht darin, dass sie nicht – oder zumindest noch nicht – die gleiche Denkfähigkeit aufweisen wie wir. Sie sind in der Lage, Antworten zu geben, aber nicht zu erklären, warum sie zu einer bestimmten Schlussfolgerung gekommen sind.
«Man muss sie auch für ein menschliches Publikum transparent und verständlich machen», sagt André Freitas. Er ist Leiter der Forschungsgruppe Reasoning & Explainable AI beim Institut Idiap in Martigny.
Gut daran ist, so Freitas, dass die KI-Gemeinschaft, die sich früher hauptsächlich auf die Optimierung von Systemen konzentrierte, nun auch Modelle entwickle, die ethisch vertretbar, erklärbar, sicher und fair seien.
Mit seiner Forschungsgruppe entwickelt Freitas KI-Modelle, die ihre Schlussfolgerungen erklären können. Damit wäre es nicht nur möglich, vorherzusagen und zu empfehlen, wann Covid-19-positive Patientinnen und Patienten in die Intensivstation aufgenommen werden sollten. Ein KI-Modell würde auch dem medizinischen Personal zudem erklären können, wie diese Schlussfolgerungen zustande gekommen sind und wo die möglichen Grenzen des Systems liegen.
«Indem wir KI-Modelle entwickeln, die sich der Aussenwelt erklären können, geben wir den Nutzenden die Möglichkeit, dessen Grenzen und Stärken kritisch zu betrachten», sagt Freitas.
Ziel sei es, komplexe Algorithmen und Fachjargon in etwas Verständliches und Zugängliches zu verwandeln. Da KI-Anwendungen allmählich unser Leben durchdringen, empfiehlt der Forscher: «Wenn Sie auf ein KI-System stossen, fordern Sie es auf, sich zu erklären.»
Illusionen über Intelligenz
KI wird oft als Motor für die heutigen Innovationen bezeichnet. Es ist daher nur natürlich, dass sie für Aufregung sorgt und hohe Erwartungen weckt. Dank der Modelle neuronaler Netze, die dem menschlichen Gehirn nachempfunden sind, erbringen Computer Leistungen in Bereichen, die früher undenkbar waren.
«Das hat uns zu der Annahme verleitet, dass die KI so intelligent wird wie wir und all unsere Probleme lösen wird», sagt Lonneke van der Plas, Leiterin der Gruppe Computation, Kognition und Sprache bei Idiap.
Van der Plas nennt als Beispiel die immer fortschrittlicheren Fähigkeiten von Sprachsystemen wie virtuelle Assistenten oder maschinelle Übersetzungswerkzeuge. «Sie machen uns sprachlos, und wir denken, wenn ein Computer etwas so Komplexes wie Sprache beherrscht, muss eine Intelligenz dahinterstecken», sagt sie.
Sprachtools können uns nachahmen, weil die ihnen zugrundeliegenden Modelle in der Lage sind, Muster aus einer grossen Menge von Texten zu lernen. Vergleicht man jedoch die Fähigkeiten eines virtuellen (sprachgesteuerten) Assistenten mit denen eines durchschnittlichen Kindes, das beispielsweise über ein Papierflugzeug diskutiert, so benötigt die Software viel mehr Daten, um das Niveau des Kindes zu erreichen.
Und sie wird sogar Schwierigkeiten haben, sich mit gesundem Menschenverstand auszudrücken. «Es ist leicht, uns selbst zu täuschen. Wenn etwas wie ein Mensch klingt, bedeutet das nicht automatisch, dass dahinter menschliche Intelligenz steckt», sagt Van der Plas.
Schliesslich hat es Turing schon vor siebzig Jahren gesagt: Es lohnt sich nicht, eine «denkende Maschine» durch ästhetische Mittel vermenschlichen zu wollen. Der Wert eines Buchs wird schliesslich auch nicht nach seinem Umschlag beurteilt.