Kleine Verwechslung
Betrachtest du ein Foto von einem Pferd und eines von einem Ferrari-Wagen, erkennst du die beiden abgebildeten Objekte in Bruchteilen von Sekunden, weil du genau weisst, was ein Pferd und was ein Ferrari ist. Eine KI dagegen kann ein Objekt vermeintlich korrekt identifizieren und trotzdem nicht wirklich wissen, was es ist. Dies zeigte eine Studie, die den Lernprozess verschiedener KI-Systeme untersuchte. Es stellte sich heraus, dass die KI ihre Schlüsse zum Teil anhand falscher Annahmen zog. Pferde wurden als solche identifiziert, wenn eine Quellenangabe in der unteren linken Ecke des Bildes vorhanden war. Ohne Quellenangabe konnte die KI das Pferd nicht mehr erkennen. Dagegen identifizierte sie einen Ferrari-Wagen als Pferd, sobald die Quellenangabe ins Bild eingefügt wurde.
Black Box der KI
Neuronale Netzwerke des Deep Learning sind so gebaut, dass im Verlauf des Lernens gewisse Informationsverknüpfungen stärker gewichtet werden als andere. Dieses Vorgehen ist für den Anwender nicht unbedingt nachvollziehbar, so dass der Entscheidungsprozess der KI nicht zurückverfolgt werden kann. Ein Bankangestellter beispielsweise muss gut begründen können, warum sein Kunde gemäss einem Algorithmus als nicht kreditwürdig betrachtet wird. Die sogenannte "erklärbare künstliche Intelligenz" (explainable AI), an der zurzeit geforscht wird, soll die Kriterien, anhand derer KI-Systeme Entscheidungen treffen, sichtbar machen.
Garbage in – Garbage out
Eine KI ist nur so gut wie die Daten, die sie bekommt. Sind die Daten fehlerhaft oder nicht ausgewogen, kann der dadurch in die Irre geführte Algorithmus fortan die falschen Schlüsse ziehen oder systematisch zu verzerrten Ergebnissen kommen. Es ist vielleicht nicht so schlimm, wenn eine Bilddatenbank Ferraris statt Pferden anzeigt. Wenn aber ein autonomes Fahrzeug ein Strassenschild aufgrund eines Graffitis nicht richtig interpretiert, könnten die Folgen gravierend sein. Studien zeigen zudem auf, wie diskriminierend Daten sein können. Menschen mit Migrationshintergrund werden als weniger kreditwürdig eingestuft oder von Polizeicomputern häufiger verdächtigt. KI kann aber selbst dazu beitragen, solche Verzerrungen zu identifizieren.