Springe zum Hauptinhalt
Pressestelle und Crossmedia-Redaktion
TUCaktuell
Pressestelle und Crossmedia-Redaktion 
TUCaktuell Forschung

Das Vorurteil der Maschine

Nachvollziehbarkeit und Verantwortlichkeit als Herausforderungen im Umgang mit Künstlicher Intelligenz

Die gängigen Bedrohungsszenarien zur Künstlichen Intelligenz (KI) warnen vor ihren vermeintlich überlegenen Fähigkeiten. Die wahre Gefahr liegt aber momentan eher in ihrer Überschätzung und im blinden Vertrauen in die scheinbare Objektivität maschineller Entscheidungsprozesse. Die Chemnitzer Professoren Wolfgang Einhäuser-Treyer und Alexandra Bendixen plädieren für eine nachvollziehbare KI.

KI ist kein neues Thema. Die theoretischen und philosophischen Betrachtungen zu KI reichen bis in die Anfänge der Informatik in der Mitte des 20. Jahrhunderts zurück. Trotz erster Erfolge in den frühen 1980ern, etwa im Bereich der Handschriftenerkennung, findet KI erst heute Beachtung in der breiten Öffentlichkeit. Dabei ist der aktuelle Fortschritt der KI weniger auf grundlegend neue Konzepte zurückzuführen als vielmehr auf eine gebündelte Verfügbarkeit riesiger Datenmengen – den Big Data.

Das Versprechen: Erkennen von verborgenen Mustern und Informationen

KI kann in riesigen Datenmengen Muster erkennen: Beispielsweise lernt sie anhand unzähliger Fotos von Haustieren, die mit dem Etikett (Label) „Hund“ oder „Katze“ verknüpft sind, diese Tierarten auseinanderzuhalten. Dafür muss man der KI nicht beibringen, was einen Hund von einer Katze unterscheidet - es genügen die Fotos und deren Labels. Die KI erlernt daraus selbständig die relevanten Unterscheidungsmerkmale. Interessant wird diese selbstlernende KI dann, wenn sie Muster erkennt, die dem Menschen selbst bisher verborgen blieben. Welche Merkmale unterscheiden beispielsweise kreditwürdige von weniger kreditwürdigen Personen?

Entsprechend groß sind die Hoffnungen auf mögliche Anwendungen. Gesellschaftlich und individuell hoch bedeutsame Entscheidungen sollen der KI überlassen werden: von der Kreditvergabe über die medizinische Behandlung bis hin zur Vorhersage von potentiell gefährlichen Handlungen im öffentlichen Raum anhand von Videomaterial. Durch den scheinbar objektiven Algorithmus – so die Hoffnung – sollen „bessere“, „schnellere“ und vor allem „gerechtere“ Entscheidungen getroffen werden als bei der Beurteilung durch vermeintlich vorurteilsbehaftete Menschen.

Die unvermeidliche Schwäche: eine verzerrte Datenbasis

Das klingt zunächst vielversprechend – aber sind die Entscheidungen der KI wirklich objektiv und neutral? Das können sie nur sein, wenn die verfügbare Datenbasis keine Verzerrungen beinhaltete. Wenn eine bestimmte Katzenart in der Datenbasis viel zu selten vertreten war, kann es passieren, dass der Algorithmus solche Katzen nicht korrekt zu erkennen lernt. Dieses Beispiel ist nicht zufällig gewählt: Ein besonders schwerer KI-Fehler genau dieser Art führte vor einigen Jahren völlig zu Recht zu einem öffentlichen Aufschrei – die automatische Bilderkennungssoftware einer großen Softwarefirma hatte ein Foto einer Gruppe von Afroamerikanern fälschlicherweise als „Gorillas“ klassifiziert. Wie kann eine derart gravierende Fehlklassifikation passieren? In der zugrundeliegenden Datenbank war die Kategorie „Mensch“ vermutlich massiv in Richtung hellhäutiger Personen verzerrt – mit anderen Worten: Es waren viel mehr Bilder hellhäutiger als dunkelhäutiger Menschen vertreten. Dieses tragische Beispiel zeigt, wie aus der verzerrten Zusammensetzung einer Datenbank ein dramatisches Fehlurteil entstehen kann, das man einem Menschen zu Recht als schlimmste Diskriminierung vorwerfen würde.

Die Vorurteile der Maschine

Wenn sich aber KI-Systeme schon bei solch einfachen Fragestellungen (Ist ein Mensch abgebildet oder nicht?) irren können, wie sieht es dann bei komplexeren Fragestellungen aus? Wie verhält es sich zum Beispiel mit Entscheidungen über Kreditwürdigkeit, die im Bank- und Versicherungswesen durchaus bereits Anwendung finden? Die Datenbasis besteht hier aus einer Sammlung von Informationen über Personen, die Kredite erhalten haben, und über deren spätere Zahlungsfähigkeit. Wenn das KI-System „gelernt“ hat, dass Personen mit bestimmten Eigenschaften besonders häufig zahlungsunfähig werden, wird es daraus die Entscheidung ableiten, dass andere Personen mit denselben Eigenschaften keinen Kredit mehr erhalten sollten. Wie bei der Bildklassifikation irrt der Algorithmus unweigerlich, wenn die Datenbasis verzerrt ist. Zwei Dinge sind in diesem Fall aber anders: Erstens kann der Mensch das Fehlurteil des KI-Systems nicht mehr erkennen, weil die „richtige“ Antwort nicht klar ist – niemand weiß, ob die betreffende Person vielleicht doch kreditwürdig gewesen wäre. Zweitens verletzt die Entscheidung nicht mehr allein die Würde der Person, sondern behindert sie auch in ihren gesellschaftlichen Entwicklungsmöglichkeiten – die Diskriminierung wird unter Umständen zu einem existenzbedrohenden Problem.

Abwälzen von Verantwortung und Mangel an Nachvollziehbarkeit

Verzerrungen in den Datenbanken, mit denen selbstlernende Algorithmen trainiert werden, führen also im wahrsten Wortsinn zu Vorurteilen bei der Bewertung individueller Fälle. Die Problematik solcher vorurteilsbehafteten Entscheidungen wird weiter verstärkt, wenn sich die Ausführenden dieser Verzerrungen nicht bewusst sind oder die Verantwortung auf die scheinbar objektiv urteilende KI abwälzen: „Der Computer hat auf Basis Ihrer Daten entschieden, dass Sie keinen Kredit erhalten, da kann ich als Bankangestellter nichts machen.“

Man könnte gegen diese Kritik zunächst einwenden, dass auch Menschen ihren eigenen Vorurteilen unterliegen. Dieser Einwand ist zweifelsfrei berechtigt, doch kann der Mensch gezwungen werden, sich mit diesen Vorurteilen auseinanderzusetzen und Verantwortung für seine Entscheidungen zu übernehmen. Solch eine Zuschreibung von Verantwortung bleibt selbst dann möglich, wenn sich der Entscheider der Quelle seiner Vorurteile und dem Ablauf seiner Entscheidungsprozesse nicht vollumfänglich bewusst ist. Bei der selbstlernenden KI liegen die Verzerrungen – also die Vorurteile – schon in der Datenbank begründet, mit der sie trainiert wird. Hinzu kommt, dass bei hinreichend komplexen Systemen in der Regel nicht mehr nachvollziehbar ist, auf welcher Grundlage eine Entscheidung getroffen wurde – auf welchen Merkmalen die Entscheidung also basierte und wie diese miteinander verknüpft wurden. Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse sind aber die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen und Grundlage jeder gesellschaftlichen und rechtlichen Ordnung, der solche Entscheidungen zu Grunde liegen.

Keine Korrekturmöglichkeit maschineller Vorurteile

Man könnte weiter einwenden, dass mit hinreichenden Datenmengen das Problem der Verzerrung der Datenbanken nach und nach vernachlässigbar werde. Gerade am Beispiel der Kreditwürdigkeit stellt man jedoch schnell fest, dass sich die Verzerrungen der Datenbank nicht mehr rückgängig machen lassen, sobald man beginnt, den Entscheidungen der KI zu folgen. Wenn Kredite also an bestimmte Personengruppen nicht mehr vergeben werden, so wird man auch keine Daten mehr zu der Frage sammeln, ob die Personen am Ende doch kreditwürdig gewesen wären. Die Datenbasis bleibt verzerrt; die Entscheidungen bleiben vorurteilsbehaftet. Dasselbe Problem führt übrigens auch beim Menschen in vielen Fällen zur hartnäckigen Festsetzung von Vorurteilen, die sich durch eine größere Datenbasis leicht abbauen ließen.

Die wahre Chance: Vernetzung großer Datenmengen unter Verantwortung des Menschen

Die bisherigen Ausführungen sollen keinesfalls bedeuten, dass der Einsatz von selbstlernender KI immer von Nachteil sein muss. Im Gegenteil – es gibt Bereiche, in denen das Erkennen von Zusammenhängen in großen Datenbanken für den Einzelnen gewaltige Vorteile mit sich bringen kann. So kann ein Patient mit einer seltenen Symptomatik sehr davon profitieren, nicht nur auf die Erfahrung einer einzelnen Ärztin oder eines einzelnen Arztes zugreifen zu können, sondern auf den gewichteten Erfahrungsschatz der gesamten Ärzteschaft. Im besten Fall ergeben sich durch die KI neue Ideen zur Einordnung der Symptome und zur geeigneten Behandlung. Bevor Therapieentscheidungen für die einzelne Person abgeleitet werden, muss aber auch hier wieder das Risiko von Verzerrungen der Datenbasis bedacht werden.

Die zentrale Herausforderung: Nachvollziehbarkeit

Wie können die Vorteile selbstlernender KI-Systeme für die Gesellschaft und für den Einzelnen genutzt werden, ohne sich die erwähnten Nachteile einzuhandeln? Auf der Seite der Forschenden an selbstlernenden Systemen und auf Seiten der Öffentlichkeit ist das Bewusstsein für die unvermeidlichen Verzerrungen von Datenbanken zu schärfen. Scheinbar objektive Algorithmen unterliegen genau wie Menschen „Vorurteilen“, deren Quellen häufig schwer nachzuvollziehen sind. Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist daher nicht hinnehmbar. Gleichzeitig sind Verfahren weiter voranzutreiben, die Entscheidungsprozesse in KI-Systemen nachvollziehbar machen. Die Nachvollziehbarkeit von Datenverarbeitungs- und Entscheidungsprozessen ist die Grundvoraussetzung dafür, dass der Einzelne den Umgang mit seinen Daten einordnen und somit sein Recht auf informationelle Selbstbestimmung effektiv ausüben kann.

Die Rolle der Schulen und Hochschulen: Verantwortlichkeit lehren und leben

Nachvollziehbare KI wird nicht zuletzt von der Wechselwirkung mit denjenigen Disziplinen profitieren, die sich seit jeher mit der Vorurteilsbehaftung von Entscheidungen befassen – der Psychologie, den Kognitionswissenschaften sowie Teilen der Wirtschaftswissenschaften. Schulen und Hochschulen müssen sich der Herausforderung stellen, eine umfassende Betrachtung von KI-Systemen zu vermitteln. In den technischen und informationstechnischen Disziplinen erfordert dies eine Diskussion der gesellschaftlichen Konsequenzen verzerrter Daten, in den human- und sozialwissenschaftlichen Disziplinen eine Schärfung des nötigen Technikverständnisses. Eine solide Bildung in den menschlichen, gesellschaftlichen und technischen Aspekten selbstlernender informationsverarbeitender Systeme bildet die beste Voraussetzung, die Chancen und Risiken von KI einzuordnen, entsprechende Systeme mitzugestalten und ihren verantwortungsvollen Einsatz sicherzustellen.

Hintergrund: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen

Wolfgang Einhäuser-Treyer studierte Physik in Heidelberg und Zürich. Nach Promotion an der ETH Zürich im Gebiet Neuroinformatik, Postdoktorandentätigkeit am California Institute of Technology und wiederum der ETH u. a. zum Thema maschinelles Lernen sowie einer Juniorprofessur für Neurophysik an der Universität Marburg ist er seit 2015 Professor für die Physik kognitiver Prozesse an der TU Chemnitz.

Alexandra Bendixen studierte Psychologie in Leipzig und Grenoble und promovierte an der Universität Leipzig im Bereich der Kognitions- und Neurowissenschaften. Nach einer Forschungstätigkeit an der Ungarischen Akademie der Wissenschaften in Budapest, Habilitation an der Universität Leipzig sowie einer Juniorprofessur für Psychophysiologie des Hörens an der Carl-von-Ossietzky-Universität Oldenburg ist sie seit 2015 Professorin für Struktur und Funktion kognitiver Systeme an der TU Chemnitz.

Im Studiengang Sensorik und kognitive Psychologie an der TU Chemnitz ist es beiden ein Anliegen, die Verknüpfungen zwischen physikalischen-technischen und menschlich-psychologischen Inhalten auch ihren Studierenden zu vermitteln.

(Autoren: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen)

Matthias Fejes
24.01.2019

Alle „TUCaktuell“-Meldungen
Hinweis: Die TU Chemnitz ist in vielen Medien präsent. Einen Eindruck, wie diese über die Universität berichten, gibt der Medienspiegel.