view updated

Mögliche Fehleinschätzungen der Leistungsfähigkeit von Algorithmen

Marc Jannes u.a.

Marc Jannes u.a.: Mögliche Fehleinschätzungen der Leistungsfähigkeit von Algorithmen

Angesichts der hohen Geschwindigkeit und ihrer Fähigkeit, auch größte Datenmengen zu verarbeiten, könnte die Leistungsfähigkeit algorithmenbasierter Systeme leicht überschätzt werden. In der Speicherung und Verwaltung von Daten sind maschinelle Systeme dem Menschen zwar tatsächlich systematisch überlegen, und diese Überlegenheit wird sich künftig voraussichtlich noch verstärken. Geht es allerdings um die Bewertung von Informationen, sind sie dem Menschen systematisch unterlegen. In vielen, wenn nicht gar den meisten Bereichen der medizinischen bzw. pflegerischen Versorgung und Forschung ist menschliche Urteilskraft erforderlich, etwa wenn zwischen Algorithmen in der Gesundheitsversorgung unterschiedlichen Chancen und Risiken abgewogen werden muss. Gibt es mehrere diagnostische bzw. therapeutische Optionen, die mit je eigenen Vor- und Nachteile verbunden sind, dann […] kann ein Algorithmus allenfalls unterstützende Funktion haben. Das menschliche Urteilsvermögen kann dadurch nicht ersetzt werden.

Bei algorithmengenerierten Empfehlungen ist es daher wichtig, klar zwischen Empfehlungen und Entscheidungen zu unterscheiden: Digitale Assistenzsysteme könnten zwar Empfehlungen generieren Empfehlungen, die aufgrund der Qualität und Zahl der verarbeiteten Daten durchaus den „Charakter einer qualifizierten Zweitmeinung“ haben können (Rasche 2017: 8). Eine Entscheidung können sie jedoch nicht treffen. Diese Aufgabe obliegt immer einem Menschen (ebd.).

Dies gilt auch für den Einsatz von Algorithmen in Systemen, die beispielsweise Medikamente automatisch verabreichen, elektrische Impulse auslösen oder Benachrichtigungen an das ärztliche oder das Pflegepersonal verschicken. Beispielhaft seien hier unter der Haut implantierte Sensoren genannt, die die Blutwerte von Diabetikern erfassen, um bei Bedarf automatisch Insulin freizusetzen. In Anwendungen dieser Art scheint der Algorithmus gewissermaßen selbst zu „entscheiden“, ob, wann und wie viel Insulin verabreicht wird. Faktisch wird die Entscheidung über die Programmierung bzw. entsprechende Einstellungen der Funktionen vorgegeben. Auch hier entscheidet der Mensch, also der Programmierer, Patienten, Ärztinnen und Ärzte, Pflegepersonal oder auch andere beteiligte Personen. Im Zusammenhang mit der Programmierung, dem Einsatz und der Einstellung des Systems können sich ethisch und rechtlich problematische Implikationen ergeben, insbesondere mit Blick auf die Zuschreibung von Verantwortung.

Offensichtlich kann ein Algorithmus zwar einen Schaden verursachen, indem eine qualitativ schlechte oder gar fehlerhafte Programmierung oder Anwendung der Grund für dessen Entstehen ist. Es wäre jedoch unsinnig zu behaupten, dass der Algorithmus im eigentlichen Wortsinn für einen Schaden verantwortlich ist. Selbst hoch entwickelte Algorithmen sind nicht in der Lage, Verantwortung zu übernehmen. Sie treffen keine moralisch verantwortungsvollen Entscheidungen. Das können allein Menschen. Kommt es infolge einer Algorithmenanwendung zu einem Schaden, sind also diejenigen dafür verantwortlich, die an den entsprechenden Programmierungs- und Anwendungsentscheidungen beteiligt waren. Angesichts der oft großen Zahl an Personen, die solche Entscheidungen mittreffen, stellt sich allerdings die Frage, wer im Einzelnen welche Faktoren und mögliche Fehler verantwortet (Mittelstadt et al. 2016). Ist es der Programmierer, die ein System anbietende Institution, der behandelnde Arzt oder der Patient? Diese Frage ist bislang ungeklärt, doch ihre Beantwortung angesichts der steigenden Nutzung von Algorithmen zunehmend dringlich.

[…] Um Entscheidungen treffen zu können, müssen Personen über hinreichende relevante Informationen und praktisches Entscheidungswissen verfügen. Die unterschiedlichen Funktionsweisen von Algorithmen sind jedoch selbst für Informatiker teils kaum, teils gar nicht nachvollziehbar (European Group on Ethics in Science and New Technologies 2018). Im Falle eines Fehlers kann es aufgrund sogenannter Black-Box-Effekte sein, dass weder der Anwender noch der Informatiker erkennt, wo genau der Fehler liegt. Eine Analyse möglicher Fehlleistungen wird hierdurch maßgeblich erschwert, eventuell sogar unmöglich, und es droht ein Kontrollverlust (Jaume-Palasí und Spielkamp 2017). Teilüberwachtes oder unüberwachtes maschinelles Lernen wirft hierbei die meisten Probleme auf. Die Einzelschritte der jeweiligen Prozesse sind oft selbst für Informatiker und Programmierer nicht mehr nachvollziehbar. Sollte der Algorithmus fehlerhaft funktionieren, können Menschen nicht erkennen, welcher Schritt hierfür ursächlich ist.

[…] Verlassen sich Fachleute auf die Leistungsfähigkeit eines solchen Algorithmus, können entscheidungsrelevante Faktoren leicht übersehen werden. Schlimmstenfalls geht das Bewusstsein dafür verloren, dass entscheidungsrelevante Informationen durch einen Algorithmus übersehen werden können (Mittelstadt et al. 2016).

(Aus: Jannes, M. u.a. (2018): Algorithmen in der digitalen Gesundheitsversorgung. Eine interdisziplinäre Analyse. Bertelsmann Stiftung. Gütersloh, S. 28-30)