Mit Ethik rechnen

Wie moralische Prinzipien die Macht der Algorithmen begrenzen sollen
Fleißig wie die Bienen: Mit Hilfe eines künstlichen neuronalen Netzes überwacht die Firma apic.ai alle Bienen des Bienenstocks und sucht wiederkehrende Muster. So soll der Zustand der Bienen und der sie umgebenden Natur erfasst werden.  Foto: dpa?/?Uli Dec
Fleißig wie die Bienen: Mit Hilfe eines künstlichen neuronalen Netzes überwacht die Firma apic.ai alle Bienen des Bienenstocks und sucht wiederkehrende Muster. So soll der Zustand der Bienen und der sie umgebenden Natur erfasst werden. Foto: dpa?/?Uli Dec
Vom Google-Eintrag bis zur medizinischen Diagnose sind wir umgeben von selbstlernenden Algorithmen. Je mehr Raum wir diesen automatisierten Rechenvorgängen und Handlungsanweisungen geben, desto wichtiger wird die Frage der ethischen Kriterien, nach denen wir sie einsetzen. In der Forschung sucht man derzeit nach Prinzipien, die die Macht der Algorithmen begrenzen. Die Journalistin Barbara Schneider beschreibt die Lage.

Christoph Palm hat eine Vision: Der Professor für Medizinische Bildverarbeitung an der Ostbayerischen Technischen Hochschule in Regensburg (OTH) forscht an einem Algorithmus, der Speiseröhrenkrebs in frühem Stadium erkennen soll. Pro Jahr erkranken etwa 5.200 Männer und 1.500 Frauen an dem Krebs, der schwer zu erkennen ist und deshalb meist zu spät diagnostiziert wird. Deshalb trainiert der Informatiker seinen Früherkennungs-Algorithmus: Er legt dem Computer Aufnahmen von endoskopischen Untersuchungen vor, das System soll möglichst alle Varianten, die es gibt, einmal gesehen haben. Noch sind Christoph Palm und sein Team mitten in der Forschung, noch lernt der Computer. Die große Hoffnung: Irgendwann soll der Algorithmus so gut wie oder sogar besser als der Mensch sein. Denn je früher man den Krebs erkennt, desto größer sind die Therapiechancen, desto besser kann man ihn behandeln.

Der Algorithmus zur Krebs-Früherkennung ist nur ein Beispiel. Algorithmen finden sich heute in vielen Lebensbereichen. Wenn wir das Navi im Auto einschalten. Wenn wir bei der Suchmaschine Google einen Begriff eingeben - immer kommen Algorithmen zum Einsatz. „Unsere ganze Welt würde ohne Algorithmen überhaupt nicht funktionieren“, sagt Matthias Spielkamp von der Initiative „Algorithm Watch“. Dabei sind Algorithmen zunächst einmal nur Rechenvorgänge oder Handlungsanweisungen, um ein Problem zu lösen. Bei Algorithmen in Flugzeugen, in Aufzügen oder im Navigationsgerät sieht die Informatikerin Katharina Zweig vom Karlsruher „Algorithm Accountabilitiy Lab“ kein ethisches Problem. „Es ist aber eine neue Art von Algorithmus in die Welt gekommen und der lernt aus Daten Entscheidungsregeln“, sagt sie. Diese selbstlernenden Algorithmen, die aus Daten Ableitungen für die Zukunft treffen, machen vielen Menschen Angst. Denn es sind komplexe Systeme, die für Laien nicht mehr zu durchschauen sind, gleichzeitig aber Einfluss auf ihr Leben haben.

„Die Algorithmen haben eine Achillesferse“, sagt der Philosoph und Informatiker Kevin Baum aus Saarbrücken. „Sie können nur so gut sein, wie die Daten, aus denen sie lernen.“ Ein Problem bei den selbstlernenden Systemen sind so genannte Bias, also Verzerrungen. Wenn die Datenlage einseitig ist, die Daten, mit denen ein Algorithmus gefüttert wird, missverständlich sind oder wichtige Parameter vergessen werden, kann es passieren, dass der Algorithmus falsche Schlüsse zieht. Das geschieht mitunter ungewollt und unvorhersehbar, wie bei der Recruiting-Software des Online-Händlers Amazon, die Frauen systematisch diskriminiert hat. Das lag an den Daten, mit denen der Algorithmus trainiert wurde. „Unter den Bewerbungen, an denen der Algorithmus gelernt hat, waren vor allem Männer “, erklärt Carla Hustedt, Projektleiterin „Ethik der Algorithmen“ bei der Bertelsmann-Stiftung. „Ohne dass man das dem Algorithmus gesagt hat, hat er gelernt, dass anscheinend Männer die erfolgreicheren Kandidaten sind.“

Informatiker arbeiten daran, solche Verzerrungen zu erkennen und zu verhindern. Im Fall von Amazon hat der Online-Händler den Algorithmus gestoppt. Gleichzeitig, darauf weist Katharina Zweig hin, gibt es bei Verzerrungen durchaus Interessens- und Interpretationsspielräume. „Das Problem ist, dass das, was der eine Verzerrung nennt, der andere nicht unbedingt eine Verzerrung nennt“, sagt die Professorin für Informatik. „Wir sind hier tatsächlich ganz tief in der gesellschaftlichen Diskussion, wo Diskriminierungen anfangen und wie man ihnen begegnen möchte.“

Transparenz notwendig

Selbstlernende Algorithmen werden immer wieder dazu eingesetzt, Prognosen abzugeben und Menschen zu bewerten. In den USA etwa nutzt die Justiz eine Software, die anhand einer Risikobewertung die Rückfallquote von Straftätern berechnet. „Compas“, wie das System heißt, analysiert dabei unter anderem das persönliche Umfeld des Angeklagten: Straftaten in seinem sozialen Umfeld können dabei ebenso die Prognose beeinflussen wie Umzüge in den letzten Monaten oder häufiger Alkohol- oder Drogenkonsum. Es ist unklar, wie der Algorithmus letztlich zu seiner Bewertung kommt. Investigativ-Reporter der unabhängigen Recherche-Organisation „ProPublica“ konnten allerdings nachweisen, dass Schwarze in der Folge deutlich härter bestraft wurden als Weiße.

Gerade bei Algorithmen, die Menschen beurteilen, ist Transparenz notwendig. Wie kommt der Algorithmus zu seinem Ergebnis?

Auf welchen Entscheidungsgrundsätzen beruht es? Das sind Fragen, die sich auch die Initiative „Algorithm Watch“ stellt. Zusammen mit der „Open Knowledge Foundation Deutschland“ wollte sie herausfinden, wie das Scoring-Verfahren der Schufa funktioniert. Sie hatten zu Datenspenden aufgerufen, die von Journalisten des Spiegels und des Bayerischem Rundfunks analysiert wurden. „Sie haben herausgefunden, dass zum Beispiel junge Männer besonders im Nachteil sind“, sagt Matthias Spielkamp von „Algorithm Watch“. „Das Problem ist aber eben, dass man am Ende nicht wirklich herausfinden kann, warum das der Fall ist.“ 4.000 Menschen hatten ihre Schufa-Auskünfte dem Projekt zu Verfügung gestellt - zu wenig, um wirklich schlüssige Ergebnisse zu bekommen. Auf der Webseite openschufa.de schreiben die Initiatoren: „Der Verdacht, dass das Schufa-Verfahren zur Ermittlung der Kreditwürdigkeit von 67 Millionen Deutschen Diskriminierung verstärkt und fehlerhaft ist, hat sich erhärtet, auch wenn wir keine gerichtsfesten Beweise liefern können.“

Transparenz ist das eine. Das andere ist die Frage, welche Rolle algorithmische Systeme in einer Gesellschaft spielen sollen. Ein Schreckensszenario ist der „China Citizen Score“, ein Bürgerbewertungssys-tem, das die kommunistische Volksrepublik China zur Zeit testet. Aus personenbezogenen Daten - aus Kameraüberwachung, Suchabfragen im Internet, aber auch Meldedaten und Kreditbewertungen - leitet sich der persönliche Score eines Menschen ab. Je nachdem, wie sich ein Bürger verhält, steigt oder sinkt seine persönliche Punktzahl. Recherchen der Bertelsmann-Stiftung zufolge gibt es Pluspunkte, wenn man ältere Familienmitglieder pflegt oder keine Schulden hat. Bei Rot über die Ampel zu gehen oder Kritik an der Regierung in Sozialen Netzwerken führt zu Punktabzug. Das Ganze ist geknüpft an ein Belohnungs- und Bestrafungssystem. Eine hohe Punktezahl bedeutet einen besseren Zugang zu medizinischer Versorgung und günstigeren Verkehrstickets. Niedrige Punktzahlen führen zu Flugverboten oder einem eingeschränkten Zugang zu öffentlichen Dienstleistungen. Der „China Citizen Score“ ist eine riesige Datenkrake, die Daten aus allen Lebensbereichen sammelt, vernetzt und analysiert. „Mit diesen Daten kann man Menschen letztlich lenken“, sagt der Sozialethiker Alexander Filipovic von der Hochschule für Philosophie in München. „Man kann Massen von Menschen beeinflussen in ihrem Verhalten.“ Letztlich seien das „erschreckende totale Überwachungssysteme“.

Klare Grenze

Der „China Citizen Score“ zeigt auf, welche Macht ein Staat letztlich mit Hilfe von Algorithmen über seine Bürger entfalten kann. Mit Blick auf China ziehen Wissenschaftler wie Katharina Zweig daher eine klare Grenze. „Der China Citizen Score zementiert die Meinung einer Teilgruppe darüber, wie man sich verhalten soll und erstickt dadurch alle Meinungen, wie Leben aussehen könnte“, sagt die Informatikerin. „Das ist auf jeden Fall demokratiegefährdend.“

Gleichzeitig geht es aus ihrer Sicht nicht darum, Algorithmen insgesamt zu verteufeln. „Algorithmen sind allgemeine Handlungsanweisungen, die in ganz verschiedenen Kontexten angewandt werden“, sagt Zweig und verweist auf ihre eigene Forschung an der TU Kaiserslautern: Sie hat einen Algorithmus entwickelt, der in unterschiedlichen Bereichen angewandt werden kann: „Mit dem haben wir eine dreißig Jahre alte Theorie zur Mikroorganismen-Verteilung in den Weltmeeren gekippt. Damit können wir Film-Empfehlungen geben, und wir haben damit eine neue mögliche Therapie für Brustkrebs entwickelt. Immer derselbe Algorithmus.“

Es kommt also darauf an, wo und wie ein Algorithmus eingesetzt wird, in welchem Kontext er angewandt wird. Letztlich ist nicht der Algorithmus an sich das Problem, sondern das, was Menschen damit machen. Der Philosoph und Informatiker Stefan Ullrich, der am Weizenbaum-Institut für die Vernetzte Gesellschaft in Berlin arbeitet, hält daher Transparenz für die größte ethische Herausforderung. „Der Mensch, der diesen Algorithmus kreiert, auswählt oder einsetzt, sollte erklären, was er damit eigentlich vorhat“, sagt Ullrich. Geschäftsmodelle müssten offengelegt werden, ebenso wie die politischen Ziele und Interessen. Denn es macht eben einen Unterschied, ob ein Algorithmus nur Klamotten-Empfehlungen abgibt oder aber über die Kreditwürdigkeit eines Menschen entscheidet. Am „Algorithm Accountability Lab“ an der TU in Karlsruhe hat Katharina Zweig daher einen Regulierungsvorschlag erarbeitet, der unterschiedliche Anwendungsbereiche in den Blick nimmt.

Letztlich schwingt aber auch immer die Frage mit: Auf welche Daten greift ein Algorithmus zurück? Welche Korrelationen lassen sich herstellen? Auf der einen Seite braucht es große - in vielen Fällen anonymisierte - Datenmengen, um die Systeme zu trainieren. Auf der anderen Seite steht der Schutz der personenbezogenen Daten. Das Problem versucht die Datenschutz- Grundverordnung (DSGVO) zu lösen, die seit Mai vergangenen Jahres in Kraft ist und den Umgang mit personenbezogenen Daten regelt. Demnach darf in Europa kein Mensch ausschließlich über einen Algorithmus bewertet werden. Das hat allerdings seine Grenzen, wie Wolfgang Schulz und Stephan Dreyer vom Hans-Bredow-Institut für Medienforschung in einem Gutachten festhalten: „Trifft jedoch ein Mensch die finale Entscheidung und algorithmische Systeme unterstützen sie nur, wie etwa bei der Kreditvergabe, dann greift die dsgvo nicht.“ Zudem gebe es auch Ausnahmen von dem Verbot, etwa wenn die Einwilligung des Betroffenen vorliegt. Die Verordnung biete „keinen Schutz vor gesellschaftlich relevanten Risiken, die Interessen wie Fairness, Nichtdiskriminierung und soziale Teilhabe betreffen und die über das Datenschutzinteresse des Einzelnen hinausgehen“, schlussfolgern sie.

In der Medizintechnik, wie bei der Forschung zur Früherkennung von Speiseröhrenkrebs, verwenden die Forscher um Christoph Palm ausschließlich anonymisierte Daten, die keine Rückschlüsse auf Patienten zulassen. Zusammen mit dem Labor für Technikfolgenabschätzung und angewandte Ethik an der oth Regensburg diskutieren sie aber auch ethische Leitlinien für den Einsatz von Algorithmen in der Medizin. „Derzeit ist nicht geklärt, wer die Verantwortung trägt, wenn die Entscheidung der Software falsch war“, sagt Karsten Weber, der das Labor leitet. Er sieht hier den Gesetzgeber in der Pflicht, damit eine Software-Entscheidung nicht zum Nachteil eines Patienten ausfällt.

Aber auch Mediziner, die irgendwann einmal die Früherkennungssoftware verwenden sollen, sind gefragt. „Wir wollen nicht den Arzt ersetzen“, sagt Christoph Palm. Vielmehr sieht er in der Technologie eine Art Zweitgutachter, der verhindern soll, dass der Arzt bei der schwer erkennbaren Krankheit etwas übersieht. Unabhängig vom Arzt soll der Rechner die Bilddaten der Speiseröhre anschauen und eine Diagnose erstellen. „Wenn beide übereinstimmen, hat man eine ganz gute Wahrscheinlichkeit, dass die Diagnose stimmt“, sagt Palm. „Wenn die Diagnose nicht übereinstimmt, dann heißt das nicht, dass der Rechner recht hat oder dass der Arzt recht hat. Sondern es würde Anlass geben, um weitere Untersuchungen zu machen.“

Barbara Schneider

Liebe Leserin, lieber Leser,

Dieser Inhalt ist nur für zeitzeichen-Abonnenten zugänglich. Bitte geben Sie Ihre Kundennummer ein *:
Ihre Kundennummer finden Sie entweder auf Ihrer Rechnung (online-Bezug) oder über dem Versandetikett Ihrer Zeitschrift. Bei der Kundennummer handelt es sich um eine 8-stellige Zahl, die mit der Ziffer 1 beginnt.

* Das einmalige Einloggen reicht aus, Sie erhalten damit automatisch Zugang zu allen anderen Artikeln. Beim Verlassen der Webseiten von zeitzeichen werden Sie automatisch ausgeloggt, Sie müssen sich dann bei Ihrem nächsten Besuch erneut anmelden.

Online Abonnement

Die App für Tablets und Smartphones

Print
Abonnement

Wir schicken Ihnen zeitzeichen ins Haus

Ihre Meinung


Weitere Beiträge zu "Politik"