Quantcast
Channel: Neue Rundschau » Computer
Viewing all articles
Browse latest Browse all 22

Was tun – wenn Algorithmen entscheiden ?

$
0
0
Intelligente Algorithmen können Menschen viele lästige Entscheidungen abnehmen. Doch das kann auch zu drastischen Auswirkungen auf die Betroffenen führen. Experten fordern deshalb, die Gesetze anzupassen.

Intelligente Algorithmen können Menschen viele lästige Entscheidungen abnehmen. Doch das kann auch zu drastischen Auswirkungen für die Betroffenen führen. Experten fordern deshalb, die Gesetze anzupassen.

Über die rechtlichen Konsequenzen intelligenter Algorithmen wird schon länger diskutiert – besonders in den Fällen, in denen sie Menschen Entscheidungen abnehmen sollen. Experten fordern nun, dass endlich auch die Rechtslage den neuen Gegebenheiten angepasst werden muss. Eric Horvitz, leitender Forscher bei Microsoft Research, etwa moniert in der aktuellen Ausgabe von Technology Review, dass maschinelles Lernen es dem Einzelnen zunehmend erschwert, „zu verstehen, was andere über ihn wissen können.“ Studien zeigen beispielsweise, dass mittels Daten aus sozialen Netzwerken

depressive Nutzer mit hoher Treffergenauigkeit erkannt werden können. Wenn Algorithmen auf dieser Datenbasis vorhersagen, dass ein Mensch vermutlich eine Depression entwickeln wird, könnte ein Arbeitgeber entsprechende Bewerber legal ablehnen. Denn nur akute Krankheiten schützen den Bewerber, keine drohenden.

„Die Gesetze sind nicht auf dem Stand der Technologie“, moniert Horvitz. Die Politik müsse nacharbeiten: „Auch wenn das eine Herausforderung ist, sind solche Gesetze ein wichtiger Teil der rechtlichen Landschaft der Zukunft. Sie werden helfen, Freiheit, Privatsphäre und das Allgemeinwohl voranzubringen“, so Horvitz.

Algorithmen-Ethik

egkViktor Mayer-Schönberger, Professor of Internet Governance and Regulation in Oxford, fordert deshalb: „Ethisch problematische Verwendungen müssen jetzt eingeschränkt werden.“ Generell rät er davon ab, mittels Daten aus der Vergangenheit Entscheidungen für die Zukunft zu treffen. Denn wenn der Algorithmus eines Tages nicht mehr sagt: „Menschen wie Sie interessieren sich auch für folgende Bücher“, sondern „Menschen wie Sie fahren in der Regel rowdyhaft, Sie bekommen schon präventiv keinen Führerschein“, sieht er die menschliche Freiheit in Gefahr.

Auch der Informatiker Kavé Salamatian von der Université de Savoie in Annecy plädiert dafür, manche Anwendungsfälle von Big Data auszuschließen, etwa vorhersagende Systeme wie Predictive Policing. „Wir können nicht überschauen, ob der Algorithmus richtig liegt“, sagt er. „Wenn ich die Menschen ausblende, blende ich auch die Vorannahmen aus und tue so, als wäre das reine Empirie“, sagt er. Und das ist gefährlich.

Rassistische Algorithmen

images-1So entstehe bei den Nutzern der Eindruck, diese Systeme seien unfehlbar: Was die Maschine aufgrund reiner Beobachtung der Realität errechnet hat, könne doch unmöglich falsch sein.

So finden Algorithmen etwa einen Zusammenhang zwischen steigender Wegstrecke zum Arbeitsplatz und Fluktuation entsprechender Mitarbeiter. Der Computer rät also zu Bewerbern, die näher am Unternehmen wohnen.

Zumindest in den USA trifft diese Korrelation aber vermehrt Schwarze, die häufig in den Außenbezirken leben. Der Rassismus hat sich durch die Hintertür eingeschlichen. Salamatian ist überzeugt, dass wir die meisten derartigen Probleme gar nicht mitbekommen. Sein Fazit: „Diese ganzen inhärenten Probleme zeigen, dass man die Technologie in Bereichen mit weitreichenden Konsequenzen für die Betroffenen nicht anwenden darf.“

Wenn Algorithmen töten

In anderen Ländern können diese Systeme heute schon tödliche Auswirkungen haben. So verwies der Medienwissenschaftler Christoph Engemann in Hamburg auf die militärische Anwendung der Graphentheorie, mit der auch soziale Netzwerke analysiert werden und die große Auswirkungen auf den „War on Terror“ der USA habe. Gerade in Afghanistan und im Irak habe die US-Armee diese Analysemethoden genutzt, um Ziele zu identifizieren. Die notwendigen Daten hätten zum einen Drohnen geliefert, die Mobilfunkgespräche am Boden auffingen – zum anderen habe die USA auch Teams von Anthropologen losgeschickt, um wichtige Entscheidungsträger zu identifizieren. Auch die Strukturen der Lebensmittelverteilung flossen in die Modelle ein.

Besonders kritisch sieht Bengemann das „Shaping“ – wenn die Modelle kein klares Bild ergaben, griffen die Militärs ein, indem sie beispielsweise einen Entscheidungsträger verhaften ließen – um dann zu analysieren, wie sich die Kommunikations- und Entscheidungsstrukturen neu formieren. Wer schließlich in den Modellen als zentraler Knoten identifiziert wurde, konnte auf einer Todesliste oder in Guantanamo landen. Engemann spricht hier von einem „akademisch-militärischen Komplex“.

Sind Algorithmen unvoreingenommen?

68dd3eb0f7Eine Hoffnung für maschinell gestützte Entscheidungsstrukturen ist die vermeintliche Vorurteilsfreiheit von Computern. So verwies der Physiker und Datenwissenschaftler Andreas Dewes in Hamburg darauf, dass die Big-Data-Analyse viel Potenzial für bessere Datenauswertungen und damit auch bessere Entscheidungen bieten. Gerade in der Wirtschaft werde das maschinelle Lernen schon breit eingesetzt, um beispielsweis geeignete Mitarbeiter zu finden. Dabei werden die Angaben aus der Bewerbung mit externen Daten verknüpft. „Wer sich in letzter Zeit irgendwo beworben hat, dessen Bewerbung ist wahrscheinlich durch einen solchen Prozess gegangen“, sagt Dewes.

Das Problem dabei: Der Algorithmus muss von Menschen angelernt werden. Wurden bisher Bewerbungen bestimmter Gruppen ignoriert, wird auch der Computer diese Tendenz übernehmen – selbst wenn dem Algorithmus die entsprechende Information vorenthalten wird. So lassen sich Gruppenzugehörigkeiten auch aus anderen Faktoren ersehen. So gelang es Dewes aus den öffentlichen Github-Daten mit einer Wahrscheinlichkeit von 65 Prozent auf das Geschlecht der Entwickler schließen – insbesondere die Analyse der Upload-Zeiten verbesserte die Erkennungsrate enorm. Folge: Selbst wenn ein Merkmal wie Geschlechtszugehörigkeit oder Ethnie explizit aus dem Entscheidungs- Algorithmus ausgeschlossen wird, kann es durch die Hintertür doch wieder zum wichtigen Auswahlkriterium werden. Dewes rät daher zur Vorsicht, welche Daten man für bestimmte Entscheidungen heranzieht und rät zur Gegenkontrolle.


Viewing all articles
Browse latest Browse all 22

Latest Images





Latest Images