Menü

Mein Freund, der Algorithmus?

Stand:
Off

In der ersten Folge unseres neuen Podcasts sprechen wir über Algorithmen und Kontrolle. Wir treffen einen humanoiden Roboter, lernen ein rechnendes Pferd kennen und fragen uns, warum man Algorithmen kontrollieren muss und wie man das sinnvoller Weise machen kann.

Mein Freund, der Algorithmus?

Schon lange ist die Menschheit auf der Suche nach Intelligenz. Was ist Intelligenz, wer ist intelligent? Die Suche verlief nicht immer reibungslos und endete bisweilen in Sackgassen. Eine solche Sackgasse erreichte der Schulmeister Wilhelm von Osten, als er vor über 100 Jahren seinem Pferd das Rechnen beizubringen gedachte (inzwischen konnte aber durchaus Zahlenverständnis bei Tieren nachgewiesen werden).

Im 21. Jahrhundert hat sich der Fokus verschoben. Ein ganzer Wirtschaftszweig der Informatik sucht nicht nach Intelligenz, er möchte sie erzeugen. Das Ergebnis wären Maschinen und Systeme mit sogenannter künstlicher Intelligenz (KI). Hoch komplexe zwischenmenschliche Fragestellungen in ein programmiertes Schema – den Algorithmus – zu pressen. Kann funktionieren, muss aber nicht. Wo stehen wir auf der Skala von Marketing-Buzzword bis Gamechanger und was heißt das für unsere Verbraucherrechte? 

Humanoider Roboter PeppaIch besuche die Frankfurter University of Applied Science, um den humanoiden Roboter Peppa zu treffen. Im Informatikraum rollt Peppa umher und begrüßt mich mit großen, leuchtenden Augen. Peppas Hände haben fünf Finger, sind beweglich, Peppa kann tanzen und Tai Chi. Nicht schlecht, denke ich. Peppa kann auch das Alter einer Person einschätzen. Also frage ich. Einmal. Mehr als knapp vorbei. Zweimal. Puh. Wenn das die Zukunft ist, dann ist die Zukunft noch ziemlich Gegenwart. Und vielleicht ist KI doch eher noch Buzzword als Gamechanger.

Irren ist menschlich, sagen sie. Irren ist aber auch maschinlich. Gerade weil wir Menschen diese Maschinen gebaut haben. Leicht können sich Fehler einschleichen, sowohl in die Programmierung der Algorithmen als auch in die Datenbasis, mit der die Algorithmen hinter den Fassaden rechnen. Die Regeln der Gegenwart müssen deshalb auch für die Systeme der Zukunft gelten. Und teilweise wird es neue Regeln brauchen.

Von Edel-Shoppingmalls und Outletcentern

Eine für Menschen unüberschaubare Vielfalt von Daten ist für Computer leicht zu handhaben. Das ergibt ganz neue Geschäftsmodelle. So könnten Algorithmen unzählige Faktoren auswerten, um personalisierte Preise anzubieten. Ein Beispiel lieferte – wie die "Welt" berichtete – Alexander Sixt, als er über ein Carsharing-Angebot sprach: „Wer aus einem Chanel-Laden auf der Maximilianstraße läuft, bekommt wahrscheinlich einen höheren Preis als jemand, der aus einem Outlet-Geschäft kommt.“ Das ist rechtlich hoch problematisch, weil es nur mit personenbezogenen Daten funktionieren würde. Dementsprechend distanzierte sich Sixt schnell wieder von dieser Aussage. Keine individualisierten Preise geplant. Aber würde ich es merken, wenn mir die App dann doch 30 Prozent mehr abknöpfen will als meiner Nachbarin? Und wie will ich erkennen, dass sie dabei einen Fehler macht?

Algorithmen für mehr Gerechtigkeit?

Die Hoffnungen sind groß. Könnten Algorithmen denn nicht mehr Objektivität bringen? Ein kleines Onlinespiel zeigt, dass diese Hoffnungen trügerisch sein können. Bei survival of the best fit entscheidet man über Bewerbungen. Ein schnell wachsendes Start-Up braucht dringend neues Personal. Leider kommt man mit den Entscheidungen kaum hinterher. Daher schlägt das Spiel vor, einen Algorithmus vollautomatisch entscheiden zu lassen. Spoiler alert: Die Schwierigkeiten sind vorprogrammiert. Wenn die bisherigen Personalentscheidungen Männer bevorzugt haben, lernt der Algorithmus das möglicherweise auch. Ein Algorithmus ist nur so objektiv wie seine Eingangsdaten. Vorurteile in den Daten ergeben Vorurteile im Algorithmus.

Damit solche Probleme auffallen, müssen die Systeme effiziente Feedbackschleifen haben, erkenn- und nachvollziehbar sein. Zumindest Experten müssen in der Lage sein, das Ergebnis der Algorithmen und den Weg dahin zu überprüfen. Andernfalls ist es mit dem Gleichbehandlungsgebot des Artikel 3 Grundgesetz möglicherweise nicht mehr weit her.

So könnte es gehen

Die Verbraucherzentrale Hessen fordert deshalb ein sorgsam abgestuftes Kontrollsystem, das je nach Risiken unterschiedlich intensive Kontrollen vorschreibt. Eine Forderung, der sich inzwischen auch die Datenethikkommission angeschlossen hat. Wer die Kontrolle vornehmen kann und wie sie im Detail aussehen muss, wird sich zeigen müssen. Ein paar Ideen skizziere ich in der Podcast-Folge. Aber die Algorithmen sind für uns alle Neuland. Buzzword? Gamechanger? Im November 2019 befinden wir uns ganz klar irgendwo dazwischen. Und bevor wir beim Gamechanger angekommen sind, sollten wir Antworten darauf haben, wie das Spiel denn künftig aussehen soll.

Hier gibt es noch mehr Informationen zum Thema:

Logo des Podcasts "recht auf audio"Mehr Folgen hören? Die gibt es hier auf unserer Übersichtsseite