Was wissen Maschinen über mich?
Intelligente Technologien analysieren ihre Nutzer längst genau. Dafür sorgen so genannte Algorithmen. Deren Ergebnisse können das Leben von Verbrauchern nachhaltig beeinflussen. Müssen deshalb Regeln dafür her?
13. Mär. 2019 –
Das Navi im Smartphone fragt schon beim Hochladen, ob der Besitzer dieselbe Adresse ansteuern will wie zur selben Zeit in den vergangenen Wochen. Es hat sich offenkundig diese Alltagsroutine gemerkt. Der TV-Dienst Netflix macht seinen Kunden Vorschläge für den nächsten Film und leitet sie aus den bisher bevorzugten Sendungen ab. Diese oder ähnliche Beispiele kennt mittlerweile jeder Verbraucher. Dahinter stecken Computerprogramme, so genannte Algorithmen. Vereinfacht gesagt sind es logische Informationsketten, an deren Ende zum Beispiel eine Empfehlung steht. So ein Programm könnte etwa festlegen, dass jemandem, der sich im Online-Shop für Jogginghosen eines großen deutschen Herstellers interessiert, auch Laufschuhe des Unternehmens und überdies ein Pulsmessgerät angeboten werden.
Die Algorithmen werden jedoch auch in für Bürger oder Konsumenten sehr wichtigen Bereichen eingesetzt. Sie bestimmen die Verteilung angehender Studenten auf die verschiedenen Hochschulen oder ob Bankkunden ein Kredit gewährt wird und wie teuer das Darlehen ist. Scoring-Systeme, wie das der Schufa, schließen aus einer Fülle von Informationen über den jeweiligen Kunden, wie kreditwürdig er eingeschätzt wird. Hier werden schon für den einzelnen Betroffenen elementare Entscheidungen von einer Maschine getroffen. Falsche oder ungerechtfertigte Ergebnisse dieser Art künstlicher Intelligenz (KI) sind für die Verbraucher nicht nachvollziehbar. Die Rechenvorgänge sind Betriebsgeheimnisse der jeweiligen Unternehmen.
Umfassende gesetzliche Regelungen für all die bereits bekannten Fragen gibt es noch nicht. Verschiedene Kommissionen sollen den Regelungsbedarf nun ermitteln. Im Bundestag befasst sich eine Enquete-Kommission mit künstlicher Intelligenz. Eine Datenethikkommission der Bundesregierung soll in diesem Herbst Antworten auf diese Herausforderung liefern. Die Koalition tut sich mit einer Bewertung noch schwer, sieht sie doch vor allem wirtschaftliche Chancen durch Algorithmen. Die Grünen haben dagegen schon klare Vorstellungen, wo der Gesetzgeber eingreifen sollte. „Für lernende Systeme, die Entscheidungen über Bürgerinnen und Bürger treffen, müssen besondere Anforderungen an die Nachvollziehbarkeit von Entscheidungen gelten“, stellt die Obfrau der Grünen in der Enquete-Kommission, Anna Christmann, fest. In weniger sensiblen Bereichen könne eine Prüfung von Verdachtsfällen auf missbräuchliche Algorithmen ausreichen.
Die fehlende Transparenz ist für Miika Blinn, KI-Experte beim Bundesverband der Verbraucherzentralen (vzbv), ein potenzielles Problem, wie er an einem Beispiel schildert. Bei der Vergabe von Stellen würden ebenfalls Algorithmen eingesetzt. Sie könnten ganze Bevölkerungsteile ausschließen, etwa Ausländer oder Ältere. „Das entscheidet über Lebenschancen“, stellt Blinn fest. Deshalb fordert der vzbv ein Kontrollsystem für Algorithmen. Es solle Diskriminierungen verhindern und sicherstellen, dass die geltende Rechtsordnung auch eingehalten wird.
Die KI entwickelt sich in raschem Tempo fort. Mitunter wissen Verbraucher gar nicht mehr, ob sie es mit Menschen oder Maschinen zu tun haben. Google hat beispielsweise einen Sprachassistenten namens Duplex entwickelt, der eigenständig im Restaurant anrufen und einen Tisch reservieren kann. Dabei imitiert die Maschine sogar noch die Sprachweise von Menschen nebst deren kleinen Fehlern. Im Restaurant merkt niemand, dass es eine Maschine war und nicht der kommende Gast. Für Blinn ist diese Entwicklung Anlass für eine weitere Forderung. „Es muss grundsätzlich gekennzeichnet werden, wenn ein Mensch mit einer Maschine statt mit einem anderen Menschen kommuniziert“, sagt der Experte.
Die Bertelsmann-Stiftung hat gemeinsam mit der Organisation Irights.lab nun neun Regeln für einen ethischen Umgang mit Algorithmen entwickelt. Die Stiftung fordert, Systeme mit künstlicher Intelligenz für jeden erkennbar zu kennzeichnen. Auch müssten Entscheidungen nachvollziehbar sein. Das ist zum Beispiel beim Scoring oder dem Verteilen von Schülern auf verschiedene Schulen wichtig. Die Autoren heben auch hervor, dass die Systeme von ihren Schöpfern beherrschbar bleiben müssen. Sonst könnten sich selbstlernende Programme schnell verselbständigen. Auch sind die Experten für ein Beschwerderecht, sollten sich Betroffene von Entscheidungen benachteiligt fühlen.
Vor allem Programmierer und Verantwortliche in den Unternehmen haben die Autoren bei ihren Regeln im Visier. Auch wenn manches heute noch harmlos erscheint, wird die KI doch in absehbarer Zeit einen wichtigen Bestandteil des Verbraucherlebens ausmachen. Davon ist die Bertelsmann-Stiftung überzeugt. „Algorithmen sind keine Science Fiction mehr“, warnt Vorstand Jörg Dräger.