Psychologe Gerd Gigerenzer über Grenzen und Risiken der Digitalisierung

"Algorithmen sind objektiv? Das ist mehr als naiv"

Gerd Gigerenzer* ist einer der weltweit renommiertesten Psychologen und Risikoforscher. Dabei richtet sich sein besonderes Augenmerk auf die aktuellen Entwicklungen im Rahmen der Digitalisierung. Im Gespräch mit dem NWX Magazin erläutert Gigerenzer, warum das Vertrauen in Künstliche Intelligenzen und ihre Algorithmen gerade auch in der Arbeitswelt nicht grenzenlos sein sollte - und nach welchen Kriterien Chefs wie Elon Musk und Jeff Bezos ihre Mitarbeiter ausgewählt haben.

NWX Magazin: Herr Professor Gigerenzer, der Untertitel Ihres neuen Buches "Klick"** lautet "Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen." Haben wir denn überhaupt noch Kontrolle? 

Prof. Gerd Gigerenzer: Nein! (lacht) Das merkt man ja schon, wenn Sie bei digitalen Angeboten auf „Einverstanden“ klicken müssen, ohne dass Sie eigentlich verstehen können, was da so steht. Es gibt eine Studie, die belegt, dass man 30 Arbeitstage im Jahr brauchen würde, um alle diese Datenschutzerklärungen oder Allgemeinen Geschäftsbedingungen zu lesen, die man anklickt und die für einen rechtlich bindend sind. Also bleibt uns nur noch die Wahl, den Dienst nicht zu akzeptieren - oder uninformiert einzuwilligen. 

Ginge es nicht auch einfacher?

Gigerenzer: Ja, zum Beispiel müssen Sie in der Medizin eine Einwilligungserklärung unterschreiben, wenn sie operiert werden wollen. Und dafür gibt es Richtlinien, dass diese auf dem Niveau eines Achtklässlers geschrieben werden muss, also verständlich ist. Demgegenüber hat eine Studie über die größten Internetfirmen wie Airbnb, Uber und anderen gezeigt, dass deren Einwilligungen nicht nur viel zu lang sind, sondern auf dem Niveau eines sogenannten "15-Klässlers" verfasst sind. Da ist für die meisten nicht mehr verständlich.  Darf man so mit Menschen umgehen? Das ist ja auch eine Frage der Würde. Aber die Regierungen lassen das zu.

Aber geschieht das nicht in der guten Absicht, die Menschen möglichst gut abzusichern? 

Gigerenzer: Auch die Regierungen verlieren ja die Kontrolle und Übersicht. Und der Einfluss des Lobbyismus der Tech-Unternehmen ist groß. Doch gäbe es Lösungen. Ein Beispiel: Ich war im Sachverständigenrat des Ministeriums für Justiz und Verbraucherschutz. Wir haben den „One-Pager“ vorgeschlagen: Nutzungsbedingungen im Netz sollten eine Länge von maximal 500 Wörter haben, lesbar und verständlich sein. Solche Regeln wären durchaus möglich. Aber dazu bräuchte man eine Gesetzgebung, die informierte Entscheidungen zur Priorität macht. 

Aber die Frage ist ja, warum sich das alles so entwickelt hat. Ist es eher die Macht amerikanischer Anwälte oder die allgemeine menschliche Angst, die zu solchen Auswüchsen geführt hat?

Gigerenzer: Wie ein Kollege von mir, ein amerikanischer Rechtswissenschaftler, mal sagte: Es gibt zu viele Rechtsanwälte und zu viele Gesetze. Der Verlust unserer Kontrolle und damit der Privatsphäre ist für das Geschäftsmodell von Google, Facebook und Co notwendig. Das Kernproblem ist das Prinzip: Zahle mit deinen Daten. Der Nutzer ist nicht mehr der Kunde, sondern die Ware - und die wahren Kunden der Tech-Unternehmen sind die Werbekunden. Um diesen Kunden personalisierte Werbung zu verkaufen, müssen Tech-Konzerne alles tun, um so viele private Daten der Nutzer wie möglich zu bekommen. Also auch Daten, die völlig unnötig sind für die Kalibrierung einer Suchmaschine. Wie zum Beispiel, ob Sie gerade depressiv oder schwanger sind oder Krebs haben – um Ihnen zum richtigen Zeitpunkt gezielt die richtige Werbung zu senden. All das kann man gut in langen, unlesbaren Datenschutzerklärungen verbergen.

Wenn man die aktuellen Nachrichten verfolgt, etwa die Entscheidung von Facebook, nicht nur seinen Namen zu ändern, sondern auch das Geschäftsmodell hin zu einer rein virtuellen hybriden Existenzform, dann kann man ja ahnen, dass diese Datensammelwut und die Behandlung des Kunden als Ware noch intensiver werden wird.

Gigerenzer: Richtig. Meines Erachtens bräuchten wir schnell eine gesetzliche Regulierung in Europa, die das Problem an der Wurzel packt, nämlich am Geschäftsmodell „Zahl mit deinen Daten.“ Die Alternative ist „Zahl mit deinem Geld.“ Wir sind es doch gewohnt, mit Geld zu zahlen. Warum nicht auch für die großen Plattformen? Dann wären wir wieder die Kunden und nicht mehr die Ware. Und wir könnten die Möglichkeiten des Internets genießen ohne ständig unterbrochen und überwacht zu werden. 

Das würde aber wirklich eine andere Zahlungsmentalität auf User-Seite voraussetzen. 

Gigerenzer: Genau, und diese wäre möglich. Was würde es kosten, wenn man dem Facebook-Konzern, jetzt Meta genannt, dessen gesamten Umsatz durch Werbung „ersetzen“ würde? Und das sind 97 Prozent des Gesamtumsatzes.  Ich habe ausgerechnet, dass jeder Nutzer lediglich zwei Euro pro Monat zahlen müsste. Ja, „Zahl mit deinem Geld“ wäre machbar und Mark Zuckerberg könnte genauso reich bleiben. 

Dann lassen Sie uns beide doch einen Termin mit ihm machen nächste Woche und ihn überreden, sein Geschäftsmodell zu verändern. 

Gigerenzer: Da wird er wohl nicht begeistert sein. Denn es geht ihm ja auch nicht nur um das Geld, sondern auch um Macht und Kontrolle. Und zu dieser Revolution  bräuchte man auch noch Regierungen, die nicht so naiv im Umgang mit mächtigen internationalen Digitalkonzernen sind und denken, mit Geldstrafen in Milliardenhöhe könnte man die Probleme des Geschäftsmodells lösen. 

Auch in der Arbeitswelt werden wir mit immer mehr digitalen Tools, Anforderungen und Risiken konfrontiert. Das fängt zum Beispiel schon bei der Auswahl von Bewerbern an, die vor allen Dingen in großen Unternehmen im ersten Schritt fast zu 90 Prozent über KI-Tools und Algorithmen läuft. Wo sehen Sie da die größten Gefahren? 

Gigerenzer: Die Probleme fangen damit an, dass Algorithmen nicht besser sind als die Daten, mit denen man sie füttert. Amazon hat zum Beispiel mittels maschinellen Lernens einen Algorithmus entwickelt, der Bewerber für Stellen im Bereich der Softwareentwicklung bewerten sollte. Dann stellte sich heraus, dass der Algorithmus keine Frauen „mochte.“ Er hatte gelernt, dass man bisher im Wesentlichen nur Männer eingestellt hatte und die Diskriminierung der Vergangenheit weitergeführt. 

Die Befürworter der Bewerberauswahl durch KI argumentieren, dass der negative menschliche Faktor mit all seinen Vorurteilen und subjektiven Meinungen herausfällt, wenn man die erste Bewerberauswahl per Algorithmus vollzieht. Aber Sie sagen: Es passiert genau das Gegenteil. 

Gigerenzer: In manchen Fällen verstärken die Algorithmen die Vorurteile sogar auch noch.  Wir leben in einer Zeit wo immer mehr Misstrauen gegen den menschlichen Faktor und damit gegen Expertenurteile erzeugt wird. Trau dem Algorithmus, nicht den Menschen. Dieses Vorurteil gegenüber menschlicher Urteilskraft findet man auch anderorts, etwa wenn die Diskrepanz zwischen dem Ideal des Homo oeconomicus, also einem ausschließlich nach wirtschaftlichen Gesichtspunkten denkenden und handelnden Menschen, und dem tatsächlichen menschlichem Verhalten als einen Fehler der Menschen interpretiert wird, nicht als einen Fehler der Theorie. Und die Digitalisierung wird in den Dienst dieses negativen Menschenbildes gestellt: Menschen machen Fehler, Algorithmen sind objektiv. Das ist mehr als naiv.

Aber es ist dann nicht umso seltsamer, dass es umgekehrt - etwa in der New Work-Bewegung - seit zehn, zwanzig Jahren den Trend gibt, das mehr Menschlichere, das Diverse, das Empathischere in die Arbeitswelt zu etablieren. Ist das nicht ein fundamentaler Widerspruch zu der Tendenz, die Sie gerade geschildert haben? 

Gigerenzer: Richtig. Und die Frage sollte ja nicht sein: Algorithmus oder Mensch? Bei vielen Tätigkeiten braucht man beides. Algorithmen funktionieren am besten bei wohl-definierten, stabilen Problemen, wie Schach und Go. Menschliche Intelligenz ist dagegen entstanden um mit Ungewissheit umzugehen, also Situationen, wo unerwartete Ereignisse passieren können. Dazu braucht man Urteilskraft, Intuition sowie Verstand – und all das ist schwer zu erreichen mit statistischen Maschinen wie künstlichen tiefen neuronalen Netzwerken. 

Nicht nur die Kandidatenauswahl, sondern auch zum Beispiel immer mehr Leistungsbeurteilungen erfolgen mittlerweile mittels bestimmter Softwareprogramme nach „möglichst objektiven“ Kriterien. Und da verlässt man doch endgültig den Bereich von menschlicher Beobachtung und Einschätzung, die auch die Werte jenseits der puren Leistungsbilanz einbezieht.

Gigerenzer: Es gibt eine fatale Tendenz zur Pseudo-Objektivierung, die auch in anderen Bereichen unserer Gesellschaft entsteht. Wir erleben ja schon seit einiger Zeit, dass an Universitäten immer mehr Verwaltungsfachleute statt Wissenschaftler die Führung übernehmen. Ein Verwalter kann aber nicht beurteilen, ob ein Professor auf seinem Arbeitsgebiet nun gut oder schlecht ist. Und dann verlässt man sich auf das, was man zählen kann, die Anzahl der Publikationen, der Zitationen und so weiter. Damit kann man vielleicht die weniger geeigneten erkennen, nicht aber innovative Spitzenforschung. Der britische Physik-Nobelpreisträger Peter Higgs sagte, dass er in der heutigen Kultur der „objektiven“ Kriterien keine Stelle mehr an seiner Universität bekommen hätte. Diese scheinbar objektiven Kriterien führen auch dazu, dass die Forschung sich verändert und viele Kollegen sich bemühen, ihre Werte auf diesen Metriken zu erhöhen, statt Risiken einzugehen und bessere Forschung zu machen. Objektivierung behindert Innovation. 

Braucht es nicht auch gerade deshalb die bewusste Betonung und Förderung von menschlichen Soft Skills, um diesen Tendenzen entgegenzuwirken? 

Gigerenzer: Für mich ist das kein Widerspruch. Denn bei vielen Aufgaben können digitale Tools und Algorithmen sehr wohl helfen. Aber deren Einsatzgebiet ist eben begrenzt: Wenn Sie es zum Bespiel mit einem Problem zu tun haben, das stabil ist, wo morgen wie gestern ist, also Schachspielen zum Beispiel mit wohl definierten Regeln - dann sind künstliche neuronale Netzwerke menschlichen Fähigkeiten weit überlegen. Etwas ganz anderes ist es aber, je mehr ein Problem unsicher wird, weil zum Beispiel menschliches Verhalten involviert ist. Man hat etwa versucht, mit komplexen Algorithmen und Big Data vorherzusagen, wer, wann, und wo eine Straftat begehen wird, was aus Kindern in schwierigen Familien wird, oder wie sich die Grippe verbreitet. Trotz kommerzieller Hype und techno-religiösem Glauben funktionieren hier komplexe Algorithmen nicht, auch weil sie eben "nur" auf Big Data basieren...

…und etwas anderes sind als die Intuition eines Personalverantwortlichen, der eine Stelle mit einem Menschen besetzt, letztendlich nur bedingt wegen seiner guten Zeugnisse, sondern vor allem, weil der mit seiner ganzen Art am besten ins Team passt. 

Gigerenzer: Ich gebe Ihnen dafür zwei prominente Beispiele: Als Elon Musk noch selbst Personal auswählte, sagte er, Dokumente, Ausbildung und Universitäten seinen nicht hilfreich. Er sei nur nach einem einzigen Gesichtspunkt gegangen: ob die Person eine außergewöhnliche Fähigkeit hat. Wenn nicht, wurde sie nicht eingestellt.  Auch Jeff Bezos hat bei Jobinterviews nach einer außergewöhnliche Fähigkeit geschaut, aber er hatte noch zwei Kriterien mehr. Zum einen müsse er die Person bewundern, denn dann könne er etwas von ihr lernen. Und zum Dritten sollte die Person in ihrem Team die durchschnittliche Leistung erhöhen können – denn dadurch würde das Niveau stets besser. Das sind jetzt menschliche Strategien, sogenannte Heuristiken, die versuchen, sich auf das Wesentliche zu konzentrieren und den Rest zu ignorieren. Diese arbeiten völlig anders als komplizierte Algorithmen, die versuchen, so viel Information wie möglich zu integrieren. 

Wird KI also nie an diese menschliche Klugheit herankommen, die Sie gerade geschildert haben?

Gigerenzer: Es gibt ja einen Grund, warum das menschliche Gehirn so außerordentliche Leistungen zustande bringt: Da stecken Millionen von Jahren Evolution drin und Jahrzehnte von Lebenserfahrung. In meiner Forschung gehe ich daher anders vor und versuche die Heuristiken von Experten, wie etwa Musk und Bezos, zu analysieren und in einfache Algorithmen zu formulieren. Diese „psychologische KI“ war die ursprüngliche Form der KI, etwa von Herbert Simon, wo das „I“ in „KI“ noch für menschliche Intelligenz stand. Damit kann man diese annähern. Ein künstliches neuronales Netzwerk ist dagegen eine statistische Maschine, die so gut wie nichts mit menschlicher Intelligenz zu tun hat und statt dessen mit enormer Rechen-Kapazität arbeitet und Assoziationen findet. 

Und ist auch nicht programmierbar, um individuelle Lebensläufe, Erfahrungen, das ganze "Menschsein" abzubilden...

Gigerenzer:  Vor allem wird übersehen, dass Menschen soziale Wesen sind, denen ihre Umgebung wichtig ist. Wenn man Mitarbeiter wirklich anerkennt und ihnen vertraut, werden sie auch deutlich mehr leisten. 

RK: Blicken Sie eigentlich positiv oder eher negativ in die Zukunft, was Ihren Forschungsgegenstand betrifft? 

Gigerenzer: Ich habe mein Leben lang positiv in die Zukunft geblickt. Und werde das weiter tun.

Das Gespräch führte Ralf Klassen

*Zur Person: Gerd Gigerenzer ist einer der bekanntesten Psychologen Deutschlands, Direktor emeritus am Max-Planck-Institut für Bildungsforschung und Direktor des Harding Zentrums für Risikokompetenz. Er hat zahlreiche internationale Auszeichnungen erhalten, u.a. den AAAS Preis für den besten Artikel in den Verhaltenswissenschaften, den Communicator-Preis und den Deutschen Psychologie-Preis. Seine populärwissenschaftlichen Bücher "Das Einmaleins der Skepsis", "Bauchentscheidungen", und "Risiko. Wie man die richtigen Entscheidungen trifft" fanden große Beachtung und sind internationale Bestseller. Das Gottlieb Duttweiler Institut hat Gigerenzer als einen der 100 einflussreichsten Denker der Welt bezeichnet.

**Buch-Tipp: Was genau zeichnen die smarten Geräte bei uns zu Hause auf? Gehört dem autonomen Fahren die Zukunft? Wo entscheiden Algorithmen besser als der Mensch, wo aber nicht? Und wie groß ist die Chance wirklich, beim Online-Dating den Partner fürs Leben zu finden? In seinem neuen Buch "Klick" beschreibt Gerd Gigerenzer anhand vieler konkreter Beispiele, wie wir die Chancen und Risiken der digitalen Welt für unser Leben richtig einschätzen und uns vor den Verlockungen sozialer Medien schützen können. Kurz: wie wir digitale Kompetenz erwerben und auch online kluge Entscheidungen treffen.

Weitere Artikel zum Monatsthema