- -
- 100%
- +
Die Neigung der Intelligenz zum Bösen
Auf rätselhafte Weise ist in der Digitaltechnik das Gute engstens verknüpft mit dem Schlechten, obwohl das niemand beabsichtigt hat. Wie konnte es dazu kommen?
Wir stoßen hier auf ein menschheitsgeschichtliches Phänomen, das Rudolf Steiner schon 1919 zum Thema eines Vortrages gemacht hat.8 In der Kulturepoche, die der griechisch-römischen vorausgegangen ist, so schildert er, war Intelligenz etwas ganz anderes als das, was wir heute darunter verstehen. Wenn Ägypter oder Chaldäer9 «dachten, wenn sie ihre Intelligenz in Fluss brachten, dann lebte in dieser Intelligenz ihr Zusammenhang mit dem Kosmos». Die Verwandtschaft «der eigenen Wesenheit mit dem ganzen Kosmos» war der bestimmende Inhalt ihres Denkens. In der griechischen Epoche ab dem 8. Jahrhundert v. Chr. wusste man noch von diesem Zusammenhang, doch richtete sich der Blick von jetzt an vor allem auf das eigene Wesen und seinen Zusammenhang mit allem Irdischen, Vergänglichen. Der Grieche «begriff alles dasjenige von der irdischen Welt durch diese Intelligenz, was dem Tode unterliegt».
Zu der nach dem Ende des Mittelalters beginnenden Neuzeit bemerkt Steiner:
«Heute sind wir noch sehr stark in einer solchen Entwickelung der Intelligenz darinnen, wie sie die Griechen hatten. Wir begreifen durch unsere Intelligenz dasjenige, was dem Tode unterliegt. Aber auch diese Art von Intelligenz, die das Tote begreift, verwandelt sich. Und in den nächsten Jahrhunderten und Jahrtausenden wird diese Intelligenz etwas anderes, etwas weit weit anderes werden. Sie hat heute schon eine gewisse Anlage, unsere Intelligenz. Wir werden als Menschheit einlaufen in eine Entwickelung der Intelligenz so, dass die Intelligenz wird die Neigung haben, nur das Falsche, den Irrtum, die Täuschung zu begreifen, und auszudenken nur das Böse.»
Blicken wir vor diesem Hintergrund auf unsere gegenwärtige Situation, dann scheint es, dass wir dem Bösewerden der Intelligenz in den letzten hundert Jahren seit Steiners Äußerung schon ein Stück näher gekommen sind. Die täglichen Nachrichten sind heute voll von Berichten über übelste Machenschaften mithilfe des Internets. Die geronnene, tote «Intelligenz» des Computers wird zum Instrument, um böse Absichten zu verwirklichen, Betrug, Lügen und Verleumdungen in die Welt zu setzen, den Unterschied zwischen Wahrheit und Irrtum zu verwischen und auf diese Weise nicht nur materiellen Schaden anzurichten, sondern auch seelische und geistige Verwüstungen zu schaffen, die zu heilen gewaltige und lang anhaltende Bemühungen erfordern würden.
Dennoch – es wäre nicht in Steiners Sinne, seine Aussagen als Glaubenssätze zu behandeln. Sie sind als Hinweise zu verstehen, die anhand der Wirklichkeit geprüft werden sollten. Dazu bieten die folgenden Kapitel Gelegenheit.
2. Schöne neue Welt der Medien
Die angedeutete Zwiespältigkeit der digitalen Technik stellt unser Zeitalter vor ein großes Problem. Dennoch scheint es mir nicht sachgemäß, von Anfang an nur auf die negativen Seiten zu blicken. Wir müssen auch verstehen, warum die Menschen von den neuen Errungenschaften derartig fasziniert waren, dass sie zuerst nur das Gute und Vorteilhafte im Auge hatten und kritische Einwände lange Zeit in den Wind schlugen. Ich möchte dazu eine kleine historische Skizze entwerfen, die uns bis zu dem Punkt führt, an dem es schließlich zu einem bösen Erwachen kam.
Ein großes Thema des 19. Jahrhunderts war das Bemühen, sowohl optische als auch akustische Sinneseindrücke in technische Vorgänge zu überführen. Den Beginn machte die Erfindung der Fotografie. Aufgetragen auf Zelluloidfilme wurde sie universell einsetzbar, besonders auch in Form von «bewegten Bildern», die durch die schnelle Abfolge von 24 Aufnahmen pro Sekunde die Illusion echter Bewegungen erzeugten. Daraus entstand die Gattung der Spielfilme, die ab 1895 einem staunenden Publikum vorgeführt wurden – zunächst als Stummfilm. Den Ton konnte man erst nach der Erfindung von Mikrofon und Lautsprecher hinzufügen.
Nach dem Ende des Zweiten Weltkriegs trat neben den Kino-Spielfilm ein mächtiger Konkurrent: das Fernsehen. Hier wurde das bewegte Bild auf dem Schirm einer Kathodenstrahlröhre elektronisch erzeugt. Die Geräte, die zu dieser Zeit in die Läden kamen, steckten noch in den Kinderschuhen: Anders als viele längst in Farbe produzierte Kinofilme war das Fernsehbild schwarz-weiß, und vor allem flimmerte und flackerte es ständig, sodass das Zusehen wenig angenehm war. Außerdem gab es lange Zeit nur ein einziges Programm zu sehen (1963 begann das ZDF, erst 1984 folgten die privaten Sender).
Umso mehr überrascht es im Rückblick, wie schnell sich die Öffentlichkeit trotz aller Mängel mit dem neuen Medium anfreundete. Allerdings waren dabei zwei Publikumsmagnete im Spiel, die das Interesse anstachelten. Ähnlich wie Adolf Hitler 1936 durch die erstmalige Fernsehübertragung der Olympischen Spiele die Öffentlichkeit beeindruckte, waren es auch nach dem 2. Weltkrieg zwei Großereignisse, die wie geschaffen waren, um die Massen für das Fernsehen zu begeistern: 1953 die Krönung der englischen Königin Elisabeth II. und 1954 die Fußballweltmeisterschaft in der Schweiz. Obwohl es zu beiden Ereignissen in den Kinos farbige und technisch viel bessere Präsentationen gab, erregte das Fernsehen weit mehr Aufsehen.
Die Fernsehproduzenten wie auch die Gerätehersteller hätten sich keine bessere Werbung wünschen können als diese erregenden «Events», die vom Publikum als welthistorisch empfunden wurden. Denn mit ihnen eröffnete sich den Menschen eine neue Dimension: War man bisher auf Berichte in der Zeitung oder im Radio angewiesen, um zu erfahren, was in der Welt vorgeht, konnte man jetzt, so meinte man, alles «mit eigenen Augen» sehen. Etwas wie Magie schien dem Fernseher anzuhaften: Ohne dass der Zuschauer sich von der Stelle rührte, entrückte ihn das Gerät an den Ort des Geschehens, wo er unmittelbar «am Ball» war und bei jedem Tortreffer gemeinsam mit den fernen Stadionbesuchern jubeln konnte. An diesen prickelnden Effekt des Dabeiseins reichten selbst gute Dokumentarfilme nicht heran, weil sie immer erst nachträglich erschienen.
Damit war der Weg bereitet für die rasante Ausbreitung des Fernsehens im ganzen Land, und bald schon gehörte die «Glotze», wie man sie spöttisch nannte, zur festen Einrichtung jedes Wohnzimmers und wurde extensiv genutzt. Die berechtigten Warnungen vor einem allzu ausgiebigen Fernsehkonsum, besonders bei Kindern, stießen auf taube Ohren, und so zeigten sich mit der Zeit immer gravierendere Folgen, die hier aber nicht thematisiert werden sollen.10
Fernsehen als Fenster zur Welt
Es verdient festgehalten zu werden, dass die Begeisterung des Publikums für das Fernsehen nicht allein der Sensationsgier entsprang. Was dabei von Anfang an mitschwang, war die freudige Entdeckung, plötzlich angeschlossen zu sein an das Weltgeschehen und aktuelle Ereignisse quasi hautnah miterleben zu können, ohne vor Ort zu sein. «Bei uns sitzen Sie in der ersten Reihe», lautete der kesse Werbespruch von ARD und ZDF, und so wurde es auch empfunden, denn die Fernsehkamera holte alles Ferne auf Greifweite heran. Ein für den Menschen der Neuzeit charakteristischer Drang machte sich hier geltend, der bereits mit den Entdeckungsfahrten der Portugiesen und Spanier begonnen hatte, nämlich die große ferne Welt kennenzulernen und über die Enge des eigenen Horizonts hinauszublicken. In der anbrechenden Neuzeit wurde das Interesse des Publikums durch unzählige Flugschriften aus der soeben erfundenen Druckerpresse befriedigt, jetzt aber wurde dem Sehsinn selbst das «Fenster zur Welt» geöffnet.
In diesem Bedürfnis lag und liegt der Keim für eine Fähigkeit, die in unserem Jahrhundert unverzichtbar wird für den Erhalt unseres Planeten, der durch die Klimakrise und viele andere Nöte in höchste Bedrängnis geraten ist. Der Allgemeinheit ist endlich bewusst geworden, dass die Menschheit nur dann überleben kann, wenn sie ihren Blick auf den gesamten Lebensraum Erde richtet und sich verantwortlich für dessen Erhaltung und Pflege einsetzt.
Den globalen Blick zu fördern und ein erdumspannendes Bewusstsein zu wecken, dazu könnte das Fernsehen – sinnvoll genutzt – einen wichtigen Beitrag leisten, indem es das notwendige Okular für die erweiterte Weltwahrnehmung zur Verfügung stellt. Ob es allerdings in seiner heutigen Form dem gerecht wird, ist fraglich. Die Sehzeiten im Schnitt der bundesdeutschen Bevölkerung sind (ähnlich wie in den USA) im Laufe der Jahrzehnte exorbitant angestiegen,11 und nur ein geringer Teil davon dient der Information über aktuelle Geschehnisse; der weitaus größte Teil wird mit Unterhaltungssendungen aller Art gefüllt. Nur bei besonders erregenden Zeitereignissen wie beispielsweise Natur- und Kriegskatastrophen kommt das «Fenster zur Welt» wieder zu seinem Recht, abzulesen an dem oft beeindruckenden Spendenaufkommen, das ohne die schockierenden Bilder aus fremden Ländern niemals in dieser Höhe und in dieser Geschwindigkeit zusammengekommen wäre.
Wir dürfen also feststellen: Das Medium Fernsehen könnte ein bedeutsames Wahrnehmungsinstrument sein, das den Sinn für die Weltprobleme schärft. Wohlgemerkt: es könnte. Bleibt nur die Frage: Wie kommt es, dass diese mögliche Funktion immer wieder überdeckt und erstickt wird durch belanglose Zerstreuung, die den Willen der Menschen zu tatkräftiger Gestaltung der Welt eher lähmt als fördert? Wer sind diejenigen, die ein Interesse haben an dieser ständigen Ablenkung vom Wesentlichen?
Computergestützte Medien
In denselben Jahrzehnten, in denen das Fernsehen sich über alle Kontinente verbreitete (von mir exemplarisch am deutschen Beispiel demonstriert), erlebte auch die kurz vor Kriegsende begonnene Entwicklung des elektronischen Computers einen rasanten Aufschwung. Die zunächst noch tonnenschweren Geräte wurden in staunenswertem Tempo immer kleiner, und die Rechenleistung wurde gleichzeitig immer größer. Je weiter die Wissenschaft Hand in Hand mit den Ingenieuren vorankam, desto vielfältiger wurden die technischen Anwendungsmöglichkeiten. Die Forschung verschlang zwar gewaltige Summen, doch wusste man einen großen Teil davon wieder hereinzuholen durch die Eröffnung eines neuen Wirtschaftszweigs: Den jeweils erreichten Stand der Technik nutzte man auf der Stelle zur Entwicklung von Videospielen, Spielautomaten, Spielekonsolen und Computerspielen, die durch ihren millionenfachen Verkauf «zu einer der einflussreichsten Freizeitgestaltungsformen des 21. Jahrhunderts» geworden sind, wie Wikipedia euphemistisch vermerkt. Immer mehr junge Menschen zwischen 15 und 25 Jahren machen heute reichen Gebrauch von diesen Angeboten, freilich mit häufig unangenehmen Folgen, über die noch zu berichten sein wird.
Nicht weniger bedeutsam war der in den 1970er-Jahren einsetzende Übergang von den Großcomputern alter Art, mit denen nur Spezialisten, Techniker oder Wissenschaftler arbeiteten, zu kleineren, für individuelle Bedürfnisse nutzbaren Mehrzweckcomputern, die als Personal Computer (PC) bezeichnet wurden. Sie eroberten sich ihren Platz nicht nur in unzähligen Privathaushalten, sondern revolutionierten auch weltumspannend die gesamte Arbeitswelt. Kein Büro ist heute mehr denkbar ohne einen PC mit Internetanschluss.
Last but not least profitierte auch das Fernsehen von diesen Fortschritten, und zwar durch die Einführung des digital ansteuerbaren Flachbildschirms, der aufgrund seiner geringen Tiefe, seines geringeren Energieverbrauchs und vieler weiterer Vorteile die klobige Kathodenstrahlröhre völlig verdrängt hat. Mit ihm sind heute Bildschirmgrößen erreichbar, die mit der alten Technik unmöglich gewesen wären.
Das Internet
Der Vorläufer des Internets, das 1969 eingerichtete ARPANET zwischen den Großrechnern amerikanischer Universitäten, wurde oben schon erwähnt. 1989 konzipierte der britische Informatiker Tim Berners-Lee das «World Wide Web» (WWW), das 1990 zur kommerziellen Nutzung freigegeben wurde und sich fortan ständig weiterentwickelte. Das schon ab dem 19. Jahrhundert aufgebaute interkontinentale Kabelnetz für Telegrafie und Telefonie wurde durch Funkverbindungen und vor allem durch hochleistungsfähige Glasfaserkabel ersetzt, die es in Verbindung mit der Digitaltechnik ermöglichen, weltweit nahezu in Echtzeit Daten jeglicher Art und jeglicher Menge auszutauschen, nicht nur Texte und Audiodateien, sondern auch Videodateien, komplette Computerprogramme und deren Updates und sogar Telefonie und Videotelefonie (z.B. Skype), um nur einige Anwendungen zu nennen.
Ab 2004 wuchsen die Social-Media-Plattformen (Facebook, Twitter, Instagram und andere) zu speziellen Netzwerken von ungeahnten Dimensionen heran: Die Zahl der Nutzer stand im Juli 2019 weltweit bei mehr als 3,5 Milliarden. Das bedeutet: Fast die Hälfte der Weltbevölkerung nimmt daran teil!
Zu den Massenmedien kann auch die 2001 begründete, gratis benutzbare Website Wikipedia gezählt werden, eine ständig aktualisierte Enzyklopädie, die zu einer Fülle von Wissensgebieten detaillierte Auskunft gibt. Im Januar 2019 bot sie mehr als 49,3 Millionen Artikel in annähernd 300 Sprachen.
Insgesamt ist ohne Übertreibung festzustellen, dass heute der größte Teil der Menschheit in der einen oder anderen Weise in das World Wide Web eingebunden ist, teils kommerziell und beruflich, teils privat. Es scheint sich zu bestätigen, was Fachleute immer wieder raunten: Das Internet hat zu der größten Umwälzung des Informationswesens seit der Erfindung des Buchdrucks geführt. Man darf von einer Revolution sprechen.
Das Smartphone
Ihren (einstweiligen) Gipfelpunkt erreichte diese Revolution am 9. Januar 2007. An diesem Tag stellte Steve Jobs, der Chef des Computerherstellers Apple, der Öffentlichkeit das neueste Produkt seiner Firma vor: das «iPhone». Entgegen den Usancen der Wirtschaft, jedes neue Erzeugnis in den höchsten Tönen zu loben, stellte Jobs nüchtern fest: «Today Apple is going to reinvent the phone.»12 Und er behielt recht: Dieses Smartphone war technisch gesehen ein Wunderwerk. Die Grundausstattung umfasste bereits ein Musikabspielgerät (iPod), Telefon, Internet und E-Mail. Durch weitere schon eingebaute oder später herunterladbare Apps konnten Medien wie Fernsehen, Spielfilme, Computerspiele, eine leistungsfähige Kamera, GPS-Navigation und tausenderlei andere Funktionen hinzugefügt werden.13
Kurzum: Sämtliche gängigen Digitalmedien waren hier in einem einzigen Gerät vereinigt und ließen sich durch eine neu entwickelte berührungsempfindliche Bildschirmoberfläche (Touchscreen) genial einfach dirigieren. Noch dazu war das Gerät leicht und formschön, passte in jede Hosentasche und verführte als ständiger Begleiter im Alltag zur Dauernutzung. Bis November 2018 hatte Apple davon mehr als 2,2 Milliarden verkauft, in immer wieder neuen Modellen und Variationen. Damit waren die Maßstäbe gesetzt für alle nachfolgenden Anbieter, wie etwa Samsung und Huawei, die nur durch vergleichbare Angebote auf dem boomenden Markt bestehen konnten.
Die Milliarden von Smartphones, die innerhalb von rund 10 Jahren weltweit von den drei Anbietern verkauft wurden (allein im Jahr 2018 waren es in Summe 1,4 Milliarden14) lassen erahnen, in welch gewaltigem Maße sich die Menschheit mit diesem Gerät verbunden hat. Kaum eingeführt, wurde es zum Lieblingsgerät der heutigen Welt.
Künstliche Intelligenz (KI) 15
Im Zuge der Computerentwicklung entstand eine zweite Gattung von Computern, die inzwischen in immer mehr Bereichen zum Einsatz kommen. Im Gegensatz zu den herkömmlichen Rechnern, die den logischen Strukturen des Denkens nachgebildet sind, werden hier die biologischen Vorgänge imitiert, die im Gehirn beim Denken stattfinden (was zu der populären, aber sachlich falschen Meinung führte, diese Computer könnten «denken».) Nach dem Vorbild der neuronalen Netzwerke des menschlichen Gehirns bestehen sie aus elektronischen Netzwerken mit einer Vielzahl künstlicher Neurone, von denen jedes mit Hunderten anderen verschaltet ist.
Diese Netzwerke werden nicht mehr vom Menschen programmiert, sondern darauf trainiert, gewisse Aufgaben selbstständig erfüllen zu können. Eine Aufgabe kann z.B. sein, aus unzähligen Porträtfotos ein ganz bestimmtes Gesicht, das gesucht wird, herauszufinden. Millionen von Trainingseinheiten sind notwendig, bis das Netzwerk sich dem gesetzten Ziel angenähert hat.
Der springende Punkt dabei ist, dass diese «Künstliche Intelligenz» ihre Arbeit im Wesentlichen unabhängig vom Menschen verrichtet, indem sie ständig «dazulernt», womit suggeriert wird, es handele sich um einen kognitiven Vorgang. Edwin Hübner schreibt dazu:
«In ein neuronales Netz ist zwar außerordentlich viel menschliche Intelligenz eingeflossen, aber sie ist in ihm erstarrt. Ein neuronales Netzwerk besitzt deshalb keine eigenständige Intelligenz. Es ist weder dumm noch klug, noch entscheidet es irgendetwas, das sind schlichtweg Begriffe, die auf dieses Gerät nicht anwendbar sind. Eine Mausefalle ist auch nicht klug, nur weil sie genau dann zuschnappt, wenn die Maus den Käse frisst. Die sogenannte Künstliche Intelligenz ist zwar durch menschliches Denken intelligent gemacht, aber sie denkt nicht selbst.»16
Ein böses Erwachen
Es ist nicht zu verkennen: Über alle Erdteile hinweg wurde die «schöne neue Welt» der Medien freudig begrüßt und dauerhaft in den Alltag integriert. Ein Leben ohne die unerschöpfliche Fülle der abrufbaren Informationen, der Spiel- und Unterhaltungsmöglichkeiten, aber auch der Gesprächsforen in den Social Media, konnten sich die meisten schon bald nicht mehr vorstellen. Dazu kamen zahllose Annehmlichkeiten, wie z.B. sich von dem Universalgerät Smartphone navigieren zu lassen, Schnappschüsse oder Videos sofort an Freunde und Verwandte zu schicken, statt Fahrkarten und Kreditkarten einfach das Handy vorzuzeigen – das und vieles mehr trug und trägt dazu bei, das Publikum bei Laune zu halten.
Zwar gab es im Laufe der Jahre immer wieder einzelne Wissenschaftler, Pädagogen, Ärzte und engagierte Gruppen, die mit guten Gründen vor gefährlichen Fehlentwicklungen warnten. Doch sie wurden in der Regel als weltfremde Spinner abgetan, als Fortschrittsbremser und Technikfeinde diffamiert oder als naive Gesundheitsapostel verspottet. Wenn hingegen deren Argumente in den sozialen Netzwerken anfingen Gehör zu finden, dann wussten große Konzerne ihre Interessen zu schützen, indem sie die öffentliche Meinungsbildung auf vielerlei Weise manipulierten und die Kritiker damit niederbügelten – und schon war die hochglanzpolierte Oberfläche der schönen neuen Welt wieder hergestellt.
Dieser Zustand währte viele Jahre lang. Das Blatt begann sich erst zu wenden, als der Amerikaner Edward Snowden, ein ehemaliger CIA-Mitarbeiter, nach seiner Flucht nach Hongkong im Sommer 2013 hochgeheime Dokumente des US-Geheimdienstes NSA veröffentlichte, zu denen er als IT-Mitarbeiter in einem NSA-Büro auf Hawaii Zugang gehabt hatte. Daraus erfuhr die Öffentlichkeit erstmals von den amerikanischen und britischen Geheimdienstprogrammen zur Überwachung der gesamten weltweiten Internetkommunikation. Das Ausmaß der Spionagepraktiken, das Snowden mit reichem Datenmaterial belegen konnte, war für die Öffentlichkeit schockierend. Gleichwohl blieben die Reaktionen der internationalen Politik außer in Deutschland sehr verhalten.
Und doch: Das Misstrauen war geweckt, der wunde Punkt erkannt, und so versprachen die Konzerne Google, Microsoft und Apple neue Verschlüsselungstechniken, um die Daten ihrer Kunden besser zu schützen. Das aber war ein scheinheiliges Manöver, um von der eigenen Spionage abzulenken. Denn diese drei digitalen Großkonzerne verdienen ihr Geld – wie viele andere Firmen auch – mit Werbung. Genauer gesagt: mit personalisierter Werbung, die auf den einzelnen Kunden und seine speziellen Bedürfnisse abgestimmt ist. Dazu brauchen die Konzerne jede Menge Daten zum Kaufverhalten etc., und die holen sie sich vom Smartphone des Nutzers, ohne dass er es merkt.
Überwachungskapitalismus und Enteignung der Menschenrechte
Wie das in der Praxis konkret abläuft, demonstrierte die Süddeutsche Zeitung (SZ) 2019 durch ein kleines Experiment: Eine Münchnerin (Tarnname: Maria Brandl) erlaubte dem Team der SZ, einen Tag lang den Datenverkehr ihres ganz normalen Smartphones mitzulesen, zu speichern und zu analysieren. Beobachtet wurde vor allem, wie viele Informationen von dem Smartphone ständig an Empfänger im Hintergrund abflossen und an welche und wie diese Informationen zu Geld gemacht wurden. Hier zwei Beispiele aus dem Bericht:17
«In der App von Tchibo sieht Maria Brandl sich Campingzubehör an. Von diesem Interesse erfährt in diesem Moment aber nicht nur Tchibo. Die Information geht auch an Google. (…) In der Datenindustrie heißt dieser Vorgang ‹third party tracking›, Dritte verfolgen, was Menschen online so treiben. In diesem Falle ist dies der kalifornische Konzern. Er betreibt den Analysedienst Google Analytics. Millionen Websites und Apps integrieren diesen Dienst. Er ermöglicht es ihnen, nachzuvollziehen, worauf ein Nutzer klickt, wie lange er in der Anwendung bleibt, und vieles mehr. (…) Auch Adjust, ein Berliner Unternehmen, erfährt von Brandls Camping-Vorlieben. Dabei bleibt es nicht. Adjust und Google erhalten zudem eine Nummer, die die Münchnerin eindeutig identifiziert, vergleichbar mit einer Steuernummer. Die Analyse des Datenverkehrs von Maria Brandls Smartphone ergab, dass die meisten ihrer Apps diese Nummer auslesen und übertragen.»
Maria Brandl sieht sich in einem Onlineshop für Naturkosmetik um, klickt auf ein Shampoo. Ihre Bewegungen auf der Seite werden im Hintergrund beobachtet – von Facebook, Google und einem Dienst namens Hotjar. Hotjar kann aufzeichnen, wie sie sich auf der Website verhält, worauf sie tippt, sogar welche Bewegungen ihr Finger auf dem Bildschirm macht. Der Betreiber des Onlineshops kann dann eine Art Video ansehen, wie sich seine Kunden durch den digitalen Laden bewegen. Die Kunden erfahren davon nichts.
Die SZ zitierte dazu die ehemalige Harvard-Professorin Shoshana Zuboff. Sie prägte für dieses Geschäftsmodell den Begriff des «Überwachungskapitalismus», der einer «parasitären ökonomischen Logik» folge und zu einer «Enteignung kritischer Menschenrechte» führe. Die SZ gab abschließend zu bedenken: «Das Problem ist nur: Dieses System hat den Alltag von Millionen Menschen durchdrungen, weil seine Dienste das Leben leichter machen.» Wie sich das Problem lösen ließe, dazu schwieg der Berichterstatter.
Internetnutzer in der Skinner-Box
Das Geschäftsmodell der Firma Facebook erwies sich auch noch in einer anderen Hinsicht als ethisch fragwürdig, um nicht zu sagen: verwerflich. Sean Parker, Gründungspräsident der Firma, Start-up-Investor und enger Berater von Mark Zuckerberg in der Anfangszeit, erklärte im November 2017:
«Die Motivation bei der Entwicklung der frühen Applikationen – und Facebook war die erste – war: Wie können wir so viel Zeit und Aufmerksamkeit der Nutzer wie möglich bekommen. Das bedeutete, dass wir einen regelmäßigen Dopaminausstoß triggern mussten, weil jemand ein Bild oder Post likte oder kommentierte. Das führte dazu, dass mehr Leute mehr Content lieferten, die wiederum mehr Likes und Kommentare erzeugten. Facebook ist eine soziale Bestätigungsmaschine, genau die Sache, die ein Hacker wie ich entwerfen würde, weil es sich die Verletzlichkeit der menschlichen Psyche zunutze macht. Die Erfinder – ich, Mark Zuckerberg und Kevin Systrom bei Instagram – haben das verstanden. Und wir haben es trotzdem gemacht. (…) Nur Gott weiß, was es mit den Gehirnen unserer Kinder anrichtet.»18



