- -
- 100%
- +
Doch zurück zu Edwards: Auf der Suche nach einem einprägsamen Titel für seine Studie besann er sich auf den griechischen Mythos von der Stadt Troja, die nicht auf reguläre Weise durch eine militärische Niederlage unterging, sondern durch das sorglose Hereinholen eines hölzernen Pferdes in die Stadt, in dem feindliche Soldaten versteckt waren. Nach diesem Vorbild taufte er das unbemerkt in den Computer gelangte Schadprogramm auf den Namen «Trojanisches Pferd» (meist abgekürzt «Trojaner» genannt).
Vorzeichen eines welthistorischen Umschwungs in der Antike
Das mythische Bild, das Edwards da in die Computerwelt einführte, hat in unserer Zeit eine unvorhergesehene Aktualität gewonnen, die weit über das Problem der Schadprogramme hinausgeht. Das Trojanische Pferd kann heute als Allegorie gelten für eine umfassende Gefährdung und Herausforderung der Menschheit, die Thema dieses Buches sein wird, zu Edwards’ Zeit aber noch nicht gegeben war. Für ihn handelte es sich lediglich um eine Metapher, die er als vermutlich humanistisch gebildeter Mensch aus Homers Epos Ilias entnahm. Blickt man jedoch auf unsere gegenwärtige Situation, dann lohnt es sich, die fragliche Passage der Ilias genauer anzuschauen, denn in ihr steckt zugleich eine Botschaft, die uns auf die Spur zu den geistesgeschichtlichen Wurzeln des Computerzeitalters führen kann.
Homer erzählt, wie die vereinten Heere der Griechen zehn Jahre lang vergeblich versuchten, die an der kleinasiatischen Küste gelegene Stadt Troja zu erobern. Nach zahllosen verlustreichen Kämpfen griffen sie schließlich auf den Rat des Odysseus zu einer List: Sie zogen eines Abends im Schutz der Dunkelheit geräuschlos ab und hinterließen auf dem geräumten Strand ein riesiges, aus Holz gefertigtes Pferd, in dem Krieger versteckt waren. Die Trojaner sahen am nächsten Morgen mit Erstaunen die leere Ebene vor ihrer Stadt und betrachteten das Pferd als ein Geschenk der Götter. Ungeachtet der dringenden Warnung der Seherin Kassandra zogen sie es triumphierend in die Stadt und feierten dort ihren «Sieg». Spät in der Nacht kletterten die versteckten Griechen heraus, öffneten die Stadttore und ließen die Heere herein, die inzwischen zurückgekehrt waren und nun mühelos alles niedermachten.
Eigentlich durften sich die Trojaner zu Recht als Sieger empfinden, denn der Angriff der Griechen war objektiv gescheitert. Doch wiegten sie sich in Sicherheit und waren von der Gunst ihrer Götter so fest überzeugt, dass sie das vermeintliche Siegeszeichen, in dem die tödliche Gefahr lauerte, gar nicht untersuchten. Selbst die Warnung einer Wahrsagerin von untadeligem Ruf vermochte nicht ihr Vertrauen zu erschüttern. Arglos wie Kinder rechneten sie nicht mit einer so hinterhältigen Kriegstaktik. Wir Heutigen haben kein Recht, darüber zu spotten, denn das sorglose Nichtbeachten einer lebensbedrohenden Gefahr ist auch der modernen Menschheit nicht fremd, wie später zu besprechen sein wird.
Ob und inwieweit Homers Epen Ilias und Odyssee auf Wirklichkeit oder auf Fiktion beruhten, war unter den Fachgelehrten schon im Altertum heiß umstritten und ist es bis heute. Hinsichtlich der Erzählung vom Trojanischen Pferd jedoch ist der Gelehrtenstreit müßig; er geht am Kern der Sache vorbei. Denn ob Mythos oder nicht – Homers Darstellung greift statt in die Vergangenheit in die Zukunft: Wie ein Wetterleuchten am Horizont kündigt sich in der Gestalt des «listenreichen Odysseus», der das raffinierte Täuschungsmanöver mit dem Pferd ersann, das Heraufkommen eines künftigen Zeitalters an, zu dessen hervorstechenden Merkmalen das allgemeine Erwachen der Verstandeskräfte gehörte – ein Ereignis von ungeheurer Tragweite bis in die Gegenwart.
In Homers Epen steht der Held Odysseus unter dem Schutz der Göttin Athena, von der es hieß, sie sei direkt aus dem Haupt des Zeus geboren worden – ein symbolischer Hinweis auf die starke Gedankenkraft, die von ihr ausging. Entsprechend war Odysseus im Altertum für seine Klugheit und Redegewandtheit berühmt; mit seinem erfindungsreichen Verstand wusste er jeder Schwierigkeit zu begegnen und jedes Abenteuer zu bestehen. Mochten seine Listen moralisch mitunter auch angreifbar sein, wirkungsvoll waren sie immer.
Dieser souveräne, selbstbewusste Umgang mit den Möglichkeiten des verstandesmäßigen Denkens entfaltete sich in der etwa 500 v. Chr. einsetzenden griechischen Klassik in vielfältigen Facetten: Da agierten auf der einen Seite die wandernden Sophisten, die ihr Wissen und ihr ausgefeiltes rhetorisches und argumentatives Können zu Geld zu machen wussten. Ihnen gegenüber standen wahrheitssuchende Denker wie Sokrates, Platon und Aristoteles, die zu den Vätern der abendländischen Philosophie wurden. Selbst das einfache Volk in Athen diskutierte öffentlich über Politik und trieb – ein unerhörtes Novum – die Erprobung einer echten Volksherrschaft (Demokratie) voran. Gleichzeitig kam es zu einer Blüte der Wissenschaften, die das Fundament der abendländischen Bildung legte, und nicht zuletzt zu großartigen Werken der Dichtkunst, Architektur und bildenden Künste. Die durch Jahrtausende gepflegte Verehrung der Götter endete zwar noch nicht, doch machte sich auch im Volk mehr und mehr die Kraft des eigenen Denkens geltend. Diese umfassende Kulturströmung wirkte durch Alexander den Großen ostwärts bis weit nach Asien hinein und westwärts durch das Römerreich, zu dem Griechenland seit 146 v. Chr. politisch gehörte, in das gesamte Abendland.
Das Rätsel der Sphinx
Es wäre ein großes Missverständnis, wollte man aus den Errungenschaften der griechischen Kultur den Schluss ziehen, in der vorgriechischen Zeit habe es kein wirkliches Denken gegeben. Es gab es durchaus und sogar in reichem Maße. Jedoch hatte es einen gänzlich anderen Charakter als dasjenige Denken, das wir seit der griechisch-römischen Kulturepoche gewohnt sind. Und das hatte seinen guten Grund: Solange die Menschen noch über ein gewisses Maß an hellseherischen Fähigkeiten verfügten, beschränkte sich ihre Wahrnehmung der Welt nicht auf das rein Physisch-Materielle, wie es später der Regelfall wurde, sondern hinter dem Sinnlich-Äußeren nahmen sie (wenn auch in abnehmender Deutlichkeit) noch übersinnliche Kräfte und Wesenheiten der geistigen Welt wahr. Sie erlebten also in der Natur zwei Wirklichkeiten ineinandergewoben. Davon künden die kulturellen Zeugnisse aller alten Kulturen. Solche Erfahrungen aber konnte man nicht anders zum Ausdruck bringen als in Bildern (Imaginationen), deren Elemente zwar der Sinneswelt entnommen waren, sich aber auf eine übersinnliche Realität bezogen und insofern nicht im materiellen Sinne «wörtlich» zu nehmen waren. Ein solcherart bildhaftes, imaginatives Denken und Sprechen wird heute – oft herablassend oder sogar abwertend – als «mythisch» bezeichnet.
Mit dem zunehmenden Verblassen der übersinnlichen Wahrnehmung und dem Heraufkommen der nur noch äußerlich mit Götterverehrung verbundenen «Verstandesseelen-Kultur», wie Rudolf Steiner sie nennt, verlor das mythische Denken seine Berechtigung und musste sich grundlegend verändern. Das erwies sich, wie nicht anders zu erwarten, als äußerst schwierig. Und doch war der Wandel unabweisbar notwendig, um dem eigenständigen Denken zum Durchbruch zu verhelfen, mit dem der Mensch in Freiheit sich selbst bestimmen kann.
Den frühen Griechen war die Schwierigkeit des Übergangs bewusst. Sie brachten sie, wie es dem alten imaginativen Bewusstsein entsprach, in ein mythisches Bild, das Bild vom «Rätsel der Sphinx». Die schon aus der ägyptischen Kultur bekannte Gestalt der Sphinx wurde in der bildenden Kunst als ein verderbenbringendes Ungeheuer dargestellt, das auf einem geflügelten Löwenkörper mit Schlangenschwanz den Kopf einer Frau trug. Dieses Untier, so erzählt die antike Ödipus-Sage, versperrte den einzigen Zugangsweg zu der Stadt Theben und stellte jedem, der an ihr vorbeiwollte, ein Rätsel. Konnte er es nicht lösen, wurde er erwürgt und gefressen. Tausende fielen der Sphinx zum Opfer, bis endlich Ödipus des Weges kam und das Rätsel löste, woraufhin das Ungeheuer seine Macht verlor und sich selbst in den Abgrund stürzte. Theben war befreit. Wie aber lautete das Rätsel?
Was ist das?
Morgens geht es auf vier Beinen, mittags auf zwei und abends auf drei.
Und es ist am schwächsten, wenn es die meisten Beine hat.
Auf den ersten Blick erscheint der Spruch simpel: Jeder kann sofort erkennen, dass es sich um ein Lebewesen mit Beinen handelt. Verglichen aber mit der Alltagserfahrung ergibt sich kein stimmiges Gesamtbild. Verwirrende Widersprüche und Ungereimtheiten fallen auf: Lebewesen, die im Laufe ihres Lebens verschieden viele Beine haben, gibt es nirgends. Ferner ist der korrekten Abfolge von Morgen, Mittag und Abend die falsche Zahlenfolge 4 – 2 – 3 zugeordnet. Und wie soll es angehen, dass die wenigste Kraft hat, wer die meisten Beine hat?
Heutzutage wundern sich schon elfjährige Kinder darüber, dass die Thebaner ein «so einfaches Rätsel» nicht lösen konnten. Es sei doch ganz klar, sagen sie, dass damit der Mensch gemeint sei, der als Baby auf allen vieren krabbelt, als Erwachsener auf zwei Beinen geht und am Lebensabend den Stock als drittes Bein zu Hilfe nimmt, und natürlich sei er als Baby am schwächsten. Sie ahnen nicht, was es vor drei Jahrtausenden für eine Überwindung kostete, von der anschaubaren Wirklichkeit eines Säuglings, eines Erwachsenen und eines Greisen völlig abzusehen und die drei Erfahrungen gedanklich auf ein einziges Merkmal zu reduzieren, nämlich auf die Anzahl der Beine. Aus dem Umgang mit lebensvollen Bildern aus der Sinneswirklichkeit wurde ein bildloses Operieren mit nackten Begriffen. Die Philosophie nennt diesen Vorgang Abstraktion (von lateinisch abstrahere = wegziehen, entfernen, trennen).
Das Rätsel der Sphinx ist also als ein Signum zu verstehen für die große Aufgabe, die der Menschheit im anbrechenden Zeitalter der Verstandeskräfte gestellt war. Um ihr gerecht zu werden, musste der Schritt vom imaginativen zum abstrakten Denken vollzogen werden. Das war die Forderung, die die Sphinx als Wächter an der Schwelle zu der neuen Zeit mit Macht erhob, und nur dem, der sich wenigstens anfänglich darin geübt hatte, gab sie den Weg in die Zukunft frei. Alle anderen waren dem Untergang geweiht.
Die Ausbildung des neuzeitlichen Denkens
In Griechenland entwickelt und von den Römern weitergeführt, verbreitete sich das bildlos-abstrakte Denken über die Welt. Gefordert waren jetzt Denkanstrengungen, die sich klar abgrenzen von der Gewohnheit, die Sinneseindrücke unreflektiert auf sich wirken zu lassen und sich mit dem zu begnügen, was sie spontan im eigenen Inneren anregen. Solange die äußere Welt noch atavistisch als geistdurchdrungen und seelisch belebt erfahren wurde, war eine solche Haltung berechtigt. Doch diese Zeit war vorüber, und wenn jetzt keine besonderen Anstrengungen unternommen wurden, konnte die seelische Resonanz auf Sinneserfahrungen nur noch in der Form auftreten, in der wir sie bis heute kennen: als ein kaum entwirrbares Gemenge assoziativ sich ergebender Vorstellungen und Empfindungen, die ziellos hierhin und dorthin schweifen und sich im Nu vom Ausgangspunkt entfernen.
Die geforderte strenge Schulung bestand folglich darin, einen Gedanken vorsätzlich zu fassen und ihn kontrolliert Schritt für Schritt weiter zu entwickeln, unabhängig sowohl von äußeren Reizen wie auch von seelischen Regungen. Nur so konnte das Ziel erreicht werden, Herr über sein Denken zu werden.
Indem sie sich darin schulten, gelangten die führenden Philosophen zu einer epochalen Entdeckung: Jedes exakt geführte Denken stößt auf unverrückbare Gesetzmäßigkeiten der Logik, die nicht aus der Willkür des eigenen Subjekts stammen, sondern sich objektiv aus dem Denken selbst ergeben und folglich für alle Menschen gelten. Die Wissenschaft, die daraus entstand, wurde von Aristoteles (384 – 322 v. Chr.) begründet. Seine Schriften zur Logik wurden wegweisend für die folgenden Jahrhunderte.
In der lateinisch sprechenden Gelehrtenwelt des Hochmittelalters griffen die Scholastiker seine Ergebnisse auf und entwickelten sie weiter, indem sie systematisch daran arbeiteten, gedankliche Schlüsse nach allen Seiten gegen Missbrauch und Fehlschlüsse so abzusichern, dass man das Ergebnis als «wahr» und der Wirklichkeit entsprechend ansehen konnte. Ihre Bemühungen gipfelten in dem erfolgreichen Versuch, gültige Regeln für jede wissenschaftliche Beweisführung zu entwickeln. Wikipedia führt das folgendermaßen aus:
«Bei dieser Methode handelt es sich um ein von den logischen Schriften des Aristoteles ausgehendes Verfahren zur Klärung von Fragen mittels theoretischer Erwägungen, ausgehend von Prämissen (‹Voraussetzung, Annahme›). Dabei wird eine Behauptung untersucht, beispielsweise Die Erde ist eine Scheibe, indem zuerst die für und die gegen sie sprechenden Argumente nacheinander dargelegt werden und dann eine Entscheidung über ihre Richtigkeit getroffen und begründet wird. Behauptungen werden widerlegt, indem sie entweder als unlogisch oder als Ergebnis einer begrifflichen Unklarheit erwiesen werden oder indem gezeigt wird, dass sie mit evidenten oder bereits bewiesenen Tatsachen unvereinbar sind.»
Diese methodisch streng kontrollierte Führung der Gedanken wurde zum Vorbild für alle wissenschaftlichen Disziplinen unserer Zeit, besonders für die am Beginn der Neuzeit einsetzende moderne Naturwissenschaft. Sie stützte sich bewusst auf die abgesicherten Methoden der Scholastik, wendete sie aber nicht mehr auf theologische Themen an wie im Mittelalter, sondern auf die Phänomene der Natur, deren Erforschung damals mit Macht einsetzte.
Denkstrukturen, geronnen im Computer
Es blieb nicht dabei, dass die scholastische Methode zum Paradigma ernst zu nehmender Wissenschaft wurde; nach ihrem Muster formte sich auch die in der westlichen Welt vorherrschende Art des Denkens, die allgemein als diskursiv bezeichnet wird. Man versteht darunter ein methodisches Vorgehen, das von Vorstellung zu Vorstellung, von Begriff zu Begriff logischgesetzmäßig voranschreitet und dadurch zu Schlussfolgerungen gelangt, mit denen sich z.B. eine Auffassung oder eine Theorie begründen lässt.
Gedankengänge in Sprache und Text diskursiv zu entwickeln ist im Laufe der Zeit so selbstverständlich geworden, dass eine wichtige Eigenart, die damit verknüpft ist, kaum mehr auffällt: Bei jedem Schritt der Darlegung prüft der Zuhörer oder Leser unwillkürlich: Ist die Aussage richtig oder falsch? Ist sie logisch einwandfrei? Entspricht sie den bekannten Tatsachen? Zustimmung oder Ablehnung ist gefragt, Ja oder Nein. Sinnvolle weitere Schritte können sich erst anschließen, wenn die Frage beantwortet ist. Am deutlichsten zeigt sich das in der Mathematik, die nach jeder Rechenoperation prüft: Ist das Ergebnis richtig oder falsch? Kein Weg führt dort an einer eindeutigen Festlegung vorbei, denn das Ergebnis kann nur richtig oder falsch sein, eine andere Alternative gibt es nicht.
Nicht auf allen Forschungsfeldern ist die Entscheidung so eindeutig zu treffen. Die streng mathematisch orientierte Naturwissenschaft allerdings hat es mit dieser Methode weit gebracht; sie ist zur beherrschenden Wissenschaft der Neuzeit aufgestiegen. Im 20. Jahrhundert war es eines ihrer Anliegen, die schon in der Antike und dann wieder ab der Renaissance verfolgte Idee einer mechanischen Rechenmaschine neu aufzugreifen und ein Gerät zu entwickeln, mit dem die logischen Strukturen des diskursiven Denkens technisch nachgeahmt werden können. Das Projekt begann in den 1930er-Jahren und wurde nach dem Zweiten Weltkrieg zu einem triumphalen Erfolg: Der Computer (abgeleitet von lat. computare = berechnen) eroberte die Welt, einige Zeit noch mit analoger Technik, in der zweiten Hälfte des Jahrhunderts dann nur noch mit der Digitaltechnik.
Die heute gebräuchlichen Computer werden elektronisch mit dem Binärsystem betrieben. Ihre Grundfunktion besteht aus Entscheidungen zwischen Ja oder Nein, die physikalisch realisiert werden durch die Befehle «Strom an» für Ja und «Strom aus» für Nein (binär ausgedrückt «1» und «0»). Die im diskursiven Denken ständig sich wiederholende Grundstruktur (zuerst die Prämissen, dann der logische Schluss daraus) wird vom Digitalrechner mit Millionen winziger elektrischer Schalter imitiert, die jeweils zu kleinen Einheiten zusammengefasst sind. Letztere bestimmen, ob der Strom zur nächsten Einheit weiterfließen darf oder nicht, indem sie die Prämissen festlegen: Entweder lassen sie mehrere Bedingungen zu, von denen wenigstens eine erfüllt sein muss (sog. Oder-Schaltung), oder sie fordern eine bestimmte Anzahl von Bedingungen, die gemeinsam erfüllt sein müssen (sog. Und-Schaltung). Hinzu kommt als drittes Element die Nicht-Schaltung, die den in einem sekundären Stromkreis fließenden Strom aus- statt anschaltet. Durch die Kombination dieser drei Schaltungen kann jeder logisch strukturierbare Vorgang dargestellt werden. Anzumerken ist noch, dass die «Schalter» heute so winzig sein können, weil sie nicht mehr aus mechanischen Teilen oder aus Röhren bestehen, wie es zunächst der Fall war, sondern aus winzigen Transistoren, deren Siliziumschichten je nach angelegter Spannung den Strom durchlassen oder stoppen.
Die Universalmaschine unserer Zeit
Auf diese Weise hat sich im Computer zum Schein eine Intelligenz materialisiert, die in den Jahrhunderten zuvor noch zur gedanklichen Klärung von Naturphänomenen verwendet wurde, jetzt aber jeglichen Bezug zur Sinneswirklichkeit abgestreift hat. Es sind rein formale, maschinell ausgeführte logische Strukturen, mit denen eingegebene Daten in ungeheurer Geschwindigkeit bearbeitet werden. Mit der radikalen Ablösung vom menschlichen Denken und seiner Wahrnehmungswelt wurde die einst von der Sphinx geforderte Abstraktion ins Extrem getrieben. Man mag das bedauern oder sogar erschreckend finden, muss aber gleichwohl zur Kenntnis nehmen, dass genau darin die Stärke der Digitaltechnik liegt: Ihre Prozesse sind nicht mehr auf mathematische Aufgaben beschränkt oder an die Sinneswirklichkeit gebunden, sondern stehen zur Verfügung für Daten jeglicher Art. (Technische Einzelheiten dazu in einem späteren Kapitel.) Der Computer ist zur Universalmaschine unserer Zeit geworden, mit der «prinzipiell jedes Problem des Alltags, das sich auf kausale Abfolgen und algorithmisierbare Zusammenhänge reduzieren lässt, durch Schaltungen darstellbar ist».6
Technikbegeisterte Forscher veranlasste das zu der Erwartung, schlechterdings alles in der Welt müsse «computerisierbar» sein; Grenzen könnten sich höchstens aus mangelnder Leistungsstärke der Rechner ergeben, und da sei es lediglich eine Frage der Zeit, bis sie überwunden sind. Tatsächlich gelang es der Technik in einem bis heute anhaltenden Wettlauf, die Spitzenleistungen der Computer in immer gewaltigere Dimensionen hochzuschrauben.
Möglich wurden die rasanten Fortschritte durch die Tatsache, dass die auf Mikrochips aufgetragenen elektronischen Schaltungen im Laufe der technischen Entwicklung immer kleiner und kleiner wurden. Dadurch konnten einerseits Supercomputer mit gigantischen Rechenleistungen für wissenschaftliche Forschung in vertretbaren räumlichen Ausmaßen gebaut werden. Vor allem aber ermöglichte die fortschreitende Miniaturisierung die Massenproduktion der Personal Computer (PC), der Laptops, der Tablets und der Smartphones, von denen heute alle Welt Gebrauch macht.
Seitdem der Markt auf diesem Gebiet nahezu gesättigt ist, sieht sich die Industrie gegenwärtig nach neuen Anwendungen der Digitaltechnik um und richtet ihren Blick dabei vor allem auf den weiteren Ausbau des Internets, damit die sogenannte smarte Technologie zum Zuge kommen kann. Sie produziert elektronische Automaten aller Art, wie z.B. Ampelsteuerungen, die im Verbund mit benachbarten Ampeln und Messstationen die Ampelphasen ohne menschliches Zutun flexibel der aktuellen Situation anpassen. Auf einem zweiten Gebiet, dem Smart Home, soll alles mit allem vernetzt, automatisiert und von außen steuerbar werden: Beleuchtung und Heizung, Herd und Waschmaschine, Jalousien und Blumenbewässerung, Energiespareinrichtungen und die Überwachung der Vorräte im Kühlschrank.
Für zahlreiche öffentliche und private Bereiche sind solche Dinge geplant oder schon im Gange – mit dem erklärten Ziel, nach und nach jedes algorithmisch fassbare Geschehen zuhause und in unserer Umwelt «intelligent» zu steuern, also nicht durch menschliche Aktivität, sondern durch die (vermeintliche) Intelligenz von Maschinen. Es zeichnet sich ab, dass wir bald auf Schritt und Tritt von solcher Technik umgeben sein werden, die mit immer höheren Funkfrequenzen bis in den letzten Winkel unseres Privatlebens dringt. Schon ist geplant, Zehntausende kleine Satelliten in den Orbit zu schießen, um das digitale Netz lückenlos über die ganze Erde auszubreiten7 und die Maschen immer enger zu ziehen. Ob wir es wollen oder nicht, wir gehen der Technik «ins Netz».
Eine Leere, die nicht leer bleibt
Was bedeutet diese Entwicklung für uns Menschen? Können und sollen wir tatenlos zusehen, wie die Allgegenwart digitaler Technik unser Leben verändert? Wird sie wirklich nur zu unserem Nutzen sein, wie die Verfechter beteuern, oder bezahlen wir den Nutzen schleichend mit dem Verlust eigener Fähigkeiten und Freiheiten? Erliegen wir der Illusion, die digitale Revolution werde uns weder gesundheitlich noch psychisch noch geistig unberührt lassen? In den Jahrtausenden der Menschheitsgeschichte hat sich immer wieder gezeigt, dass eine neu eingeführte Technik nicht nur die Welt veränderte, sondern stets auch die Menschen selbst in ihrem Denken, Fühlen und Handeln.
Das wird jetzt nicht anders sein. Die Frage ist nur: Welcher Art werden dieses Mal die Veränderungen sein? Gehen wir womöglich einem menschheitlichen Massenexperiment mit ungewissem Ausgang entgegen?
Um zu einer realistischen Einschätzung zu kommen, scheint es mir notwendig, auf eine wenig beachtete Tatsache zu blicken, die zu den Fundamenten der Digitaltechnik gehört. Der binäre Rechner arbeitet mit einer «Intelligenz», die gar keine ist, sondern ein inhaltsleerer Maschinenprozess, der zwar logische Denkstrukturen imitiert, aber nicht die geringste Verbindung hat zu der Lebenswirklichkeit, aus der die Daten stammen. Weder hat er sie zu den Objekten, die er abbildet, noch zu den Menschen, die sich in der Welt betätigen. Zu jedem Gemälde gehört ein Maler, zu jedem Buch ein Autor, zu jedem Musikstück ein Komponist, zu jeder Aufführung ein Interpret, und auch zum Aufsetzen des Computerprogramms gehört ein Mensch mit individuellen Zügen und persönlicher Prägung. Nichts von alledem findet Eingang in die Abfolge der Bits und Bytes. Daher ist es berechtigt zu sagen: Die Abläufe des digitalen Rechners sind im wörtlichen Sinne «ent-menschlicht».
Das ist nicht als moralischer Vorwurf zu verstehen, sondern als ein feststehendes Faktum von großer Tragweite. Denn aus der absoluten Leere gegenüber Welt und Mensch resultiert, wie ausgeführt, die universelle Einsetzbarkeit des Computers, resultiert aber auch die häufig vorgetragene Behauptung, die digitalen Medien seien weder gut noch schlecht, sondern ein ganz neutrales Instrument wie jedes andere technische Gerät; man müsse nur vernünftig mit ihnen umgehen. Mit dieser These wird bewusst oder unbewusst ein gravierender Trugschluss verbreitet, denn die Wirklichkeit zeigt ein anderes Bild:
Vergleichbar einem physikalischen Vakuum übt auch die perfekte menschliche Leere des Rechners einen gewaltigen Sog aus. Sie kann zwar als Plattform für sinnvolle und nützliche Anwendungen dienen; doch weil sie völlig ohne den Menschen agiert, saugt sie in erschreckendem Umfang auch unmenschliche Neigungen an: Sie wird immer häufiger genutzt, um unerkannt Machtgelüste auszuleben, krassesten Egoismus und niederste Instinkte zu befriedigen. Man kann gefahrlos Betrug, Manipulationen und sogar kriminelle Handlungen organisieren, weil sich die Herkunft solcher Angriffe im Internet technisch verschleiern lässt, sodass die Täter anonym bleiben. Von einem «vernünftigen Umgang» kann da keine Rede sein; vielmehr meldet sich das Pferd von Troja zurück. Spezialisten setzen aus dem Hinterhalt sogar sogenannte Bots ein, automatische Computerprogramme, die im weltweiten Netz massenhaft bestimmte Aufgaben selbstständig und vor allem unbemerkt durchführen. Der Entleerung von allem Menschlichen ist also nicht nur technisch, sondern auch moralisch Tür und Tor geöffnet.




