- -
- 100%
- +
Die Informatik war erst wenige Jahre zuvor überhaupt in das Portfolio der akademischen Lehre aufgenommen worden. Die THD hatte dabei allerdings eine wichtige Vorreiterrolle gespielt. Die Darmstädter Hochschullehrer Alwin Walther und Robert Piloty waren frühe Informatik-Pioniere. Es war indes nicht klar, ob sich die Informatik dauerhaft an den Hochschulen würde etablieren können. Sie hätte durchaus das gleiche Schicksal wie die einst mit vielen Hoffnungen bedachte Kybernetik erleiden und wieder in der Versenkung verschwinden können. Die THD hatte mit großem Mut eine der ersten Informatik-Fakultäten namens »Fachbereich Informatik« in Deutschland gegründet. Das war zu meinem Studienbeginn gerade erst zehn Jahre her. Der erste Doktorand in der Informatik in Darmstadt war im Jahr 1975 übrigens Wolfgang Coy, der später als Professor an der Universität Bremen und an der Humboldt-Universität zu Berlin tätig wurde. Viele Jahre später sollte, nach der Anzahl der Studierenden gerechnet, das Fach Informatik eine sehr wichtige Rolle in der akademischen Ausbildung spielen – und das nicht nur am Hochschulstandort Darmstadt.
Exkurs – Das Informatik-Lehrbuch von Koch und Rembold aus dem Jahr 1977
Wenn man das so liest, dann muss man sehen, dass in diesen frühen Jahren so etwas wie die »wissenschaftliche Literatur« der Informatik nur rudimentär existierte. Gegen Ende des Jahres 2013 würdigte man das Erscheinen eines der ersten Lehrbücher im Carl Hanser Verlag, München. Seitens des Verlags war man fast überrascht, dass die Informatik als universitäre Disziplin mit der Gründung der ersten Informatikfakultät an der TU Karlsruhe erst gut 40 Jahre alt war. Wir erleben erst seit den letzten 40 Jahren das Aufkommen der »Computerwissenschaften« in Deutschland mit allen massiven Folgen für Gesellschaft und Wirtschaft.
Die unglaublich breite und schnelle Expansion eines neuen Faches und seine Durchdringung aller Bereiche wurden durch eine erste Generation von Informatikern in Gang gesetzt, die von ihrer Ausbildung her noch eher Mathematiker oder Elektroingenieure waren. In diesem Kontext war das erste, 1977 im Carl Hanser Verlag erschienene Buch zur Ausbildung von angewandten Informatikern ein Wegbereiter. Es war die »Einführung in die Informatik für Naturwissenschaftler und Ingenieure« von Günter Koch und Ulrich Rembold, wobei dem Ersteren, als »Zeitzeugen« der Geschichte der Informatik als Studienfach, das Verdienst zukommt, die Initiierung, Konzeption und den größten Teil der Texte des Buches verfasst zu haben. Dieses Pionierwerk wird bis heute verlegt und ist aktuell unter seinem Ursprungstitel lieferbar.
Es konnte sich als Lehrbuch der Informatikingenieure vieler Generationen so lange halten, weil die in den 70er-Jahren von Koch und Rembold dazu verfassten Konzepte und Grundlagen weitsichtig geplant und formuliert worden waren. Die »Einführung in die Informatik für Naturwissenschaftler und Ingenieure« gehört zu den publizistischen Meilensteinen der Informatik und ihre Autoren zu den maßgeblichen Pionieren.¶
Das Rhein-Main-Gebiet und auch die Stadt Darmstadt waren in den 1980er-Jahren noch stark vom Kalten Krieg geprägt. Wiesbaden, Darmstadt, auch Babenhausen und Aschaffenburg waren wichtige US-amerikanische Garnisonsstädte. Einen nicht geringen Teil des Frankfurter Flughafens hatte die U.S. Air Force in Benutzung. Mein Auto hatte ein recht einfaches UKW-Radio, das war meistens auf »AFN Frankfurt« (American Forces Network Frankfurt) eingestellt. Ein eher einfaches Radio war nicht so diebstahlgefährdet – teure Autoradios wurden damals gerne und öfters aus den Autos gestohlen. Der AFN residierte in der Frankfurter Bertramstraße neben dem Hessischen Rundfunk. Sonntagnachmittags lief bei AFN immer »Casey’s coast to coast«. Das war die US-amerikanische Hitparade, präsentiert von Moderator Casey Kasem.
Man kann sich den Entwicklungszustand der Informationsgesellschaft um das Jahr 1982 klarmachen, wenn man bedenkt, was es damals alles noch nicht gab und wie Studierende damit zurechtkamen. Es gab keine Mobiltelefone, zum Telefonieren musste man entweder zu Hause sein – oder aber einen öffentlichen Telefonzellen-Münzfernsprecher benutzen. Die Telefone in den Büros der THD waren für Studierende tabu. Zuhause im Odenwald hatten wir erst seit wenigen Jahren ein privates Telefon zur Verfügung. Ein Telefonapparat und sein Anschluss wurden von der staatlichen Deutschen Bundespost auf Antrag zugeteilt und quasi »amtlich« installiert. Der Telefondienst war eine staatliche Leistung, für die kein »Preis«, sondern »Gebühren« zu bezahlen waren. Dokumente wurden per Briefmarkenpost verschickt. Wenn es schneller gehen sollte, konnte man die Zustellung am Zielort per rotem »EXPRESS«-Aufkleber beschleunigen, der natürlich extra Porto kostete. Die SMS der damaligen Zeit waren umschlaglose Papp-Postkarten, die man mit bereits aufgedruckter Briefmarke im Postamt kaufen konnte. Kurze Texte ließen sich auch mithilfe von Fernschreibern »Telex« national – und auch international – elektronisch in Echtzeit verschicken.
Es gab noch keinerlei elektronische Kommunikation zwischen den Hochschullehrern der Informatik und den Studierenden. Übungsaufgaben wurden als kopierte Übungsblätter im Anschluss an die Vorlesungen ausgeteilt. Sie wurden zum Teil in Live-Tutorials von Studenten der höheren Semester betreut. Musterlösungen dazu gab es als Papier-Aushänge in den spezifischen »Schaukästen« in den Gängen der Institute – zum Ansehen oder manuellen Abschreiben vor Ort. Studien-Skripte und Materialien konnte man im Institut des Professors als Kopiervorlage ausleihen oder aber als Buch, das der Professor verfasst hatte, im Handel kaufen. Studierende erhielten einen kleinen Rabatt, wenn sie per vom Professor ausgestellten »Hörerschein« im Buchhandel nachweisen konnten, dass sie die zum Buch passende Vorlesung besuchten.
Selbst in der Informatik war die notwendige Literatur damals nur in Papierform verfügbar. Studierende konnten sie in der »Hessischen Landes- und Hochschulbibliothek Darmstadt« ausleihen. Der Zugriff auf wissenschaftliche Arbeiten war ein ultra-langsamer Vorgang, der pro Zugriff einige Tage Zeit kostete. Manche Bücher waren ständig anderweitig ausgeliehen und standen damit faktisch nicht zur Verfügung. Zeitschriften waren oft gar nicht ausleihbar, sondern wurden nur in den Lesesaal der Hochschulbibliothek ausgegeben. Da saß man dann stundenlang und schrieb zu zitierende relevante Textstellen per Hand ab. Die einzige Alternative zur Handschrift war die mechanische Schreibmaschine. In der Stadt gab es Schreibbüros, die die handschriftlichen Vorlagen der Abschlussarbeiten und Dissertationen der THD-Absolventen mit Schreibmaschinen abtippten und in einen ordentlichen Schriftsatz brachten. Für Vervielfältigungen existierten aber schon Xerographie-Kopierer. Das waren riesige Apparate, man konnte sie per Münzeinwurf in Betrieb nehmen. Sie standen an zentraler Stelle in der Nähe der großen Hörsäle. Kopien waren teuer – der Preis von einer D-Mark pro Seite war nicht ganz unüblich.
In der ersten Hälfte der 1980er-Jahre gab es noch lange nicht das, was später als »Social Network« oder als »Messenger Service« bekannt werden sollte. Daher war die Kommunikation in der Studentenschaft noch sehr viel mehr als in den 2010er-Jahren, oder gar zu Beginn der 2020er-Jahre, auf persönlicher Präsenz basierend. Dauernd war irgendwo ein »Happening« oder ein »Event« fällig. Angekündigt werden konnte das damals nur per Plakataushang oder über das Verteilen von Handzetteln, also nicht elektronisch. Die Mensa war in der Regel den ganzen Tag über sehr gut besucht, also nicht nur zur Nahrungsaufnahme. In der Mensa traf man sich als Peer-2-Peer-Lerngruppe zur Bearbeitung von Übungsaufgaben und Klausurvorbereitung. Man erklärte sich die Lehrgegenstände gegenseitig. Man kann ja durchaus zufrieden sein, wenn es gelingt, den Kommilitonen einen Sachverhalt zu erklären. Denn wenn man etwas erklären kann, dann müsste man es auch selbst verstanden haben.
Die Studierenden waren in einem hohen Maße politisch organisiert. Wenn Hochschulwahlen anstanden, dann gab es für die studentischen Vertretungen in Senat oder Fachbereichsrat Bewerberlisten des »Marxistischen Studentenbunds Spartakus« (DKP-affin – DDR-UdSSR-orientiert), der »Hochschulorganisation Kommunistische Studenten« (KPD/ML-affin – albanisch orientiert), einer »Kommunistischen Hochschulgruppe« (KBW-affin – China-orientiert), des »Sozialistischen Deutschen Studentenbunds« (SPD-affin), des »Liberalen Hochschulverbands« (FDP-affin – einige Leute firmierten meiner Erinnerung nach noch unter dem schönen Kürzel LSD – Liberaler Studentenbund Deutschland) und natürlich des »Rings Christlich-Demokratischer Studenten RCDS« (CDU-affin). Hinzu kamen Studentenvereine, die ihre Nationalität mit einer politischen Botschaft verbanden und dahingehend politisch-missionarisch auftraten. Das war damals etwa bei Studierenden aus dem Iran oder aus Vietnam der Fall.
Das »health management«, eine »Gerechte Sprache« und die »political correctness« waren für die Studierenden noch nicht erfunden. In der Mensa waren alkoholische Getränke absolut üblich, und geraucht wurde dort auch. Zigaretten wurden von Werbeleuten in kleinen Dreier-Päckchen am Eingang der Mensa an die Studierenden verschenkt – zum Probieren. Das krasseste technische Lifestyle-Feature des damaligen modernen Lebens war der »Sony Walkman«, mit dem man unterwegs Tonbandkassetten hören konnte. Michael Jackson hatte mit »Thriller« einen Hit und in Deutschland kam Nena mit »99 Luftballons« gerade groß heraus. Ich fand diese Art von Musik nicht so sehr spannend, sondern eher die Neue und Elektronische Musik. Auch die surrealistische Lyrik von Bob Dylan (»Gates of Eden, Desolation Row«) war faszinierend.
Ich hielt es – und halte es immer noch – generell für einen schweren Irrtum, anzunehmen, dass das Hören von Musik vor allem der Erholung dienen solle. In Darmstadt spielte im SV-Darmstadt-98-Fußballstadion am Böllenfalltor im September 1984 eine Band namens »The Police«. Deren Musiker Sting und Andy Summers kannte ich von Eberhard Schoener und seiner Art (»Video Magic«) der Elektronischen Musik. Der Kartenverkauf am Eingang hatte seine Stellung aufgegeben, denn keiner wollte damals in Darmstadt so etwas wie »The Police« hören. Man ließ uns, wie alle anderen zufällig vorbeikommenden Passanten, gerne gratis zum Konzert, damit es wenigstens ein paar Zuhörer gäbe. Vorne auf der Bühne zeigte Sting zum sichtbaren Mond und fragte das Publikum: »can you see the moon?«, um dann mit seinem Lied fortzufahren:
»Giant steps are what you take,
Walking on the moon,
I hope my leg don’t break,
Walking on the moon,
We could walk forever.«
Ist das der Zeiten eigener Geist, den man den Geist der Zeiten heißt? Wie wäre der Eintrittskartenverkauf wohl verlaufen, wenn damals schon Facebook und Twitter verfügbar gewesen wären?
Im Jahr 1981 stellte die Firma IBM einen »Portable Computer« PC vor. Damit wurde auf ein Angebot reagiert, dass eigentlich schon seit 1977 auf dem Markt war, nämlich die »Personal Computer« der Firma Apple – die hießen auch »PC« und das schon länger. IBM hatte sich, wie andere Großrechnerhersteller der damaligen Zeit, mit Skepsis die Frage gestellt, wozu in aller Welt ein Mensch einen »persönlichen Rechner« auf seinem Schreibtisch brauchen könnte. Wofür sollte ein solcher PC wirklich gut sein? Was sollte denn damit bitteschön berechnet werden können – oder gar müssen? Man ging deshalb das Thema PC seitens IBM ein wenig halbherzig an. Ein eigenes PC-Betriebssystem wollte IBM nicht entwickeln, man ließ sich deshalb ein »Disc Operating System« (DOS) von einem Jungunternehmer namens Bill Gates liefern.
Professor Dr. Thomas Wolf, Berlin
Exkurs – Die IT-Abteilung und ihre Leitung im Wandel der Zeit – Der PC auf dem Schreibtisch erscheint
Wenn man das so liest, dann muss man wissen, dass der »Computer am Arbeitsplatz« sozusagen über Umwege eingeführt worden ist. In der ersten Hälfte der 1980er-Jahre bahnte sich in der wissenschaftlichen Welt – nicht nur bei meinem damaligen Arbeitgeber Merck in Darmstadt – eine Revolution in der IT an. Man könnte sagen, dass die langen Anwendungs-Entwicklungszeiten und die langen Antwortzeiten der Zentralrechner durch eine quasi »Guerilla-Taktik« überwunden werden konnten. Die Beschaffung und Inbetriebnahme von komplexen und teuren Messgeräten in den Laboren erforderte eine dezentrale IT zu deren Steuerung und Betrieb. An diesen Geräten gab es eigene Prozessrechner.
Diese relativ kleinen betrieblichen Prozessrechner sollten später als »PC« bekannt werden. Sie konnten als Laborausstattung »under cover« an der zentralen IT vorbei als Auswerteeinheiten beschafft werden. Ihre Kosten galten nicht als IT – sondern als Labor-Kosten und fielen daher nicht weiter auf. Aber man konnte – welch ein Wunder – damit alles Mögliche machen, wofür man vorher die Leistungen der zentralen IT brauchte. Allerdings reagierte das zentrale IT-Management wenig zielführend. Statt diese Entwicklungen der dezentralen IT zum Nutzen des Unternehmens zu kanalisieren, sah es seine Aufgabe vor allem darin, die dezentralen Beschaffungswege zu behindern. Es sollte möglichst die »ganze IT« weiterhin auf den bewährten Produkten der Firma IBM basieren.

Ein – wie es auf dem Gehäuse steht – »Personal Computer« des Fabrikats Casio. Er ist mittels BASIC programmierbar, hat eine Tastatur und einen kleinen graphischen Bildschirm. Abgebildet ist das Exemplar, das ich mir ungefähr im Jahr 1983 zum Beginn des Studiums gekauft hatte.
Diese erste Generation der Rechenzentrumsleitung, die »Chief Information Officers« (CIOs), hatten vor allem die beiden Aspekte der Technik und der Kosten im Blick. Solange alles zentral lief, war dieses CIO-Monopol der Technik und Kompetenz unangreifbar. Es erodierte stark ab Mitte der 1980er-Jahre, spätestens mit der Verbreitung der PCs. Mit der explosionsartigen Verbreitung der PCs begann die große Zeit der dezentralen IT, die scheinbar viel billiger war als die zentrale. Der Aufwand für Entwicklung und Betrieb wurde von Anwendern nebenher erledigt, und deren Gehälter tauchten nicht als IT-Kosten auf. Einige »PCs« erreichten die Leistungsfähigkeit von kleinen dezentralen Rechenzentren.
Auf der Herstellerseite hatte diese Entwicklung einen massiven Umbruch zur Folge. Die Zeit des Quasi-Monopols der IBM endete, es folgte der Aufstieg von Firmen, wie erst HP, dann auch Microsoft, Compaq oder auch Dell. Apple betrat den Weltmarkt. Andere Firmen, wie etwa Digital Equipment, verschwanden ganz.
Nach der Erosion und dem Wandel der IT von zentral zu dezentral in den 1980er-Jahren konnte man einen ähnlichen Effekt in den 2010er-Jahren beobachten. Diesmal erfolgte eine Erosion der IT von dienstlich zu privat. Der Grund hierfür war das Aufkommen der Smartphones und die damit verbundene unmittelbar personenbezogene IT. So erfolgte etwa die Kommunikation zwischen Beschäftigten untereinander und wiederum mit der Kundschaft über Apps der – notabene privat beschafften – Smartphones. Auf der Herstellerseite wurde diese Zeit des »bring your own device« vor allem von der Firma Apple und ihren Produkten maßgeblich mitgestaltet.¶
Im Informatik-Grundstudium der Jahre 1982 bis 1984 hatte man in aller Regel keinen eigenen PC zur Verfügung. Denn ein solches Gerät war noch ziemlich teuer in der Anschaffung. Ein Computer, den man sich eventuell leisten konnte, war seit dem Ende der 1970er-Jahre in der Form von programmierbaren Taschenrechnern verfügbar. Es gab auch bereits die sogenannten »Taschencomputer«, »Pocket Computer« (PC), die mit BASIC programmierbar waren. Sie kamen etwa ab dem Jahr 1982 in den Verkauf und kosteten einige Hundert D-Mark. Solche Geräte konnten sich Studierende durchaus leisten. Sie waren für die Lösung ingenieurmathematischer Probleme ganz hilfreich.

Ein IBM-Lochkartenstanzer, wie er in der betrieblichen Datenverarbeitung und im Informatikstudium zu Beginn der 1980er-Jahre zum Einsatz kam. Exponat des »technikum29 Computermuseum« in Kelkheim (Taunus). Solche Geräte waren in der Datenverarbeitung weit verbreitet, und damals war es nicht vorstellbar, dass sie jemals nicht mehr eingesetzt werden würden. Der Lochkartenstanzer war das einzige technische Gerät, mit dem man im Informatik-Grundstudium in Interaktion treten konnte. Der eigentliche Computer der Serie SIEMENS 7.500 mit Betriebssystem BS2000 des THD-Rechenzentrums stand, den Studierenden nicht direkt zugänglich, in einem separaten Raum.
Im Grundstudium an der TH Darmstadt wurden Programmieraufgaben am Großrechner des Rechenzentrums des Fachbereichs Informatik nicht etwa in BASIC, sondern in den Programmiersprachen PASCAL, ASSEMBLER oder auch LISP durchgeführt. Es gab eine Anlage aus der Serie SIEMENS 7.500 mit dem Betriebssystem BS2000, die für uns Studenten im Batchbetrieb lief. Der Rechner stand in einem eigenen großen und klimatisierten Raum – und er war für Studierende wie mich nicht direkt zugänglich. Wir mussten unsere handschriftlich entworfenen Programmtexte mit einem Lochkartenstanzer in Lochkartenstapel umwandeln. Der Stapel, der »Batch«, wurde dann an ein Lesegerät abgegeben – und das war es dann, in aller Regel, für diesen Tag. Der Rechner las das Lochkarten-Programm ein und führte es irgendwann aus. Das Ergebnis war ein Ausdruck auf grünlich-gräulichem Recycling-Endlospapier, den das Programm produziert hatte und der auf einem superlauten Trommeldrucker ausgedruckt wurde. Dieser Ausdruck konnte durchaus erst über Nacht erscheinen und dann am nächsten Tag an einer Art Ausgabetheke abgeholt werden. Machte man in der Übung einen Fehler, dann kostete ein neuer Versuch wieder einen ganzen Tag.
Am Fachbereich Informatik an der THD war das Studium der Informatik noch stark an traditionelle Lehrangebote angelehnt, um den »Work Load« des Studiums zu erzielen. Wir hörten im Grundstudium Analysis I und II, Lineare Algebra I und II, Wahrscheinlichkeitsrechnung, Elektrotechnik und noch anderes mehr. Man fragte sich als Student bei einigen dieser Fächer auch damals schon, was diese mit der Praxis der Informatik »als solcher« zu tun haben könnten. Die Vorlesungen im Grundstudium waren als Massenveranstaltungen mit mehreren hundert Zuhörern ausgelegt.
Der Mathematik-Professor in Analysis gefiel sich selbst sehr darin, den Studierenden seine Fähigkeiten im arithmetischen Kopfrechnen zu demonstrieren. Er konnte quasi, »in Echtzeit« vor sich hinmurmelnd, irgendwelche gerade vorbeikommenden Aufgaben lösen. Er sagte etwa so etwas wie, »14 mal 26, das macht 364«, einfach so daher. Einmal murmelte er ein »256 im Quadrat« – und er war noch nicht beim »das macht« angelangt, als ein neben mir sitzender Informatik-Kommilitone im großen Hörsaal »65 536« nach unten brüllte. Alle wandten sich nach ihm um, was er mit einem hochroten Kopf quittierte. Es war klar, dass er das nie und nimmer in dieser Zehntelsekunde per Taschenrechner herausgefunden haben konnte. Der dahingehend beeindruckte Analysis-Professor war sozusagen »aus Versehen« auf eine Zweierpotenz-Rechenaufgabe getreten. Wir Informatikstudenten waren aber für so etwas sensibel.
Exkurs – Informatik und Wirtschaftswissenschaften – Wirtschaftsinformatik
Wenn man das liest, so muss man anmerken, dass an der THD nach dem Vordiplom im Hauptstudium ein Zweitfach gewählt werden musste, um das Studium der Kerninformatik zu ergänzen. Es sollte damit von Seiten der Studienordnung quasi der »Anwendungsbezug« des Informatik-Kernstudiums hergestellt werden. An der THD konnte man zwar bereits seit einigen Jahren die sogenannte »Wirtschaftsinformatik« studieren. Die THD hatte dieses Fach deutschlandweit als erste Hochschule überhaupt eingeführt. Es war also brandneu, aber keineswegs auch ausgemacht, ob man diesem Berufsbild wirklich trauen konnte. In der Tat lief man Gefahr, sich den exotischen Titel »Diplom-Wirtschaftsinformatiker« anzueignen, der sich eventuell nicht bewähren würde und einem lebenslang wegen seiner Unbrauchbarkeit zur Last werden würde.
Allerdings erschien mir vor diesem Hintergrund »irgendwas mit Wirtschaft« ganz spannend zu sein. Ich ging zunächst zu betriebswirtschaftlichen Vorlesungen, die »Einführung in die BWL« und »Buchführung« hießen. Die Hochschullehrer dort betrieben nur allereinfachste Mathematik und redeten in einem völlig überhöhten Jargon von trivialem Zeug wie »Kontenrahmen« und »Buchungssätzen«, und dass man eines Tages als Betriebswirt ganz unglaublich viel Geld verdienen könnte. Zudem versuchten sie sich mit den Studierenden gemein zu machen. Einer leerte sogar – während seiner BWL-Vorlesung – eine von einem Studenten aufs Podium gereichte Flasche Bier. Das war nun wirklich nicht mein Fall.
So ähnlich wie »BWL« hörte sich von weitem »VWL« an – das könnte eine Alternative sein. Eine von mir probehalber besuchte volkswirtschaftliche Vorlesung »Einführung in die VWL« war in der Tat ein anderer Sport. Auf dem Podium sprach ein mir wegen seiner Souveränität auffallender Professor. Er hieß Bert Rürup. Ich fasste den Entschluss, an seinem Institut VWL als Zweitfach zu studieren. Es wurden in seinen Seminaren – damals absolut richtungsweisende – Themen wie die »Negative Einkommenssteuer« und das »Bedingungslose Grundeinkommen« behandelt. Die Diplomprüfungen standen dann im Sommer des Jahres 1986 an. Das waren im Prinzip ein paar 30-minütige Interviews, die die Professoren mit den Kandidaten und Kandidatinnen durchführten. Diese ganz wenigen Prüfungen machten den Wert des gesamten Diploms aus. Ein Assistent des Instituts war Zeuge und Manöverbeobachter. In so einer halben Stunde wurden die vier Semester des gesamten(!) Zweitfachs VWL querbeet und für den Kandidaten scheinbar zufällig-willkürlich abgefragt. Bei Bert Rürup erhielt ich so für die »ganze VWL« ein »gut« – aus »Rücksicht auf die armen Eltern«, wie er ironisch hinzufügte.¶
Es gab an der THD auch Lehr-Angebote aus der Philosophie. Ein Seminar bei Jörg Pflüger und Robert Schurz hieß »Soziale Beziehung Mensch-Maschine«. Es war und ist eine wichtige Sache, das Verhältnis eines einzelnen Menschen zu einer Maschine zu analysieren und das Verhältnis von »Mensch« zum »System« anthropozentrisch zu bewerten. Die damaligen Darmstädter Untersuchungen zur programmierten Gesellschaft und die Rolle der sogenannten »Mega-Maschinen« waren wegweisend. Die Fächer VWL und Philosophie sollten sich später als über die Maßen relevant und nützlich erweisen, wenn es galt, Fragen der Struktur von Software- und Service-Märkten, aber auch ethische Fragen der Informationsgesellschaft zu adressieren. Und so war die Befassung mit Themen aus der VWL und der Philosophie wieder einmal sowohl ein Zufall als auch ein Glücksfall.
Exkurs – Frühe Arbeiten zur Mensch-Maschine-Beziehung
Wenn man das so liest, dann muss man auch sehen, dass diese Darmstädter Aktivitäten durchaus die Aufmerksamkeit der überregionalen Öffentlichkeit fanden. Das Nachrichtenmagazin »Der Spiegel« berichtete von den Darmstädter Arbeiten zur »Sozialen Beziehung Mensch-Maschine« im März 1987. Man fragte in diesem Nachrichtenmagazin, ob es sein könne, dass begeisterte Computerfreaks in ihrem Bewusstsein verarmen und zum »mechanischen Denken« neigen.
Der Psychologe Robert Schurz und der Informatiker Jörg Pflüger, beide in Darmstadt tätig, hätten das Verhalten von Computerfreaks studiert, so »Der Spiegel«. Aus den Daten habe man den Normalbürger der computerisierten Zukunftsgesellschaft bestimmt. Dieser Typ, so Pflüger und Schurz, sei meistens auf der Flucht – vor den anderen Menschen, der Verantwortung und den eigenen Gefühlen, kurz – vor der Unberechenbarkeit des Lebens. Wenn an die Stelle der Sozialkontakte die anonyme Beziehung zur Maschine tritt, dann wächst die Beziehungslosigkeit unter den Menschen – mit unabsehbaren Folgen. Doch je weniger man von Computern versteht, umso größer werden Ehrfurcht und Angst vor ihr: Technikverweigerer sehen den »Big Brother«, Fortschrittsgläubige vergöttern die Maschine.
Wie rasch dabei der kindische Maschinenglaube zur »Ohnmacht der Vernunft« wird, beschrieb bereits der MIT-Professor Joseph Weizenbaum. Schon im Jahr 1966 hatte Weizenbaum ein Programm namens »Eliza« vorgestellt. Eliza hatte das Ziel, ein Gespräch – mit einem Psychologen im Rahmen einer Therapie – zu simulieren. Es gab Benutzer, die zunächst nicht glaubten, dass sie mit einem Computerprogramm statt mit einem Menschen redeten. Weizenbaum nahm diesen gedankenlosen Computergebrauch als Anlass zur Sorge. Er mahnte immer wieder einen kritischen Umgang mit Computern an. Speziell forderte er, dass der Mensch die letztendliche Kontrolle über die Systeme der »Künstlichen Intelligenz« (KI) behalten müsse.¶




