- -
- 100%
- +
Die 10xDNA ist kein blindes Hoffen auf den technologischen Fortschritt oder ein angeborenes Bauchgefühl. Vielmehr ist sie die Kombination aus fundamentalem Wissen in Bereichen wie Physik, Chemie und Informatik, gepaart mit sehr vorausschauendem Denken. Drei wissenschaftliche Theoreme verdeutlichen dies anschaulich.
Theoreme sind Lehrsätze, die durch logische Schlussfolgerungen bewiesen werden können bzw. Tatsachen, die sich aus bereits etablierten Tatsachen ableiten lassen.
Moore’s Law
Das bekannteste dieser drei Theoreme wurde 1965 vom Intel-Mitgründer Gordon Moore formuliert. Ursprünglich sagte es den Fortschritt bei der Entwicklung von Computerchips voraus. Alle 18 Monate, so Gordon, werde sich die Anzahl der Transistoren auf einem Prozessor verdoppeln. Die Leistungsfähigkeit der Prozessoren nehme also über die Zeit exponentiell zu.
Moore’s Law hatte die letzten 50 Jahre Bestand. Die Anzahl der Transistoren pro Chip wuchs exponentiell und sorgte dafür, dass die Computer immer besser und die Prozessorleistung immer bezahlbarer wurden. Unsere heutigen Smartphones haben rund 100.000 mal mehr Prozessorpower und rund 1.000.000 mal mehr Arbeitsspeicher als jene Rechner, die die erste Mondlandung ermöglichten.
Speziell diese exponentielle Entwicklung brachte viele Sprung-Innovationen mit sich, denn mit immer mehr Rechenleistung konnten auch immer größere Probleme gelöst werden.
Wright’s Law
Das zweite wichtige Theorem zum besseren Verständnis des exponentiellen Fortschritts wurde in den 1930er Jahren vom US-amerikanischen Luftfahrtingenieur Theodore Paul Wright formuliert. Er entdeckte, dass die Stückkosten von Flugzeugen mit steigender Produktionsmenge konstant sanken. Seine Daten zeigten, dass je 1.000 produzierter Flugzeuge die Kosten pro Flugzeug um 15 % zurückgingen. Dieser Trend setzte sich mit steigender Produktion fort.
Wright’s Law ist bei Wirtschaftswissenschaftlern auch bekannt als Erfahrungskurveneffekt und wurde in allen Details analysiert. Für exponentielles Denken hat das Theorem allerdings eine ganz entscheidende Bedeutung: Stellen heute die Kosten von Bauteilen eine Hürde dar und erscheint eine Innovation deshalb unwirtschaftlich, kann sie in naher Zukunft wirtschaftlich werden.
Das aktuell populärste Beispiel sind Elektroautos. Während der Entwicklungsphase des Tesla Roadsters im Jahr 2006 lagen die Kosten für die Akkus noch bei über 300 Dollar pro Kilowattstunde. Das Akkupack eines Tesla Roadsters kostete über 15.000 Dollar, ein Angebot für den Massenmarkt war undenkbar. 2017, zum Start von Model 3, waren die Kosten schon auf 145 Dollar pro Kilowattstunde gesunken und das Akkupack verursachte rechnerisch nur noch Kosten von unter 5.000 Dollar. Heute kostet Tesla die Kilowattstunde weniger als 100 Dollar und der Preis wird immer kompatibler für den Massenmarkt.
Auch in benachbarten Industrien kann Wright’s Law alles auf den Kopf stellen. Ist die stetige Kostendegression erst einmal in Gang, können sich Kostenstrukturen industrieübergreifend sehr schnell fundamental ändern. Dies birgt Chancen für disruptive Anbieter, die diese Entwicklungen im Blick haben. Die steigende Nachfrage und Produktion von Akkus für Elektroautos sorgt dafür, dass deren Produktionskosten sinken. Dies wiederum ermöglicht den wirtschaftlichen Einsatz von Akkus in zahlreichen anderen Industrien, zum Beispiel in E-Scootern, E-Bikes oder Elektrorollern. Man kann über die E-Scooter, die es inzwischen zuhauf in jeder Großstadt gibt, sagen, was man will.
Kosten für Lithium-Ionen-Batterien

In jedem Fall sind sie ein einwandfreies Beispiel dafür, wie die Effekte durch Wright’s Law in einer Branche (E-Auto) zum Entstehen eines vollkommen neuen Geschäftsfelds (E-Scooter) führen können.
Kurzweil’s Law
Das von Ray Kurzweil geprägte Axiom nennt sich eigentlich »the law of accelerating returns« und ist die zentrale Grundlage seiner Arbeiten. Ray sagt voraus, dass die Menschheit in ein Zeitalter des exponentiellen Fortschritts einsteigt, in dem die Fortschritte der nächsten hundert Jahre sich wie zwanzigtausend Jahre Fortschritt anfühlen werden.
nanos gigantum humeris insidentes – Wir stehen auf den Schultern von Giganten.
Bernardus Carnotensis, 1214
Kern des Axioms ist die Erkenntnis, dass jede neue Generation von Wissenschaftlern und Tüftlern auf die Ergebnisse der vorherigen Generation zurückgreifen kann. Ein sehr einfaches Beispiel: Die Erfinder des Taschenrechners hatten nur Papier und Bleistift zur Verfügung. Die nachfolgende Erfindergeneration konnte schon mit Taschenrechnern arbeiten. Heutzutage haben Forscher Zugriff auf Supercomputer, künstliche Intelligenz und Gas-Chromatographen – ein ganzes Arsenal an Hightechtools.
Gas-Chromatographen sind Instrumente, die in sehr sensitiven Analyseverfahren Gemische in einzelne chemische Verbindungen auftrennen können. So lassen sich auch extrem geringe Substanz- mengen nachweisen.
Ein zweiter Faktor für den exponentiellen Fortschritt ist sehr banal: Es gibt immer mehr Akademiker und Forscher. Der britische Professor Derek de Solla Price stellte schon 1961 fest, dass »90 Prozent aller Wissenschaftler, die jemals auf der Erde gelebt haben, heute leben«. An der Zahl der seit 1900 vergebenen Doktortitel ist zu sehen, wie stark die Zahl der Akademiker zunimmt.
Jährlich weltweit vergebene PHDs

Immer mehr Forscher arbeiten mit immer mehr Wissen und immer besseren Werkzeugen an den Innovationen der Zukunft.
Wer diese drei Theoreme verinnerlicht und die Grundkonzepte der Technologien aus dem 10xBaukasten verstanden hat, ist auf dem besten Wege, seine eigene 10xDNA zu entwickeln.
Die größte Schwäche der menschlichen Zivilisation ist unsere Unfähigkeit, eine exponentielle Wachstumsfunktion zu begreifen.
Allen A. Bartlett, 1969
Was treibt den 10x Fortschritt an?
Unser Gehirn denkt lieber linear statt exponentiell. Im Zeitalter des exponentiellen Fortschritts ist das schlecht für uns. Rechenleistung wird stärker, Server- und Speicherkapazitäten günstiger, Wissen und Erkenntnisse sind überall und für jedermann verfügbar. Die Voraussetzungen für technologischen Fortschritt werden fortlaufend besser und technologische Entwicklungen verstärken sich gegenseitig. Je effizienter unsere Computer werden, desto effizienter werden unsere Entwickler und Forscher. Dadurch dürfte es schon sehr bald eine Reihe von Durchbrüchen in den unterschiedlichsten Bereichen geben.
Die vierte industrielle Revolution – Diesmal ist alles anders!
Wenn technologische Innovationen tiefgreifende gesellschaftliche Auswirkungen haben, sprechen wir von »industriellen Revolutionen«. In den letzten 300 Jahren hat die Menschheit drei industrielle Revolutionen durchlaufen – jede wurde ausgelöst durch die Erfindung und Implementierung einer neuen Basistechnologie.
Die erste industrielle Revolution – das Maschinenzeitalter – begann Ende des 17. Jahrhunderts mit der Erfindung der Dampfmaschine. Dampfkraft ermöglichte große Maschinen, Eisenbahnen, Dampfschiffe. Es entstanden Fabriken und mit ihnen eine Arbeiterklasse.
Die zweite industrielle Revolution – die Industrialisierung – Anfang des 20. Jahrhunderts basierte auf der Nutzbarmachung von Elektrizität, wodurch Erfindungen wie die Glühbirne, der Telegraf oder die Fließbandfertigung möglich wurden.
Die dritte industrielle Revolution – das digitale Zeitalter – wurde durch die Erfindung von Mikrochips ausgelöst. Durch die integrierten Schaltkreise wurde die Digitalisierung möglich, die wiederum Erfindungen wie den Taschenrechner (1967), Personal Computer (1976), Datenbanken (1977) und das Internet (1969) mit sich brachte.
Heute befinden wir uns an der Schwelle zur vierten industriellen Revolution. Und dieses Mal ist alles anders.
Die ersten drei industriellen Revolutionen basierten jeweils auf dem Durchbruch einer neuen Grundlagentechnologie, die neue Innovationen und Produkte nach sich zog. Doch heute stehen zeitgleich mehrere neue, transformative Basistechnologien bereit, was zu einer kambrischen Explosion an Innovationen in allen Bereichen der Gesellschaft führen wird.
Kambrische Explosion beschreibt die explosionsartige Entwicklung fast aller heutigen Tierstämme zu Beginn des Kambriums (Periode der Erdgeschichte).
Durch Fortschritte in der Anwendung künstlicher Intelligenz erhalten Wissenschaftler in allen Forschungsfeldern neue, mächtige Analysewerkzeuge. Immer vielseitigere Funktionen können in immer mehr Bereichen eingesetzt werden, zum Beispiel in der medizinischen Forschung oder der Materialentwicklung.
Roboter werden in den nächsten Jahren viele Aufgaben schneller und zuverlässiger erledigen als wir. Noch entscheidender: Sie werden zu Leistungen in der Lage sein, die kein Spitzensportler der Welt vollbringen kann. Sie werden nicht müde, machen keine Flüchtigkeitsfehler und können in vielen Bereichen sehr viel effizienter, genauer und sicherer arbeiten als der Mensch.
Durchbrüche bei der Sequenzierung und Veränderung von DNA eröffnen neue Möglichkeiten in der synthetischen Biologie, chronische Krankheiten können geheilt oder vermieden werden. Natürlich wirft die Möglichkeit der Veränderung von DNA auch viele zentrale ethische Fragen auf, die zu klären sind. Doch die Entwicklungen in diesem Bereich sind nicht aufzuhalten.
Durch dezentrale Blockchains können Daten erstmals sicher und zuverlässig gespeichert und verwaltet werden. Ihre Sicherheit basiert auf fundamentaler Mathematik und IT. Ich gehe davon aus, dass das schon bald der neue Sicherheitsstandard ist und es für kommende Generationen inakzeptabel sein wird, dass ein einzelner Bankmitarbeiter ihren Kontostand ändern kann, so wie es heute noch der Fall ist.
Der technologische Fortschritt lebt von der Digitalisierung und der Vernetzung. Die neue Mobilfunktechnologie 5G wird mit höheren Datenraten, geringeren Latenzen und vor allem viel mehr Kapazitäten die exponentielle Phase des »Internets der Dinge« lostreten. Es wird günstiger, einfacher und schneller, Menschen und Maschinen miteinander zu verbinden. Das wird viele neue Geschäftsmodelle ermöglichen.
3D-Druck wird zum ersten Mal seit der Steinzeit den Herstellungsprozess unserer Produkte grundlegend verändern. Wo wir heute bestehende Blöcke schnitzen, biegen, zusammenschrauben oder kleben, können wir in Zukunft jeden Punkt im Raum frei definieren und das Material genau da einsetzen, wo wir es brauchen.
Quantencomputer bringen, nach der Microchip-Revolution unserer Smartphones, den Computer 2.0. Der Sprung, den die Leistungsfähigkeit des Computers machen wird, lässt sich kaum ausmalen. Hierdurch erhoffen sich viele Forscher Durchbrüche in besonders komplexen Bereichen wie der Materialforschung oder der Medizin.
Jede Grundlagentechnologie aus dem Baukasten der Zukunft hat für sich alleine das Potenzial, Industrien zu revolutionieren und mehrere 100-Milliarden-Konzerne zu schaffen. Da diese Technologien auch noch miteinander kombinierbar sind, werden sich die Möglichkeiten für neue Anwendungen und Geschäftsmodelle schlagartig vervielfältigen. Wir springen in eine neue Dimension.
Alles ist digital
»Alles, was digitalisiert werden kann, wird digitalisiert werden«, das ist oft zu lesen. Es stimmt. Wer heute noch damit beschäftigt ist, die Erstellung, Verarbeitung und Speicherung von Informationen zu digitalisieren, wird den Anschluss verpassen. Die weltweit führenden Unternehmen haben ihre Digitalisierung bereits abgeschlossen und damit die Basis bereitet für die 10xChancen durch neue Technologien. Deutschland muss sich beeilen, um diesen Zug nicht zu versäumen.
Durch die Digitalisierung können verschiedene Technologien und Informationen zusammengeschaltet und so neue Dienste geschaffen werden. Zwei allgegenwärtige Beispiele verdeutlichen dies:
Wird eine digitale Straßenkarte mit einem digitalen Positionssensor (GPS) kombiniert, entsteht ein Navigationssystem. Dessen Verbindung mit digitalen Verkehrsinformationen wiederum ermöglicht die dynamische Routenführung mit automatischer Stauumfahrung.
Die Kombination eines Smartphones mit einem Taxidienst ruft mit einem einzigen Knopfdruck ein Taxi zu jeder gewünschten Stelle. Alle dafür nötigen Daten werden im Hintergrund digital ausgetauscht.
Das Disruptionspotenzial der Digitalisierung ganzer Branchen zeigt sich sehr gut an den Umwälzungen in verschiedenen Industrien: Schreibmaschinen wurden durch Textverarbeitungsprogramme ersetzt. Digitalkameras lösten analoge Kameras und Analogfilm ab. DVDs verdrängten VHS-Kassetten. Videotheken verschwanden durch die wachsenden Streaming- und Download-Angebote. Solche Beispiele gibt es zuhauf.
Jede neue Stufe der Digitalisierung führt zur Umwälzung ganzer Industrien. Wer damit nicht umgehen kann, verschwindet vom Markt. Das passierte beispielsweise Polaroid, Kodak, Blockbuster Video oder Nokia.
Die Bedeutung der Digitalisierung schreitet voran. Digitalisierung erzeugt Daten, die durch künstliche Intelligenz analysiert und für neue, bessere Angebote genutzt werden. Damit werden Daten zum neuen Wettbewerbsvorteil für Unternehmen.
Hand in Hand mit der Digitalisierung geht die Automatisierung. Die Software übernimmt repetitive Aufgaben, steuert Fertigungsanlagen und gibt Bescheid, wenn Abweichungen auftreten. Die Kosten sinken, wenn Prozesse zunehmend digitalisiert und automatisiert werden, und die Effizienz eines Unternehmens kann maßgeblich gesteigert werden.
Über das Internet of Things (IoT) werden immer mehr »Dinge« digitalisiert und können in ein Netzwerk integriert werden. Dies gilt für den privaten Bereich (den Kühlschrank) ebenso wie für den gewerblichen (zum Beispiel in der Produktion). Indem unsere Geräte immer smarter werden und dank IoT die Möglichkeit bekommen, untereinander zu kommunizieren, können sie mehr und mehr eigenständig agieren.
Damit sparen wir wertvolle Zeit. Zeit ist die einzige Währung, die sich nicht vermehren lässt. Egal, wie reich wir sind und wie viele Daten und Informationen uns zur Verfügung stehen – der Tag hat für jeden von uns nur 24 Stunden.
Exponentielle Entwicklung
Alles, was digitalisiert ist, kann über steigende Rechenleistung, schnellere Netzwerke und Algorithmen optimiert werden. Der Beginn des Informationszeitalters wurde geprägt durch Moore’s Law: die exponentielle Entwicklung der Rechenleistung von Mikroprozessoren. In der Informatik gibt es das Mantra »Wenn fehlende Rechenleistung das einzige ist, was zur Lösung deines Problems fehlt, dann wird Moore’s Law es bald lösen«. Uns stehen mittlerweile Prozessoren zur Verfügung, die für spezielle Anwendungen entwickelt wurden und als sich ständig verbessernde Werkzeuge im Sinne des Gesetzes der sich exponentiell beschleunigenden Resultate dienen.
So fand man zum Beispiel heraus, dass die Prozessoren von Grafikkarten (GPUs) viel besser für das Training von künstlicher Intelligenz geeignet sind als herkömmliche CPUs. Auf der Basis dieser Erkenntnis entwickelte Google Prozessoren (Tensor Processing Units oder TPUs), die speziell für das KI-Training optimiert sind. Neue Unternehmen wie Nvidia entwickeln Chips, die auf selbstfahrende Autos spezialisiert sind, Blockchain-Operationen und vieles mehr. FPGAs erlauben es sogar, Chips dynamisch für spezielle Anforderungen zu optimieren. Dank FPGAs und Cloud Computing laufen schon heute einzelne Algorithmen bis zu 1.000 mal schneller und energieeffizienter.
Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltkreise, bei denen Logikgatter auch nachträglich noch mit Funktionen ausgestattet und kombiniert werden können.
Dort, wo klassische Prozessoren an ihre Grenzen stoßen, werden Quantencomputer übernehmen. Schon heute sind sie besser für einzelne Teilbereiche der Forschung geeignet, beispielsweise bei der Simulation von Proteinen und Molekülen oder der Berechnung von Optimierungsproblemen. Quantencomputer sind heute in einem sehr frühen Entwicklungsstadium, mit wenigen Qubits (Speichereinheiten), die Softwareentwicklung ist mühsam. Aber dies wird sich wie bei den Mikroprozessoren exponentiell entwickeln und jedes Jahr werden sich mehr und mehr Möglichkeiten eröffnen.
Die Ausgangsthese »Alles, was digitalisiert ist, kann über steigende Rechenleistung und mit Algorithmen optimiert werden« wird durch spezialisierte Prozessoren für Anwendungen in den Bereichen KI und Quantencomputer also um ein Vielfaches verstärkt.
Alles ist vernetzt
Die Digitalisierung ermöglichte Datenübertragungsstandards und somit den Austausch von Daten über Computernetzwerke. Zunächst geschah dies ausschließlich in internen Firmennetzen, später in semi-öffentlichen Universitätsnetzen. Mit der Entwicklung des Internets brach das große Informationszeitalter an.
Seit diesem Zeitpunkt greifen Digitalisierung und Vernetzung ineinander und sorgen für einen noch nie dagewesenen Innovationsschub. Digitale Daten können über das Internet verteilt und an jeden angeschlossenen Rechner zugestellt werden. In den Datenpaketen können E-Mails, Webseiten, Musik oder Filme stecken.
Die Kombination dieser beiden Schlüsseltechnologien ermöglichte komplett neue 10xGeschäftsmodelle. Die Unternehmen, die bei ihrer Digitalisierung konsequent auf diese 10xDNA setzten, profitierten am stärksten vom Internetboom. Unternehmen hingegen, die lediglich ihre analogen Geschäftsprozesse digital übertrugen, hatten oft das Nachsehen.
10x Geschäftsmodelle am Beispiel Netflix
Der Anfang vom Ende der Videotheken war nicht die Digitalisierung von VHS zu DVD. Es war die konsequente Umsetzung eines neuen 10xGeschäftsmodells.
Netflix startete als Versand-Videothek und kämpfte am Markt gegen den Giganten der physischen Videotheken, Blockbuster. Blockbuster Video verfügte über Tausende Filialen, Millionen Kunden, effiziente Logistikketten und Deals mit allen großen Studios.
Doch das Netflix Management hatte das 10xMindset und erkannte früh die Chancen eines immer schneller werdenden Internets. Dank schneller Bandbreiten konnten Filme plötzlich digital an die Kunden geliefert werden. In einer digitalen Lieferkette entfielen allerdings die Überziehungsgebühren, das damals einträglichste Geschäft von Blockbuster. Vom Rest der Industrie belächelt, setzte Netflix dennoch konsequent auf seine Digitalstrategie. Das Unternehmen kaufte Streamingrechte, führte ein Abo-Modell ein und investierte in eine erstklassige IT-Infrastruktur für Video-Streaming.
Den Rest der Geschichte kennen wir. Am Ende war der Gewinn an Bequemlichkeit für die Nutzer so groß, dass Videotheken nicht mehr mithalten konnten. Blockbuster ging im Jahr 2010 in die Insolvenz.
Die nächste Stufe der Vernetzung – das mobile Internet – sorgte für die Vernetzung von Menschen und Orten. Ständig einen mit dem Internet verbundenen Computer in der Tasche zu haben, ermöglichte vollkommen neue Anwendungen und brachte mit der nächsten Welle von disruptiven Geschäftsmodellen ganze Branchen durcheinander – Uber (Taxis), WhatsApp (SMS), Spotify (Musik). Die nächsten zehn Jahre werden mit IoT und 5G weitere Stufen der Vernetzung bringen und damit die Chancen für herausragende Gründer oder mutige Unternehmen, ganze Industrien auf den Kopf zu stellen.
Das virtuelle und unendliche Rechenzentrum
Cloud Computing – der Zugriff auf IT-Infrastruktur wie Rechenleistung, Datenbanken oder Speicherplatz über das Internet – startete als kommerzielles Modell Mitte der 2000er Jahre. Vor allem Amazon baute aus dieser Idee ein heute milliardenschweres Geschäft auf. Für das Weihnachtsgeschäft wurden große Rechenkapazitäten benötigt, denn zu dieser Zeit wuchs der Traffic auf den Amazon-Shopseiten um das Zehnfache an. Außerhalb der Weihnachtszeit lagen diese Kapazitäten brach. Da Amazon schon früh intern auf eine modulare, servicezentrierte IT-Infrastruktur gesetzt hatte, konnten die überschüssigen Kapazitäten an andere Unternehmen vermietet werden.
Cloud Computing hatte in der Boomphase der Startups viele Vorteile: Gründer hatten sofort Zugriff auf eine voll skalierbare, moderne IT-Infrastruktur, ohne sich selbst teure Hardware kaufen zu müssen. Ideen konnten schnell programmiert, auf die Cloud-Server geladen und direkt online getestet werden. Das Management der eigenen Server entfiel komplett.
Ein weiterer Vorteil der neuen Cloud-Welt ist die Möglichkeit, komplette Softwaremodule zu mieten und damit sehr schnell ein komplettes Online-Business mit CRM-Lösung und Kundensupport aus der Cloud aufzubauen. Mit Anbietern wie Shopify, Mailchimp und Zendesk lassen sich diese zügig und ohne große Vorkenntnisse einfach zusammenbauen. Dank der Cloud-Lösungen von Microsoft oder Google können beliebig große Teams von überall in Echtzeit zusammenarbeiten.
Heute gibt es alles as-a-service aus der Cloud. Amazon bietet mittlerweile Dienste aus 23 Kategorien an. Von Machine-Learning-Lösungen (wie dem automatischen Erkennen von Bildern, Texten oder Sprache) über Robotersteuerung bis zu einer kompletten Satelliten-Bodenstation as-a-service, die gegen eine monatliche Gebühr die vollständigen Koordinaten und die Steuerung einer eigenen Satelliten-Konstellation ermöglicht.
Das Tolle am Cloud-Ansatz ist, dass er in gewissem Maß für eine Demokratisierung von Chancen sorgt. Denn wenn die neuesten Tools direkt und überall für Forscher, Tüftler und Gründer verfügbar sind, können die nächsten großen Ideen von überall kommen – auch in Zukunft. IBM schaltete vor einem Jahr für Interessierte einen Cloud-Zugang zu einem frühen Quantencomputer frei. Im Verlauf des Buches werden wir noch weitere Technologien vorstellen, die dank Cloud-Ansätzen für jedermann nutzbar sein werden.
Alles open source
Während der 1980/90er Jahre war Microsoft der dominierende Anbieter von Betriebssystemen und Software. Microsoft hatte einen großen »Lock-in« für seine Plattform geschaffen. Die meisten PCs liefen mit MS-DOS oder Windows, also lohnte es sich für externe Entwickler, ihre Software für diese Systeme zu entwickeln. Und umgekehrt war es für Käufer am attraktivsten, sich einen MS-DOS- oder Windows-Rechner zu kaufen, weil es hierfür die größte Auswahl an Anwendersoftware gab. Durch große Investitionen in Entwicklungsumgebungen und Trainings hielt Microsoft das Schwungrad »Die meiste Software ↔ Die meisten kompatiblen PCs« am Laufen. Das Aufkommen des Internets und die Verlagerung der Nutzer hin zu browserbasierten Anwendungen brach dieses System auf. Mit den neuen Smartphone-Betriebssystemen entstand ein neuer Wettbewerb um die besten Apps und mit ihm die besten Entwicklertools.
Entwicklungsumgebungen oder Systemumgebungen sind Plattformen, auf denen Entwickler mit einem Set an Prozessen und Werkzeugen neue Software oder neue Softwareversionen entwi- ckeln. Dazu nutzen sie Programme, die als integrierte Entwicklungsum- gebung (IDE) bezeichnet werden.
Das Tempo des Wandels war noch nie so schnell. Und dennoch wird es nie mehr so langsam sein.
Justin Trudeau, 2018 — kanadischer Premierminister
Wir befinden uns in der Zeit der Plattform-Ökosysteme. Alle großen digitalen Unternehmen – Apple, Google, Amazon, Microsoft – bieten Plattformen und versuchen, sich dort mit einem Angebot an Diensten zu differenzieren. Sie haben verstanden, dass sie die Kreativität und die Ideen externer Entwickler für sich gewinnen müssen, um immer neue Dienste anbieten zu können. Aus diesem Grund stecken sie viele Ressourcen in attraktive Entwicklerumgebungen. Sie bieten Entwicklern immer mächtigere Werkzeuge an, damit sie neue Dienste auf ihren Plattformen entwickeln. Die Palette verfügbarer Entwicklertools ist mittlerweile sehr breit. Sie reicht von Tools zur Unterstützung bei der App-Entwicklung (Apple Xcode/Swift, Android Studio oder Microsofts Visual Studio) hin zu Werkzeugen für Bilderkennung, Spracherkennung oder Videoanalysen mithilfe künstlicher Intelligenz. Es gibt spezielle Tools zur Entwicklung von Virtual- oder Augmented-Reality-Anwendungen. Neuerdings haben Amazon und Co. sogar Entwicklerumgebungen für Roboterprogrammierung und Quantencomputer im Portfolio.




