Bild: istock.com/ktsimage
Digitalisierung | 24.08.2018 (editiert am 14.09.2018)

Digitale Monopole – eine Dystopie? – 2

Kontrolle ist der Informationstechnik wesensmäßig eingeschrieben. Doch nicht in den Algorithmen, sondern in der konkreten Gestalt der Systeme artikulieren sich Machtverhältnisse.

Hundertprozentige Monopole sind eher selten. Im Kartellrecht gibt es den Begriff der marktbeherrschenden Stellung. Dessen Anwendung wird mit einem zwischen den nationalen Gesetzen variierenden, bestimmten Anteil an dem betreffenden Markt begründet; wobei der genauen Abgrenzung des jeweiligen Marktes eine entscheidende Rolle zukommt.

Auch die sogenannten Big Four sind keine puren Monopole. Zweifelsohne aber kommen dreien von ihnen — Apple bildet einen etwas anders gelagerten Fall — jeweils in einem relevanten Markt eine solche Stellung in einem Maße zu, das die kartellrechtlichen Grenzen, die im aktuellen deutschen Recht bei 40 Prozent liegen, weit überschreitet. Für Microsoft, dem dabei vergessenen Spieler, gilt das sogar in noch höherem Maße.

Monopolstellungen gehen meist nicht auf einen singulären Faktor zurück, sondern auf das Zusammenwirken mehrerer Faktoren. Einerseits von Skaleneffekten, das heißt, dem hinsichtlich vieler Produkte und einiger Dienstleistungen gegebenen Sachverhalt, dass die Stückkosten mit der ausgebrachten Menge fallen. Andererseits von Pfadabhängigkeiten, die darin bestehen, dass eine einmal erreichte beherrschende Stellung die Akkumulation von Ressourcen und die Entstehung einer Umwelt ermöglicht, die dabei helfen, diese Stellung zu bewahren und sogar zu verstärken. Und schließlich von Netzwerkeffekten, die daraus resultieren, dass der Nutzen eines Produkts, einer Dienstleistung oder der Teilhabe an einer Infrastruktur mit der Zahl derer wächst, die sie vom selben Hersteller oder Betreiber beziehen oder nutzen.

Während die Skaleneffekte zumindest durch die betriebswirtschaftliche Kostenrechnung eine Würdigung erfahren, behandeln die etablierten Wirtschaftswissenschaften die genannten Faktoren ansonsten eher stiefmütterlich. Das mag kein Zufall sein. Schon die Skaleneffekte bringen die neoklassischen Gleichgewichtsmodelle durcheinander, in denen sich Angebots- und Nachfragekurven so schön schneiden, weil es dort ein wachsendes Angebot nur bei steigenden Preisen gibt. Noch mehr aber tun dies die beiden anderen Faktoren.

Netzwerkeffekte benötigen kein manifestes Netz in dem heute gebräuchlichen, engen Sinne eines elektronischen Telekommunikationsnetzes: Poststationen, Relais und Postkutschen bildeten auch schon vor Jahrhunderten ein Netz in dem hier gemeinten Sinne. Dessen Nutzen wuchs mit seiner Ausdehnung. Schon zu Zeiten, als die meisten privaten Nutzer von Computern Daten und Programme noch mittels Disketten austauschten, stieg der Nutzen einer Software beziehungsweise einer bestimmten Systemplattform mit der Zahl der Anwender, da damit auch die Chance stieg, jenes mit Erfolg tun zu können. Der Anfangserfolg von Microsoft basierte zu einem großen Teil auf diesem Netzwerkeffekt ohne manifestes Netz.

Nichts stabilisiert jedoch ein Monopol auf lange Sicht so sehr wie die Monopolstellung selbst

Der Faktoren-Mix ist nicht bei allen Spielern im digitalen Monopoly identisch. Zudem stellen jene selbst ›moving targets‹ dar, da sie ihre Geschäftsmodelle laufend weiterzuentwickeln versuchen. Nichts stabilisiert jedoch ein Monopol auf lange Sicht so sehr wie die Monopolstellung selbst, sofern es keine außerhalb seiner Macht liegenden Kräfte in Frage stellen – sei es staatlicher Eingriff oder ein durch externe Faktoren bewirkter Bedeutungsverlust seines Einflussbereichs.

Historische Beispiele für den staatlichen Eingriff stellen die Zerschlagung von Standard Oil und von AT&T dar. Eines für den Bedeutungsverlust eines Geschäftsbereichs der Abstieg von Kodak als dominierendem Anbieter von Fotomarialien und entsprechenden Prozessen in der Folge der Verbreitung der digitalen Aufnahme- und Verarbeitungstechnik für Fotos.

Entwickelte Monopole nähern sich dem Modell der Autopoiesis: sie reproduzieren sich laufend selbst – was daran liegt, dass der Monopolstatus nicht allein auf unabhängig von ihm selbstwirkende Gesetze zurückgeht, sondern dass er die Ressourcen seiner Erhaltung und Verstärkung selbst hervorbringt. Das heißt, dass Monopole eine ausgeprägte Pfadabhängigkeit aufweisen. Dies wird noch näher auszuführen sein.

Skaleneffekte bilden eine notwendige, wenn auch nicht hinreichende Bedingung für das Entstehen von Monopolen. Der Sachverhalt, dass ein zunehmendes Produktionsvolumen zu sinkenden Stückkosten führt, resultiert aus der so sogenannten Fixkostendegression, die sich mit zunehmenden Stückzahlen einstellt, wenn hohen Fixkosten vergleichsweise geringe Grenzkosten gegenüberstehen. Dies muss nicht zwangsläufig zur Monopolbildung führen, sofern die Fixkostendegression an Grenzen stößt, etwa durch maximale Anlagenkapazitäten, oder solange es außer dem Preis weitere, zum Beispiel kulturelle Differenzierungsmerkmale zwischen den Produkten beziehungsweise ihren Herstellern gibt.

Charakteristisch für solche Zusammenhänge ist die Situation auf dem Markt für Mittelklassewagen, wo Fiat, Renault-Nissan, PSA, Toyota, Ford, GM und VW gut nebeneinander existieren können. Die Massenproduktion von Automobilen ermöglicht eine starke Fixkostendegression, findet aber ihre Grenze an der Kapazität von Fertigungslinien und in kulturellen Faktoren. Engt man diesen Markt auf solche Fahrzeuge ein, die etwa eine exklusiv italienische Note verströmen, bleibt nur ein echter Monopolist übrig und, wenn es eine französische sein soll, immerhin ein Dyopol.

Nach dem Prinzip der kulturellen Differenzierung, das den heutigen Branding-Strategien oft zugrunde liegt, funktioniert auch das Apple-Monopol: Apple liegt bei Computern für den individuellen Gebrauch mit ca. 10 Prozent und selbst bei Smartphones sowie beim Musikdienst mit ca. 20 Prozent noch unter der Grenze, die das Kartellrecht für eine marktbeherrschende Stellung sieht. Doch es gibt kulturell beziehungsweise auch durch bestimmte Anwendungen definierte Nischen wie die Kunst- und Designszene, in denen Apple – so wie Microsoft im weiten Markt der Desktop-Betriebssysteme – ein nahezu-Monopol innehat. Das gilt auch für die Hersteller der Software für jene Anwendungen, unter denen zum Beispiel Adobe eine entsprechende Position einnimmt. Die Abgrenzung des relevanten Marktes hat also Folgen für die Frage nach der Monopolstellung.

Microsoft stellt sicher ein Paradebeispiel für das Prinzip der Fixkostendegression dar. Bei Standardsoftware dominieren die Fixkosten, also die Kosten für die Entwicklung, während die Ausfertigung und Verbreitung der Kopien im Vergleich dazu unbedeutenden Aufwand verursachen. Damit ist das Verhältnis von Fixkosten zu variablen Kosten ungleich größer als selbst bei den klassischen Massenartikeln wie Haushaltsgeräten und Automobilen, wo neben den oft hohen Kosten für die Entwicklung der Produkte und Fertigungsverfahren sowie die Fabrikeinrichtung immer noch beträchtliche Kosten für Arbeit und Material pro hergestelltem Stück anfallen. Wenn ein Standardsoftwareprodukt millionenfach verkauft wird, ergibt sich dadurch eine Fixkostendegression, die bei herkömmlichen, physischen Produkten kaum vorstellbar ist.

Allerdings hieße es, dem in der Linken populären und durch Autoren wie Paul Mason, Nick Srnicek und Alex Williams immer noch verbreiteten Irrtum zu verfallen,  dass der zuvor dargestellte Zusammenhang ein Modell für jegliche oder auch nur einen großen Teil der Softwareentwicklung darstellen würde. Geschweige denn, dass dieses sich – indem physische Produktion sich zunehmend auf den Abdruck einer digitalen Matrix nach dem Schema von copy and paste reduzierte – zum universellen Modell entwickeln könnte.

Der größte Teil der Software wird nicht in Millionen von Kopien verbreitet, sondern nur an tausenden, hunderten und manchmal auch nur dutzenden von Arbeitsplätzen eingesetzt; was der Fixkostendegression enge Grenzen setzt. Ein Sachverhalt, der nicht nur für Software, sondern auch für die meisten anderen Informationsprodukte gilt – mit wenigen Ausnahmen, wie den zu Millionen verbreiteten Stücken populärer Musik, die es in die Charts geschafft haben. Im Extremfall kommt es sogar vor, dass mit Millionenaufwand eine Software entwickelt wird, um genau einmal produktiv eingesetzt zu werden. Die Software, von der hier die Rede ist, erfordert meist, dass alle Anwender aufwendig geschult werden und im Betrieb dauernd eine Unterstützung für sie verfügbar ist; wodurch sich die Vorstellung von Null-Grenzkosten ohnehin erledigt.

Schließlich unterliegt auch Software einem Alterungsprozess [Parnas 2001]: auch wenn sie keiner physischen Abnutzung unterliegt, verlangen die praktisch immer vorhandenen Fehler und Funktionsmängel Korrekturen, die meist wiederum neue Fehler einführen, während die Praxis und eine sich dynamisch ändernde Systemumgebung neue Anforderungen generieren, deren Erfüllung irgendwann auch eine komplette Neukonzeption erfordern. Monopole, die sich schon allein durch Economies of Scale ergeben, sind auch im Softwaregeschäft die Ausnahme. Und selbst wenn es sie gibt, ist ein Monopol, das allein darauf gebaut ist, nicht stabil.

Pfadabhängigkeit

Ein Sachverhalt, den die mediale und besonders die linke Diskussion über Monopole größtenteils übersieht, liegt in der bereits angesprochenen Pfadabhängigkeit von Monopolpositionen. Der offenkundigste und von Beobachtern noch am ehesten notierte Fall [z. B. Dolata 2018] liegt vor, wenn eine jahrelang gehaltene Monopolposition zur Akkumulation von entsprechenden Profiten geführt hat, die es dann ermöglichen, potentielle Herausforderer durch kurzfristige Dumpingaktionen zu vernichten oder rechtzeitig aufzukaufen oder sich Newcomer, die dabei sind, vielversprechende neue Geschäftsfelder in der eigenen Nachbarschaft zu entwickeln, einzuverleiben. Das ist im Grunde das Ziel, auf das heute viele Startups hinarbeiten: sie entwickeln eine Idee in der Hoffnung, zu einem möglichst hohen Preis von einem der Großen – Microsoft, Appole, Google, Facebook oder Vergleichbaren – aufgekauft zu werden.

Es gibt andererseits auch Versuche, das mühevolle Ansammeln von Geld zu überspringen und gleichsam einen Vorschuss auf eine in die Zukunft projizierte Monopolposition zu nehmen. Mit dieser Methode versucht Uber sich eine solche im Felde der elektronischen Vermittlung von Fahrdiensten zu verschaffen [Waters 2015]. Ob die Investoren, die den länger als geplant hinziehenden Krieg Ubers gegen Konkurrenten und Regulatoren bisher mit –zig Milliarden finanziert haben, das bis zum Ende durchhalten, ist noch offen – zumal die Kommunikationspolitik des Unternehmens bisher nur bedingt erfolgreich war.

Weniger offenkundig, doch nicht weniger bedeutsam ist, dass eine Monopolposition in vielen Fällen erst ermöglicht, jene nichtfinanziellen Ressourcen anzusammeln, die zu einer sich immer weiter vertiefenden und ausgreifenden Beherrschung eines Gebietes gehören. Zu diesen gehören – im Fall von Google und Facebook offensichtlich – auch Daten. Wobei allein deren bloße Ansammlung wenig nutzt. Erst ein dichtes Netz mittels KI-Techniken erstellter Klassifikationen kann diese Daten für die als relevant erachteten Ziele aufschließen und zu einer wertvollen Ressource machen.

Auch für die Hersteller von physischen Produkten und insbesondere von Produktionsanlagen – die zunehmend mit vernetzten Prozessoren ausgestattet werden – entwickeln sich Sammlungen von Daten über deren Nutzung beziehungsweise Betrieb immer mehr zu Informationsquellen für die Instandhaltung sowie die Weiterentwicklung derselben. Ein Feld, auf dem sich die Hersteller von Haushaltsgeräten, Automobilen und Flugzeugen sowie die Maschinen- und Anlagenbauer mit Eindringversuchen der Unternehmen aus dem informationstechnischen Bereich konfrontiert sehen, die versuchen, mit ihren Plattformen dort Fuß zu fassen.

Entscheidend dadurch motiviert sein dürften die Versuche von Google beziehungsweise des Google-Ablegers Waymo, die Technologie des sogenannten ›autonomen‹ Fahrens zu beherrschen – das selbstverständlich nicht autonom erfolgt, sondern von umfangreichen Unterstützungssystemen abhängt. Dass aber die meisten der vielen Projekte, die es dazu heute gibt, untergehen werden, liegt nahe. Vor allem, da ein flächendeckendes Ausrollen solcher Systeme die Einigung auf eine gemeinsame Plattform für die erforderliche, höchst komplexe IT-Infrastruktur implizieren wird.

Nicht weit davon liegt das Geschäftsfeld der Buchung und Abrechnung von Fahrdiensten, von dem aus Uber versuchte, das ›autonome‹ Fahren anzugehen. Dabei stieß das Unternehmen auf den Gegner Google, der Uber beziehungsweise einem dorthin gewechselten ehemaligen Mitarbeiter den Diebstahl geistigen Eigentums vorwarf und auch zur Zahlung einer Kompensation verpflichten konnte [Hook 2018].

Damit ist ein Faktor von Monopolpositionen angesprochen, den gerade die linke Diskussion sträflich vernachlässigt: akkumuliertes Wissen und akkumulierte Fertigkeiten, die sich auf den Aufbau und den Betrieb spezialisierter Systeme beziehen. Dieses Wissen lebt in den Körpern – nicht allein in den Köpfen – der Beschäftigten, in eingespielten organisatorischen Abläufen sowie in den Konstruktionen und Konfigurationen der Systeme mit den dazugehörenden Daten. Es ist nicht »das allgemeine gesellschaftliche Wissen« [Marx 1983 [1939], 602], das hier zur Produktivkraft geworden ist. Zu einem großen Teil ist es nicht explizit, sondern implizit, nicht allgemein, sondern speziell, situiert in einer Organisation mit einer Systemumgebung, die sich beide in der Arbeit an spezifischen Aufgaben herausgebildet haben. Die Faszination durch den »general intellect« [Marx 1983 [1939], 602], als deren führender Exponent Paul Mason heute auftritt [zuletzt Mason 2018c], hindert die Linke seit Jahrzehnten daran, diesen Sachverhalt wahrzunehmen.

Microsoft und Google etwa zeichnen sich auch dadurch aus, dass sie über Organisationen verfügen, die dazu in der Lage sind, entsprechende Systeme und die dazugehörende Software zu bauen und zu betreiben. Dazu ist das allgemeine Wissen, das sich in Lehrbüchern findet oder in Vorlesungen vermittelt wird, zwar notwendig, doch bei weitem nicht hinreichend.

Gerade in diesem Zusammenhang ist es wichtig, noch einmal auf die durch die mediale Diskussion dämonisierten Algorithmen einzugehen und deren Bedeutung präzise zu bestimmen: Algorithmen sind formale Gebilde mit einer mathematischen Semantik. Sie haben nicht den Charakter von Betriebsgeheimnissen, sondern sind der Gemeinschaft der Fachleute bekannt. Welche pragmatische Rolle sie innerhalb eines Systems spielen, liegt nicht in ihnen selbst, sondern in dessen Gestaltung und Anwendung.

Allein durch einen neuen Algorithmus – sofern ein solcher mit entscheidend verbesserter Leistung überhaupt formulierbar wäre – ist deshalb keine aussichtsreiche Google-Konkurrenz aufzubauen. Und – das ist für die politische Diskussion von großer Bedeutung – es gibt auch keine Herrschaft der Algorithmen, sondern immer nur eine Herrschaft von Menschen, auch wenn sie die Gestalt technischer Systeme annimmt. Entscheidend ist immer deren konkrete Gestalt, die wesentlich durch die Modellierung des Anwendungsgebietes und zunehmend durch die im Betrieb akkumulierten Daten und das über sie geworfene Netz von Klassifikationen bestimmt ist.

Herrschaft findet nicht in Form transparenter, nachvollziehbarer Entscheidungen statt, sondern durch ein unüberschaubares, zu digitaler Form geronnenes Konglomerat aus Vorurteilen.

Kontrolle ist der Informationstechnik wesensmäßig eingeschrieben, doch nicht in den Algorithmen, sondern in der konkreten Gestalt der Systeme artikulieren sich Machtverhältnisse, die sich durch deren Operation jedoch auch zu verschieben vermögen. Herrschaft findet nicht in Form transparenter, nachvollziehbarer Entscheidungen statt, sondern durch ein unüberschaubares, zu digitaler Form geronnenes Konglomerat aus Vorurteilen.

Der dauernde Verweis auf Algorithmen ist vor allem insofern irreführend, weil der Begriff des Algorithmus mit Eigenschaften wie ›mathematisch‹, ›rational‹, ›intelligibel‹, ›kontrolliert‹, ›deliberiert‹ und ›nachvollziehbar‹ konnotiert ist. Doch genau das trifft auf die Funktionsweise der Systeme Google, Facebook etc. nicht zu. Und es wird auch auf etwaige zukünftige Systeme des ›autonomen‹ Fahrens, die ja ebenfalls ›lebenslang lernen‹ sollen, nicht zutreffen!

Die Position etwa von Google besteht also nicht deshalb, »weil (zufällig) niemand einen ähnlich guten Suchalgorithmus findet« [Flassbeck, Steinhardt 2018, 183], schon deshalb, weil es einen solchen Algorithmus gar nicht gibt. Auch noch so viel intellektuelle Bemühung von noch so vielen Informatikern wird ihn nicht herbeizaubern, weil die geschilderten Pfadabhängigkeiten hier in besonderem Maße bestehen. Der Verweis auf Algorithmen, der heute überall und dauernd in den Medien wie im politischen Betrieb erfolgt, erfüllt die Funktion einer Ideologie, die dem pauschal als ›Digitalisierung‹ bezeichneten Prozess der fortschreitenden Durchdringung der Welt mittels digitaler, elektronischer Technik den Schein von Rationalität und Transparenz verleiht.

Doch in Wirklichkeit sind auch die Hohepriester nur Zauberlehrlinge, die keinesfalls über einen Zauberstab verfügen, der auf den Namen ›Algorithmus‹ hört. Sie folgen den von ihnen selbst meist nicht reflektierten Kräften des zirkulär verstärkten Vorurteils und der Machtvervielfältigung. Auch die vielen – sich selbst als kritisch verstehenden – Beiträge aus der Linken, die sich an der Inflationierung des Begriffs beteiligen, verdecken damit vor allem eine unterkomplexe Theoriebildung.

In der Bedeutung konkreter, aus langen Erfahrungsprozessen hervorgegangener, Systeme kommt eine Pfadabhängigkeit zum Vorschein, die es potentiellen Konkurrenten unabhängig von anderen Faktoren wie wachsenden Skalenerträgen unerhört schwer macht, sich mit Konzernen wie Microsoft und Google zu messen. Eine Chance, solche Spieler aus einer Außenseiterposition heraus zu schlagen oder wenigstens mit ihnen gleichzuziehen, besteht nur, wenn grundlegende Veränderungen der Technologie oder der Märkte die Karten neu mischen. So ermöglichte es die Popularisierung des Internet, deren Bedeutung Microsoft erst spät erkannte, dass Google sich als Macht neben Microsoft etablieren konnte.

Ähnlich gelagert ist der Fall von ARM (Advanced RISC Machines). Dieses kleine, inzwischen durch das japanisches High-Tech-Konglomerat Softbank übernommene Unternehmen konnte den Markt für kleine Mobilgeräte wie Smartphones und Tabletts mit seinen stromsparenden Typen besetzen, weil Intel, dessen Prozessoren bei den Desktop-Systemen dominieren, deren wachsende Bedeutung nicht erkannt und deshalb keine diesbezüglich konkurrenzfähigen Produkte im Programm hatte.

Das Geld, in dem solche dominierenden Unternehmen schwimmen, können sie auf jeden Fall auch ausgeben – sowohl um die Meisterschaft in ihrem Fach auszubauen, also auch, um neue Gebiete zu entwickeln. Das heißt, wie es gerade Google auf mehreren Gebieten versucht, außer den Economies of Scale auch Economies of Scope zu erschließen und zu nutzen.

Die Pfadabhängigkeit der Position von Anbietern hat auf der Seite ihrer Kunden eine Entsprechung in Form von Abhängigkeiten: insbesondere Organisationen, die ihre Prozesse und die Ausbildung ihrer Mitarbeiter auf eine bestimmte Software abgestellt haben, werden davon nur unter hohen, zusätzlichen Kosten und schmerzhaften Friktionen wieder loskommen. Das verleiht selbst Anbietern, die weit von einer marktbeherrschenden Stellung entfernt sind, eine nicht unbeträchtliche Macht. Eine in der IT-Welt wohlbekannte Regel lautet jedoch: verantwortliche Manager werden nie dafür gefeuert werden, die Systeme und Software des dominierenden Anbieters beschafft zu haben – selbst dann, wenn sich das als Fehler herausstellen sollte oder sogar als solcher schon von Beginn an erkennbar gewesen war. Anders dagegen, wenn die Option für Alternativen auf ein paar Schwierigkeiten stoßen sollte. Solche Aussichten bringen die Motivation, den immer mit Kosten und Risiken verbundenen Sprung vom Produkt des dominierenden Anbieters zu einer Alternative zu wechseln, nahezu zum Verschwinden, selbst wenn es dafür gute sachliche Gründe gibt.

Je größer Organisationen sind, desto weniger sind sie zum Systemwechsel geneigt

Je größer Organisationen sind, desto weniger sind sie zum Systemwechsel geneigt, also zum Austausch eines oder gar mehrerer Software- oder Hardwareprodukte, denen in ihren Prozessen eine tragende Rolle zukommt. Es gibt in der Praxis vor allem zwei Gründe, dies zu tun: erstens, wenn eine Organisation sich eine andere einverleibt, wie dies zum Beispiel bei Unternehmensübernahmen der Fall ist, und die einverleibte in die Prozesse und Informationssysteme der sie einverleibenden integriert werden soll; zweitens, wenn das bisher benutzte System das Ende seines Lebenszyklus erreicht hat und es keine Weiterentwicklung und auch keine Unterstützung mehr dafür gibt. Gerade letzteres ist ein Sachverhalt, den dominierende Anbieter gerne auch bewusst herbeiführen, um die Kunden zum Umstieg auf ein Nachfolgeprodukt zu zwingen. Vor allem, wenn sie sicher sind, dass die Kunden den Weg zu einem Konkurrenzprodukt, sofern denn eines verfügbar wäre, noch mehr scheuen.

Das Ende des Lebenszyklus kann nicht nur bei Fremdprodukten eintreten, sondern kommt nicht selten auch dann vor, wenn man den Aufwand, selbst erstellte Software weiter zu unterstützen und wachsenden Anforderungen anzupassen, als zu hoch einschätzt. Systemmigration, also die Übertragung eines Informationssystems mit den dazu gehörenden Daten und Anwendungen auf eine neue Softwareplattform, ist für große Organisationen mit komplexen Prozessen und einer unübersehbaren Erbschaft von Daten extrem aufwendig: es müssen nicht nur die Anwender umgeschult werden, sondern Dateien und Metadaten – das sind die Daten, die den Inhalt der Dateien beschreiben beziehungsweise erschließen und klassifizieren – konvertiert und neu strukturiert werden. Entsprechende Projekte laufen Jahre und kosten Millionen. Wer kann, versucht sie zu vermeiden und folgt damit der Logik, die die beherrschende Stellung einiger Softwareanbieter zementiert.

Das zuvor Ausgeführte gilt sinngemäß auch für die vielen Anbieter, die zu den Systemplattformen wie Windows, Solaris oder Linux und den großen Leitanwendungen wie Web-Browser und Office (Textverarbeitung, Tabellenkalkulation, Präsentation) sowie den im Unternehmensbereich relevanten Anwendungssystemen ERP (Enterprise Ressource Planning umfasst eine Vielzahl betriebswirtschaftlicher Anwendungen), CAD (Computer-Aided Design für Entwurf und Konstruktion von Produkten) und PLM (Product Lifecycle Management für die Verwaltung der produktbezogenen insbesondere der mit CAD erstellten Daten) komplementäre Produkte und Dienste im Programm haben: Ein Software-/ Dienstleistungsportfolio für eine weitere Systemplattform bzw. Leitanwendung anzubieten und aktuell zu halten, stellt einen signifikanten Aufwand dar, den Anbieter scheuen, wenn sie nicht damit rechnen können, dafür eine hinreichende Anzahl von Lizenzen bzw. Leistungen verkaufen zu können. Die Folge ist, dass sich um die dominierenden Systemplattformen und Leitanwendungen ein reichhaltiges Angebot von komplementären Produkten und Diensten entwickelt, das die Endkunden umso zuverlässiger an die großen Anbieter bindet.

Auch die Häuser, aus denen die großen Leitanwendungen kommen, versuchen die Anzahl der Systemplattformen, die sie mit ihren Produkten unterstützen, möglichst klein zu halten — mit der Folge, dass sowohl den Entwicklern von komplementären Produkten als auch den Endkunden diesbezüglich ein schrumpfendes Spektrum von Alternativen zur Verfügung steht.

Die Übernahme von GitHub, der bedeutendsten unter den Plattformen, auf denen Entwickler offener Software nicht nur ihren Code verwalten, sondern auch untereinander kommunizieren können, durch Microsoft, deutet darauf hin, dass Microsoft das Ökosystem der zu seinen Systemen komplementären Produkte und Dienste in neue, ihm bisher verschlossene Bereiche auszudehnen beabsichtigt. Da Microsoft andererseits auch eine weit in die Welt der kommerziellen Nutzer von Software reichende Plattform für den Vertrieb von Produkten oder für Dienste wie die Vermietung von Software und die Verwaltung der Daten im Netz bietet, scheint die Erwartung, dass diese Übernahme nicht zum Exodus der Entwickler führen wird, einiges für sich zu haben [Waters 2018b].

Unter den Anbietern von Software für Unternehmenssysteme gibt es zwar eine Reihe von starken Spielern, doch keinen, der dort eine Position einnehmen würde, wie sie Microsoft im Bereich der Systemsoftware für Desktop-Systeme und der Office-Anwendungen innehat.  Während es im Feld der ERP-Software mit SAP zwar einen klar führenden Anbieter gibt, dessen Marktanteil von ca. 7 Prozent dessen ungeachtet immer noch weit unter der Grenze liegt, die das Kartellrecht für eine marktbeherrschende Rolle zieht, kennt die PLM/CAD-Welt mit Siemens, Dassault, PTC und Autodesk an der Spitze eine Handvoll sehr starker Anbieter, die zusammen ungefähr 50 Prozent des Marktes ausmachen.

Engt man den Gesichtskreis jedoch auf die Anbieter ein, die, zusammen mit Kooperationspartnern, die komplementäre und auf die jeweiligen Basisprodukte abgestimmte Dienste und Produkte im Programm haben, dazu in der Lage sind, Systeme zu erstellen, die den Anforderungen der großen Unternehmen entsprechen, werden aus den 50 Prozent nahezu 100 Prozent im PLM/CAD-Feld. Im ERP-Bereich bleiben nach SAP sowie – mit deutlichem Abstand – Oracle alle anderen weit zurück.

Wendet man sich den Datenbanksystemen zu, in denen die Unternehmenssysteme wie ERP und PLM die Metadaten speichern, fällt mit Oracle ein mit weitem Abstand führender Anbieter auf, der mit mehr als 40 Prozent weltweit eine nach allen Kriterien marktbeherrschende Stellung innehat. Dies gilt verstärkt, wenn man den Gesichtskreis auf die Welt der großen Unternehmenssysteme einengt. Seit der Übernahme von Sun Microsystems, befindet sich zudem auch die am weitesten verbreitete Alternative aus dem Open-Source-Segment in der Hand von Oracle. Die kostenlose Version fungiert hier zudem als Einstieg, von dem aus man auf eine kommerzielle mit entsprechender Unterstützung umsteigen kann.

Microsoft liegt bei Datenbanksystemen dagegen weit abgeschlagen mit knapp 20 Prozent auf dem zweiten Platz. Als einziges wirklich unabhängiges und technisch hochwertiges Open-Source-Produkt spielt PostgreSQL noch eine Rolle. Alles andere ist hier vergleichsweise unbedeutend.

Die Rede von Unternehmenssystemen bedeutet, dass die Anwender diese zwar, wie auch die Office-Software, mittels eines persönlichen Rechners nutzen. Doch dazu sind auch Dienste erforderlich, welche durch Software realisiert werden, die auf zentralen Systemen läuft, auf denen auch die dazugehörenden Daten gehalten werden, um unternehmensweit einen geteilten und kontrollierten Zugriff darauf zu ermöglichen.

Hier war in den vergangenen Jahren zu beobachten, dass das Spektrum der unterstützten System-Plattformen sich zunehmend auf die von Microsoft verengt, während Linux als Alternative höchstens für die zentralen Dienste verfügbar ist. Alles andere, wie insbesondere die im Ingenieursbereich einst sehr stark vertretenen Unix-Systeme, fällt praktisch weg. Damit verstärkt sich auch die Stellung der Intel-Architektur bei den Universalprozessoren für die neben Intel selbst hauptsächlich AMD als Alternativquelle bereitsteht.


Literatur

Hook, Leslie 2018: Uber eyes a smoother road after Waymo lawsuit settlement. Financial Times, 10. Februar. https://www.ft.com/content/6596d524-0def-11e8-8eb7-42f857ea9f09
Dolata, Ulrich 2018: Big Four: Die digitale Allmacht? Blätter für deutsche und internationale Politik, April, 81-86. https://www.blaetter.de/archiv/jahrgaenge/2018/mai/big-four-die-digitale-allmacht
Flassbeck, Heiner; Steinhardt, Paul 2018: Gescheiterte Globalisierung: Ungleichheit, Geld und die Renaissance des Staates. Berlin: Suhrkamp (edition suhrkamp; 2722).
Marx, Karl 1983 [1939]: Grundrisse der Kritik der politischen Ökonomie, 1857-1858. MEW Bd. 42.
Mason, Paul 2018c: Endlich Mensch. Freitag, 26. April, 16.
Parnas, David L.2001: Software Aging. In: Hoffman, Daniel M.; Weiss, David M. 2001: Software Fundamentals: Collected Papers by David L. Parnas. Boston: Addison-Wesley.
Waters, Richard 2015: Car-hailing pioneer Sidecar signals end of the ride. Financial Times, 30. Dezember. https://www.ft.com/content/71ebb61e-ae83-11e5-993b-c425a3d2b65a
Waters, Richard 2018b: GitHub deal shows how much Microsoft has changed. Financial Times, 5. Juni. https://www.ft.com/content/2ba17784-6862-11e8-b6eb-4acfcfb08c11

Anmelden