Bild: istock.com/Christian Horz
Digitalisierung | 21.08.2018 (editiert am 14.09.2018)

Digitale Monopole – eine Dystopie?

Was machen digitalen Quasi-Monopole wie die Big Four und Microsoft aus? Und welche Rolle spielt darin die künstliche Intelligenz?

Nach jahrzehntelangem, allein durch libertäre Träume belebtem, Tiefschlaf erwacht in der Linken langsam eine Diskussion über die Telekommunikationsnetze und die darauf operierenden Dienste beziehungsweise die dafür erforderlichen Hardware- und Softwaresysteme.

Nachdem man sich in den 1990ern gehorsam dem neoliberalen Mainstream gefügt und von den mittlerweile völlig privatisierten Netzen nur noch die große Befreiung und letztliche Vereinigung der Menschheit erwartet hatte, kam zunächst mit den Enthüllungen durch Edward Snowden und dann wieder mit dem jüngsten Facebook-Skandal eine gewisse Ernüchterung auf. Wer, wie der Autor, diese Entwicklung schon vor Jahrzehnten kritisch kommentiert [Fischbach 1999a, 2005] und zudem noch vor den darin enthaltenen, neuen Dimensionen der Kontrolle gewarnt hatte [Fischbach 2007, 2009], galt insbesondere dem neuen linken Schick lange Zeit als unbelehrbarer Retrokommunist.

Seither bewegte sich die Debatte ein wenig weiter, wenn auch von einem Ende der Verwirrung nicht die Rede sein kann. Schon die Klärung der Frage, woraus die Macht der sogenannten digitalen Monopole resultiere, woher ihre gigantischen Profite kämen, und vor allem, wie ihnen Einhalt zu gebieten wäre, stößt auf Schwierigkeiten. Oft wird sie eingeengt auf die Big Four, also die Giganten Amazon, Apple, Facebook und Google.

Merkwürdigerweise fehlt mit Microsoft in dieser Liste schon einer der wichtigsten, wenn nicht sogar der wichtigste Spieler. Eine Lücke, die auch auf ein Defizit der Diskussion hindeutet: Microsoft tritt zwar – sieht man von Angeboten wie LinkedIn und GitHub, die sich an engere Kreise von Adressaten wenden, ab – für die meisten Nutzer kaum unmittelbar als Internet-Unternehmen in Erscheinung, doch ist es mit seiner System- und Anwendungssoftware auf nahezu allen Endbenutzersystemen vertreten. Während Microsoft lange Zeit auf den Systemen, die Dienste für Endbenutzer durch das Netz zu Verfügung stellen, kaum eine Rolle spielte, verändert sich dies gegenwärtig entscheidend. Als alternatives Betriebssystem auf Servern wird, neben den entsprechenden Versionen von Windows, voraussichtlich nur noch Linux als relevante Alternative übrigbleiben. Dazu kommt heute die – auch von vielen anderen Anbietern verfolgte – Geschäftsvariante, die Anwendungssoftware nicht mehr als Produkt zum Kauf, sondern ihre Nutzung, inklusive der Datenspeicherung, als Dienstleistung über das Netz anzubieten. In diesem Zusammenhang ist oft von der ›Cloud‹ die Rede, doch effektiv handelt es sich darum, die Daten via Internet auf einem Server zu speichern, der in einem Rechenzentrum des Dienstleisters steht.

In den Blättern für deutsche und internationale Politik kamen mit Evgeny Morozov, der für den Aufbau einer öffentlichen Infrastruktur plädierte [Morozov 2018], und Paul Mason, der dem den liberalen Vorschlag einer Zerschlagung der Monopolisten entgegenhielt [Mason 2018a], zwei Vertreter herkömmlicher politischer Alternativen zu Wort. Mit etwas anderen Akzenten vertraten Sebastian Müller und Jan Simon Becker im Makroskop analoge Positionen. Wobei Müller zurecht nachdrücklich darauf bestand, dass es hier um Fragen der Souveränität gehe: Nicht nur sei staatliches Handeln immer mehr von Informationstechnik und entsprechender Infrastruktur abhängig, sondern auch die Telekommunikationsnetze seinen als Erweiterungen des öffentlichen Raumes aufzufassen.

Worum geht es bei den digitalen Monopolen?

Wenn das Ziel sein soll, die Macht der sogenannten digitalen Monopole aufzuheben oder wenigstens zu begrenzen, stellt sich die Frage, worin deren Position gründet. Dazu ist zunächst zu klären, was das in diesem Zusammenhang gebrauchte Adjektiv ›digital‹ genau bezeichnen soll beziehungsweise ob hier überhaupt eine konsistente Verwendung desselben vorliegt. Schließlich, worin die Bedeutung der digitalen Technik genau besteht und was unter einem Monopol zu verstehen ist.

Tatsächlich erhalten oft ganz unterschiedliche Dinge oder Geschäfte das Etikett ›digital‹. Während Google inzwischen zwar auch auf andere Bereiche ausgreift, besteht sein Kerngeschäft doch immer noch darin, im Rahmen des Internets einerseits einen Informationsdienst zu betreiben und andererseits die dabei gewonnenen Daten einzusetzen, um Werbung für kommerzielle Anbieter zielgenau zu platzieren. Ganz ähnlich ist das auch bei Facebook.

Die Basis des Apple-Geschäfts ist dagegen digitale elektronische Hardware – genauer: das Design derselben, denn die Fertigung überlässt man längst asiatischen Auftragnehmern, von deren Bändern Geräte mit den unterschiedlichsten Markenschildern laufen. Die Hardware und exklusiv darauf laufende Systemsoftware bilden dabei ein Ökosystem, in welchem Apple den Anbietern von Anwendungssoftware und Informationsdiensten kontrollierten und – im Falle der für Smartphones und Tabletts konzipierten Variante iOS – kostenpflichtigen Zugang gewährt. Letzteres ist ein Modell, das Google mit dem Android-System kopiert, das mit ca. 80 Prozent tatsächlich eine beherrschende Rolle im Smartphone-Markt einnimmt und darüber hinaus selbst Dienste auf dieser Basis anbietet.

Das Kerngeschäft von Amazon besteht dagegen nicht in irgendetwas, das als genuin digital zu bezeichnen wäre, sondern darin, physische Waren über das Internet anzubieten und an die Kunden auszuliefern – ein Geschäft, bei dem Amazon zumindest in den Ländern der westlichen Welt mittlerweile mit einem Anteil von meist um die 50 Prozent eine marktbeherrschende Stellung einnimmt. Genuin digitale Dienste wie Datenspeicherung und Musikangebote kamen erst in den letzten Jahren dazu, blieben bisher aber weit von einer marktbeherrschenden Position entfernt.

Worin liegt genau die Bedeutung dieser doch recht unterschiedlichen Produkte und Dienste? Und weshalb besteht dort mehr als auf anderen Feldern die Tendenz zur Bildung von Monopolen?

Zentral für Google, Facebook und Amazon ist bei allem, was das Geschäft des letzteren von dem der beiden ersteren unterscheidet, das Internet. Apple und auf etwas andere Weise Microsoft – das im Gegensatz zu Apple auf einigen Gebieten ein nahezu vollständiges Monopol innehat – kommen dagegen aus der Zeit vor der Popularisierung des Internet, in der ihr Geschäft ebenfalls schon gut funktionierte. Sie vermochten es jedoch, sich an die dadurch veränderten Bedingungen anzupassen.

Eines der herausragenden Merkmale des Internet besteht darin, dass es nicht nur eine weiter wachsende Flut von Daten hervorbringt. Durch seine Architektur versetzt es auch einige Teilnehmer in die Lage, diese Datenflut zu sammeln, zu filtern und auszuwerten, um sich als Anbieter darauf basierender Dienste eine nahezu konkurrenzlose Position zu verschaffen. Stark frequentierte Informationsdienste und diejenigen, die die Kontrolle über die zentralen Vermittlungsknoten, über System- und Anwendungssoftware ausüben, die auf nahezu allen Endgeräten läuft, besetzen die privilegierten Stellen, die dies ermöglichen. Realisierbar wurde das jedoch erst durch eine Technik, die in den letzten Jahrzehnten die Leistung von digitalen Prozessoren und Speichermedien um mehrere Größenordnungen zu steigern vermochte, während die Softwaretechnik die Werkzeuge bereitstellte, um Datenströme zu filtern, ihren Inhalt auszuwerten und zu klassifizieren.

Wie viel Intelligenz steckt in der künstlichen Intelligenz?

In diesem Zusammenhang ist oft von Big Data und künstlicher Intelligenz (KI) die Rede. Die erstere Bezeichnung trifft die Sache insofern, als dabei tatsächlich nach allen bisherigen Maßstäben als außerordentlich groß einzustufende Datenmengen (in der Größenordnung von Giga- und Terabytes) gehandhabt werden, während die zweite übertrieben ist. Künstliche Intelligenz ist ein Gebiet der Informatik, das so alt ist wie diese selbst [einen Überblick der weitverzweigten Disziplin gibt Frankish, Ramsey 2014]. Schon in ihren Anfängen gab es Versuche, Systeme zu bauen, die intelligentes menschliches Verhalten imitieren sollten, also zum Beispiel Spiele wie Schach beherrschen, mathematische beziehungsweise logische Aufgaben lösen – das heißt, Schlüsse ziehen, Begründungen finden oder gar Konversationen führen könnten.

Diese Bemühungen waren fruchtbar, sofern daraus – neben einigen Systemen, die, nachdem man sie mit großen Mengen an explizitem, formalisiertem Expertenwissen gefüttert hat, auf eng umschriebenen Gebieten nützliche Dienste leisten – zahlreiche Impulse für die Softwaretechnik resultierten. Dazu zählen einige wichtige Programmiersprachen wie Lisp und Prolog, eine Reihe von inzwischen klassischen Strukturen und Methoden der Softwaretechnik sowie Werkzeuge wie die integrierte Entwicklungsumgebung.

Jenseits klar strukturierter Aufgaben ist man dem eigentlichen Ziel der sogenannten Strong AI (starken KI), nämlich nicht nur intelligentes Verhalten partiell zu imitieren, sondern dessen Essenz dingfest zu machen, heute nicht wesentlich näher als in den 1950er und 1960er Jahren, als man glaubte, es unmittelbar vor Augen zu haben. Die damals verfolgten Ansätze, die hauptsächlich auf symbolischen Repräsentationen der Welt aufbauten, stießen sehr bald an kaum zu überwindende Grenzen. Zum Beispiel gibt es KI-Programme, die auf Basis eines symbolischen Modells derselben ganz passabel innerhalb einer klar strukturierten, überschaubaren Umgebung mit Bauklötzen umgehen und Fragen zu ihrer Konstellation beantworten können. Diese Art von KI nennt man auch GOFAI, für Good Old-Fashioned Artificial Intelligence. Vor perzeptiven Aufgaben wie der, herauszufinden, ob auf einem Bild ein Hund, eine Katze, ein Pferd oder nichts davon zu sehen wäre, scheiterte sie jedoch vollständig.

Die heute mit relativem Erfolg eingesetzten Verfahren gehören in den Bereich dessen, was man, im Gegensatz zur ambitionierten Strong AI als Narrow AI oder Weak AI (enge beziehungsweise schwache KI) bezeichnet. Sie konzentrieren sich auf eng gefasste Aufgaben, die im Grunde immer darauf hinauslaufen, innerhalb großer, schwach strukturierter Datenmengen bestimmte Muster zu erkennen. Bei solchen perzeptiven Aufgaben, vor denen der symbolische Ansatz völlig scheiterte, liefern sie zum Teil bedingt brauchbare Ergebnisse, gehen dabei jedoch auch völlig andere Wege.

Um den Unterschied der Verfahren der engen KI von den klassischen, auf symbolischen Repräsentationen basierenden Ansätzen zu verdeutlichen, sei hier ein einfaches Problem der Informatik skizziert, dessen Lösung mittels einer entsprechenden Datenstruktur und einigen darauf bezogenen Algorithmen zum Standardcurriculum der Disziplin gehört: In einer Warteschlange ankommende Elemente entsprechend ihrer Priorität einzureihen und aus ihr auf Anfrage das Element mit der höchsten Priorität zu entnehmen. Die Kunst besteht darin, den Nachteil der naiven Lösung, die eine sortierte lineare Liste der Elemente benutzen würde, so zu umgehen, dass der Aufwand für alle Operationen mit ihrer Zahl nicht linear, sondern nur logarithmisch zunimmt.

Eine solche Warteschlange eignet sich als Modell für viele Aufgaben und hat entsprechend vielfältige Anwendungen. Zum Beispiel kann sie dazu dienen, in geordneter Weise Maschinen die Erlaubnis zum Start beziehungsweise zur Landung auf den verfügbaren Bahnen eines Flughafens zu geben, Fertigungsaufträge auf Anlagen zu verteilen oder in einem Betriebssystem Ressourcen (Prozessoren, Ein/Ausgabe-Kanäle, Speicher, etc.) an Prozesse zu vergeben. Man muss also das konkrete Systemdesign kennen, die Einbettung der Algorithmen in die physische und soziale Welt, die erst über die Interpretation ihrer Operationen beziehungsweise der durch sie manipulierten Größen entscheidet, um sagen zu können, was ein Algorithmus konkret leistet. Im Falle der Warteschlange ist von Bedeutung, welche physischen oder sozialen Parameter auf welche Weise, also mit welcher Gewichtung in die Berechnung der Priorität eingehen, wie viel von welchen Ressourcen zur Verwaltung durch die Warteschlange verfügbar sind und vieles anderes mehr. Die Algorithmen allein bilden keine adäquate Basis zum Verständnis von konkreten informationstechnischen Systemen. Dies gilt schon für die deterministischen, auf symbolischen Repräsentationen basierenden Systeme und in noch höherem Maße auf die nachfolgend diskutierten.

Wenn heute von KI die Rede ist, geht es meistens um sogenannte lernende Systeme, wobei zu beachten ist, dass solche Systeme im menschlichen Sinne weder intelligent sind, noch irgendetwas lernen. Im einfachsten Fall beruhen sie darauf, auf einer gegebenen Datenmenge anhand ausgewählter Merkmale mittels vorgegebener Verfahren ein statistisches Modell zu bauen, das deren Korrelation mit weiteren Merkmalen abbildet und dieses Modell dann auf andere Datenmengen anzuwenden, um die betreffenden Merkmale zu prognostizieren.

Meredith Broussard zeigt den Aufbau und die Funktionsweise solcher Modelle anhand eines einfachen Beispiels [Broussard 2018, 87-119]. Dabei geht es darum, ob sich anhand der überlieferten Passagierlisten der Titanic eine Aussage darüber machen lässt, ob die dort aufgeführten Individuen das Unglück überlebt haben oder nicht. Das System, das diese Frage beantworten soll, ›erlernt‹ die Kriterien, die darüber entscheiden, anhand einer Teilmenge aus der Passagierliste, in der zu allen Passagieren angegeben wird, ob sie überlebt haben. Eine statistische Analyse ergibt, dass dafür vor allem – in dieser Rangordnung – der für die Überfahrt bezahlte Preis, das Geschlecht, das Alter und die gebuchte Kabinenklasse entscheidend waren: je teurer der Preis, je weiblicher das Geschlecht, je geringer das Alter und je höher die Klasse, desto besser die Überlebenschance.

Auf dieser Basis lässt sich zum Beispiel ein Entscheidungsbaum aufbauen, anhand dessen sich eine mit hoher Wahrscheinlichkeit treffende Aussagen zum Überleben weiterer, nicht in der zum Aufbau des Systems verwendeten Teilmenge enthaltener Passagiere machen lassen. Für all dies gibt es heute algorithmische Bausteine in Form von Funktionsbibliotheken, die sich aus den gebräuchlichen Programmiersprachen aufrufen lassen. Wesentlich ist jedoch, dass diese Aussagen nicht mit Gewissheit erfolgen und dass die verwendeten Algorithmen keinen semantischen Bezug zum Inhalt der Aussagen aufweisen. Der Inhalt der Aussagen ergibt sich primär aus den quantitativen Proportionen der Werte einzelner Felder in der, für den ›Lernprozess‹, das heißt, den Aufbau des Systems herangezogenen Teilmenge der Daten. Unterstellt wird dabei, dass diese Proportionen repräsentativ für alle betreffenden Daten sind. Ihnen liegt kein Modell der Titanic, ihrer Besatzung, ihrer Fahrgäste oder gar der psychosozialen Prozesse, die sich auf einem untergehenden Schiff ereignen mögen, zugrunde. Das heißt, die Algorithmen allein taugen hier noch weniger zum Verständnis der Systemfunktion als im oben beschriebenen klassischen Fall.

Dies gilt in verschärfter Form für die wesentlich aufwendigere Technik des sogenannten Deep Learning (tiefes Lernen). Diese besteht darin, dass man die Parameter einer auf eine Menge von Datengebilden anzuwendenden mehrstufigen Transformation so lange variiert, bis diese eine gegebene Menge solcher Gebilde im intendierten Sinne richtig klassifiziert, also zum Beispiel aus einer Menge von digitalen Bildern, diejenigen, auf denen ein Mensch zu sehen ist, von denen unterscheidet, auf denen keiner zu sehen ist. Oder aus einer Menge von Texten diejenigen herausfiltert, in denen sich vermeintlich umstürzlerische Absichten artikulieren.

Die zugrunde liegende Annahme ist, dass sich das so parametrisierte Verhalten auch auf beliebig viele weitere, noch unbekannte Datengebilde extrapolieren ließe. Die Methode des ›Lernens‹ besteht hier in zielgerichtetem Probieren anhand bereits klassifizierter Datengebilde. Die für die Transformationen eingesetzten Softwaresysteme sind als künstliche neuronale Netze bekannt, obwohl sie mit wirklichen Neuronen wenig gemeinsam haben. Auch sie können auf eine lange Geschichte zurückblicken, wurden jedoch in großem Maßstab erst praktikabel, seit die Rechner leistungsfähig genug sind, also seit ca. 10 Jahren.

Diese Art von KI interagiert in einem zirkulären Prozess mit herrschenden Vorurteilen, um diese als Normen zu zementieren.

Ihrem Einsatz liegt kein Modell der Welt beziehungsweise des anwendungsrelevanten Ausschnitts derselben zugrunde. Weshalb man auch nicht explizit – in menschlichen Begriffen – sagen kann, was die betreffenden Systeme genau gelernt haben. Und es gibt auch – trotz allen medialen Geredes von allgegenwärtigen oder gar allmächtigen Algorithmen – keinen explizit formulierten Algorithmus, der die entsprechende Leistung im Sinne einer intelligiblen, logisch nachvollziehbaren Ableitung erbringen würde. Der insbesondere in der Open Source-Szene beliebte Verweis auf den Quellcode als probatem Mittel, um Auskunft über das Verhalten einer Software zu gewinnen, würde hier völlig ins Leere gehen: kein Mensch kann durch Lektüre des Quellcodes, der in solchen Systemen involvierten Softwarekomponenten zu anwendungsspezifischen, sinnvollen und nicht-trivialen Aussagen über deren Verhalten gelangen.

Insbesondere überraschen solche Systeme immer wieder dadurch, dass sie Dinge gelernt haben, die ihren Lehrmeistern völlig entgangen waren. Etwa wenn ein System eine Katze mit Halsband als Hund und einen Hund ohne Halsband als Katze klassifiziert, weil die Hunde im ›Lehrmaterial‹ überwiegend ein Halsband trugen. Die spezifische ›Intelligenz‹ solcher Systeme steckt primär in den ihrem ›Lernprozess‹ zugrunde liegenden Daten und deren Bewertung, die sich schließlich in den durch wiederholtes Probieren ermittelten Parametern niederschlagen. Das kann zu völlig schrägen Ergebnissen führen, etwa wenn nur Fotos von den in der westlichen Welt gängigen ästhetischen Normen entsprechenden jungen, weißen Frauen als gelungen klassifiziert werden, weil als ›Lehrmaterial‹ entsprechende Bewertungen von Internet-Nutzern – die berüchtigten ›likes‹ aus den sogenannten ›sozialen Medien‹ – herangezogen wurden [Broussard 2018, 149].

Diese Art von KI interagiert in einem zirkulären Prozess mit herrschenden Vorurteilen, um diese als Normen zu zementieren. Sie ist deshalb als gefährlich einzustufen. Wenn Dana Boyd Beispiele für die Verwandlung von Vorurteilen in scheinbar gesichertes Wissen nennt, etwa wenn Google im Zusammenhang mit Namen, die mit großer Wahrscheinlichkeit solche von Schwarzen sind, zahlreiche Angebote mit Bezug zum Vorstrafenregister auflistet [Boyd 2018, 89], dann tut sie es unter einem irreführenden Titel: tatsächlich zeigt sich hier nicht die Macht der Algorithmen, sondern der Sachverhalt, dass Algorithmen keine hinreichende Beschreibung des relevanten Systemverhaltens liefern. Dieses erschließt sich erst aus ihrer sozialen und organisatorischen Einbettung. Was heute massenhaft stattfindet, ist nicht die deliberierte Konstruktion von Systemen auf der Grundlage von verstandenen Algorithmen und kritisch reflektierten Modellen des Anwendungsgebiets, sondern das eilige Zusammenschustern von Anwendungen auf ungeklärten Grundlagen ohne durchdachte Methodik. Schon die herkömmliche Massenproduktion von physischen Artikeln riskiert bei mangelnder Sorgfalt die entsprechenden Mengen von Schrott. Das dürfte bei der aktuellen KI-Welle nicht anders sein.

Systeme, die auf die beschriebene Weise irgendetwas gelernt haben, wie etwa menschliche Gesichter zu erkennen oder abweichendes Verhalten zu prognostizieren, führen sicher einen Algorithmus aus, doch einen, der nirgendwo explizit gegeben ist und den niemand versteht, weil er in keiner Weise intelligibel wäre. Das Verhalten von Systemen, die ihre Parameter zudem im Betrieb laufend auf Basis ihrer aktuellen Performance gegenüber zufälligen Daten anpassen, die also ›lebenslänglich lernen‹, ist dagegen nicht einmal durch einen unverständlichen Algorithmus zu beschreiben. Einen solchen Algorithmus könnte höchstens eine, die Zukunft vollständig überschauende, überirdische Intelligenz formulieren. Wer solches Systemverhalten durch den Verweis auf Algorithmen zu erklären versucht, begibt sich, indem er eine nicht vorhandene Intelligibilität unterstellt, auf das Feld der Theologie.

Auch die KI-Systeme, die in den letzten Jahren Schlagzeilen machten, etwa indem sie den Weltmeister im Go schlugen oder als Sieger im TV-Quiz hervorgingen, sind auf die oben beschriebene Weise gebaut. Sie ›verstehen‹ weder die Logik des Go-Spiels, noch besitzen sie eine zusammenhängende Weltkenntnis. Das Go-System absolvierte zuvor seinen ›Lernprozess‹ anhand der Daten von 30 Millionen Go-Spielen und das Quiz-System mit einer noch größeren Anzahl von Faktenpartikeln. Das Geheimnis hinter diesen Erfolgen sind massive Datenmengen und entsprechend massive Computer-Power. Kein Wunder auch, dass der vorletztes Jahr verstorbene Marvin Minsky, der zu den Begründern der Disziplin zählt und sein Leben lang das Ziel der starken KI verfolgte, wenig glücklich über diese Erfolge war.

Systeme der beschriebenen Art können – sorgfältig gebaut und angewandt – auf bestimmten Gebieten, etwa bei der Diagnose von Krankheiten mittels bildgebender Verfahren oder auch der von Störungen in technischen Systemen beziehungsweise bei der Optimierung von deren Wartungsintervallen von großem Nutzen sein.

Etwas anderes ist es, wenn man – was heute zunehmend geschieht – derartige ›lernende‹ Systeme dazu einsetzt, um auf fragwürdiger Grundlage massenhaft Daten und damit letztlich auch die sich dahinter verbergenden Menschen und Handlungen zu klassifizieren. Sei es danach, ob sie bereit wären, was auch immer zu kaufen, sei es, nach ihrer Kreditwürdigkeit, ihrem Risiko für welche Versicherung, danach, ob sie abweichende sexuelle Neigungen haben oder gar dazu tendieren, die herrschende Ordnung zu stören. Dann ist man nicht nur mit einer verschärften Form des ebenso klassischen wie unlösbaren Problems der induktiven Erkenntnis – von der man hier nicht einmal sagen kann, worin sie genau bestehe –, sondern auch mit einer ethischen Unmöglichkeit konfrontiert.

›Künstliche Intelligenz‹ ist ein Etikett, das man heute einer Reihe von unzusammenhängenden Ansätzen begrenzter Reichweite anheftet, die mit einer gewissen Erfolgswahrscheinlichkeit begrenzte Aufgaben zu lösen vermögen.

›Künstliche Intelligenz‹ ist ein Etikett, das man heute einer Reihe von unzusammenhängenden Ansätzen begrenzter Reichweite anheftet, die mit einer gewissen Erfolgswahrscheinlichkeit begrenzte Aufgaben zu lösen vermögen. Ein ebenso kohärentes, intellektuell nachvollziehbares wie operationales Konzept von Intelligenz gibt es jedoch nicht [dazu ausführlicher Broussard 2018]. Wenn global operierende Konzerne – die wie Google oder Facebook in bestimmten Bereichen nahezu ein Monopol innehaben und ein solches auf weiteren, insbesondere den sich herausbildenden der Plattformen für die Automatisierung nicht nur industrieller und administrativer Prozesse, sondern auch alltäglicher Abläufe, anstreben – in großem Maßstab mit den oben beschriebenen Schwächen behaftete KI-Systeme einsetzen, vollzieht sich damit ein Vorgang von politischer Tragweite.

Der Wert, der heute den Datenmassen aus dem Internet beziehungsweise den daraus gewonnenen ›Erkenntnissen‹ beigemessen wird, liegt nicht in diesen selbst, sondern in ihrem Bezug auf bestimmte Absichten. Daten fallen immer zahlreicher bei immer mehr Tätigkeiten an, doch haben sie keinen intrinsischen Wert. Ohne Werbung und die dahinterstehenden Verkaufsziele, ohne das interessengeleitete Bestreben, Menschen in Schubladen zu stecken, ohne politische Propaganda und ohne Geheimdienste beziehungsweise deren Aufklärungs- und Steuerungsauftrag wären viele Daten ziemlich uninteressant und wertlos. Deshalb könnte schon das Verbot von Werbung in Online-Informationsdiensten und sozialen Medien die Profite und die Macht, die aus bestimmten Formen der Verwertung von Daten fließen, beschränken. Woran sich die Frage anschließen würde, wer dann noch ein Interesse hätte, solche Dienste zu betreiben.

Die Flut der personenbezogenen Daten wächst mit der fortschreitenden Invasion der Alltagsumgebung an. Beispiele sind das Automobil, die Wohnung und schließlich auch der menschliche Leib, die zunehmend mit vernetzten digitalen Prozessoren bestückt werden. Darüber hinaus finden auch Daten über die persönliche Umgebung, die Auskunft über den Zustand technischer Artefakte und die Weise ihrer Nutzung geben, immer mehr Interesse von Seiten der Unternehmen, die sich schon intensiv mit den personenbezogenen Daten beschäftigen.

Diese Unternehmen, mit Google an der Spitze, drängen damit auf ein Gebiet vor, das bisher andere beherrschten: die Maschinen- und Anlagenbauer, die Automobil-, Luftfahrt- und Bahntechnikindustrie sowie die in deren Geschäft dominierenden Softwarehersteller wie SAP, Siemens, PTC und Dassault. Daten aus dem Betrieb von technischen Artefakten – Fahrzeugen, Infrastrukturbauwerken, Produktionsanlagen, Wohnungen, Haushaltsgeräten – können dazu dienen, diesen Betrieb effizienter zu gestalten, die Instandhaltung zu optimieren, Informationen über das Verhalten der Produkte wie ihrer Nutzer zu gewinnen und schließlich neue Entwicklungen an daraus gewonnenen Erkenntnissen zu orientieren.

Wobei sich hier auch die Frage nach den erkenntnisleitenden Interessen stellt. Attraktiv ist dabei die Verknüpfung mit weiteren Bereichen, wie zum Beispiel Geo-Daten und auch personenbezogenen Daten. Hersteller wie Betreiber sehen hier große Potentiale, die den Lieferanten, der seine Software als Plattform für die Erfassung, den Austausch und die Verarbeitung der betreffenden Daten sowie für entsprechende Anwendungen zu etablieren vermag, in eine Schlüsselposition bringt.

Vor diesem Hintergrund sind etwa Entwicklungen bei Google wie Android Automotive zu sehen, einer Software-Plattform für Anwendungen in Fahrzeugen, oder die Übernahme von Unternehmen aus dem Bereich der Gebäudeautomatisierung. Und schließlich die Gründung der Sidewalk Labs, die auf jene Aufgaben zielen, die den Gebietskörperschaften als Ersteller und Betreiber von Infrastruktur und öffentlichen Einrichtungen der Daseinsvorsorge obliegen. Auch Siemens als führender Lieferant von industriellen Ausrüstungen und entsprechender Software versucht mit MindSphere eine netzbasierte Plattform für die Speicherung, Verwaltung und Auswertung der dort anfallenden Daten zu etablieren.

Damit ist auch ein Themenkreis umzeichnet, in dem IT-Unternehmen in Bereiche der staatlichen Souveränität vordringen. Eine entscheidende Grundlage dafür bildet die Kartierung, wie sie Google mit Maps betreibt und damit eine Aufgabe usurpiert, die zu den genuinen des Souveräns zählen, den die Moderne als Herrscher über ein Territorium versteht.

Teil 2 wird sich mit der Frage beschäftigen, wie Monopole entstehen und welchen Pfadabhängkeiten sie obliegen.


Literatur

Boyd, Danah 2018: »Wider die digitale Manipulation: Die verborgene Macht der Algorithmen«. Blätter für deutsche und internationale Politik, 8, 80-90.
Broussard, Meredith 2018: Artificial Unintelligence: How Computers Misunderstand the World. Cambridge MA: MIT press.
Fischbach, Rainer 1999a: Liberalala oder Monopoly? — Der neue Telekommunikationsmarkt (Wirtschaftsinformation), Blätter für deutsche und internationale Politik, März, 367-369. http://www.rainer-fischbach.info/blaetter/tk_markt_blaetter_9903.pdf
Fischbach, Rainer 2005: Mythos Netz: Kommunikation jenseits von Raum und Zeit? Zürich: Rotpunktverlag. http://www.rainer-fischbach.info/fischbach_mythos_netz_2005.pdf
Fischbach, Rainer 2007: Die Tiefe der Täuschung. Freitag, Nr. 13, 30. März, 17. http://www.freitag.de/autoren/der-freitag/die-tiefe-der-tauschung
Fischbach, Rainer 2009: Internet: Zensur, technische Kontrolle und Verwertungsinteressen. In: Lothar Bisky, Konstanze Kriese, Jürgen Scheele (Hrsg.): Medien, Macht und Demokratie. Berlin: Karl Dietz Verlag (Rosa-Luxemburg-Stiftung Texte; 54), 109-133. http://www.rosalux.de/cms/fileadmin/rls_uploads/pdfs/Texte-54.pdf
Morozov, Evgeny 2018: Silicon Valley oder die Zukunft des digitalen Kapitalismus. Blätter für deutsche und internationale Politik, Januar, 93-104.
Mason, Paul 2018a: Zerschlag die digitalen Monopole! Blätter für deutsche und internationale Politik, Februar, 73-82.
Frankish, Keith; Ramsey, William M. 2014: The Cambridge Handbook of Artificial Intelligence. Cambrifge: Cambridge University Press.

Anmelden