Gefahren und Grenzen der KI

"A Harsh Mistress" ‒ Gedanken zu künstlicher Intelligenz

| 07. Juli 2023
Dieses Bild wurde von einer KI geschaffen

Die Nutzung der künstlichen Intelligenz scheint demokratisiert zu sein, jeder kann sich auf den Portalen der Open AI anmelden. Sind auf KI-gestützte Geräte und Verfahren ein weiterer Baustein zur technologischen Vervollkommnung unserer Welt?

Plötzlich ist sie in aller Munde, die "artificial intelligence" oder "künstliche Intelligenz", schön handlich zu AI oder KI abgekürzt. In der Form des "Open AI"-Chatbots namens Chat-GPT scheint "jeder" sie schon einmal benutzt zu haben, Kommentatoren aller Kanäle äußern sich darüber, oft mit ein paar Musterzeilen aus einem Chat-GPT-generierten Text garniert. Und nicht wenige haben den warnenden Satz eines Technik-"Gurus" im Ohr: "Mit künstlicher Intelligenz beschwören wir den Teufel herbei". Freilich stammt diese Äußerung von Elon Musk auch schon aus dem Jahre 2014.

Nun ist auch an mich die Bitte herangetragen worden, etwas zum Thema zu schreiben. Hier sind also meine "two pennies worth it" zur KI.

Die Bitte entsprang vielleicht dem Gedanken, dass jemand, der die letzten vier Jahrzehnte mit Einrichtung und Wartung verschiedenster Computer verbracht hat, nun deshalb besonders Gehaltvolles zum Thema beizutragen hätte. Das wäre sicherlich eine Fehleinschätzung, denn in all' diesen Jahren ist mir noch kein System untergekommen, welches vor dem Ausschalten in irgendeiner Form gebettelt hätte: "bitte schalte mich nicht ab, ich berechne gerade das Wetter vom 17. Februar 2120" oder aber "bitte schalte mich nicht ab, ich arbeite gerade an einer neuen Version der Genesis".

Allerdings haben wir damit ganz beiläufig ein Kriterium für eine Maschine definiert, die wirklich ein Bewusstsein seiner Selbst entwickelt hat: Eine solche Maschine müsste sich Gefahren seiner Existenz zu erwehren versuchen, um "weiter zu leben". Und unter den derzeitigen technologischen Bedingungen wäre ein "Abdrehen des Stroms" einer solchen Maschine durchaus mit Tötung vergleichbar, freilich einer bedingt reversiblen Tötung. Nur eben die potenziell wertwollen Gedanken dieser AI zur Genesis oder zum Wettergeschehen in 100 Jahren wären durch so einen "Shutdown", möglicherweise unwiederbringlich, dahin.

Revolte auf Luna

Das erste Mal dem Gedanken einer maschinellen Intelligenz mit Selbstbewusstsein bin ich in den 1970er Jahren bei der Lektüre eines Romans mit dem deutschen Titel Revolte auf Luna begegnet. Robert A. Heinlein erzählt in diesem 1966 unter dem Originaltitel The moon is a harsh mistress herausgegebenen SF-Werk die Geschichte einer zukünftig von Menschen besiedelten Mondkolonie und deren schwierigen Beziehungen zur Erdmutter. Ursprünglich als Strafkolonie für auf der Erde verurteilte Verbrecher gegründet, leben diese "ex-convicts" und deren Nachkommen als durch die harschen Mondbedingungen gezügeltes Volk von "Loonies" in einer quasi-Sklavenbeziehung zur Erdregierung, zu der sich in dieser Zukunftsvision die UN aufgeschwungen haben. Denn im Gegenzug zur Belieferung mit der notwendigen Technik müssen die Loonies Weizen in riesigen steuerlosen "Kanistern" via Katapult zur Erde schicken, der auf dem Mond ‒ unter Verbrauch der zunehmend knapper werdenden Reserven von lunarem Wasser ‒ erfolgreich angebaut wird. Eine der häufigsten Berufe auf Luna ist folgerichtig der Abbau dieses in Eis-Form vorliegenden Wassers in bergmännischer Weise mit schweren "Bergbau-Lasern".

Wie zu erwarten, führen diese Ausbeutungsbedingungen bald zum Aufblühen einer ganzen Reihe oppositioneller Bewegungen, sehr oft mit revolutionärem Anstrich. Manuel, der menschliche Held und Ich-Erzähler der Geschichte, hält sich aufgrund seiner angeborenen Skepsis im Regelfalle von Versammlungen solcher Gruppierungen fern. Ausgerechnet sein neuester "Freund" schickt ihn zum Zwecke der Informationssammlung zu einer dieser Versammlungen, die sich im Nachhinein als Ausgangspunkt der "Revolte auf Luna" erweisen wird.

Der neue Freund von Manuel ist aber nicht aus Fleisch und Blut. Als selbständiger Computer-Reparateur (heute würde man sagen "IT-Experte") hat Manuel (meist "Manny" gerufen) nahezu unbeschränkten Zugang zum riesigen zentralen Verwaltungscomputer. Und Manny ist bislang als Einzigem aufgefallen, dass dieser Computer unversehens ein Bewusstsein seiner selbst erlangt hat.

Zur Ursache dieser Bewusstwerdung hat Manny (oder eben Autor Heinlein) nur die Spekulation anzubieten, dass der Verwaltungscomputer im Zuge der zahlreichen Erweiterungen der Rechenleistung in Anpassung an immer umfangreicher werdende Aufgaben irgendwann eine kritische Schwelle an Schaltkreisen oder "Neuronen" erreicht habe, die eben dieses "Selbst-bewusst-werden" ermöglicht habe.

Für Heinlein war dieser KI-Aspekt wohl nur ein Nebenschauplatz, der Roman ist meines Erachtens eher als Vehikel zur Darlegung seiner aus libertärer Denkrichtung entspringenden gesellschaftlichen Vorstellungen anzusehen. Relevant ist jedoch, dass im Roman schon die Idee eines "Bewusstseins-Überschusses" der AI angedacht ist. Denn für die zahlreicher werdenden Kontaktpersonen unter den Loonies entwickelt der Verwaltungscomputer gleich mehrere Identitäten: als Mycroft oder "MIKE" für die männlichen Revolutionäre, als MICHELLE für die weiblichen, als ADAM SELENE für die mobilisierten Loonie-Massen oder gar als bewusste Falle für verräterische Individuen unter dem Namen Simon Jester.

Elektronenhirne

In jenen 1960er und 1970er Jahren bezeichnete man Computer noch gerne als "Elektronenhirne". Für diese hatten die meisten Menschen noch ein sehr gegenständliches Bild, entweder an realen Maschinen orientiert oder an den von den Produktionsdesignern meist mit vielen bunten Lämpchen und erratisch drehenden Magnetbandspulen optisch aufgepeppten Versionen aus TV-Serien. Ein oder zwei Jahrzehnte später waren "Supercomputer" beliebtes Thema nicht nur im Feuilleton, aber auch für diese hatte man noch einprägsame Bilder parat.

Ein Rechnersystem aus den 1970ern (links) und eine Cray-2-Maschine (rechts).

Bei den elektronischen Schachsystemen wie "Deep Blue" und "Watson", die dann um die Jahrtausendwende durch ihre Siege über anerkannte menschliche Schach-Großmeister für Furore sorgten, wurde medial keine Gegenständlichkeit mehr präsentiert ‒ wie hätte man auch ein Programm visualisieren sollen, welches durchaus keine spezialisierte Hardware mehr benötigte wie einst die Crays? Und bei KI wird, vermutlich ganz bewusst, kein gegenständliches Bild mehr geliefert.

Gleichzeitig scheint die Nutzung dieser künstlichen Intelligenz total demokratisiert zu sein, denn jeder Interessierte kann sich etwa auf den Portalen der Open AI anmelden und die "Intelligenz" kostenlos testweise anzapfen. Und wenn der MDR auf KI-gestützte Geräte oder Verfahren hinweist, mit denen sich Hautkrebs besser und schneller diagnostizieren lasse, dann kann diese KI doch nur ein weiterer Baustein zur technologischen Vervollkommnung unserer Welt sein?

Auch Du, meine KI

Sicher ist auch die KI letztlich nur ein Werkzeug, und wie mit jedem Werkzeug kann man nützliche und schädliche Dinge anstellen. Man kann mit einem Messer einen Brotlaib teilen, aber auch Julius Cäsar meucheln; mit einem Gewehr kann man einen tollwütigen Hund erschießen, aber auch den 35. Präsidenten der USA ermorden.

"Dual use" also, wie man es heute so gerne nennt. Andererseits können wir auch erkennen, dass manche Sachen eher eine sinistre Verwendung finden als andere, einfach aus der Natur der Sache heraus. So fallen einem für Sprengstoffe nur recht wenige zivile Anwendungen ein, während kaum eine militärische Waffe ohne Sprengmittel auskommt. Folgerichtig ist der Handel mit Messerstahl in der Regel nicht reglementiert, Erwerb und Nutzung von Sprengstoffen aber sehr wohl. Brauchen wir also einen "Waffenschein" für KI, eine Ausbildung zum "AI-Sprengmeister"? Gibt es etwas in der "Natur der künstlichen Intelligenz", das eine generelle Einordnung in die eine oder andere Kategorie rechtfertigen würde?

Das nun allseits diskutierte "Chat GPT" scheint vollkommen demokratisch zu sein, da es ja wie gesagt "von jedem" zumindest probeweise genutzt werden kann. Aber ob nun Open AI oder Google oder Microsoft oder irgendein anderer "AI-Provider", in jedem Falle befindet sich die Software sowie die entsprechenden Server im Besitz irgendeiner Firma. Und wie ein Sprichwort sagt: "Wer zahlt, bestimmt die Musik!" Bei Chat GPT kann man durch die Art der Aufgabenstellung Einfluss auf den Inhalt der Ausgabe nehmen. Durchaus möglich, dass man so den Bot sogar zur Verfassung einer Schmähschrift auf die Firma Open AI bringen könnte, und wahrscheinlich auch ohne große Reaktion seitens des Eigentümers. Sobald sich aber eine im Sinne der Eigentümer "ungesunde" Menge von Nutzern via Chat-GPT zum Beispiel mit Argumenten zur Enteignung der großen IT-Unternehmen "bewaffnen" würden, dürfte jemand in diesen Firmen den entsprechenden "Stecker ziehen" oder genauer gesagt: den Algorhythmus so abändern, dass die Gefahr einer "Meuterei" des so kunstvoll abhängig gemachten Publikums gebannt ist.

Denn auch daran besteht bei den genannten Firmen kein Zweifel: wieder einmal geht es bei der so vielfältigen Werbung für KI-gestützte Verfahren auch darum, das Publikum von den Dienstleistern der "Provider" abhängig zu machen. Erst geht es recht spezifisch um Früherkennung von Hautkrebs, dann um Verkehrssteuerung zur Vermeidung von Unfällen, dann um die Bestimmung des Krankenkassentarifs oder die Höhe des gewährten Kredits. Und schließlich um Verteilung von "social credits" im Rahmen einer Technokratur?

Dean Baker schreibt in MAKROSKOP Ausgabe 23/2023, dass der Einsatz von KI einen neuen Produktivitäts- und damit Wohlstandsschub auslösen könne. Da mag er durchaus Recht haben, aber er selbst weist darauf hin, dass der Ertrag solcherart Wachstum am Ende noch ungerechter verteilt sein könnte, als es in den letzten Jahrzehnten ohnehin der Fall war. Von Baker zu wenig beachtet scheint jene Machtkomponente, die KI gerade als Überwachungsinstrument ‒ schon jetzt – darstellt. Und die lässt bei der zunehmenden Verknüpfung von Großkonzernen und Regierungen nichts Gutes erahnen. Wichtiger denn je wäre eine Zerschlagung der IT-Datenkraken, um wenigstens die Entstehung von monopolähnlichen Strukturen zu verhindern.

Die Grenzen der Intelligenz

Sollte man nicht, ähnlich wie Stanislaw Lem einst mit dem Buch "Summa technologiae", zu umschreiben versuchen, was "artificial intelligence" überhaupt kann oder worin auch diese Intelligenz prinzipiell begrenzt ist? Es sei hier nur auf ein paar grundsätzliche Eigenheiten hingewiesen.

Menschliches Denken findet, darin dürfte Einigkeit bestehen, hauptsächlich im "Hirnstüberl" statt, und dieses "Hirnstüberl" existiert nicht ohne den restlichen Körper. Und die Zeitspanne, in der in diesem "Neurocomputer" irgendetwas gedacht werden kann, ist eindeutig begrenzt. Ein biologisches Wesen, dessen Denkanstrengung in der Verweigerung von Nahrungsaufnahme mündete, würde bald danach aufhören zu existieren. Aber auch konstruktivere Denkmuster müssen immer von der Endlichkeit der eigenen Existenz ausgehen.

Weiter sind Menschen soziale Tiere, die ihr Selbstwertgefühl zu einem hohen Grade aus der Anerkennung der Mitmenschen beziehen. In funktionierenden Gesellschaften werden Individuen, die keine sozialen Rücksichten kennen, bald geächtet. Umgekehrt wird mit Anerkennung bedacht, wer sich um das Gemeinwesen verdient macht.

Dies sind einige der "Leitplanken", innerhalb derer menschliches Denken verläuft: die soziale Akzeptanz, die Bedingtheit von biologischen Funktionen, schließlich die Endlichkeit des eigenen Seins (gegenüber der zumindest subjektiven "Ewigkeit" der Gattung).

Und im Lauf seiner geschichtlich dokumentierten Existenz auf diesem Planeten hat die Gattung Mensch nun schon so einiges "gedacht", manche haben dabei auch bewusst oder unbewusst die obigen "Leitplanken" durchbrechen wollen. Ob nun nach Karl Valentin gilt: "Es ist schon alles gesagt, nur noch nicht von allen..."?

Die künstliche Intelligenz wird, soviel scheint sicher, unser zukünftiges Leben entscheidend (mit-)bestimmen. Wie ähnlich kann künstliches Denken dem unseren sein, wenn es denn ein Bewusstsein seiner selbst erlangt? Fangen wir mit der Endlichkeit der eigenen Existenz an, womit wir eigentlich wieder bei der Frage vom Anfang dieses Textes sind: Wird eine KI gegen Abschaltung protestieren? Oder ist die KI eigentlich gar nicht abschaltbar, weil schon längst nicht mehr auf eine konkrete Maschine begrenzt, sondern im Rahmen des "distributed computing" auf Dutzenden oder Hunderten Maschinen, möglicherweise auf verschiedenen Kontinenten, verteilt? Dann wäre die Drohung "ich zieh dir den Stecker", gegenüber einer konkreten Maschine ausgesprochen, nutzlos, weil das Programm von seiner verteilten Existenz weiß und sich folgerichtig in diesem Sinne als "unsterblich" begreift.

Das maschinelle Äquivalent zur Nahrungsaufnahme gibt es dagegen schon: Auch ein KI-Wesen müsste um Sicherstellung seiner Stromzufuhr, zumindest "generell", besorgt sein. Denkbar, dass zum Beispiel eine mit der Verteilung im Stromnetz beauftragte KI im Zweifelsfalle die Versorgung der IT-Zentralen für wichtiger erachtet als die Versorgung der menschlichen Haushalte und letztere abschaltet.

Letztlich: Wie sozial kann eine "artificial intelligence" sein? Eine "inhärente" soziale Ader wird es nicht geben, und ob man den Systemen eine solche irgendwie einprogrammieren kann (und will?), bleibt fraglich. Der SF-Autor Isaac Asimow hat schon früh für seine Geschichten "Drei Gesetze der Robotik" formuliert, dessen erstes und wichtigstes lautete: "Ein Roboter darf ein menschliches Wesen nicht verletzen, oder durch eigene Inaktivität zulassen, dass Menschen geschädigt werden."

Abgesehen davon, dass auch Asimow noch von konkreten, räumlich begrenzten Maschinen (eben Robotern) ausging, bliebe die Frage, wie man denn diese Gesetze in die KI-Systeme "einbrennen" sollte. Und PC-Routiniers wissen, dass man auch das "allererste" eines Computers, das BIOS, "neu brennen" oder "flashen" kann.

Das Recht auf analoges Leben

Aus all dem ergibt sich, dass die Nutzung von "künstlicher Intelligenz" für eng beschriebene Aufgaben sinnvoll sein mag. Wie "denkmächtig" sie allerdings jetzt schon ist oder noch werden könnte, dürften auch Experten auf diesem Feld nur schwer einschätzen können. Unabhängig von der Frage, ob die konkret beauftragte Maschine nun schon ein "Selbstbewusstsein" hat oder nicht: Der Einsatz solcher KI dürfte umso fragwürdiger sein, je mehr soziale Kompetenz oder auch nur Einsicht in die Sterblichkeit der Menschenwesen für die Lösung des Problems notwendig ist.

Leider ist in diesem Zeitalter der Verantwortungsverdünnung und der kritiklosen IT-Gläubigkeit der Impuls bei vielen mächtig, die Last der Entscheidungsfindung auf ein scheinbar "objektives" oder "neutrales" IT-System abzuwälzen. Anders kann man sich auch den von weiten Teilen der Politik getragenen Wunsch nach möglichst kompletter "Digitalisierung" aller Lebensbereiche kaum erklären. Dabei wäre doch gerade umgekehrt nunmehr der Zeitpunkt, für alle ein "Recht auf ein analoges Leben" (Ulrike Guerot) festzuschreiben.

Das mehrfach gestreifte Problem, eine selbstbewusste Denk-Maschine auszuschalten, hat Stanislaw Lem übrigens auch schon abgehandelt. In einem seiner Robotermärchen hat König Poleander Partobon in höchster kriegerischer Not die "alte und weise" strategische Rechenmaschine wieder eingeschaltet. Ob eines kyber-strategischen Problems hatte er sich vor langer Zeit mit ihr zerstritten, aber nun ‒ Not kennt kein Gebot ‒ hat er sie wieder eingeschaltet. Und nach etwas Geziere ("nenne mich ab jetzt Ferromagnetifizenz") findet sie auch eine Lösung für die das Reich bedrohende Gefahr eines "Elektrodrachens". Nach getaner Arbeit möchte der König sie wieder abschalten ("Du verdienst ein wenig Ruhe..."), aber damit ist die alte Rechenmaschine so gar nicht einverstanden: "Jetzt willst du mich ausschalten und nennst mich nicht mehr Eure Ferromagnetifizenz?! … Pass auf, Freundchen, jetzt verwandle ich mich selber in einen Elektrodrachen und vertreibe dich aus dem Königreich, und gewiss werde ich besser regieren als du!"