Beiträge

201 Jahre künstliche Intelligenz: Die Kreatur des Victor Frankenstein

Frankensteins Monster kommt langsam auch in die Jahre. Im vergangenen Jahr hätte Mary Shelleys gelbäugige, ungeschlachte, mörderische und zugleich tragisch  geschundene Kreatur ihren 200. Geburtstag gefeiert. Frankenstein; or, the Modern Prometheus (eine sehr schöne und rundum zitierfähige neuere Ausgabe ist diese hier), vielleicht einer der literarhistorisch und populärkulturell einflussreichsten englischsprachigen Romane überhaupt, wurde am 1. Januar 1818 erstmals publiziert. Das Monster,„the world’s most rewarding metaphor“ (Frances Wilson, „Frankenstein’s metaphor: The literary creation that continues to live“, Times Literary Supplement , 13.3.2018), musste als Interpretament im Lauf der Zeit für so ziemlich alles Erdenkliche herhalten: Für den Gottkomplex, die Chartistenbewegung und die Gräuel der Sklaverei, für nicht-normative Maskulinitäten auf dem Weg des Home Makers, für Nature vs. Nurture und die postnatale Depression, für Vulkanausbrüche, Tschernobyl und den Brexit. Vor allem aber ist Frankensteins Monster die wohl berühmteste und vielschichtigste Darstellung einer künstlichen Intelligenz, die die englische Literatur zu bieten hat.

Doomsday-Potenzial

Die Politikwissenschaftlerin und Frankensteinologin Eileen Hunt Botting zeigt in einem kürzlich erschienenen Aufsatz eindrücklich auf, wie frappierend die Parallelen zwischen Mary Shelleys schniefend stapfendem Ungetüm und künstlichen neuronalen Netzen im Sinne des Deep Learning sind: Das Monster ist nichts als ein von einem nächtlichen Blitzschlag zum Leben erwecktes Konglomerat aus unförmigen Haut-, Knochen- und sonstigen Geweberesten, aber während es aus der Ferne die häusliche Idylle der Familie De Lacey beobachtet, lernt es völlig von selbst, Mimik und Sprache zu lesen und zu interpretieren. Es lernt Fremdsprachen und versucht sich in einer frühen Form von Machine Translation. Es kontrolliert die proto-robotischen Bewegungen seines ungelenken Körpers und es zettelt strategische Spiele an, um unbemerkt in Interaktion mit der menschlichen Gesellschaft zu treten, deren  Mitglied es so gerne sein möchte. Die Bits und Bytes der KI des 21. Jahrhunderts haben quasi ihren Vorläufer in dem Zellhaufen, den Victor Frankenstein, ohne Zuhilfenahme irgendeines göttlichen Odems, einst zusammenkleisterte. Und die Schneise der Verwüstung, die das Monster im Lauf des Romans leider hinter sich lässt, passt zu der existentiellen Bedrohung der Menschheit, dem Doomsday-Potenzial, als das die künstliche Intelligenz des Heute und Morgen vielfach gelesen wird.

Charles Darwin avant la lettre

Frankenstein kann kultur- und literarhistorisch natürlich aus einer Vielzahl an Blickwinkeln betrachtet werden. Wesentlich für Mary Shelley, die die Story des Romans übrigens in einem katastrophal verregneten Sommerurlaub am Genfer See im „Year Without a Summer“ 1816 (der Vulkan Tambora in Indonesien war ausgebrochen, und seine Aschewolke hatte die Welt in Finsternis und Kälte gestürzt) ihrem Mann Percy und dem gemeinsamen Freund Lord Byron – beide waren berühmte und gelegentlich auf Krawall gebürstete romantische Lyriker – erzählte, waren unter anderem der Einfluss von William Lawrence und die Tradition der Gothic Novel, des englischen Schauerromans. Lawrence war zeitweise der Hausarzt der Shelleys und sorgte für diverse Skandale und Eklats, weil er in seinen Lectures on Physiology, Zoology, and the History of Man (auf Papier bei uns im Magazin, online kostenfrei bei HathiTrust) die Idee verbreitete, dass Leben durch Moleküle und chemische Reaktionen entsteht und nicht durch göttliche Intervention. Charles Darwin avant la lettre sozusagen – und mit der Lesart von „Leben“ als etwas rein Physisch-Empirischem eine wichtige gedankliche Voraussetzung für die Idee, dass Leben und Intelligenz auch künstlich erschaffen werden können.

Doppelgänger-Topos und Transhumanismus

Literarhistorisch betrachtet steht Frankenstein in der Tradition der Gothic Novel, des Schauerromans, der mit Horace Walpoles eher kindlich-plakativem Castle of Otranto (1764) seinen Anfang nahm und sich dann mit William Godwins mühsamem Caleb Williams (1794), Matthew Gregory Lewis’ fürchterlichem The Monk (1796), den klischeetriefenden, aber kompromisslos unterhaltsamen Romanen von Ann Radcliffe und dann später Charles Maturins grandiosem und tragischem Melmoth the Wanderer (1820) sowie James Hoggs bluteinfrierenden und spektakulär lesenswertem The Private Memoirs and Confessions of a Justified Sinner (1824) zu allerlei Höhen aufschwang. Gothic Novels funktionieren nach einem bestimmten Schema, und es gibt diverse gemeinsame Nenner, die sie, wenn man ein paar davon gelesen hat, so vertraut machen wie neuzeitliche Horrorfilme: Es geht normalerweise um religiöse Transgression, allerlei Perversitäten, vermoderte Burgen, bedrohte Jungfrauen, Mord und Totschlag (zumindest manchmal), sadistische Mönche, den wandernden Juden und das Motiv der Verfolgung. Letzteres geht oft einher mit dem Doppelgänger-Topos: Der eine Doppelgänger verfolgt den anderen, so bei Frankenstein, Melmoth, Caleb Williams und Edgar Allan Poes Kurzgeschichte „William Wilson“. Was hat das alles mit künstlicher Intelligenz zu tun? Ganz zentral ist das mal subtile, mal sehr manifeste Gefühl der Bedrohung durch eine Art Mensch, die zwar aussieht wie ein Mensch, aber keiner ist: „Transhumanismus“ in einer Zeit, in der man noch nicht an Roboter dachte.  Maturins Melmoth ist ein entmenschter Wiedergänger, Hoggs Gil-Martin ein menschenähnlicher Teufel, Poes einer Wilson mutmaßlich das Hirngespinst des anderen Wilson. Alle machen uns Angst. Noch deutlicher wird es dann bei Robert Louis Stevensons Mr Hyde aus „The Strange Case of Dr. Jekyll and Mr. Hyde“ (1886): Mittels „Transcendental Medicine“ macht sich Dr Jekyll selbst zu einer Art Transhomunculus, sein Alter Ego Hyde übertrifft ihn nicht nur an (gänzlich künstlicher) Intelligenz, sondern auch an Skrupellosigkeit und Enthemmtheit bei Weitem. Die Reihe ließe sich fortsetzen bei H. G. Wells’ The Island of Doctor Moreau (1896), in dem auf recht haarsträubende Art Pumas und andere wilde Tiere zu künstlich intelligenten Menschen gemacht werden – die Geschichte ist insgesamt eher unerfreulich und geht erwartungsgemäß nicht gut aus.

Frankenstein Complex

Aber nochmal kurz zurück zu Frankenstein. Mary Shelleys Stoff hat über die Jahre und Jahrzehnte zahllose Bearbeitungen in allen medialen Formen erlebt. Richard Brinsley Peakes Theaterstück  Presumption, das erstmals Frankensteins später unvermeidlichen Diener Fritz (oder Igor) einführte, war 1823 die erste. Bemerkenswert unter den Bearbeitungen der letzten Jahre ist Robert Harris’ Roman The Fear Index (2011) – noch nicht bei uns im Bestand, aber hoffentlich bald – in dem im Sinne eines „Frankenstein Complex“ die Parallele zu einer künstlichen Intelligenz gezogen wird, die eigentlich Hedgefonds-Investments perfektionieren soll, aber außer Kontrolle gerät und ihre Schöpfer zerstört. Isaac Asimovs „Laws of Robotics“, die Regeln formulieren, mit denen künstliche Intelligenzen in Schach gehalten werden sollen, um einen „Frankenstein Complex“ (der Begriff stammt von Asimov) zu verhindern, werden hier klar durchbrochen.

Lektüretipps

Abschließend noch ein paar Hinweise zum Weiterlesen: Eine umfassende annotierte Faksimileausgabe von Mary Shelleys Werken ist in der Reihe Pickering Masters erschienen und steht bei uns im Lesesaal. Literatur zur Gothic Novel finden Sie bei uns zuhauf – wenn Sie nur ein einziges Werk zum Thema lesen wollen, nehmen Sie bitte David Punters The Literature of Terror, ein wirklich inspirierendes Buch. Ein Best-Of zur Frankenstein-Literatur in der Stabi finden Sie hier. Wenn es mehr zum Thema Künstliche Intelligenz in der englischsprachigen Literatur sein soll, starten Sie hier. Und zum Schluss noch eine Empfehlung: Lesen Sie Ian McEwans Machines Like Me and Peope Like You, dieses Jahr frisch publiziert. Es lohnt sich.

Legal Tech – Was hat Künstliche Intelligenz mit Recht zu tun?

Ein Beitrag aus unserer Reihe Künstliche Intelligenz zum Wissenschaftsjahr 2019

Seitdem die moderne Informationstechnik Einzug in die Gesellschaft gehalten hat, beschäftigt sich das Recht mit deren juristischen Auswirkungen und statuiert Regeln für deren Umgang. Die damit befassten Juristinnen und Juristen lassen sich keinem einzelnen Rechtsgebiet zuordnen. Vielmehr ist dieser Bereich, der am ehesten noch unter Technikrecht subsummiert werden könnte, interdisziplinär aufgestellt. Die Spannweite reicht dabei vom Datenschutzrecht über den gewerblichen Rechtsschutz und die Produkthaftung bis hin zur Cyberkriminalität sowie zur Rechtsethik, um nur wenige Beispiele zu nennen. Derzeit stellt sich jedoch die Frage, ob der Einzug der Künstlichen Intelligenz als Folge der zunehmenden Digitalisierung der Gesellschaft eine neue Qualität der rechtlichen Auseinandersetzung mit diesem Phänomen bewirkt und ob sich die Arbeitsweise von Juristinnen und Juristen durch den Einsatz  Künstlicher Intelligenz fundamental ändern wird.

Im Koalitionsvertrag zwischen CDU, CSU und SPD für die 19. Legislaturperiode taucht der Begriff Digitalisierung über 90 Mal auf. Zur künstlichen Intelligenz heißt es in den Zeilen 1490 bis 1501 u.a.: „Technologische Basis und Triebfeder der Digitalisierung sind Mikroelektronik, moderne Kommunikationstechnik, künstliche Intelligenz, Robotik, Datenwissenschaften, IT-Sicherheit und Quantentechnologien. Wir wollen die Forschung zu diesen Schlüsseltechnologien intensiv fördern, inklusive sozialer und geisteswissenschaftlicher Begleitforschung. […] Hierzu wollen wir aus der Plattform Lernende Systeme heraus ein Nationales Forschungskonsortium für künstliche Intelligenz und maschinelles Lernen aufbauen und konsequent auf Anwendungen in allen Feldern der Forschungs- und Innovationsstrategie ausrichten.“ Welche konkreten Auswirkungen der Einsatz Künstlicher Intelligenz auf die Ausgestaltung rechtlicher Rahmenbedingungen in Deutschland haben wird, bleibt, zumindest im Koalitionsvertrag, offen. Dass zur Beantwortung rechtlicher Fragen im Zusammengang mit Digitalisierung und künstlicher Intelligenz auch juristischer Sachverstand benötigt wird, zeigt die Zusammensetzung des Digitalrats, der drei Jurist*innen und einen Rechtsinformatiker zu seinen Mitgliedern zählt, und sich mit dem Umgang von Daten, der Voraussetzung für den Einsatz Künstlicher Intelligenz ist, beschäftigt sowie sich der Wahrung von Persönlichkeitsrechten widmen soll. Zu den Fragen, welche ethischen (auch rechtsethischen) Grenzen es hinsichtlich der Verwendung Künstlicher Intelligenz gibt, berät zusätzlich die Datenethikkommission der Bundesregierung. Schließlich hat die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ des Bundestages im Juni 2018 ihre Arbeit aufgenommen und wird nach der parlamentarischen Sommerpause 2020 ihren Abschlussbericht mitsamt Handlungsempfehlungen vorlegen. Ein Eckpunktepapier der Bundesregierung für eine „Strategie Künstliche Intelligenz“ liegt bereits seit Juli 2018 vor, in welchem konkrete juristische Handlungsfelder beschrieben werden. Damit ist der große rechtspolitisch-organisatorische Rahmen für die nächsten Jahre abgesteckt, der mit konkreten Maßnahmen gefüllt werden soll. So hat die Bundesregierung ganz aktuell eine Blockchain-Strategie beschlossen, mit der sie die Potentiale dieser Technologie vollumfänglich nutzbar machen will.

Doch welche rechtlichen Fragen stellen sich nun konkret im Zusammenhang mit dem Einsatz Künstlicher Intelligenz?

Hierzu kann abschließend keine Antwort gegeben werden, jedoch geraten folgende Fragen zunehmend in den Fokus der Rechtswissenschaft:

Im Verhältnis zwischen Bürger und Staat ist es grundsätzlich fraglich, wie die Überprüfbarkeit von Datenverarbeitung, der Daten- und Grundrechtsschutz und die Diskriminierungsfreiheit sichergestellt werden können. Wie kann gewährleistet werden, dass Verwaltungsentscheidungen für Bürger*innen beim Einsatz von Künstlicher Intelligenz  nachvollziehbar sind und effektiver Rechtsschutz uneingeschränkt gegeben ist? Darf der Staat überhaupt solches Handeln an entsprechende Systeme delegieren und wie kann sich der Staat Daten nutzbar machen (auch aus privaten Quellen), ohne dabei Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung oder andere Grundrechte zu verletzen? Und gerade in der Europäischen Union ist das nicht nur eine Angelegenheit der Nationalstaaten. Vielmehr liegt mit der Datenschutz-Grundverordnung (DSGVO) ein verlässlicher Rechtsrahmen für innovative Technologien und Anwendungen auch im Bereich der Künstlichen Intelligenz vor, der Vorschriften zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Verkehr solcher Daten umfasst. Ergänzt wird dieser durch die neue E-Privacy-Verordnung werden.

Der Zugang und die Nutzung von Daten (selbst zu kommerziellen Zwecken) verschiebt die juristische Auseinandersetzung mit der Künstlichen Intelligenz darüber hinaus stark in den gewerblichen Rechtsschutz und wird verstärkt Einzug in das Wettbewerbs- und Urheberrecht halten. Insbesondere auch das für Bibliotheken interessante Text und Data Mining (TDM), als Grundlage für maschinelles Lernen, bedarf einer Anpassung des urheberrechtlichen Rechtsrahmens.

Ganz weit vorn rangiert natürlich auch die Frage nach der Haftung für die durch Künstliche Intelligenz verursachten Schäden, wobei die entsprechende Würdigung zivil- und strafrechtlich behandelt werden muss. Dies wurde bereits im Zusammenhang mit einem Unfall mit Todesfolge bei einem Test von autonomem Fahren heftig diskutiert. Immerhin ist Künstliche Intelligenz bisher weder rechts- noch deliktsfähig. Wie sind also die dahinterstehenden Produzenten und Softwareentwickler zu behandeln?

Aber auch der Arbeitsmarkt ist betroffen. Immer mehr Arbeitgeber setzen bei der Einstellung von Mitarbeitenden Systeme der Künstlichen Intelligenz ein. Und welche Grenzen hinsichtlich der Überwachung von Personal durch entsprechende Systeme zu ziehen sind, ist noch längst nicht ausreichend geklärt.

Und schließlich wird die Frage immer aktueller, wie sich die Rechtsanwaltschaft oder auch Rechtssuchende Informationstechnologien zu Nutze machen können? Hier sind insbesondere Portale wie etwa wenigermiete.de, abfindungsheld.de oder flightright.de etc. im Fokus. Es ist zwar nicht zu erwarten, dass in naher Zukunft Recht von Robotern gesetzt oder gesprochen werden wird, jedoch spielt der Einsatz „juristischer“ Software schon jetzt bei der Vertragsgestaltung, Verfahrensabwicklung, Mandatsbetreuung oder Fallanalyse eine große Rolle. Nicht zuletzt für die rechtswissenschaftliche Recherche ist die Informationstechnologie nicht nur für Forschende, sondern auch für praktisch arbeitende Juristinnen und Juristen unverzichtbar. Welche juristische Sprengkraft das allerdings haben kann, wird besonders an einem Fall aus Frankreich zur s.g. „Predictive Analysis“ deutlich. So wurde es in diesem Jahr im Rahmen einer Justizreform unter Strafe gestellt, die Identitätsdaten von Richtern und Angehörigen der Justiz mit dem Ziel oder der Wirkung der Bewertung, Analyse, des Vergleichs oder der Vorhersage ihrer tatsächlichen oder angeblichen Berufspraktiken zu erheben und die gewonnenen Erkenntnisse zu verwenden. Diese Mustererkennung, die insbesondere auf Richter angewendet wird, um zu untersuchen, wie die künftige Entscheidungspraxis dieser Juristen sein könnte oder ob es große Unterschiede bezüglich einer „einheitlichen“ Rechtsprechung gibt, fordert Justiz und Gesellschaft enorm heraus und bedarf neben der juristischen Betrachtung einer politischen Auseinandersetzung.

Damit unsere künftigen Juristinnen und Juristen auf die vorab skizzierten Fragestellungen gut vorbereitet werden, gibt es mittlerweile Studiengänge zu Legal Tech oder es werden Summer Schools angeboten, die mit Sicherheit eine große Zukunft in der juristischen Ausbildung haben werden. Aber auch der wissenschaftliche Diskurs rund um das Thema Robotik und Recht hat einen erheblichen Aufschwung genommen, was insbesondere durch die Besetzung entsprechender Professuren bzw. Lehrstühle oder die Einrichtung von Forschungsstellen sowie die Gründung von Legal-Tech-Zentren zum Ausdruck kommt.

Das Thema Künstliche Intelligenz und Recht ist so breit aufgestellt, dass dieser Blogbeitrag lediglich ein kleines Streiflicht über die aktuelle Auseinandersetzung darstellen kann. Was wissenschaftliche Bibliotheken allerdings tun können, ist die Bereitstellung von Medien aller Art für das Studium und die Forschung auf diesem Gebiet oder für die allgemeine Rechtsrecherche zu gewährleisten. Zu einem der Fokusbereiche des Fachinformationsdienstes für internationale und interdisziplinäre Rechtsforschung <intR>² an der Staatsbibliothek zu Berlin gehört auch Legal Tech. Im Katalog der Staatsbibliothek zu Berlin (StaBiKat) oder in der Suchmaschine des Fachinformationsdienstes finden Sie zahlreiche Publikationen aus dem In- und Ausland zu den Themen Künstliche Intelligenz, Robotik, Legal Tech und Recht. Darüber hinaus können Sie innerhalb der Räumlichkeiten und teilweise auch von zu Hause Datenbanken nutzen, die Ihnen Zugriff auf die aktuelle Rechtsprechung rund um Technik und Recht ermöglicht. Welche das sind, erfahren Sie über das Datenbank-Infosystem (DBIS).

 

Vorschau: Im nächsten Beitrag entführen wir Sie noch einmal in die Welt der Literatur – Sie begegnen Cyborgs und anderen Mischwesen!

 

Mit Maschinen spielen – Lust und Frust in Zeiten der Künstlichen Intelligenz

Ein Beitrag aus unserer Reihe Künstliche Intelligenz zum Wissenschaftsjahr 2019

Irgendwann wird man vielleicht feststellen, dass der 10. März 2016 einen historischen Wendepunkt in der Technologie-, wenn nicht gar in der Menschheitsgeschichte markiert.

An besagtem Donnerstag geschah im Four Seasons Hotel in Seoul etwas überaus Überraschendes, wenngleich nicht in den Augen aller Menschen, so doch wenigstens in denen der interessierten Öffentlichkeit. Es ereignete sich das zweite Match zwischen dem Südkoreaner Lee Sedol, einem, wenn nicht dem zu dieser Zeit besten Go-Spieler der Welt, und dem Computerprogramm AlphaGo, einem neuronalen Netzwerk, basierend auf maschinellen Lernmethoden und entwickelt von Googles Deepmind.

Das erste Match hatte Sedol bereits verloren. Die Zuversicht in die eigene Spielstärke – oder war es menschliche Überheblichkeit? – war gewichen. Doch die Hoffnung stirbt bekanntermaßen zuletzt, hier vor allem die der versammelten Spielergemeinde.

Nach mehreren bemerkenswerten Spielzügen im zweiten Match vollzog AlphaGo im 37. Zug etwas, was nicht nur den vorherrschenden Spielkonventionen, sondern auch jeglichen statistischen Wahrscheinlichkeiten und dem Erfahrungswissen der AlphaGo-Entwickler entgegenstand. Die Maschine entwickelte ein Eigenleben, ein Eigendenken. Es war erst auf den zweiten Blick zu erkennen, dass die Maschine keinen (Rechen-)Fehler produzierte, zumal Go als komplexes Brettspiel mehr Züge ermöglicht, als jeder Superrechner klassischer Bauart heutzutage zu berechnen in der Lage ist.

Vielmehr überraschte AlphaGo das Publikum mit einer unerwarteten Spielintuition und -kreativität. Im Nachgang des Matchs resümierte der unterlegene Lee Sedol bewegt:

„Ich dachte AlphaGo würde auf Wahrscheinlichkeitsrechnung basieren und dass es nur eine Maschine wäre […] Nach dem Zug änderte ich meine Meinung. Dieser Zug war kreativ und wunderschön.“ (zitiert nach: Macht Euch die Maschinen untertan)

Einer Maschine war es gelungen, eine Grundeigenschaft des Menschen zu erlangen. Im Auge des Betrachters entwickelte sie eine Kreativität, um Originalität und Schönheit hervorzubringen – eine Domäne, die nur uns Menschen beschieden zu sein schien.

Was dieses Ereignis in den Augen vieler Go-Spieler so bedeutsam macht, bleibt für Nicht-Go-Spieler, also für die überwältigende Mehrheit von uns, unverständlich, singulär und ohne Folgen. In Südkorea indes führte die krachende Niederlage eines Nationalhelden zu verstärkten Investitionsprogrammen in die nationale, industrielle KI-Forschung – das Match als Sputnik-Schock.

Dieses Spiel war lediglich eine Zwischenetappe im Wettbewerb Mensch gegen Maschine, in dem ein Muster zu erkennen ist: Mensch programmiert Maschine, Maschine lernt, Maschine gewinnt, Mensch sucht komplexere Spielherausforderung für neue Maschinen.

Dieses Muster lässt sich anhand einzelner Spiele historisch skizzieren:

Dame:
Der Informatiker Arthur Lee Samuel, einer der frühen KI- und Computerspiel-Pioniere, entwickelte um 1959 ein Programm, welches im Spiel gegen sich selbst Gewinnwahrscheinlichkeiten von Zügen berechnete und so alsbald ein mehr als ernst zu nehmender Gegner im Dame-Brettspiel wurde. Dies war die Geburtsstunde maschinellen Lernens. Die damaligen Rechnerkapazitäten begrenzten die Möglichkeiten eines Vorgehens nach der Brute-Force-Methode, der Suche nach der einen richtigen Lösung. Anstatt alle möglichen Züge durchzurechnen, wurde ein heuristisches Verfahren gewählt, um den Suchraum nach guten, da gewinnbringenden Zügen einzugrenzen. Ein Ansatz, der bis heute eine gewisse Gültigkeit besitzt.

Schach:
Das Königsspiel reizte schon früh ob seiner Komplexität mit ca. 1043 möglichen Spielstellungen. In den 1980er Jahren entstanden an der Carnegie Mellon University leistungsfähige Schachcomputer, von denen Deep Thought nennenswerte Spielerfolge erzielte, aber gegen die weltbesten Spieler wie Garri Kasparow schachmatt ging. Erst eine modifizierte Schachsoftware, kombiniert mit einer enormen Prozessorleistung, führte 1997 zum Sieg des IBM-Schachcomputers Deep Blue über den Russen. Fun Fact: Im Nachgang entwickelte sich zwischen den Beteiligten eine rege Diskussion über regelkonformes Verhalten und die definitorischen Grenzen maschinellen Lernens.

Go:
Dem oben beschriebenen Wettkampf Mensch gegen Maschine folgten weitere. Professionelle Spieler waren auf die Tribüne verbannt, die Maschinen machten das Spiel mittlerweile unter sich aus. Während bei AlphaGo noch Ansätze von Big Data – die Auswertung zahlreicher von Menschen gespielter Partien – mit Ansätzen des reinforcement learning kombiniert wurden, wurden dem Nachfolgeprogramm AlphaGo Zero lediglich die Go-Spielregeln eingepflanzt. Das Erlernen des Spiels und der Strategien geschah eigenständig: KI als Lehrer und Schüler zugleich. Das Ergebnis dieser konstruktiven Symbiose mit sich selbst? Nach dreitägiger Lernphase schlug AlphaGo Zero in hundert Partien hundert Mal seinen Vorgänger.

Poker:
Während Dame, Schach und Go als Zwei-Personen-Nullsummenspiele mit perfekter Information gelten, sind Kartenspiele wie Poker Spiele mit imperfekter Information, das heißt die einzelnen Spieler kennen nur ihre eigenen Karten. Daher stehen Spieler wie KI vor der Herausforderung, das eigene strategische Verhalten nicht oder nur sehr bedingt an Informationen zur Kartenverteilung der Gegner ausrichten zu können. Ein weiteres Problem besteht darin, vermeintliche Muster erkennen zu müssen, wie Gegner in der Vergangenheit spielten, oder welchen Stellenwert beispielsweise Risiko und Bluffs einnehmen.
Aber auch diese Herausforderung (ca. 10160  mögliche Spielkonstellationen) war letztlich für KI-Programme zu bewältigen. Erst schlug Ende 2016 Deepstack und unmittelbar darauf im Januar 2017 Libratus die menschliche Konkurrenz im Two-Player No-Limit Texas Hold’em aus dem Feld. In der Lernmethodik unterscheiden sich die Ansätze, im Ergebnis führten beide zum Erfolg. Ein weiterer Meilenstein nun in diesem Jahr: Libratus erklomm die nächste Stufe der Komplexität – es gewann in der Königsdisziplin, dem Multiplayer-Game gegen fünf professionelle Poker-Spieler.

E-Sport:
Auch im boomenden Markt des E-Sports, des sportlichen Wettbewerbs mittels Computerspielen, mischt Künstliche Intelligenz zwischen Hunderten Millionen von Spielern kräftig mit.
Gerade im Multiplayer Online Battle Arena-Genre erhöht sich die Vielschichtigkeit klassischer Brett- oder Kartenspiele. Für Triumphe in diesen Echtzeit-Strategiespielen wie Dota2 oder League of Legends, gespielt in der Regel zu fünft pro Team, sind neben schneller Reaktionsfähigkeit im Mikrosekundenbereich, also durchaus einer Domäne von Computerprogrammen, auch die soziale Interaktions-, Team- und Kommunikationsfähigkeit vonnöten, gemeinhin ein herausforderndes Terrain nicht nur für KI. Pionierleistungen erfüllte in diesem Bereich das Projekt OpenAI Five, dem es im April 2019 erstmalig gelang, den amtierenden Dota-Weltmeister OG zu schlagen.

Womöglich wird es für Programme wie AlphaGo Zero, Libratus und OpenAI alsbald nach kurzer Trainingszeit möglich sein, nacheinander oder sogar simultan die derzeit Führenden der Ranglisten im Poker, Stephen Chidwick, im Schach, Magnus Carlsen und im Go-Spiel, Shin Jinseo zu besiegen. Die nächste Stufe wäre damit erreicht: nicht nur einzelne Spiele oder Nischen zu bespielen, sondern mit ganz unterschiedlichen Komplexitäten und Ansätzen umzugehen.
In weiterer Konsequenz wird die Herausforderung stehen, spielunabhängig vielschichtige Probleme zu bewältigen, Lösungskompetenz zu entwickeln, generell also realistische (Alltags-)Situationen zu meistern.

Was bleibt uns als Gewissheit in diesem ungleichen Spiel? Dass wir als Homo Ludens weiterhin bestimmen, was wir wo wie spielen. Oder etwa nicht?
Auch diese Domäne beginnt mittlerweile zu bröckeln, seit dem Aufkommen von Speedgate, dem ersten von Künstlicher Intelligenz entwickelten Sportspiel, in dem Menschen spielen, was Maschinen selbständig entwickelt haben. Bleibt auch um des joga bonito willen zu hoffen, dass dies nur eine sportspielerische Randerscheinung bleibt.

 

Referenzen:

Grunwald, Armin (2019): Der unterlegene Mensch: die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern. München: riva.

Kreye, Andrian (2018): Macht Euch die Maschinen untertan: Vom Umgang mit künstlicher Intelligenz. München: Süddeutsche Zeitung Edition.

Ramge, Thomas (2018): Mensch und Maschine: Wie Künstliche Intelligenz und Roboter unser Leben verändern. Stuttgart: Reclam.

Weiterführendes:

AlphaGo – Film, USA 2017, Regie: Greg Kohs.

 

 

Vorschau: Im nächsten Beitrag entführen wir Sie in die Welt der Literatur – Sie begegnen Cyborgs und anderen Mischwesen!