Konnte ChatGPT den Krieg gegen die  Ukraine vorhersehen?

VERÖFFENTLICHT 21. JUNI 2023 

Konnte ChatGPT den Ukrainekrieg vorhersehen?

Link to the ENGLISH version / Link to my original ChatGPT-Dialog (June 2022)

ChatGPT ist kein Prognose-Instrument, sondern ein – sehr leistungsfähiger – textbasierter Chatbot. Es wurde auch nicht beansprucht, dass mit Hilfe von ChatGPT der Ukrainekrieg vorhergesagt werden könnte. Der „Wissensstand“ – also die Textbasis – als Ausgangspunkt des maschinen-lernenden Systems ChatGPT 2 war zum Zeitpunkt meiner Abfrage der Stand vom September 2021, also fast ein halbes Jahr vor dem Überfall Russlands auf die Ukraine. Mein Experiment ist also nicht ganz fair: ich weiß natürlich, was später passiert ist und stelle so gezielte Fragen, die ChatGPT aus Sicht von 2021 beantworten soll. Ich habe den ganzen Text ursprünglich in englischer Sprache gefasst.

Was kann man aus diesem Experiment über ChatGPT lernen?

Zum einen gibt es interessante Aufschlüsse über die Arbeitsweise von ChatGPT. Es ist deutlich zu bemerken wie die jeweils letzte aktuelle Textbasis die Antworten des Systems bestimmt.

Das wirft zugleich Fragen auf: für jedes maschinen-lernfähige System ist ein Ausgangspunkt an Sätzen erforderlich, die akzeptiert werden und von denen ausgehend weiter gelernt wird, bis ein auf Milliarden von Sätzen basierendes System entsteht, das in der Regel grammatisch und stilistisch wohlgeformte neue Sätze erzeugen kann. Je nach Ausgangsbasis und in der Programmierung eingebauten Restriktionen können sehr unterschiedliche Sätze als annehmbar oder unannehmbar eingestuft werden. Auch das Antwortverhalten auf Benutzer-Eingaben berücksichtig diese Restriktionen.

Wie genau diese „Lernmechanismen“ und ihre Restriktionen aussehen, bleibt für den Benutzer intransparent. Manchmal scheint auf, dass die Programmierer Beschränkungen eingebaut haben, die explizite sexuelle Inhalte oder Hass-Kundgebungen stoppen. Zu politischen Fragen ist eine vorsichtige Neigung zu liberaleren Positionen der Mitte erkennbar, während gegen extreme bis extremistische Positionen gegengehalten wird.

So sehr ich das begrüße, so sehr fürchte ich, dass solche Vorgaben auch anders aussehen könnten, wenn die zugrunde gelegte Textbasis deutlich stärker extreme Positionen als Ausgangspunkt nimmt und beim Lernen – sowohl beim Trainieren mit den Daten, als auch interaktiv mit den Nutzern – auch sehr problematische und manipulative Antworten erfolgen könnten. Für den Endbenutzer ist das nicht einfach erkennbar.

Bei alledem geht es nicht um die Kategorien wahr oder falsch. Vielmehr scheint ChatGPT ein konsensorientiertes System zu sein, das eine große Integralfunktion über die riesige Datenbasis legt. Ich halte zwar wenig von Heidegger, aber hier scheint mir seine Unterscheidung des „man“ von der „Eigentlichkeit“ zu passen. ChatGPT rührt einen Brei aus dem „man“ an. Das macht den Chatbot vielen so unheimlich. Denn das entspricht unserer alltäglichen Erfahrung von menschlicher Kommunikation.

Das meiste Gesagte besteht aus dem, „was man so sagt“, allerdings mit einer ungeheuren Datenbasis. Es wäre viel zu anstrengend, jede Kommunikation auf die Möglichkeit einer Verständigung auszurichten, also bleibt „man“ bei Selbst-Verständlichkeiten. Habermas Art des kommunikativen Handelns ist die „eigentliche“ Ausnahme, wenn die Verständigung z.B. für die Handlungskoordinierung erforderlich ist. Im interaktiven Gebrauch von ChatGPT kann jeder natürlich seine „Eigentlichkeit“ einbringen – je mehr das geschieht, desto unbefriedigender werden die Antworten von ChatGPT – weil sie irgendwann im „man“ verharren und keine eigene Eigentlichkeit entwickeln.

ChatGPT besteht darauf nicht zu werten. Auch wenn es möglich ist zu allen möglichen Positionen das Pro und das Contra abzurufen, sagt ChatGPT nicht, welche Alternative die „bessere“ ist.

Zu einigen Grundsatzfragen wertet der Chatbot aber doch. So wird regelmäßig betont, dass Dinge und auch menschliche Positionen sich ändern können. Ausdrücklich wird erwähnt, dass ChatGPT auch falsche Aussagen treffen kann. Das maschinengestützte Lernen mit Hilfe von neuronalen Netzen muss offen sein – und damit auch offen für Irrtum. Bevor ChatGPT zugibt, etwas nicht zu wissen, rät es lieber - auch ein sehr "menschlicher" Zug. Auch wird darauf hingewiesen, dass man gegenüber manchen menschlichen Schwächen (wie z.B. Dummheit, Unwissenheit oder Lernschwächen) tolerant sein soll. Alles das ist sehr lobenswert, aber sicher für ChatGPT nur deshalb möglich, weil ein Programmierer explizit eingegriffen hat.

Was unheimlich ist, ist weniger die hohe Leistungsfähigkeit von ChatGPT, sondern dass es gerade die Schwächen und Anfälligkeiten der alltäglichen menschlichen Kommunikation so hervorragend abbildet: die Anfälligkeit dafür, schöne Formulierungen für Wahrheit zu nehmen, sich von Sätzen, die einem gerade recht sind, überzeugen zu lassen, lieber zu raten als Unwissenheit einzugestehen. ChatGPT kann genau wie ein Mensch alle Register der sprachlichen Verführung und Manipulation ziehen.


Was kann man aus diesem Experiment über den Ukrainekrieg lernen?


Nichts – aber man kann sehr viel über den Wandel der Perzeptionen und des öffentlichen Meinungsbildes zum Thema Ukraine und Russland lernen. Zwischen „damals“ – September 2021 – und heute – Juni 2023 – hat sich der Blick nicht nur auf den Aggressionskrieg Russlands gegen die Ukraine fokussiert, sondern auf die ganze Vorgeschichte spätestens seit 2014, als die Krim annektiert wurde, vielleicht schon seit dem Amtsantritt von Putin. Diese ganze Geschichte erscheint in einem neuen Licht. Die erste Lehre ist, sich nicht von Momentaufnahmen gefangen nehmen zu lassen, sondern auch KI-gestützte Aussagen als zeitgebunden anzusehen.

Es zeigt sich, dass die „gängigen Aussagen“, das, was „man“ so sagt, mit einem Zeitstempel versehen werden müssen. Was damals als richtig galt, kann aus heutiger Sicht ein Fehler gewesen sein. Einige haben es natürlich schon immer gewusst – aber ChatGPT 2021 zeigt uns, dass Irren nicht nur menschlich ist, sondern auch eine Frage des Datums. ChatGPT 2023 muss zuerst einmal verarbeiten, dass die Möglichkeiten von damals jetzt Tatsachen sind.

Aktualisierte Antworten müssten nicht nur die „Zeitenwende“ reflektieren, sondern auch die Tatsache, dass nach solchen Umbrüchen auch die Geschichte umgeschrieben wird. Für einen lernenden Chatbot verändert sich die Textbasis erheblich. Die Frage ist, ob ChatGPT die neuen Texte einfach hinzufügen kann – denn sie widersprechen oft den alten Texten. Hegel hätte seine Freude an dem dialektischen Spiel. In der Textbasis zeigt sich sein „Weltgeist“, der die Widersprüche zu einer neuen Synthese hinaufhebt.

ChatGPT hat 2021 nichts „besser gewusst“ als heute, es gibt den allgemeinen Stand des damaligen Denkens wieder. Der Chat erzeugt ein Foto unseres Spiegelbildes aus dem Jahre 2021. Der Vergleich mit heute hilft uns zu erkennen, wie – und vielleicht warum – wir uns damals irrten. Aber die Dynamik, mit der die Ereignisse dieses Denken verändern, wird nicht erkannt. Daher sollten wir die Prognosefähigkeit von Chatbots nicht überschätzen.

Wenn wir einsehen, wie schwierig es ist, sich dem Zeitgeist zu entziehen, der den Textbestand prägt, dann sollten wir auch unserer heutigen Textbasis mit mehr kritischer Distanz begegnen: morgen kann manches ganz anders gesehen werden. Allerdings sind Zeitenwenden mit so tiefen Umbrüchen eher selten. Zu den meisten Zeiten und mit vielen Themen bleibt die Grundlage von ChatGPT über längere Zeit sehr stabil, Stabilitätsrisiken werden schwer erkennbar und erfordern die Fähigkeit des kritischen Umgangs mit den Ergebnissen der Chats.

Damals war die Annexion der Krim und der Konflikt im Donbas als regionaler Konflikt angesehen worden, der eingehegt werden sollte. Der Minsk-Prozess arbeitete mit vermeintlich nützlichen Fiktionen: Russland wurde als „Neutrum“ behandelt und nicht als Kriegspartei, während die Ukraine mit den sogenannten „Rebellen“ im Donbas verhandeln sollte. Man wusste eigentlich, dass diese Fiktionen nicht stimmten, aber das Ziel der De-Eskalation war es wert, Putin das Gesicht wahren zu lassen. Die Ukrainer haben schon damals nicht an diese Strategie und schon gar nicht an solche Fiktionen geglaubt!

Inzwischen hat sich Putin demaskiert. Er hat das Minsk-Abkommen als Fetzen Papier behandelt. Damit erscheint aber die ganze Entwicklung seit 2014 als Täuschungsmanöver zur Vorbereitung des Krieges gegen die Ukraine mit dem Ziel, das Nachbarland erst zu destabilisieren und dann zu vernichten. In der Rückschau müsste ChatGPT seine Textbasis schon ab 2014 und vielleicht noch früher verändern – wahrscheinlich durch Eliminierung der auf Täuschung angelegten russischen Texte und Einfügen von mehr imperialistischen und nationalistischen Texten von Putin und seinem ideologischen Umfeld.

Mit einer Änderung der Gestaltung der Textbasis und des Lern-Algorithmus kann ChatGPT durchaus unterschiedliche Ergebnisse liefern. Da frage ich mich natürlich, wie ChatGPT 2023 aussehen würde, wenn russische Trolle oder ihre westlichen „fellow travellers“ die Möglichkeit hätten, auf die Textbasis einzuwirken. Kann das überhaupt verhindert werden? Werden Artikel des Panik-Propagandisten Sergej Karaganov oder Drohungen des extremistisch gewendeten Ex-Präsidenten Medvedev in der Textbasis berücksichtigt? Kann der Programmierer Propaganda von anderen Texten unterscheiden?

Zeitenwenden zwingen dazu, sich zu entscheiden. Das geht nicht „wertfrei“. Wenn das „man“ gespalten ist – wie entscheidet sich der Programmierer von ChatGPT? Können Restriktionen das Eindringen von Propaganda stoppen? Kann ich der Firma, deren KI ich verwende, vertrauen? Wir müssen lernen, KI-generierte Texte eher noch kritischer zu lesen als menschlich generierte Texte.

Die damaligen Antworten im Chat zur Frage des Budapester Protokolls von 1994 lagen ganz auf der Linie einer „soft diplomacy“. Im Donbas hatte der Krieg schon 2014 begonnen. Die Garantien des Budapester Protokolls wurden schon damals systematisch durch Russland verletzt: die Souveränität und territoriale Integrität der Ukraine, das Versprechen eines Gewaltverzichts und die Einhaltung des Völkerrechts. Dennoch beließen es die beiden westlichen Garantiemächte überwiegend bei verbalen Sympathiebekundungen. Die USA halfen der Ukraine zwar auch mit Ausbildung und Ausrüstung. Selbst das wurde unter Präsident Trump in Zweifel gezogen. ChatGPT insistiert in seinen Antworten, dass im Budapester Protokoll keine militärischen Garantien enthalten seien.

Heute wird anerkannt, dass jede Konfliktlösung von wirksamen Sicherheitsgarantien für die Ukraine begleitet werden muss. Diese können sich sicher nicht am zahnlosen Budapester Protokoll orientieren. Die Lehre aus dem Chat ist: die Rückschau auf erfolglose Aktionen und falsche Einschätzungen ist lehrreich – mit oder ohne ChatGPT. Die Schlüsse daraus müssen wir selbst ziehen. Das kann ein Chatbot uns nicht abnehmen.

Damals war die ukrainische Diplomatie nicht sehr erfolgreich. ChatGPT zeigt, dass damals das Paradigma einer Balance des Urteils gegenüber den beiden Konfliktparteien vorherrschte. Erst der Bruch der europäischen Friedensordnung, der mit Putins Rede im Februar 2022 überdeutlich wurde, führte zu einem langsamen, aber dann grundlegenden, Paradigmenwechsel.

Der vielzitierte Slogan „Wandel durch Handel“ wird damals auch von ChatGPT als erfolgreich dargestellt. Unter Diplomaten wurde er zwar wenig verwendet, aber in der Politik und vor allem in den Medien war diese griffige Formulierung beliebt. ChatGPT gibt Beispiele für positive Wirkungen von Handel: an erster Stelle wird ausgerechnet China genannt, dann Südkorea und Taiwan – und zu meiner Verwunderung der Wandel in Osteuropa – der durch viele Faktoren, aber wohl am wenigsten durch den Handel bewirkt wurde.

ChatGPT muss man zugutehalten, dass auch aus damaliger Sicht sehr differenziert geantwortet wurde und auf die Rolle der unterschiedlichen Kontexte hingewiesen wurde. Solche Kontexte werden im politischen Diskurs gerne durch Wunschdenken überdeckt.

Die Hoffnung auf eine liberale und demokratische Politik bewirkt durch die wirtschaftliche Entwicklung braucht viel Geduld. Während wir auf positive Effekte von „Wandel durch Handel“ warten, übersehen wir nur zu leicht Fehlentwicklungen.

In Russland gab es schon am Ende der Jelzin-Zeit zwei voneinander isolierten Eliten: die  „Siloviki“ – starke Männer mit engen Verbindungen zum Sicherheitsapparat, oft geschult im sowjetischen KGB – und die Reformer, die mit der Liberalisierung der Wirtschaft die Schwäche des Sowjetsystems überwinden und Russland zu einem starken kapitalistischen Land machen wollten. Sie lebten nebeneinanderher ohne viel Verständnis füreinander. Im Zweifel entschied sich Putin für die Siloviki, auch wenn damit die Modernisierung der Wirtschaft stecken blieb.

Interessant ist, dass die ideologische Entwicklung und der Wandel der Weltsicht mancher russischer Politiker, auch von Putin selbst, sich in ChatGPT 2021 kaum erkennen lässt. Die im Sinne von Gramscis Theorie mächtiger werdende „kulturelle Hegemonie“ von extremen Kräften, wird von ChatGPT unterschätzt, weil solche Kräfte ja nicht unmittelbar auf die Politik einwirkten.

Doch die rückwärtsgewandte Geschichtsideologie, die Elogen Putins für den rechtsextremen Mussolini-Bewunderer Ilya Ilyin aus den zwanziger Jahren, der Einfluss heutiger faschistischer Ideologen wie Alexander Dugin trugen zur Vergiftung des Meinungsklimas bei. Das reicht bis in die engste Umgebung Putins hinein. ChatGPT 2021 rechnete Medvedev noch unter die „Liberalen“ im Kreml, inzwischen gehört er zu den schlimmsten Hetzern. Die Lehre daraus sollte sein, die Entwicklung solche Meinungsbildner bei der Analyse nicht zu vernachlässigen.

ChatGPT meint noch 2021, dass es keine Hinweise darauf gibt, dass Russland die ganze Ukraine beanspruchen könnte. Die russische Außenpolitik werde von geopolitischen Motiven, dem Bedürfnis nach Sicherheit und der Wirkung historisch-kultureller Narrative bestimmt. Hinzu komme der Nationalismus. Alle diese Elemente werden aber für den russischen Imperialismus dienstbar gemacht. ChatGPT tut sich schwer mit abstrusen Weltanschauungen, und mit Anzeichen eines Realitätsverlustes. So unterschätzte der Chatbot nicht anders als menschliche Analysten, wie schnell beides in einen Krieg umschlagen konnte. Offensichtlich ist es Putin gelungen, den Westen über seine imperialistischen Träume zu täuschen – ChatGPT 2021 zeigt uns, dass das Meinungsklima der „Textbasis“ so war, dass wir uns täuschen lassen wollten.

Es ist interessant, dass ChatGPT 2021 die Probleme der EU mit ihrer Sanktionspolitik klar benennt. Die Sanktionen nach der Krim-Annexion hatten ihren Zweck nicht erreicht. Scholz und Macron hatten Putin unmittelbar vor dem Angriff vor verschärften Sanktionen gewarnt, aber Putin hielt das für bloße Rhetorik. Polen und die baltischen Staaten gingen davon aus, dass nur amerikanischer Druck die deutsche Haltung verändern könnte – und waren enttäuscht, als Präsident Biden die Sanktionen gegen North Stream suspendierte. Um so drastischer war die Zeitenwende – die ChatGPT natürlich nicht vorhersehen konnte.

Die unterschiedlichen Positionen zur North Stream Pipeline werden in ChatGPT 2021 beschrieben. Damals stand die These, dass Deutschland auf Grund der Abhängigkeit von russischem Gas erpressbar sei und deshalb die Interessen der Osteuropäer aufopfere, der vor allem in Deutschland verbreiteten Hypothese gegenüber, dass Russland die Einnahmeausfälle aus einem Lieferstopp von Gas nach nicht lange durchstehen könnte und deshalb ein zuverlässiger Lieferant bleibe.

Der Test für beide Positionen kam erst nach der russischen Invasion in die Ukraine. Nach dem Lieferstopp zeigte sich, dass Russland weitaus länger mit den Einnahmeausfällen leben konnte. Der Preiseffekt führte sogar zu Mehreinnahmen. Außerdem wurde das Embargo wurde nicht weltweit respektiert. Zweifel über das Image Russlands als zuverlässiger Lieferant gab es schon seit einigen Jahren. ChatGPT reflektiert das. Aber es gab keine Konsequenzen.

Umgekehrt ließ sich Deutschland keineswegs erpressen. Die politischen Interessen wurden nicht durch Wirtschaftsinteressen diktiert, auch wenn die notwendigen Anpassungen Zeit beanspruchten. Schließlich kam Deutschland besser durch den Winter als zunächst befürchtet wurde. ChatGPT 2021 zeigt, dass hypothetische Prognosen dazu keine Hilfe waren. Wie sich diese Fragen auf lange Sicht darstellen, ist heute schwer zu beantworten. Dazu bräuchte man einen Chatbot, der nicht nur textbasiert ist, sondern auf ökonomische Daten zugreifen kann.

Die Lehre ist jedenfalls, dass gerade das „intelligente“ Daherkommen einer KI-Anwendung keineswegs eine klassische sachorientierte Analyse erspart. Die zukünftige Kombination von textbasierter und wissenschaftlich-informationsbasierter KI könnte hier viel verändern.

Einige überraschende Entwicklungen hatte ChatGPT damals nicht auf dem Schirm: Die Rolle des Irans als Lieferant von Drohnen an Russland, die Drohungen Putins gegen Finnland und Schweden, die zum Antrag beider Länder auf NATO-Mitgliedschaft führten, die ambivalente Haltung der Türkei und Ungarns, wie sie sich auch bei den Blockaden gegen Schwedens NATO-Beitritt zeigte. Dem britischen Premierminister Harold Macmillan wird auf die Frage nach politischer Vorhersehbarkeit das Zitat zugeschrieben: „events, my dear boy, events…“ – überall müssen wir mit dem Auftauchen der von Nicholas Taleb so schön beschriebenen „schwarzen Schwäne“, mit unberechenbaren Ereignissen, rechnen. Eine „mainstream“-orientierte Textbasis kann das nicht enthalten. Ein Chatbot kann der Analyse helfen – aber vor Überraschungen ist er so wenig geschützt wie wir alle.

Interessant ist, dass ChatGPT davon ausgeht, dass Russland einen NATO-Beitritt der Ukraine als „casus belli“ – also als Grund für einen Krieg – ansehen würde. Auch verschiedene Analysten haben vor diesem Szenario gewarnt. Betrachtet man – wie Putin – die Welt als aufgeteilt in Einflusszonen der Weltmächte USA, Russland und China, dann ist das „Eindringen“ der USA in die russische Sphäre durchaus vergleichbar mit dem Eindringen der Sowjetunion in die amerikanische Sphäre in der Kuba-Krise von 1962. In seiner Rede am 24.Februar 2022 hat Putin gefordert, eine Art cordon sanitaire in Osteuropa wiederherzustellen und die NATO zum „Rückzug“ aufgefordert.

Solche Denkweise war während des Kalten Krieges auch im Westen vorherrschend. Das war der Grund, warum weder am 17.Juni 1953 in der DDR, noch 1956 in Ungarn, noch 1968 in der Tschechoslowakei westliche Hilfe gegen die gewaltsamen russischen Interventionen geleistet wurde. Heute beklagen viele Osteuropäer, dass der Westen sie damals allein gelassen habe – aber das war die Logik einer zwischen zwei Supermächten aufgeteilten Welt. Dieser Logik ist Putin immer noch verhaftet.

In meinem Chat gesteht ChatGPT zu, dass die übliche Rede von „NATO-Erweiterung“ falsch ist – es handelte sich um Ausübung des Rechtes auf Bündnisfreiheit durch souveräne Staaten, denen es die NATO übrigens nicht leicht machte, beizutreten. Putin will genau diese Souveränität wieder einschränken und für die Ukraine vollständig beseitigen.

ChatGPT übernimmt den gängigen Gebrauch der Wörter und Sätze – schon dabei ist wichtig, im Umgang mit machine learning Algorithmen keine falschen Zungenschläge zuzulassen und solche kritisch zu prüfen.

Mit militärischen Einschätzungen für einen Kriegsfall hält sich ChatGPT zurück. Dennoch waren die Einschätzungen dazu, welche Waffensystemen eine große Rolle spielen würden, oder zum Ausbildungsstand der beiden Armeen recht plausibel und überwiegend zutreffend, auch wenn Russland etwas überschätzt wurde. Für den Nutzen der KI ist das besser, als wenn ein Gegner unterschätzt wird. Auf die Frage, was es für die Ukraine bedeute, einen hypothetischen Krieg zu gewinnen, nennt ChatGPT vier Kriterien für einen moralischen Gewinn der Ukraine – zum Schlachtfeld aber schweigt der Chat. Im Grunde weist das darauf hin, dass ChatGPT zwar sprachlich gefasste moralische Gewinne ausdrücken kann, nicht aber militärischer Gewinne. Die Gewissheit, dass „verlieren“ für die Ukrainer eine Katastrophe wäre, wird täglich bestätigt. Die Ungewissheit, was eigentlich „gewinnen“ bedeutet“ kann ChatGPT nicht beseitigen.


Zur Frage der Haltung Chinas und der ungebundenen BRICS: Indien, Brasilien und Südafrika.


Die Rechtfertigung der Politik der ungebundenen BRICS wird von ChatGPT recht gut vorhergesehen, die Begründungen allerdings sehen schlüssiger aus als sie es wirklich sind.

ChatGPT sieht vier Motive für die Haltung von Südafrika, Indien oder Brasilien in einem kommenden Krieg in der Ukraine: eigene, von westlichen abweichende, Prioritäten; historische Bindungen, z.B. aus antikolonialen Bewegungen; ökonomische Interessen; und ein Verständnis von Multipolarität, das eine Balance zwischen den Großmächten hält.

Mit der Betonung eigener Prioritäten, wenn in der Ukraine brutal die Charta der Vereinten Nationen und grundlegende Menschenrechte verletzt werden, setzen sich die drei Länder vom Universalismus des Weltsystems ab. Das Motiv mag sein, dass sie die Hegemonie des Westens und vor allem der USA in diesem Weltsystem ablehnen – aber sie werden sich fragen müssen, ob sie die damit verbundenen Werte gleich mit aufgeben wollen.

Die sogenannten „historischen Bindungen“ beruhen in der Regel auf früheren engen Beziehungen zur Sowjetunion. Für Brasilien gab es diese nicht, Indien hatte unter Indira Gandhi eine große Nähe zur UdSSR, aber aus Position der Blockfreiheit, Südafrikas ANC wurde von den Sowjets im Sinne des Antikolonialismus unterstützt. Nun existiert die sozialistische Sowjetunion nicht mehr und in Russland ist ein reaktionäres, neokoloniales, imperialistisches Regime an der Macht, das faschistische Ideologen hofiert und rechtsextreme Kräfte in Europa unterstützt. Das wird in den meisten Ländern der „Dritten Welt“ ignoriert – wohl überwiegend aus Unwissenheit. Die Identifikation des heutigen Russland mit der ehemals (angeblich) progressiven Sowjetunion ist jedenfalls absurd.

Ökonomisch bietet Russland den drei Ländern wenig – und dank des Ruins durch den Krieg immer weniger. Für Indien waren Waffenlieferungen wichtig, jetzt nutzt Indien billige Öllieferungen aus Russland. Aber im Gegensatz zu China gibt es in keinem der Länder gute Gründe die Wirtschaftsbeziehungen zum Westen für Russland aufs Spiel zu setzen. Ich frage mich, wann der Westen dieses Thema auf die Tagesordnung setzt.

Die Balance zwischen den Großmächten stammt aus der Zeit der hegemonialen Supermächte, der ersten und zweiten Welt, die konstitutiv für die Existenz einer „Dritten Welt“ ist. Ich schließe nicht aus, dass mit der Konkurrenz zwischen USA und China diese Dichotomie sich erneut aufbaut. Aber auch hier ist die Unwissenheit über die tatsächliche Weltlage erstaunlich. ChatGPT gibt solche Fehleinschätzungen dann auch wieder, weil sie schließlich im „mainstream“ der Text-Basis sind. Indien wird sicher bald selbst in eine globale Machtkonkurrenz vor allem zu China geraten, während Brasilien und Südafrika sicher regional wichtig sind, aber auch ihre globale Rolle überschätzen. Für beide sind neue Abhängigkeiten von China gefährlicher als alte Abhängigkeiten von den USA oder Europa.

Die chinesische Interessenlage in einem Konfliktfall wird laut ChatGPT 2021 von folgenden Faktoren bestimmt: der geopolitischen Balance und dem Verhältnis zu den USA im asiatisch-pazifischen Raum; dem Grundsatz der Nichteinmischung; ökonomischen Interessen in beiden Ländern, Russland ebenso wie Ukraine; und den Auswirkungen auf die internationalen Beziehungen Chinas.

China geht davon aus, dass die USA den Aufstieg Chinas zu einer pazifischen und zu einer Weltmacht verhindern wollen, sowohl politisch wie ökonomisch. Es war zu erwarten, dass China sich in seinem Aufstieg nicht behindern lassen will. Es sieht sich als Gestalter der Regeln in der Welt als gleichberechtigt mit den USA an. ChatGPT nennt keine klaren Gründe, warum das ein Problem sein sollte. Es gibt Informationen über unterschiedliche Werte, aber ChatGPT will offenbar möglichst wertfrei bleiben.

Der Grundsatz der Nichteinmischung wird gerade durch Russland in der Ukraine massiv verletzt. China ist hier in einem Dilemma. Am bequemsten wäre eine Kapitulation der Ukraine – dann kann China gegenüber der folgenden Repression und Vernichtung der ukrainischen Identität auf „Nichteinmischung“ zurückziehen. Der Schulterschluss mit Russland ist die größtmögliche Einmischung Chinas in der Ukraine – und wird auch durch die Enthaltungen in den Vereinten Nationen nicht kompensiert.

Die ökonomischen Interessen Chinas in der Ukraine – z.B. das Investment in den Hafen von Odessa – werden durch den Krieg beschädigt. ChatGPT überschätzt 2021 die Rolle der Ökonomie gegenüber der Politik. Es ist für China wichtiger, im globalen Konflikt mit den USA, Russland – am besten als schwachen Juniorpartner – an seiner Seite zu behalten, als seine Investitionen in der Ukraine zu schützen, an denen es ja auch unter russischer Kontrolle festhalten könnte.

China unterschätzt dabei allerdings den Vertrauensverlust, den es in Europa erleidet, seit es in einem vitalen Konflikt glaubt, gegen europäische Interessen handeln zu dürfen. Das wird gerade den ökonomischen Interessen Chinas auf Dauer schaden.

Das Taiwan-Problem spielt ebenfalls in das chinesische Kalkül hinein. In meinem Chat habe ich diese Frage nicht vertieft. Aber ich habe ChatGPT 2021 einmal gesondert folgende Frage gestellt: Ist die chinesische Politik „ein Land – zwei Systeme“ noch offiziell gültig? Ist sie in Hongkong gescheitert, wenn ja, warum? Und wäre sie eine Lösung für Taiwan?

Die Antwort besagt, dass die Doktrin weiterhin Grundlage für die Autonomie Hongkongs sei, dass allerdings nach dem Vorgehen gegen Proteste und Unruhen und vor allem mit dem Sicherheitsgesetz von 2020 die Autonomie stark eingeschränkt sei. Diese Erfahrungen haben in Taiwan die Skepsis gegenüber dem Angebot „ein Staat – zwei Systeme“ stark vergrößert. Präsident Xi Jinping hat im Übrigen ausdrücklich eine gewaltsame Eingliederung Taiwans in die Volksrepublik China nicht ausgeschlossen.

Die Erfahrungen mit der brutalen und grausamen Gewalt Russlands im Krieg gegen die Ukraine haben gezeigt, dass die Rede vom angeblichen ukrainischen Brudervolk zynisch ist. Xi Jinping sollte genau hinsehen, wie die russische Aggression die Bildung einer eigenständigen ukrainischen Nation auch in den Gebieten vollendet, wo es vorher eine sprachlich-kulturelle Nähe zu Russland gab. Solche Dynamik kann ChatGPT nicht abbilden.

Am komplexesten aber sind die Auswirkungen auf Chinas internationale Beziehungen. China glaubt im Viereck China-USA-Russland-Europa eine „Realpolitik“ zu betreiben. Aber China scheint Realitäten nur begrenzt zu begreifen. Dabei wird Europa als am wenigsten relevanter Faktor angesehen. In den USA gab es in den fünfziger Jahren eine Debatte „Who lost China?“ – in der chinesischen Führung wird sich Xi der frage stellen müssen „Who lost Europe?“.

In der Fixierung auf den Antagonismus USA-China ist Peking blind geworden gegenüber den Risiken des russischen Imperialismus. Beim Besuch Kissingers und Nixons 1972 in China gab es vage Hinweise, dass die USA Russland klargemacht hatten, dass ein Präventivschlag der UdSSR gegen China nicht hingenommen würde. Vielleicht sollte der hundertjährige Kissinger doch einmal etwas dazu sagen. Oder Xi Jinping könnte mal in den chinesischen Archiven nachforschen.

Die objektive Analyse der Interessen und der erklärten Politik Chinas hätte eine so starke Unterstützung Russlands wie sie dann durch Xi Jinping erfolgt ist, aus Sicht von ChatGPT eigentlich nicht zugelassen. Also werden andere Motive vermutet. War es eine Fehleinschätzung, eine Illusion – oder das Kalkül, dass Russland so abhängiger von China wurde als je zuvor?

China kann seine Fehler korrigieren – ob es das will, weiß ich nicht – und ChatGPT auch nicht. Auch für die Prognose chinesischer Politik eignet sich ein Chatbot nicht. Aber ChatGPT hilft uns, weil es auch auf Aspekte aufmerksam macht, die wir vielleicht gerade nicht im Fokus haben. Das ist nicht zuverlässig, aber hilfreich.