Post date: Jun 9, 2020
Immer häufiger werden Computer dazu verwendet, Entscheidungen vorzubereiten. Dazu sind sie auch gut geeignet, denn sie können eine Vielzahl von Daten in kürzester Zeit ermitteln und bewerten. Das hört sich erst mal toll an. Und auch die KIs (oder Neuronale Netze) sind letztendlich nur Computer-Programme, bei denen der Algorithmus eben trainiert wird, statt ihn durch einen Programmierer zu codieren.
Beiden Ansätzen haben allerdings ein Problem: kann ein Mensch die vom Computer berechnete Entscheidung überhaupt noch kontrollieren? Schließlich verwendet man ja den Computer, weil er uns bei der Datenverarbeitung hoch überlegen ist.
Ein Bilderkennung-Algorithmus, der Objekte in Bildern erkennen soll, kann im Einzelfall noch gut kontrolliert werden. Ist das dargestellte Objekt wirklich richtig zugeordnet: Mann, Frau, Tier, Auto, ... Aber auch hier zeigen sich schon Probleme, wenn das Foto vom Menschen schon nicht richtig erkannt wird und der Computer aber darauf beharrt, etwas erkannt zu haben. Ist der Computer da einfach besser? Dann hätte der Mensch die Möglichkeit der Kontrolle auch schon verloren.
Aber betrachten wir mal ein viel einfacheres Beispiel. Hier ist das Problem eher, dass früh eine Entscheidung getroffen werden muss, die dann das weitere Geschehen so verändert, dass man nicht kontrollieren kann, ob es die richtige Entscheidung war.
D.h. es müssen Entscheidungen getroffen werden, bei denen man nicht darauf warten kann, bis Ursache und Wirkung vollständig verstanden sind. Oder es geht um einmalige Situationen, die durch getroffene Handlungen direkt beeinflusst werden, sodass man nie genau sagen kann, was bei einer anderen Entscheidung passiert wäre.
Ich vergleiche das gerne mit einer Autofahrt, bei der man sich vom Navi führen lässt. Selbst wenn das Navi immer korrekt funktioniert, so hat es doch mehrere Probleme:
die aktuelle Straßenlage kann veraltete oder falsch sein
die aktuelle Straßenlage ist nicht vollständig bekannt (z.B. Nebenstrecken)
die Prognose über Verzögerungen ist unsicher
die Prognose über die Stau-Entwicklung ist unsicher
Dennoch muss man sich früh entscheiden, einer Umleitungsempfehlung des Navis zu folgen - oder eben nicht.
Egal was man tut, man wird in der Regel nicht erfahren, ob es die richtige Entscheidung war oder ob die andere Entscheidung besser gewesen wäre.
Bei einer Fahrt von Dresden nach Kassel schlägt Google die Fahrt über die A14, A38 vor. Alternativ ist eine langsamere Route über die A4 möglich. Und bei Verkehrsstörungen kann man relativ leicht über die A9 oder A71 zwischen den beiden Routen wechseln.
Wenn man nun einem solchen Vorschlag zur Routen-Änderung durch das Navi folgt, wird man nicht erfahren, ob das die richtige oder falsche Entscheidung war. Der Stau könnte sich bereits aufgelöst haben oder auf der neuen Strecke könnte sich noch ein neuer Stau bilden.
Das ist oft auch in der Politik so. Klimawandel ist ein schönes Beispiel, Corona aber auch. Auch hier muss man früh Entscheidungen über Optionen treffen, bei denen man später nicht einfach prüfen kann, ob eine andere Option besser gewesen wäre.
Leider wird dann häufig rückblickend bemängelt, dass nicht eine andere, "offensichtliche richtige", Entscheidung getroffen wurde. Allerdings ist das "offensichtliche" nicht vorher klar, sondern erst hinterher. Wenn man nur damals schon alles gewusst hätte, was man jetzt weiß. Nur darauf kann man eben nicht immer warten oder die Erkenntnisse ergeben sich erst wenn man die erste Entscheidung getroffen hat.
Immerhin gibt es Forschung und Entwicklung in dieser Richtung. Sie werden unter dem dem Thema Explainable AI. Dabei wird eben nicht nur die Lösung durch eine KI gesucht, sondern auch eine verständliche Erklärung wie die KI zu dieser Lösung gekommen ist. D.h. die KI muss sich Mühe geben, die Ergebnisse den Menschen zu erklären.
Es gibt Hoffnung.
Wichtig bleibt, dass sich der Mensch am Ende seiner Verantwortung bewusst bleibt, die Lösung einer KI zu prüfen.