Post date: Dez 29, 2024
Bei den neuen Möglichkeiten mit KI kommt man schnell an den Punkte, an dem man Ergebnisse vorgelegt bekommt, die man nicht leicht überprüfen kann. Z.B. wenn die KI Vorhersagen macht oder Handlungsvorschläge gibt - ach ja, das ist ja alles im autonomen Fahren enthalten...
Ich habe Probleme mir vorzustellen, dass eine KI für mich nicht nur Informationen bereitstellt, sondern handelt. "Buch mir ein Hotel in Berlin für das 2. Wochenende im August." Vorschläge? Ja gerne. Aber dass die KI ein Hotel auswählt, meine Kreditkarte nimmt und das Zimmer bucht. Nein danke. Ich selbst arbeite mich ja in so einem Fall erst langsam an die Auswahl: wie ist die Lage, wie ist der Preis, was wird dafür geboten, gefallen mir die Zimmer, ... Das kann ich gar nicht alles vorher der KI beschreiben. Dann könnte ich es auch gleich selbst machen.
Oder ein anderes Beispiel: "Leg mein Kaptial gewinnbringend an". Das bieten wahrscheinlich schon viele Trading-Apps an, aber ich würde das wohl nicht machen. Solange man damit Geld verdient, scheint das zwar eine gute Idee zu sein, aber wenn das Geld dann weg ist?
Oder: Software Quelltext erstellen. Kurz ein paar Requirements genannt, schon hat man Code.
Wenn ich mir aber aktuelle Spezifikationen ansehe, dann wimmeln die von Lücken, unausgesprochenen Annahmen und sogar Fehlern. Wie soll eine KI daraus den "richtigen" Code generieren. Am besten noch für Menschen, die nicht selber programmieren können? Aber genau so wird die Code-Erzeugung durch KIs propagiert: man muss nicht mehr programmieren können!
Aber lassen wir mal diese Bedenken beiseite, wo vertraue ich eigentlich bereits heute einer Maschine, ohne sie prüfen zu können? Diese Parallele könnte mir helfen, ob ich vielleicht nur noch nicht bereit bin, es aber in anderen Fällen dann doch schon gemacht habe.
Autos: OK, mit 130km/h über die Autobahn zu fahren, da vertraut man schon, dass sich das Auto steuern lässt. Aber hier kann man sich langsam rantasten und Vertrauen aufbauen.
Bei der Automatik-Schaltung vertraut man auch darauf, dass beim Kick-Down das Getriebe schaltet, wie auch beim Wechseln der Geschwindigkeit. Das funktioniert ja gut, Fehler können aber auch leicht festgestellt werden - auch wenn sie natürlich krasse Folgen haben könnten. Ein sperrendes Getriebe bei 160 km/h ist nicht gut. Vor langer Zeit hat bei mir das Automatik-Getriebe mal nicht mehr geschaltet und blieb immer im 2. Gang. OK, rechts ran fahren, Motor aus/ein, dann ging es wieder.
Beim assistierten Fahren ist das auch so, man ist ja noch selbst am Lenker. Man ist mehr Navigator - man gibt ein Ziel vor, legt die Geschwindigkeit fest und das Auto hält die Spur und den Abstand. Aber auch hier kennt jeder die Situationen, bei denen der Notbremsassistent zu früh eingreift, z.B. weil ein vorausfahrendes Auto langsam abbiegt oder ich den Spurwechsel spät einleite.
Und bei überschänglichen Marketing-Botschaften können Kunden dazu verleiten, von den Assistenten mehr zu erwarten als sie zu leisten im Stande sind. Und das kann dann sehr gefährlich werden.
Ich bin sicher, wir könnten autonomes Fahren realisieren. In autonomen Lagerhallen geht das schon heute. Ich bin nur nicht sicher, ob dies dann noch von allen heutigen Fahrern gut ankommt. Denn die Sicherheitsmargen müssten sehr hoch sein. Sprich: auf Autobahnen fahren die Autos mit maximal 120km/h und halten großzügig Abstand; Spurwechsel vor dem Fahrzeug wird zugelassen; Reißverschluss an endenden Spuren funktioniert; innerorts halten sich die Autos an Tempo 50km/h und überfahren auch keine durchgezogene Linien; Radfahrer werden erst überholt, wenn es mit 1,5m Abstand möglich ist. Wird das von Kunden so leicht akzeptiert?
Aber selbst wenn man die KI nicht direkt mit Aktionen in der realen Welt verbindet, so ist die Gefahr immerhin gross, dass eine böswillig manipulierte (oder auch nur eine schlampig trainierte) KI Vorschläge so überzeugend mit falschen Informationen argumentiert, dass ein Mensch diesem sinnvoll und vernünftig klingenden Vorschlag folgt.