Die Gefahren die künstliche Intelligenz mit sich bringt

Heutzutage wird immer viel von den großen Chancen gesprochen, die künstliche Intelligenz bringen soll. Das erinnert einen fast an die vielen Chancen die die EU bringen sollte. Allerdings ist das Spiel mit der künstlichen Intelligenz, kurz KI, ähnlich dem Glücksspiel im Online Casino Book of Ra mit Echtgeld. Die Menschheit spielt so eine Art russisch Roulette.

Was alles schief gehen kann

Im 21.Jahrhundert wird immer mehr dem Rechner überlassen. Flugzeuge landen mit Autopilot und Autos folgen dem Navigator. Bald soll auch das Auto vollkommen vom Rechner gesteuert werden und viele meinen das dies so viel sicherer ist, dass bald niemand mehr selbst fahren darf. Ob das auch im Autoliebhaberland Deutschland so sein wird, bleibt dabei aber noch unklar. Dazu müssen wohl noch ein paar Jahre vergehen und es muss eine vollkommen neue Generation heranwachsen.

Selbst die jetzigen, begrenzten Anwendungen haben aber schon zu Unfällen und Toten geführt. Ein Beispiel ist der Fall des Flugzeugs Boeing Max. Die Software für das Flugkontrollsystem wurde nach Indien ausgelagert um Geld zu sparen.  Das Steuerprogramm der Maschine von Boeing sollte dafür sorgen das der Flieger nicht ins Trudeln geraten kann. Stattdessen führten Messfehler und Softwarefehler dazu, dass sich der Flieger automatisch in einen Sturzflug begab. Die Folge war mindestens vier Unfälle mit vielen Toten.

Die selbstfahrenden Autos haben bis jetzt nur einen tödlichen Unfall verursacht, sie sind aber auch noch in der Entwicklungsphase. Die selbstfahrenden Autos bringen ein großes Problem mit sich. Wie soll sich die KI entscheiden, wenn sie zwischen dem Leben des Fahrers und dem Leben des Passanten entscheiden soll. Es kann sein, dass das elektronische Hirn den Fahrer des Autos opfert um Passanten zu retten. So ein selbstfahrendes Auto werden aber nur die selbstlosen unter uns in Betracht ziehen.

Die drei Regeln der Robotik

Das selbstlenkende Auto ist auch ein gutes Beispiel für die Grenzen der 3 Regeln für Roboter von Isaac Asimov.

  • Ein Roboter darf keinen Menschen schädigen und nicht durch Inaktivität Schaden an Menschen zulassen
  • Ein Roboter muss alle Befehle eines Menschen befolgen, solange diese nicht mit dem ersten Gesetz in Konflikt kommen
  • Ein Roboter muss seine Existenz bewahren so lange nicht das erste und zweite Gesetz durch seine Handlung gebrochen werden.

Asimov dachte wohl zu seiner Zeit, Mitte des 20. Jahrhunderts nicht daran, das jemals ein KI existieren würde, der völlig selbstständig ein Auto lenkt.

Eine Lösung wäre die Steuerung des Wagens in einer gefährlichen Situation an den Fahrer zurückzugeben. Ob das allerdings praktisch ist, bleibt offen. Wann kann man eine Gefahr erkennen und ist es möglich den Fahrer schnell genug zu alarmieren?

Deshalb glauben viele Rechtsexperten, dass wir noch lange Piloten und Fahrer haben werden. Kein Hersteller von KI möchte verklagt werden, wenn sein Programm einen Fehler macht. Einfacher ist es eine Person am Steuer zu haben, die im Notfall die Verantwortung übernimmt.

Selbstverantwortung oder Glaube an Experten

Letztendlich übergibt man die Entscheidung über das eigene Leben an einen Programmierer oder noch schlimmer an eine KI die zu Ergebnissen kommen kann, die wir uns nicht einmal vorstellen können. Das folgt der generellen recht problematischen Entwicklung in unserer Gesellschaft, in der selbst erwachsenen Menschen immer mehr Verantwortung an „Experten“ abgeben. Das wird letztendlich das Ende der Demokratie sein und zu einer Technokraten-Regierung führen wie Plato sie erdacht hat.

Dummerweise sind diese Experten letztendlich auch nur Menschen und keine Halbgötter die eine vollkommen überlegende Einsicht in die Welt haben. Mit der Entwicklung der menschlichen Gesellschaft und der weiter fortschreitenden Spezialisierung der einzelnen Berufe und wissenschaftlichen Disziplinen ist der Bereich in dem jemand zum Experten wird immer schmaler geworden und schnell verliert man bei zu viel Expertise den Überblick über das Gesamtbild. Nicht umsonst hat die deutsche Sprache den Begriff des Fachidioten erfunden.

Wie der KI überraschen kann

Der KI ist salopp gesagt, der ultimative Fachidiot. Er hat keinerlei „gesunden Menschenverstand“ und nach dem Prinzip Müll als Eingabe, Müll als Ausgabe auf Englisch etwas unfeiner auch Bullshit in Bullshit out, hängt das Verhalten einer KI sehr stark davon ab welche Aufgabe wir ihm geben.

Ein Beispiel war eine Simulation bei der eine Figur mit 6 Beinen sich fortbewegen sollte und die KI die Aufgabe hatte die Zahl der Beine die den Boden berühren zu minimieren. Der KI glaubte es geschafft zu haben sich fortzubewegen ohne den Boden mit den Beinen u berühren. Tatsächlich drehte er die Spielfigur auf den Rücken und lief mit den Kniegelenken der Beine. Das könnte in praktischen Anwendungen schwerwiegende Folgen haben und zeigt uns wie wichtig es ist einen Menschen als Entscheidungsträger zuhaben der die Ergebnisse der KI überprüft.

Ein Kommentar

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert