Mit der Moral Machine vom MIT kannst du dir überlegen, wie selbstfahrende Autos programmiert werden sollen!
In einem Browser habe ich verschiedene Situationen durchgespielt und ich muss dann entscheiden: greift das selbstfahrende Auto ein, wenn ja wie: Wer muss dann sterben, die Insassen, die alte Oma auf den Zebrastreifen, der Hund?
Auf den ersten Blick habe ich gedacht: das ist eigentlich klar. Ich gebe zu, da bin ich schnell lösungsorientierter Informatiker, ich will einen Algorithmus programmieren, der dieses abwägt und eine gute Entscheidung trifft. Ganz neutral und gerecht, logisch fundiert. Aber dann machte ich weiter mit der Maschine und es kamen noch interessante weitere Faktoren hinzu: Alter der Personen, Geschlecht, sozialer Status, Äußerlichkeiten und plötzlich wird die Entscheidung gar nicht so einfach. Zum Glück muss ich sowas nicht programmieren.
Hier der link! Spiele es selbst mal durch und schreibe mir, was du dazu denkst.
Ich finde einen ganz anderen Aspekt interessant: die naturwissenschaftliche Welt der Informatiker hat es nie gelernt, sich mit solchen ethischen, moralischen, philosophischen, oder geisteswissenschaftlichen Fragestellung auseinandersetzen. Als Informatiker weiß ich nicht, was die richtige Entscheidung ist. Ich kann keinen Entscheidungsbaum auf malen, ich kann nicht Scores vergeben, Punkte auflisten und berechnen, was die richtige (!) Entscheidung ist. Das ist total blöd, denn in der Informatik gibt es nur richtig und falsch, null und eins.
Oder soll ich irgendwie einen Zufallsgenerator programmieren? Der sich zufällig überlegt, welchen der Menschen er jetzt umbringen muss? Vielleicht nur dann, wenn die Entscheidung knapp ist? Ich kann mir bildlich vorstellen, wie jetzt dem ethisch-moralischen geschulten Geisteswissenschaftler oder Philosophen die Haare zu Berge stehen. Eine Maschine entscheidet jetzt über Tod und Leben. Aber eigentlich der Informatiker, der das programmiert hat. Oder doch eher der Anforderung-Schreiber, also Requirements Engineer. Der entsprechende Ingenieur braucht dann aber auch Vorgaben. Es bleibt dabei: Das darf nicht sein, sowas darf man gar nicht programmieren, nicht mal denken.
Das nützt alles nichts. Selbst fahrende Autos werden kommen. Das lässt sich nicht mehr aufhalten und passiert bestimmt schneller, als uns allen lieb ist. Also wird sich irgendwie jemand hinsetzen müssen und diese Entscheidungen programmieren.
Ach Quatsch, zum Glück gibt es ja künstliche Intelligenz. Die ist sowieso besser als wir, lernt dann was richtig und falsch ist von alleine und trifft dann eine bessere Entscheidung als wir es jemals programmieren könnten. Ein Glück. Jetzt muss nur noch jemand die künstliche Intelligenz programmieren … und sie dann lernen lassen.
Mir wird schon ganz schwurbelig im Kopf. Dir auch?
1 Kommentar
Jens Hündling · 22. August 2018 um 21:08
PS: achtet auch auf die Ampeln (habe ich anfangs übersehen). Tatsächlich gehen doch wirklich einige bei Roter Ampel auf die Strasse.