Guido Bruch hat mir zu meinem Artikel
#Digitalisierung – Die „Ethik“ von IT und „Künstlicher Intelligenz“
einen Kommentar hinterlassen:
Im Buch Silicon Germany wird die ethische Dimension diskutiert. Hier ein Beispiel: Kind läuft von rechts auf die Straße. Links geht ein Rentner mit Rollator. Der Mensch würde entweder zufällig oder bewusst entscheiden, wen er umfährt, wenn er nicht mehr bremsen kann. Welche Vorgabe soll man aber einer Maschine geben? Immer das Kind schützen und somit eine Auslese betreiben (und dies bei Deutschlands Vergangenheit) oder einen Zufallsgenerator einbauen. Ich denke, hier um geht es.
Aber sicherlich sind dies nur theoretische Fragen, da die Anzahl der potentiellen Unfälle gering sein dürfte. Vermutlich würde sich die Thematik hierdurch selber regeln. Gab es schon vergleichbare Unfälle?
Eine andere Frage wäre, was die Autohersteller tun, wenn sie in anderen Ländern andere Auflagen bekämen? Z.B. in bestimmten Golfstaaten Einheimische schützen und zur Not Gastarbeiter überfahren.
Dafür ganz vielen Dank an Guido. Guidos Beitrag hat viele assoziative und auch emotionale Gedanken bei mir bewirkt:
Das Problem ist, dass ein Programm, das einer Abwägungs-Ethik folgend arbeiten soll, eine alle Fälle abdeckende und mehrdimensionale Bewertungs-Matrix mit berechenbaren Regeln braucht, mit denen es über eine wohl definierte Systematik den Wert von menschlichen Leben bewerten kann.
D.h. „man“ müsste plötzlich Alter, Geschlecht, aber auch Bildung, Funktion und soziale Verantwortung einer Person und manches mehr bewerten und klassifizieren. Und so eine „persönliche Wertzahl“ errechnen, so dass eine Relation auf der Menge aller Menschen ermöglicht wird. Ähnlich dem mathematischen „größer“ bei den ganzen Zahlen.
(Theoretisch darf es dann ja auch kein „gleich“ oder „größer-gleich“ geben, denn dann muss ja wahrscheinlich doch ein Zufallsgenerator her.)
Wenn man die Gedanken einer solchen Relation „größer“ weiter denkt, dann gibt es z.B. auch in der Menge der Menschen zu jedem Zeitpunkt einen wichtigsten und einen unwichtigsten Menschen. Das ganz mathematisch. Mir erscheint diese ganze Diskussion so etwas von sinnlos, auch wenn sie im Buch Silicon Germany steht.
Für die Menschen in der BRD ist das übrigens schon lange geregelt. Da gibt es das Grundgesetz, das eindeutig festlegt, das alle Menschen gleich sind. Und somit ist eine absurde Metrik, die den „Wert eines Menschen“ algorithmisch festlegt, sowie nicht zulässig.
Welche „ethische“ Vorgabe soll man einer Maschine geben?
Ein Beispiel:
Wie Guido schreibt und er zweifelt es auch gleich an, dass man auf den Gedanken kommen könne, immer das Kind zu schützen. Die erste Frage ist dann natürlich, was machen wir bei einer Entscheidung „Kind gegen Kind“?
Abgesehen davon wird so eine Zweiklassengesellschaft definiert: Kinder und Rest der Menschheit. Wie definieren wir dann aber Kind? Über das Alter, die Größe, das Gewicht, den Reifegrad? Und wie wird eine Mutter als Teil des „Rests“ im neunten Monat eingestuft. Vielleicht als zwei Menschen – ein Kind und einmal Rest?
Ich meine auch, dass der „Rest“ sich gegen so eine Regelung vehement zur Wehr setzen würde.
Das Dilemma ist nebenher gesagt uralt. Was soll man machen, wenn kurz vor der Geburt entdeckt wird, dass das bei der Entbindung des lebensfähigen Säuglings die Mutter sterben muss. Und die Mutter nur durch Tötung des Säuglings gerettet werden kann. Ein Gedankenexperiment, dass durchaus auch in der Realität vorkommt. Und dass man natürlich ich immer beliebig erweitern kann, wie z.B. dass die Mutter noch zwei kleine Kinder (und einen Mann …) hat. Kann man so etwas in einen Regelkatalog pressen, den eine Maschine abarbeiten kann? Natürlich nicht.
Hier noch ein paar nicht ernst gemeinte Beispiele, die die Absurdität klar machen sollen:
Wer ist mehr wert?
- Die Bundeskanzlerin oder der Kapitän der Deutschen Fussball-National-Manschaft?
- Ein CSU-Landtagsabgeordneter oder ein SPD-Bundestags-Abgeordneter?
- Ein Unternehmer oder ein Politiker?
- Ein Deutscher oder ein Franzose (abhängig vom Einsatzort)?
- Ein integrierte Bürger mit weißer Haut oder ein Asylant mit schwarzer Haut?
- Ein junger Mann oder eine alte Frau?
- Der Insasse des Autos für den ich der Roboter zuständig oder der Insasse des entgegenkommenden Autos, für den ein anderer Roboter zuständig ist?
- Oder um ganz zynisch zu sein: Roboter A ist von BMW. Ihm kommt ein BMW und ein Mercedes entgegen? Soll er den BWM oder den Mercedes rammen?
- …
Solche Beispiele kann man in beliebiger Menge produzieren. Nur welchen Sinn macht das? Außer die Sinnlosigkeit des Ganzen zu belegen?
Ich nenne auch noch ein paar scheinbar harmlosen Beispielen: Katze gegen Hund, wer ist mehr wert? Der streunende Köter oder der Rassehund des Opern-Stars? Oder – um die Absurdität auf die Spitze zu bringen: Wen soll das Auto überfahren, wenn es die Wahl hat zwischen einer „gemeinen deutschen Kröte auf ihrer Wanderung“ oder einer „entlaufenen griechischen Landschildkröte“?
(Hinweis des Autors: Mir tut es immer sehr weh, wenn ich zu Hause beim Radeln die vielen überfahrenen Kröten sehe und in Griechenland die überfahrenen Schildkröten.)
Die meisten Menschen schlagen als Lösung vor, man könne einen Zufallsgenerator für diese Entscheidung einsetzen? So oft würde der ja eh nicht aufgerufen werde würde. Klingt pragmatisch. Warum nicht.
Der große Isaac Asimov löst das Problem in seinem SF-Werk übrigens ganz einfach:
Wenn ein Roboter in die Not kommt, einen Menschen zu schädigen, blockiert sich das System den drei Gesetzen der Robotik folgend und wird irreversibel zerstört. Aber auch er entdeckt schnell den Haken an seinem Vorschlag (übrigens aus den 40iger Jahren).
Nämlich:
Welche Vorgabe bekommt der Computer, um einen Mensch als solchen zu identifizieren? In einem besonderen Fall scheint das der Dialekt der „spacer“ von Solaria zu sein. Mit dem die „spacer“ von Aurora große Schwierigkeiten haben. Und die „settler“ sowieso. Und so vernichten die Roboter von Solaria fremde Eindringlinge – auch wenn sie Menschen sind und ganz gleich ob settler oder spacer“.
😉 Mein Vorschlag: Nehmen wir doch den bayerischen Dialekt zur Erkennung von Menschen? Das würde vielleicht auch die große bayerische Volkspartei in ihr Programm auf nehmen …
Beim autonomen Auto helfen uns aber die „Gesetze der Robotik“ auch nicht weiter. Das kann ja nur funktionieren, wenn das Auto leer fährt :-).
Nein, die Ethik-Kommission für autonomes Fahren ist Unsinn – so wie die meisten Ethik-Kommissionen und auch -Diskussionen.
Bei Drohnen und Kriegsrobotern würde ich mir ja eine Ethik-Kommission wünschen. Das Ergebnis einer solchen Kommission scheint mir aber ebenso klar zu sein wie die Tatsache, dass die Mächtigen dieses sowieso ignorieren würden.
Auch eine Ethik-Kommission kann ich mir vorstellen, die die Frage beantwortet, ob es sein darf, dass private Institutionen (Konzerne wie Google, Amazon …, aber auch der Lobbyismus vieler Branchen bis hin zu den Privat-Armeen einzelner Unternehmen) eine Macht bekommen, wie sie gesellschaftlich noch nie so da war und die bis hin zur psychischen oder gar physischen Gewaltausübung geht. Die in manchen Fällen durchaus als Verletzung des „Gewalt-Monopols des Staates“ diskutiert werden kann.
Nur, auch da ist mir klar, dass das Ergebnis einer solchen Kommission eigentlich nur ein „NEIN“ sein kann, das aber ebenso ignoriert werden würde.
Ethik hilft nicht bei der Lösung unserer Probleme. Besonders nicht, wenn sie von einer Kommission generiert werden soll. Wir brauchen menschliche Weisheit, dazu zitiere ich immer gerne Bertrand Russell:
» Jeder Zuwachs an Technik bedingt, wenn damit ein Zuwachs und nicht eine Schmälerung des menschlichen Glücks verbunden sein soll, einen entsprechenden Zuwachs an Weisheit.«
Und Ethik hilft halt leider gar nicht, weiser zu werden. Sie lenkt eher davon ab.
Insbesondere hilft Ethik nichts bei „autonomen Systeme“. Mein Trost ist, dass es im Schienen gebundenen Verkehr meines Wissens kein einziges belegtes Ereignis gibt, das einem dieser „Gedankenexperimente“ wie dem Trolley-Dilemma ähnelt. Wir müssen uns da also nicht zu viele Gedanken machen.
Vielleicht hilft der folgende Gedankengang:
Schienen sind aus Eisen. Sie dienten im Zeitalter des Eisens dazu, Menschen oder Waren in Fahrzeugen von A nach B zu bringen.
Das autonome Auto ist ein Ergebnis der IT. Es ist so ein wenig moderner und fährt quasi auf „Schienen, die aus Software und Rechnern“ gebildet werden.
Und nutzt dabei halt die Infrastruktur, die sich als einzige weltweit total durchgesetzt hat, nämlich planierte und betonierte Wege, genannt das Straßennetz. Deshalb kann es Waren und Menschen nicht nur der Schiene entlang von A nach B (A und B sind fixe Stationen) bringen, sondern auch von X nach Y (X, Y sind jetzt variable Ziele, die durch eine Straße erreichbar sein).
Und die Eisenbahn hatte früher eine doppelte Redundanz. Es musste ein erstes Recovery für den „eigentlich unmöglichen“ Fehler geben. Für den Fall, dass dies versagt hat, war noch eine zweite Ebene vorgesehen, um auch beim Auftreten eines doppelt „unmöglichen“ Fehler den maximalen Unfall zu vermeiden.
Also ist unsere Aufgabe, als Ingenieure eine maximal mögliche Fehlerfreiheit zu erreichen. Dann sollte wir eine erste „Redundanz“ schaffen, die den „unmöglichen Fehler“ beherrscht. Und dann noch eine Ebene mehr an Sicherheit schaffen so wie früher bei der Eisenbahn.
So muss man Fehler so unwahrscheinlich wie nur möglich zu machen. Das ist die Mission!
Die Ethik-Diskussion ist intellektuelle Onanie. Mir drängt sich der Verdacht auf, dass die Politik versucht von den relevanten und sehr unangenehmen Fragen zur Digitalisierung abzulenken (die ich unter andere in meinen Vorträgen stelle). So wird sie als Wahlkampf-Instrument missbraucht, die Politik will so den Bürgern hohe Kompetenz und Verantwortlichkeit im vortäuschen. Mit dem Ziel, im Wahlkampf so zu punkten.
RMD
P.S.
Ich kann mich nur an ein vernünftiges Ergebnis einer Ethik-Kommission erinnern. Vor ein paar Jahrzehnten wurde viel über den Paragraphen 217 (Abtreibung) diskutiert. Da war Vorschlag der Ethik-Kommission, dass eine Abtreibung zwar Unrecht bleiben solle, dieses aber nicht mehr sanktioniert werden solle. Wie ich meine, war das kein schlechter Gedanke und wurde ja auch zur Basis für das neue Abtreibungs-Gesetz.
Aber braucht man für so etwas wirklich eine Ethik-Kommission? Wie hat Bert Brecht in der 3-Groschen-Oper gedichtet:
Bestraft das Unrecht nicht so sehr!
Das hilft den Betroffenen, weil die Bestrafung weg fällt. Aber es hilft nicht bei der Entscheidung. Denn die findet immer im Herzen und im Kopf der Betroffenen statt.
2 Antworten
Roland, of course it is good to consider such ethical matters, particularly as a pensioner.
Should an Alzheimer patient be able to allow operations that cannot help him, but may well help others, such as his children?
I just saw a discussion on TV about this.
SPD man said yes, with careful safeguards.
Linke woman said no, because the patient may “want” to cancel the permission, but be unable to make this clear.
I say yes. Why should I, when demented, be able to cancel decisions that I made when moderately sane?
Philosophically, ethic is something that evolves. Logical errors should perhaps be avoided, but there is no way to decide logically between good and bad ethic, just as no animal is good or bad.
Practically, I am conditioned by Christ of the Evangelium, (parables and Sermon on the Mount). But that all depends on a human-centred view of the Universe, (as well as fairly comfortable Roman occupation and some Judaism). And now we know how small in space and time man is.
(One can only decide between good and bad ethic on the basis of another ethic, such as “God’s will”, or “survival of the species”).
Roland, you are too keen on state power! Historically, states have a worse record than international companies. When the companies have been really bad, it has always been with state help. Consider tobacco, USA gun law, slavery, road deaths, CO2.
Perhaps the gun law comes from a desire for poor young blacks to continue killing each other.
Roland, I hope to get your reaction to this.
Hi Chris, I love and like your arguments. But this thoughts have to be done by men. And not by autonom cars.