Technologie
Verstehen schafft bei Menschen oft Einordnung. Bei KI schafft es häufig zuerst Sichtbarkeit – und mit ihr die unbequeme Erkenntnis, dass explizite Regeln moralische Konflikte nicht auflösen, sondern schonungslos freilegen.
„Comprendre, c’est pardonner“ – mit dieser Verdichtung brachte die Schweizer Intellektuelle Madame de Staël zur Zeit der Französischen Revolution die Idee auf den Punkt, dass das Verstehen von Gründen und Motiven Akzeptanz fördern kann. Selbst wenn wir nicht bereit sind, jede menschliche Handlung zu verzeihen, gelingt es uns meist, moralische Verfehlungen einzuordnen und zu kontextualisieren – nicht zuletzt, weil wir gelegentlich Aspekte unseres eigenen Verhaltens darin wiedererkennen.
Übertragen auf die Gegenwart würde dieses Bonmot nahelegen, Transparenz und Erklärbarkeit seien so etwas wie das Penicillin der KI-Ethik: ein universelles Heilmittel, das ethische Bedenken allein durch Verstehen kurieren kann. Entscheidungen werden nachvollziehbar, regelbasiert und – zumindest unter Laborbedingungen – frei von menschlichen Verzerrungen. Und dann tritt, mit erheblichem Getöse, das Trolley-Problem auf den Plan. Das System handelt strikt nach seinen Regeln und trifft eine Entscheidung, die das Wohl eines Einzelnen opfert. Die Reaktion des Publikums erfolgt sofort und erstaunlich synchron: ein scharfes Einatmen und das unausgesprochene Urteil – das darf nicht sein. Maschinen, so scheint es, sollen nicht nur berechenbar und kontrollierbar sein, sondern moralisch unzulässigen Schaden gleich ganz vermeiden.
Während Transparenz bei menschlichen Entscheidungen zu Verständnis und Einordnung führen kann, wirkt sie bei KI anders. Sie macht ethische Dilemmata explizit, indem sie die zugrunde liegenden Regeln sichtbar macht. Wir sehen die Prinzipien, nach denen entschieden wird – ohne dass das System eigene Werte vertritt, Verantwortung übernimmt oder sich auf direkte Interaktion einlässt. Dieses leise „Ja, aber …“ im Hinterkopf gewinnt an Gewicht, sobald Regeln zu Konsequenzen werden.
Wir sind es gewohnt, den Tod eines Menschen im Strassenverkehr als tragisches Ereignis zu akzeptieren. In einer Sekundenbruchteilsituation – etwa zwischen einer Gruppe von Kindern und einem unbeteiligten Passanten – trifft ein menschlicher Fahrer eine Entscheidung, die zum Tod des Passanten führt. Dieselbe Entscheidung wird jedoch nahezu unmöglich zu akzeptieren, wenn sie von einer KI regelbasiert getroffen wird. Selbst ein Zufallsentscheid – etwa ein Münzwurf – erscheint manchen als fairer, obwohl er rational schlechter begründet ist. Transparenz beruhigt hier nicht, weil sie die Ambiguität beseitigt und zugleich offenlegt, dass kein verantwortlicher, greifbarer Entscheidungsträger vorhanden ist.
Der Vergleich mit einem menschlichen Referenzwert hilft zwar, Leistungen „besser als der Durchschnitt“ einzuordnen und überzogene Erwartungen an maschinische Perfektion zu dämpfen. Für direkt Betroffene bietet das jedoch kaum Trost. Kognitive Argumente wie Wahrscheinlichkeiten oder Durchschnittswerte greifen ins Leere, wenn sie auf emotionalen Verlust treffen – und können sogar das subjektive Gefühl der eigenen Einzigartigkeit untergraben.
Wenn analytische Argumente versagen, verschiebt sich die Debatte leise von moralischer Rechtfertigung hin zu praktischer Handhabbarkeit.
Gartner argumentiert, dass Akzeptanz von KI-Systemen weniger aus vollständiger Transparenz entsteht als aus schrittweiser Erfahrung. Nutzer müssen nicht jedes technische Detail verstehen – sie müssen erleben, was das System in einzelnen Schritten tut, wann Eingriffe möglich sind und wo Verantwortung bleibt. Ethische Bedenken werden weniger durch Erklärung als durch Erfahrung gemildert. Nicht, weil man die Physik des Gleichgewichts versteht, sondern weil man lernt, die Balance zu halten und Risiken zu antizipieren.
Wie das konkret aussieht, wurde mir bei einem Apéro-Gespräch klar. Ein PwC-Mitarbeiter schilderte die Situation von KI-unterstützten Rechtsberatern: Berater, die nun selbst beraten werden. Plötzlich ist da jemand – oder vielmehr etwas –, das Empfehlungen gibt, denen man gut beraten ist zu folgen.
Grundsätzlich kann es helfen, Anwälte zu verpflichten, Abweichungen von KI-Empfehlungen zu begründen, um unreflektierte Verzerrungen sichtbar zu machen. In der Praxis verändert das jedoch die Anreizstruktur. Wenn Widerspruch erklärungsbedürftig ist und Risiken birgt, wird Konformität zur sichereren Option. Ob solche Systeme Urteilsvermögen korrigieren oder es still disziplinieren, hängt weniger von der Technologie ab als von der kulturellen Verfasstheit der Organisation und ihrer Toleranz gegenüber begründeten Ausnahmen.
Eine ähnliche Dynamik zeigt sich in einem ganz anderen Bereich: der KI-gestützten Moderation von Leserkommentaren. Bereits beim Schreiben könnten zukünftige Systeme Verstösse gegen Netiquette oder faktische Fehler markieren und so zur Deeskalation beitragen. Die Frage ist jedoch, wo Unterstützung endet und Zensur beginnt. Problematisch wird Moderation dort, wo sie nicht mehr als Leitplanke dient, sondern vorgibt, welche Gedanken überhaupt geäussert werden dürfen – und in welcher Form.
Allen Beispielen gemeinsam ist weniger eine Lösung als eine Art, mit ethischen Dilemmata handlungsfähig zu bleiben. Schrittweise Erfahrung, erlebte Kontrolle, korrigierende Anreize und klare Leitplanken verschieben den Fokus von der Entscheidung selbst auf ihren Kontext – ohne die normative Frage von richtig oder falsch zu beantworten. Transparenz und Erklärbarkeit sind wirksame Schutzmechanismen gegen absichtliche oder fahrlässige Fehlentwicklungen, taugen jedoch wenig zur Auflösung echter Wertekonflikte. In diesem Sinne ersetzt KI die lange akzeptierte Intransparenz menschlicher Urteile durch explizite, überprüfbare Entscheidungsregeln – und tauscht die vertraute Blackbox menschlicher Intuition gegen ein System, dessen moralische Logik nicht länger implizit bleiben kann.
Die ethischen Regeln für den Einsatz von KI müssen nicht erst erfunden werden. Sie existieren bereits – verankert in unseren rechtlichen und gesellschaftlichen Ordnungen. KI bringt keine neuen moralischen Prinzipien hervor, sondern setzt bestehende unter Druck: durch Skalierung, durch regelbasierte Konsistenz und durch das Fehlen persönlicher Ansprechbarkeit. Entscheidungen werden nicht mehr situativ und relational getroffen, sondern systematisch und reproduzierbar. Transparenz wirkt in diesem Kontext weniger beruhigend als vielmehr erhellend.
Vor diesem Hintergrund erhält das oft zitierte Prinzip „Human in the Loop“ eine andere Bedeutung. Es dient weniger dazu, Fehler zu verhindern oder Entscheidungen zu optimieren, sondern dazu, jene Grauzonen offen zu halten, in denen menschliches Handeln überhaupt möglich bleibt. Wo Systeme regelbasiert, konsistent und skalierbar entscheiden, schafft menschliche Beteiligung Raum für bewusste Abweichung, situatives Urteilsvermögen und Verantwortung im Einzelfall. „Human in the Loop“ ist damit weniger ein technischer Sicherheitsmechanismus als ein institutionalisierter Raum für Menschlichkeit – mit all ihren Spannungen, Momenten der Nachsicht und tragischer Verantwortung.
Fazit
Transparenz und Erklärbarkeit sind wichtig – aber sie lösen keine Wertekonflikte, nur weil sie sie sichtbar machen.
Wo KI explizit nach Regeln entscheidet, braucht es den Menschen nicht bloss als Aufsicht, sondern als legitimierten Träger von Ausnahme, Urteilskraft und Verantwortung.
Quellen / Hinweise
Dieser Artikel hat eine Frage aufgeworfen?
Sprechen wir darüber.