Künstliche Intelligenz wird niemals ethisch handeln – und das ist OK…

Max Haarich - Articificial Intelligence will always be unethical - but we might get close

Künstliche Intelligenz wird niemals ethisch handeln – und das ist OK…

…denn ethisches Handeln können wir nur von Menschen erwarten und selbst die können sich nicht darauf einigen, was denn genau ethisch korrektes Handeln ist. So argumentierte unser Vereinsmitglied und Botschafter der Republik Užupis Max Haarich in seinem Vortrag auf dem Waterkant Festival 2020. Aber auf diese ernüchternden Ansichten folgten konkrete Hinweise, wie das ethisch korrekte Verhalten von KI-Algorithmen trotzdem weitestgehend sichergestellt werden kann.

https://vimeo.com/showcase/7140246/video/426137457 ab 08:57

Ethik in der Künstlichen Intelligenz (KI) gewinnt in den letzten Jahren kontinuierlich an Bedeutung. Regelmäßig erfahren wir von Vorfällen, bei denen Künstliche Intelligenz für ethisch hoch fragwürdige Dinge eingesetzt wurde oder zu moralisch äußerst bedenklichen Ergebnissen führte. Sehr bekannte Beispiele sind z.B. der Personal-Recruiting-Algorithmus von Amazon, der aus allen Bewerber*innen bevorzugt Männer zum Vorstellungsgespräch eingeladen hat, oder der Genozid in Myanmar, der durch einen besonders schnell verbreiteten Hass-Kommentar auf Facebook angefacht wurde. Angesichts solcher Beispiele könnte es fast merkwürdig erscheinen, dass wir diese Technologie überhaupt noch weiterentwickeln möchten. Im Pentagon überlegt man sogar einer KI die Verantwortung über das Atomwaffenarsenal zu überlassen. Stanley Kubricks Filmfigur Dr. Strangelove hätte bei dieser Idee Freudensprünge gemacht.

Herausforderungen ethischer KI

Aber was ist eigentlich das Problem mit KI? Warum kann sie nicht einfach das ordentlich tun, wofür sie programmiert wurde? Das Grundproblem ist erstens, dass KI eben kein Bewusstsein hat, keine Vorstellung von Ethik, kein Verständnis von richtig und falsch oder sonstigen menschlichen Kategorien.  KI ist Mathematik und sonst nichts. Alles, was eine KI berechnen kann, könnte man auch mit einem Taschenrechner erledigen. Es würde ewig dauern, aber man würde genau zum selben Ergebnis kommen. KI kann lediglich Gleichungen lösen und Korrelationen aufzeigen. Was sie definitiv (noch) nicht kann, ist diesen Berechnungen Bedeutung geben und darin zu lösende Probleme erkennen – genauso wenig wie ein Taschenrechner vor dem Anzeigen des Ergebnisses innehält. Deswegen kann eine KI auch nicht erkennen, wie sie kompletten Schwachsinn anstellt oder Schlimmeres.

Das prinzipielle Bullshit-Potenzial künstlich intelligenter Algorithmen wurde schon öfter am Beispiel von Bilderkennungs-Software demonstriert. Ein Algorithmus, der bestimmte Objekte, wie z.B. ein Sturmgewehr erkennen sollte, wurde in einem Experiment reverse-engineert, um ein prototypisches Bild eines Sturmgewehrs aus Sicht des Algorithmus zu erschaffen, ein sogenanntes „Adversarial Patch“. Erstaunlicherweise sah dieses Bild überhaupt nicht aus wie ein Gewehr. Ein Mensch erkennt lediglich ein geometrisches Muster ähnlich einer 70er-Jahre Tapete. Eine Anti-Terror-Drohne würde diese Tapete jedoch 100%ig als Sturmgewehr identifizieren und sofort ins Visier nehmen. Umgekehrt könnte man über dieses Reverse-Engineering auch Bilder erschaffen, die eine Identifikation verhindern. So gibt es Versuche ein Adversarial Patch als T-Shirt-Aufdruck zu gestalten, der staatlichen Gesichtserkennungssysteme irreführt und das Erkennen eines „Objektes“ als Person verhindert.

Viele Forscher und Ingenieure gehen davon aus, dass solche Fehlleistungen nur technische Bugs sind, die mit der Zeit überwunden werden. Irgendwann wäre die Technologie so ausgereift, dass sie keine Fehler mehr mache. Würde man dieser KI dann auch noch unsere ethischen Standards antrainieren, könnte sie nichts anderes tun, als ethisch korrekt zum Vorteil der Menschheit zu handeln. Aber welche Standards sollen das sein? Welche Standards würde man einer KI mitgeben, die über Jahre hinweg in den verschiedensten Regionen der Erde mit Menschen interagieren soll? Das zweite Problem der KI liegt nämlich darin, dass ethische Standards variieren; von Zeit zu Zeit und von Ort zu Ort. Während man vor 20 Jahren noch Angst hatte, Spione würden einem die Wohnung verwanzen, stellen wir uns heute selber Wanzen wie Amazon Alexa oder den Google Pod freiwillig mitten in die Wohnung, um ganz bequem Klopapier bestellen zu können. Und während Google wegen seiner Eingriffe in die Privatsphäre von der Berliner Bevölkerung aus der Stadt gejagt wurde, nutzen chinesische Teens das durch Verhaltensdaten ermittelte Social Scoring sogar zur Werbung potenzieller Datingpartner. Ethische Standards sind leider weder konstant noch universell.

Und noch eine dritte grundlegende Herausforderung kommt erschwerend hinzu, wenn wir ethische Standards für eine KI ermitteln würden. Selbst wenn wir uns damit abfänden, dass wir ethische Standards nur für ein soziales Milieu zu einer bestimmten Zeit formulieren könnten, würde uns nicht einmal das sicher gelingen. Denn die Formulierung objektiver Standards setzt die objektive Wahrnehmung und Bewertung der Welt voraus. Und darin sind wir Menschen relativ schlecht, denn unsere Wahrnehmung ist immer individuell, erfahrungsabhängig und weist daher im Vergleich zur Realität eine Verzerrung auf, den sogenannten Bias.

Eine optische Illusion verdeutlicht, wie machtlos wir gegenüber unserem Bias sind. Auf folgendem Bild sind mehrere Kugeln hinter unterschiedlich gefärbten Linien angedeutet. Die Frage ist, welche Farbe haben die Kugeln in Wirklichkeit? Auf dem ersten Bild erscheinen einige Kugeln grün, andere blau und andere rot.

Entfernt man die vor den Kugeln liegenden farbigen Linien erscheinen alle Kugeln hellbraun. Eine klassische optische Täuschung hat uns unmöglich gemacht, die wahre Farbe der Kugel beim ersten Mal zu erkennen.

Das Bemerkenswerte ist jedoch, was passiert, wenn wir mit unserem neuen Aufklärungswissen über die Wahrheit der Dinge erneut auf dieselben Kugeln auf dem ersten Bild schauen. Unser Wissen über die Wirklichkeit ändert rein gar nichts an unserer Wahrnehmung derselben; auch beim erneuten Blick auf das erste Bild nehmen wir die Kugeln wieder als grün, blau und rot war, obwohl wir genau wissen, obwohl wir gerade noch gesehen haben, dass sie eindeutig hellbraun sind. Wir wissen also, dass unsere Wahrnehmung verzerrt ist. Wir wissen, wie die Realität aussieht. Und trotzdem können wir sie nicht sehen.

Genau das ist auch einer der Gründe, warum struktureller Rassismus so schwer zu bekämpfen ist. Rassistische Denkweisen kommen dem Gehirn genauso richtig und normal vor wie jede andere. Man kann der größte Nazi sein und sich trotzdem für Mutter Theresa halten. Es ist völlig unmöglich sich von jeglichem Bias freizusprechen. Wie könnte man sich da anmaßen, einer KI das richtige Verhalten beibringen zu können?

Ansätze zur Förderung ethischer KI

Wie wird nun mit der Herausforderung ethischer KI umgegangen? Was sind die derzeit vorherrschenden Herangehensweisen? Der erste Ansatz nennt sich „Hard Law“. Dies umfasst Regeln, die durch staatliche Autorität durchgesetzt werden können, wie z.B. die Datenschutzgrundverordnung. Jedoch ist nicht unbedingt alles ethisch korrekt, was auch gesetzlich legal ist. So gerät z.B. Facebook immer wieder in die Kritik wegen der Funktionsweise seines Algorithmus. In den allerwenigsten Fällen lag aber tatsächlich ein strafrechtlich relevantes Vergehen vor.

Um ethisches Handeln über die Einhaltung der Gesetze hinaus zu sichern, haben viele Firmen und Verbände begonnen eigene ethische Leitlinien zu entwickeln. Bei diesem „Soft Law“-Ansatz werden Regeln formuliert, zu deren Einhaltung man nicht gezwungen werden kann, sondern sich selbst verpflichtet. Studien zu Folge bleiben solche Selbstverpflichtungen jedoch meistens wirkungslos. 

Der dritte Ansatz ist daher die Zertifizierung des KI-Algorithmus bzw. seines Einsatzes. Bei der Zertifizierung werden verschiedene Kriterien geprüft, um bei bestandener Prüfung eine Art Sicherheitssiegel zu vergeben. In den meisten Fällen beschränkt sich diese Prüfung jedoch auf die technische Robustheit des Algorithmus: liefert er die erwarteten und nur die erwarteten Ergebnisse ohne irgendwelche schwachsinnigen Ausreißer? Selbst wenn er das zum Zeitpunkt der Zertifizierung täte, würde dies noch keine sichere Prognose für die Zukunft erlauben. Denn eine KI ist ein lernendes System, deren zukünftiges Verhalten durch neue Erfahrungen veränderbar ist. Ein auf den algorithmischen Code beschränktes Zertifikat hätte damit keine Aussagekraft über den Zeitpunkt der Prüfung hinaus.

Ganz anders sieht es aus, wenn die Zertifizierung zusätzlich zum Verhalten des Algorithmus auch das Verhalten seiner Programmierer*innen einbezieht. So haben beispielsweise die Republik Užupis und auch die Bertelsmann Stiftung eine Zertifizierung veröffentlicht, die die Menschen hinter dem Algorithmus mit in die Verantwortung nehmen und ein kontinuierliches Monitoring der Funktion und der Auswirkung des Algorithmus vorschlagen. Man würde ja auch keinem Menschen einen Freifahrtsschein ausstellen, nur weil er seine Ausbildung erfolgreich abgeschlossen hat. Es muss vielmehr langfristig sichergestellt sein, dass technische Probleme beim Einsatz der KI schnell behoben sowie Beschwerden von Nutzern oder Betroffenen schnell bearbeitet werden können. Nur so kann echtes Vertrauen in KI entstehen bzw. in die Menschen dahinter.

Quelle: www.pickric.com

Einen ergänzenden Ansatz zur Förderung ethischer KI ist das sogenannte Counterlabeling von Trainingsdaten. Denn der Algorithmus lernt erst aus den Daten, wie er die Welt zu sehen und darin zu agieren hat. Er kann oft wie ein Vergrößerungsspiegel funktionieren, der in unserem menschlichen Verhalten zuerst Muster erkennt, die er dann verstärkt und global skaliert. Falls das in den Daten kodierte menschliche Verhalten jedoch diskriminierend war, wird der Algorithmus auch dieses reproduzieren, wie es im Fall des Recruiting-Algorithmus von Amazon geschehen war.

Den wenigsten ist bewusst, dass viele Trainingsdaten z.B. im Bereich der Bilderkennung einzeln von Menschen erstellt werden müssen. Es gibt besonders in Afrika unzählige Sweatshops, in denen Arbeiter*innen z.B. Bilder für Objekterkennungsalgorithmen beschriften und ihnen die Labels geben, nach denen der Algorithmus später suchen soll.  Dieser Punkt ist kritisch, da es im Endeffekt den einzelnen Label-Workers überlassen ist, z.B. die auf Bildern dargestellte Szenen zu deuten und Personen Rollen zuzuschreiben. Diese individuellen Zuschreibungen sind eben auch immer verzerrt und können zu einem verzerrenden oder diskriminierenden Verhalten des Algorithmus führen. Die Arbeiter*innen sehen nur das einzelne Bild und können selten abschätzen, welche Folgen ihr kollektives Handeln hat. Zynischerweise erschaffen sie dabei manchmal sogar Trainingsdaten, mit denen der Algorithmus genau die Menschen diskriminiert, die diese Daten erstellt haben. Überspitzt formuliert schaufeln sich manche ihr eigenes Grab.

In Afrika hat sich daher die Label-Workers-Union DC2PA gegründet, die ad-hoc-Strategien entwickelt, um Trainingsdaten kollektiv und gezielt so zu manipulieren, dass die bisher diskriminierten Gruppen durch den späteren Algorithmus bevorzugt werden könnten. So vielversprechend dieser Ansatz ist, so schwierig ist dessen Umsetzung, da man hier immer verdeckt und an der Grenze zur Industriesabotage agiert. Gleichzeitig werfen solche Initiativen die Frage auf, warum die KI-nutzenden Unternehmen nicht einfach selbst ihre afrikanischen Label-Workers trainieren und strategisch anleiten, um zumindest den gröbsten Verzerrungen des Algorithmus vorzugbeugen.

Fazit

Künstliche Intelligenz ist weit menschlicher als wir es glauben möchten; sie spiegelt unsere guten und schlechten Züge wider. Selbst die ausgeklügeltsten technischen Vorkehrungen können kein ethisches KI-Verhalten sichern, solange wir Menschen uns nicht intensiver mit unseren ethischen Standards auseinandersetzen. Vor allem müssen wir endlich diesen fast schon faschistoiden Glauben an das ultimativ Wahre und Richtige aufgeben. Was wahr ist, was richtig ist, was ethisch korrekt ist liegt im Auge des Betrachters. Also sollten wir vor allem diesen im Auge behalten.

Max Haarich, 05.07.2020

No Comments
Leave a Reply