Interview und Illustration von Corinna Heumann
Frau Professor Meckenstock, Sie beschäftigen sich intensiv mit digitaler Ethik. Worum geht es bei diesem Thema?
Digitale Ethik ist ein ziemlich neuer Begriff, aber im Grunde nur die logische Folge der technischen Entwicklung. Es geht darum, bereits bestehende ethische Prinzipien in eine digitalisierte Welt zu übertragen. Es geht um Werte, Grundfreiheiten und Verantwortung bei der Nutzung neuer digitaler Phänomene und Aktivitäten wie künstlicher Intelligenz, maschinellem Lernen und Big Data Analytics.
Ein entscheidendes Grundproblem ist, dass viele oder sogar die meisten von uns diese rasante Entwicklung kaum noch verstehen und den Einsatz der neuen technischen Möglichkeiten schlichtweg hinnehmen – im Vertrauen darauf, dass das alles schon seine Richtigkeit haben wird. Das ist aber der falsche Weg. Damit überlassen wir relativ wenigen Programmierern ohne gesellschaftliche Kontrolle sehr weitreichende Entscheidungen.
Also geht es zum Beispiel um…?
…zum Beispiel um die Frage, ob wir wollen, dass ein Algorithmus darüber bestimmt, welcher Bewerber den Zuschlag erhält. Oder ob wir wollen, dass ein Pflegeroboter überwacht ob einer seiner Schützlinge entgegen der medizinischen Vernunft Alkohol trinkt. Oder ob wir wollen, dass auf Grund der Kriminalstatistiken vergangener Monate die Polizei in bestimmten Stadtteilen ohne konkreten Anlass Personen kontrolliert.
Nehmen wir Ihr letztes Beispiel, was passiert da genau?
Da wird von der Häufung von Straftaten in einem Gebiet auf eine andauernde Gefährdung dort geschlossen und ein präventiver Einsatz der Polizei mit Personenkontrollen ausgelöst, ohne dass es aktuell konkrete Indizien für neue Straftaten gibt. Meistens geht es um Stadtteile mit einem hohen Anteil von sozial schwachen Bevölkerungsgruppen und Migranten aus bestimmten Ländern.
Von der Vergangenheit auf die Zukunft zu schließen hört sich doch vernünftig an, wo liegt das Problem?
Zunächst einmal beeinträchtigt eine Personenkontrolle das Persönlichkeitsrecht des Kontrollierten, insbesondere wenn über eine Identitätsfeststellung hinaus auch eine Durchsuchung stattfindet. Diese Beeinträchtigung muss gerechtfertigt sein. Dies kann nur im Rahmen einer Abwägung der tangierten Werte – hier die Menschenwürde des Einzelnen und der Schutz der Allgemeinheit vor Gefahren – in Kenntnis der gesicherten Fakten geschehen. Für den Eingriff in das Persönlichkeitsrecht muss mit einer gewissen Wahrscheinlichkeit eine Gefährdung der Allgemeinheit bestehen.
Reicht dafür die örtliche Häufung der Straftaten nicht aus?
Vorbeugende Polizeiarbeit („preventive policing“) und die Vorhersage von kommenden Straftaten („predictive policing“) sind nicht dasselbe, sie basieren auf verschiedenen Aspekten der Statistik und der Sozialforschung für die Anwendung von Algorithmen in der Polizeiarbeit. Es gibt also hier – wie so oft – keine einfache Kausalität zwischen dokumentierter Vergangenheit und valider Prognose.
Auch das „predictive policing‘“ beruht aber auf Statistik und der Anwendung von Algorithmen?
Ja, aber halt auf komplexeren als die „einfache“ Kriminalstatistik. Es geht also darum, digitale Systeme für Entscheidungen so einzusetzen, dass richtige und verantwortliche Ergebnisse erzielt werden. Wir wissen alle, dass die Digitalisierung Lösungen ermöglicht, die mit menschlichen Entscheidungen nicht zu erreichen sind. Oft gibt es auch gute Einsatzmöglichkeiten der Künstlichen Intelligenz im Hinblick auf die Basiskriterien. Beispielsweise können solche Programme kognitive Verzerrungen wie Stereotype, vorgeformte Vorstellungen bestimmter Personenkreise oder Schubladen-Denken aussortieren. Aber das kann nicht bedeuten, dass wir uns blind und unwissend der „Herrschaft der Algorithmen“ ausliefern.
Gibt es so etwas wie eine „Grundfrage“ beim Einsatz künstlicher Intelligenz?
Ich glaube schon. Kurz gesagt: Wem traut man was zu? Was führt zu besseren Ergebnissen, KI oder menschliche Entscheidungen?
Die Europäische Union versteht sich als Wertegemeinschaft. Werden ihre Werte bei der Digitalisierung umgesetzt?
Die EU-Kommission hat die Initiative gestartet, klare Prinzipien für die Digitalisierung zu erarbeiten, darunter Erklärbarkeit und Transparenz. Dazu gehört vor allem auch die Veröffentlichung der eingesetzten Algorithmen. Es kann nicht sein, dass Entscheidungen, die uns alle betreffen, von einem System ohne transparente, nachvollziehbare Kriterien getroffen werden. Gravierende Probleme sind allerdings, dass die Entwicklung oft schneller ist als der Regulierungsrahmen und die involvierten globalen Unternehmen ein sehr große Marktmacht besitzen.
Wie kann die Entwicklung unter Kontrolle gehalten werden?
Ich denke, dass es auf zwei Faktoren ankommt. Das ist neben entschlossenen Regulierungen durch starke und kompetente Behörden eine intensive Bildung der Bevölkerung in digitalen Belangen. Es ist wichtig, dass die Menschen wissen, was mit ihnen passiert und sie sich bewusst entscheiden können, wo sie mitmachen. Heute sind die allermeisten Nutzer noch das bloße Objekt der Digitalisierung.