R


False positive paradoxon


Statistik


Grundidee


Angenommen eine künstliche Intelligenz durchsucht die Internet-Aktivitäten der rund 80 Millionen Einwohner Deutschlands nach Anzeichen für die Planung eines terroristischen Anschlages. Die KI sei so gut, dass sie in nur 0,01 Prozent der Fälle jemanden zu Unrecht verdächtigt. Wenn dann zum Beispiel ein Herr Weidmann von der KI als verdächtig eingestuft wird, kann dennoch die Wahrscheinlichkeit, dass er auch ein Terrorist ist, sehr gering sein. Das ist hier näher erklärt.

Die 200-Personen-Annahme: Terror in Deutschland


Als Terrorist bezeichnet man eine Person[3], die gezielt Angst durch Akte der Gewalt Angst erzeugen will[10], um damit politische Ziele gegen die herrschende Staatsgewalt durchzusetzen. Die Anzahl von Menschen, die nicht bloß mit solchen Gedanken spielen oder Terrorismus an sich bejahen (Sympathisanten) sondern wirklich auch zur Tat schreiten, ist meist sehr niedrig. Nehmen wir an, dass es zurzeit in Deutschland vielleicht 200 Personen gibt, die zur Ausübung terroristischer Anschläge willens sind. Von 200 Personen könnte es eine geben, die demnächst einen Parteivorsitzenden ermordet, um die deutsche Asylpolitik zu beeinflussen. Oder einer der 200 möglichen Terroristen könnte ein großes Erdgas-Verdampfungsschiff in einem deutschen Hafen "in die Luft jagen", um damit die deutsche Energiepolitik zu verändern[6].

Die Anti-Terrorismus-KI mit mit 0,01 % Fehler


Angenommen eine Künstliche Intelligenz wertet ständig die Internet-Aktivitäten aller deutschen Bürger aus. Wenn eine Person dann zum Beispiel mehrere Webseiten zum Bau von Torpedos[4] oder Drohnen[5] aufgerufen hat, anschließend in einem Baumarkt verdächtiges Material gekauft hat, in Verbindung mit anderen Verdächtigen steht und mehrfach Autofahrten zum Liegeplatz eines Erdgas-Verdampfungsschiffes an der Küste gemacht hat[6], dann liegt die Vermutung nahe, dass diese Person einen Anschlag vorbereitet, etwa mit Drohnen oder einem Torpedo. Angenommen, die KI spricht nur in 0,01 Prozent oder dem 0,0001-fachen aller untersuchten Personen eine falsche Verdächtigung aus. Dann, so der gesunde Menschenverstand, müsste die Wahrscheinlickeit, dass eine verdächtigte Person auch tatsächlich einen Anschlag plant, recht hoch sein. Wo Rauch ist, muss auch ein Feuer sein. Das aber kann in die Irre führen.

Nur 0,01 % Fehler und troztdem meistens falsch


Die KI wird von den ungefähr 80 Millionen Einwohnern Deutschland rund 0,01 % zu Unrecht verdächtigen. 0,01 % von 80 Millionen sind immerhin 8000 Menschen[7]. Wenn aber von diesen 8000 Verdächtigen tatsächlich nur 200 echte Terroristen sind, dann ist die Wahrscheinlichkeit, dass eine verdächtige Person auch wirklich ein Terrorist ist 200 geteilt durch 8000 oder 1/40 oder 0,025 oder 2,5 %[8]. Das verblüffende ist hier, dass die Software in nur 0,01 Prozent der Fälle einen Fehler macht, aber in nur 2,5 % eine Person zu Recht verdächtigt. Diesen scheinbaren Widerspruch nennt man das False positive Paradoxon. False heißt falsch und positiv, dass ein Test ein bejahendes Ergebnis gibt.

Wodurch entsteht das False positive Paradoxon?


Das Paradoxon entsteht immer dann, wenn die geteteste Ausprägung eines Merkmals (ist Terrorist, hat eine Krankheit) in der Grundgesamt der untersuchten Menge von Personen nur sehr gering oder im Extremfall sogar gar nicht mehr vorhanden ist.

Fußnoten


und Furcht...“ In: Wissenschaftliche Dienste. Deutscher Bundestag: Terrorismus: Definitionen, Rechtsgrundlagen und Maßnahmen zur
Terrorismusbekämpfung. Ausarbeit WD 3-417/09. Veröffentlicht im Jahr 2009.