Viel
war die Rede in den letzten Wochen des Jahres 2018 von Künstlichen
Intelligenzen ( KI.... ) und den ALGORITHMEN, die, so befürchten
Manche, bald unser Leben bestimmen könnten. Maschinen, so meinten
Manche, seien mit lernfähigen Programmen ausgestattet, Programmen,
die sich auf Grund des gesammelten Datenbestandes weiterentwickeln
und perfektioneren könnten, so dass dem Menschen, der sie einstmals
und ursprünglich selbst erschaffen hatte, die Kontrolle über die
Geräte elektronischer Bauweise verloren gehen könnte und diese
selbständig dem Menschen bisher verbliebene Machtentscheidungen
übernehmen könnten.
Wie
hat man sich derartige Horrorvisionen vorzustellen ?
Algorithmen
sind erstmal nichts anderes als vom Menschen erfundene Elemente von
Programmmiersprachen von Elektrogeräten. Hinter jedem Algorithmus
steht der Mensch, der ihn geschrieben hat. Die Verantwortung für
das potentielle Desaster, das ein von einem anthropogen kreierten
Algorithmus gesteuerter Apparat auslösen könnte - denken wir hier
nur einmal an einen fahrerlosen, selbstfahrenden PKW, der gezielt
Radfahrer umnietet - liegt 100 % bei den Konstrukteuren der Maschine,
die sich mit der gezielten Streuung der Phantasie, Maschinen könnten
sich unabhängig von ihren Konstrukteuren selbständig machen und
Entscheidungen selbständig treffen und ausführen, mit dem
Deckmäntelchen des Pontius Pilatus zu covern versuchen.
Maschinen
treffen nur selbständig Entscheidungen, wenn sie zuvor von Menschen
exakt für diesen Zweck ausgedacht und gebaut wurden. Hinter jeder
auf Grund ihres programmierten Datenbestandes selbständigen
Entscheidung, die eine Maschine treffen könnte, steht der Mensch
bzw. das Team, das sie für den spezifischen Zweck ausgedacht,
programmiert und gebaut hat.
Menschen
machen aber nichts Böses, Technologien werden nur zu unserem Nutzen
und zu Guten Zwecken entwicklt. Seit Friedrich Dürrenmatt´s
Physikern, Albert Einstein, der Atombombe und der Cryotechnologie
wissen wir vom lupenreinen Verantwortungsbewusstsein unserer
Techniker und Wissenschaftler, das in der Alma Mater jeder
Universität beschützt, behütet und bewacht wird. Warum sollten
wird uns also Gedanken machen, ob eine mobile Festplattenkamera, die
an eine Remote-Gesichtserkennungsdatenbank angeschlossen ist,
plötzlich eine selbständige, unerwartete Entscheidung teffen will,
weil sie meint, anhand des internen Profilfotovergleiches ein ganz
bestimmtes Gesicht wiedererkannt und somit eine Person identifiziert
zu haben ?
Stellen
wir uns mal folgende Situation vor : Der CIA Zielfahnder sieht
plötzlich vor sich in der U Bahn von Shanghai Osama bin Laden
sitzen. Vermutlich wird er, der auch nur ein Mensch ist, zappelig,
transpiriert am ganzen Körper und beginnt im Kopf
durchzukalkulieren, ob er es sich leisten kann, als Ausländer in
China eine Verhaftung oder Exekution durchzuführen oder ob er dafür
einen Diszi kassieren würde („Diszi“ = ein
Disziplinarverfahren). Dann beginnt er zu zweifeln, ob es wirklich
Osama ist oder nur ein Doppelgänger. Wegen des gutmütigen Blickes
des Bärtigen Grauharigen bekommt er dann vermutlich noch Mitleid mit
dem Alten und überlegt, ob er ihm seine U-Bahn-Fahrkarte schenkt,
denn eine Kontrolle naht und der Afghanische Opa sieht so aus als
sei er vollständig mittellos.
Wäre
der CIA Zielfahnder einer der neuen mobilen chinesischen
Polizeiroboter, die auf 4 Rollen heute in jedem grösseren
chinesischen Bahnhof herumfahren und die zig-tausenden wartenden
Passagiere in den Wartehallen registrieren, so würden diese nicht
lange fackeln, wenn das Computersignal für Gesichtsidentität und
Gesuchtenprofil 100 % deckungsgleich wären. Seine unter der Kamera
eingebaute Smith & Wesson würde selbständig auf Grund des
Datenbestands das Problem lösen und die hohen Kosten eines
langwierigen internationalen Hochsicherheits-Terrorverfahrens in
Sekundenbruchteilen einsparen, denn hinter jedem Algorithmus steht
letzendlich eine Kosten-Nutzen-Rechnung.
Programmiert
hätte den Algorithmus, der dafür notwendig wäre, allerdings ein
Mensch oder gar ein Team und damit ein exakt umrissener Personenkreis
mit einer einzigen eindeutigen Interessenlage.
Wird
also bei uns soviel über Algorithmen und ausser menschliche
Kontrolle geratende, selbständig exekutierende Maschinen geredet,
weil man genau weiss, dass hinter manchen Programmen und parallel
entwickelten technischen Kombi-Funktionen Killer (KI xxxx) stehen ?
Nein
!
Keiner
kann sich eine Ampel vorstellen, die eine Kamera mit
Gesichterkennungsprogramm „fährt“ und eine darunter montierte
Schrotflinte, die Passanten, die „Zum Vierten Mal“ bei Rot
rübergehen sofort sanktioniert. Gespart wäre der mühseelige
Verwaltungsaufwand für den Einzug der Ordnungswidrigkeitsgebühr.
Aber sowas denken sich unsere Kleinen in ihren
verwaltungsfinanzierten, digitalen Start-Up´s mit Sicherheit nicht
aus.
Was
könnte man also Böses machen mit Gesichtserkennungsprogrammen ?
Zur
Beantwortung dieser Frage ist das CID Institut aber die falsche
Adresse. Zuständig wären wir nur für den Ansatz der auf
langjährigen, menschlichen Erfahrungswerten basierenden
gutbürgerlichen Logik im Rahmen einer Plausibilitätskontrolle.
Diese sagt uns Folgendes :
Gesichtserkennungsprogramme
im Alltagselben könnten theoretisch dazu dienen, den Schutz eines
Individuums zu gewährleisten, beispielsweise ihn davor zu schützen,
dass jemand Fremdes am Geldautomaten mit seiner EC- oder Kreditkarte
Geld abhebt, weil die im Geld-Automaten eingebaute Video-Kamera
sofort erkennt, ob der Kontoinhaber seine Karte in den Schlitz
geschoben hat oder ein Anderer / eine Andere. Würde das Gesicht des
Abhebenden nicht mit dem Gesicht des Kontoinhabers übereinstimmen,
so könnte ein Algorithmus sofort die Auszahlung sperren und die
möglicherweise gestohlene Karte einbehalten. Selbiges könnte
alsbald auch an jeder elektronischen Kasse praktiziert werden, an der
man mit Kreditkarten bezahlen kann.
Banken
nehmen aber bisher keine Fotoprofildaten-Registrierung ihrer Kunden
bei der Kontoröffnung und Kredit-Kartenausgabe vor. Wer sonst hat
also noch Interesse an exakter Identifikation von Personen anhand
ihres Gesichtes ?
Programmentwickler
und Kontrolleure des Geld-Zahlungsverkehrs.
Entwickler
von perfekten Gesichterkennungsprogrammen benötigen den Datenbestand
aller Gesichter der gesamten Bevölkerung der Erde damit eine 100%ige
Identifizierung einer Person im Rahmen eines Vergleiches der
aufgenommenen Profilfotodaten mit dem bereits gesammelten
Bilddatenbestand der Grundlagenfotodatenbank möglich ist. Und zwar
ein Vergleich jedes Gesichtes mit den wandelnden Charakteristiken von
„Morgens verpennt“, „Mittags hungrig“, „nachmittags topfit
nach dem Geschlechtsverkehr“ und „Abends müde“ - denn jedesmal
kann die Gesichtsphysiognomie ganz andere Züge annehmen.
Für
wen arbeiten nun Programmentwickler ?
Ein
Gesichtserkennungsprogramm ist so gebaut, dass es aus einer
Fotokamera, einem Smartphone oder einer stationären oder mobilen
Videoüberwachungskamera heraus in der Lage ist, ein Gesicht als
solches zu erkennen und nach bestimmten Kriterien wie etwa Ethno-Typ,
Haarfarbe, Nasenform, Nasen-Augen-Mund-Relation, Augenstellung,
proportionalem Verhältnis der Gesichts-Biometrie, Narben, etc. zu
klassifizieren und zu registrieren. Ist das Gesicht in eine vom
Programmentwickler erdachte Schublade eingeordnet, wird es dort
mittels eines Algorithmus mit dem Bestand der Grundlagenfotodatenbank
verglichen, der mit der Schubladenkategorisierung übereinstimmt.
Das bedeutet, ist man in die Schublade „Schwarzafrikaner“
eingeordnet, sucht das Erkennungsprogramm durch Vergleich mit der
existierenden Bilddatenbank aller Schwarzafrikaner ob ein bereits
90-100 % mit den aufgenommenen Profilfotocharakteristika
übereinstimmendes Foto vorhanden ist. Das Ergebnis dieser
Datenrecherche, also Null, eins oder viele Bilder, wird dann an die
Entscheidungsebene des Algorithmus weitergegeben.
Null
würde negativ bedeuten, die Person ist noch nicht registriert. Eins
würde positiv bedeuten, die Person ist nach Programmdatengrundlage
eindeutig identifizierbar, ob sie es auch tatsächlich ist oder nicht
oder ein Doppelgänger sei dahingestellt. Viele „Hit´s“ würde
bedeuten das ein bisher noch menschlicher Entscheidungsauswerter
hinzugezogen werden muss umd zu bestimmen, ob ER oder SIE „es ist“
oder nicht.
Diskutiert
wird im Hintergrund aktuell also offensichtlich, ob man die
letzendliche Entscheidung über die Folgehandlung nach der
eindeutigen Identifikation eines Individuums auf Grund einer
Fotogrundlage immer einem Menschen überlässt oder ob man sie an
einen Automaten überträgt, der selbständig die vorprogrammierte
ausführende Handlungsschleife exekutiert. Soviel kann man an der
aktuellen Diskussion ablesen.
Wer
aber sucht so gezielt nach Menschen und registriert „Uns Alle“ ?
Jäger
oder Kontrolleure des Geldzahlungsverkehrs.
Jäger
exekutieren, wenn sie sicher sind, das das Reh, das vor ihnen steht,
kein Schaf bzw. keine Kuh ist.
CID Institute Contemporary Social Studies
1st January 2019
Keine Kommentare:
Kommentar veröffentlichen