Dienstag, 1. Januar 2019


el ALGO tiene RITMO




Viel war die Rede in den letzten Wochen des Jahres 2018 von Künstlichen Intelligenzen ( KI.... ) und den ALGORITHMEN, die, so befürchten Manche, bald unser Leben bestimmen könnten. Maschinen, so meinten Manche, seien mit lernfähigen Programmen ausgestattet, Programmen, die sich auf Grund des gesammelten Datenbestandes weiterentwickeln und perfektioneren könnten, so dass dem Menschen, der sie einstmals und ursprünglich selbst erschaffen hatte, die Kontrolle über die Geräte elektronischer Bauweise verloren gehen könnte und diese selbständig dem Menschen bisher verbliebene Machtentscheidungen übernehmen könnten.

Wie hat man sich derartige Horrorvisionen vorzustellen ?

Algorithmen sind erstmal nichts anderes als vom Menschen erfundene Elemente von Programmmiersprachen von Elektrogeräten. Hinter jedem Algorithmus steht der Mensch, der ihn geschrieben hat. Die Verantwortung für das potentielle Desaster, das ein von einem anthropogen kreierten Algorithmus gesteuerter Apparat auslösen könnte - denken wir hier nur einmal an einen fahrerlosen, selbstfahrenden PKW, der gezielt Radfahrer umnietet - liegt 100 % bei den Konstrukteuren der Maschine, die sich mit der gezielten Streuung der Phantasie, Maschinen könnten sich unabhängig von ihren Konstrukteuren selbständig machen und Entscheidungen selbständig treffen und ausführen, mit dem Deckmäntelchen des Pontius Pilatus zu covern versuchen.

Maschinen treffen nur selbständig Entscheidungen, wenn sie zuvor von Menschen exakt für diesen Zweck ausgedacht und gebaut wurden. Hinter jeder auf Grund ihres programmierten Datenbestandes selbständigen Entscheidung, die eine Maschine treffen könnte, steht der Mensch bzw. das Team, das sie für den spezifischen Zweck ausgedacht, programmiert und gebaut hat.

Menschen machen aber nichts Böses, Technologien werden nur zu unserem Nutzen und zu Guten Zwecken entwicklt. Seit Friedrich Dürrenmatt´s Physikern, Albert Einstein, der Atombombe und der Cryotechnologie wissen wir vom lupenreinen Verantwortungsbewusstsein unserer Techniker und Wissenschaftler, das in der Alma Mater jeder Universität beschützt, behütet und bewacht wird. Warum sollten wird uns also Gedanken machen, ob eine mobile Festplattenkamera, die an eine Remote-Gesichtserkennungsdatenbank angeschlossen ist, plötzlich eine selbständige, unerwartete Entscheidung teffen will, weil sie meint, anhand des internen Profilfotovergleiches ein ganz bestimmtes Gesicht wiedererkannt und somit eine Person identifiziert zu haben ?

Stellen wir uns mal folgende Situation vor : Der CIA Zielfahnder sieht plötzlich vor sich in der U Bahn von Shanghai Osama bin Laden sitzen. Vermutlich wird er, der auch nur ein Mensch ist, zappelig, transpiriert am ganzen Körper und beginnt im Kopf durchzukalkulieren, ob er es sich leisten kann, als Ausländer in China eine Verhaftung oder Exekution durchzuführen oder ob er dafür einen Diszi kassieren würde („Diszi“ = ein Disziplinarverfahren). Dann beginnt er zu zweifeln, ob es wirklich Osama ist oder nur ein Doppelgänger. Wegen des gutmütigen Blickes des Bärtigen Grauharigen bekommt er dann vermutlich noch Mitleid mit dem Alten und überlegt, ob er ihm seine U-Bahn-Fahrkarte schenkt, denn eine Kontrolle naht und der Afghanische Opa sieht so aus als sei er vollständig mittellos.

Wäre der CIA Zielfahnder einer der neuen mobilen chinesischen Polizeiroboter, die auf 4 Rollen heute in jedem grösseren chinesischen Bahnhof herumfahren und die zig-tausenden wartenden Passagiere in den Wartehallen registrieren, so würden diese nicht lange fackeln, wenn das Computersignal für Gesichtsidentität und Gesuchtenprofil 100 % deckungsgleich wären. Seine unter der Kamera eingebaute Smith & Wesson würde selbständig auf Grund des Datenbestands das Problem lösen und die hohen Kosten eines langwierigen internationalen Hochsicherheits-Terrorverfahrens in Sekundenbruchteilen einsparen, denn hinter jedem Algorithmus steht letzendlich eine Kosten-Nutzen-Rechnung.
Programmiert hätte den Algorithmus, der dafür notwendig wäre, allerdings ein Mensch oder gar ein Team und damit ein exakt umrissener Personenkreis mit einer einzigen eindeutigen Interessenlage.

Wird also bei uns soviel über Algorithmen und ausser menschliche Kontrolle geratende, selbständig exekutierende Maschinen geredet, weil man genau weiss, dass hinter manchen Programmen und parallel entwickelten technischen Kombi-Funktionen Killer (KI xxxx) stehen ?

Nein !

Keiner kann sich eine Ampel vorstellen, die eine Kamera mit Gesichterkennungsprogramm „fährt“ und eine darunter montierte Schrotflinte, die Passanten, die „Zum Vierten Mal“ bei Rot rübergehen sofort sanktioniert. Gespart wäre der mühseelige Verwaltungsaufwand für den Einzug der Ordnungswidrigkeitsgebühr. Aber sowas denken sich unsere Kleinen in ihren verwaltungsfinanzierten, digitalen Start-Up´s mit Sicherheit nicht aus.

Was könnte man also Böses machen mit Gesichtserkennungsprogrammen ?

Zur Beantwortung dieser Frage ist das CID Institut aber die falsche Adresse. Zuständig wären wir nur für den Ansatz der auf langjährigen, menschlichen Erfahrungswerten basierenden gutbürgerlichen Logik im Rahmen einer Plausibilitätskontrolle. Diese sagt uns Folgendes :

Gesichtserkennungsprogramme im Alltagselben könnten theoretisch dazu dienen, den Schutz eines Individuums zu gewährleisten, beispielsweise ihn davor zu schützen, dass jemand Fremdes am Geldautomaten mit seiner EC- oder Kreditkarte Geld abhebt, weil die im Geld-Automaten eingebaute Video-Kamera sofort erkennt, ob der Kontoinhaber seine Karte in den Schlitz geschoben hat oder ein Anderer / eine Andere. Würde das Gesicht des Abhebenden nicht mit dem Gesicht des Kontoinhabers übereinstimmen, so könnte ein Algorithmus sofort die Auszahlung sperren und die möglicherweise gestohlene Karte einbehalten. Selbiges könnte alsbald auch an jeder elektronischen Kasse praktiziert werden, an der man mit Kreditkarten bezahlen kann.

Banken nehmen aber bisher keine Fotoprofildaten-Registrierung ihrer Kunden bei der Kontoröffnung und Kredit-Kartenausgabe vor. Wer sonst hat also noch Interesse an exakter Identifikation von Personen anhand ihres Gesichtes ?

Programmentwickler und Kontrolleure des Geld-Zahlungsverkehrs.

Entwickler von perfekten Gesichterkennungsprogrammen benötigen den Datenbestand aller Gesichter der gesamten Bevölkerung der Erde damit eine 100%ige Identifizierung einer Person im Rahmen eines Vergleiches der aufgenommenen Profilfotodaten mit dem bereits gesammelten Bilddatenbestand der Grundlagenfotodatenbank möglich ist. Und zwar ein Vergleich jedes Gesichtes mit den wandelnden Charakteristiken von „Morgens verpennt“, „Mittags hungrig“, „nachmittags topfit nach dem Geschlechtsverkehr“ und „Abends müde“ - denn jedesmal kann die Gesichtsphysiognomie ganz andere Züge annehmen.

Für wen arbeiten nun Programmentwickler ?

Ein Gesichtserkennungsprogramm ist so gebaut, dass es aus einer Fotokamera, einem Smartphone oder einer stationären oder mobilen Videoüberwachungskamera heraus in der Lage ist, ein Gesicht als solches zu erkennen und nach bestimmten Kriterien wie etwa Ethno-Typ, Haarfarbe, Nasenform, Nasen-Augen-Mund-Relation, Augenstellung, proportionalem Verhältnis der Gesichts-Biometrie, Narben, etc. zu klassifizieren und zu registrieren. Ist das Gesicht in eine vom Programmentwickler erdachte Schublade eingeordnet, wird es dort mittels eines Algorithmus mit dem Bestand der Grundlagenfotodatenbank verglichen, der mit der Schubladenkategorisierung übereinstimmt. Das bedeutet, ist man in die Schublade „Schwarzafrikaner“ eingeordnet, sucht das Erkennungsprogramm durch Vergleich mit der existierenden Bilddatenbank aller Schwarzafrikaner ob ein bereits 90-100 % mit den aufgenommenen Profilfotocharakteristika übereinstimmendes Foto vorhanden ist. Das Ergebnis dieser Datenrecherche, also Null, eins oder viele Bilder, wird dann an die Entscheidungsebene des Algorithmus weitergegeben.




Null würde negativ bedeuten, die Person ist noch nicht registriert. Eins würde positiv bedeuten, die Person ist nach Programmdatengrundlage eindeutig identifizierbar, ob sie es auch tatsächlich ist oder nicht oder ein Doppelgänger sei dahingestellt. Viele „Hit´s“ würde bedeuten das ein bisher noch menschlicher Entscheidungsauswerter hinzugezogen werden muss umd zu bestimmen, ob ER oder SIE „es ist“ oder nicht.

Diskutiert wird im Hintergrund aktuell also offensichtlich, ob man die letzendliche Entscheidung über die Folgehandlung nach der eindeutigen Identifikation eines Individuums auf Grund einer Fotogrundlage immer einem Menschen überlässt oder ob man sie an einen Automaten überträgt, der selbständig die vorprogrammierte ausführende Handlungsschleife exekutiert. Soviel kann man an der aktuellen Diskussion ablesen.

Wer aber sucht so gezielt nach Menschen und registriert „Uns Alle“ ?

Jäger oder Kontrolleure des Geldzahlungsverkehrs.

Jäger exekutieren, wenn sie sicher sind, das das Reh, das vor ihnen steht, kein Schaf bzw. keine Kuh ist.




CID Institute Contemporary Social Studies
1st January 2019






Keine Kommentare:

Kommentar veröffentlichen