Algorithmen: Wenn Unvernunft mathematisch Darstellbar werden soll

Screenshot youtube.com Screenshot youtube.com

Was hat eine antike Sanduhr mit einer modernen Computerprogramm gemein? Beide basieren nach der Definition des staatlichen Rundfunks, auf einer „Künstliche Intelligenz“ . Es scheint ein modernes Phänomen unser Zeit zu sein, das staatliche Funktionäre des Rundfunks, eigentlich selbst nicht so genau wissen, worüber sie berichten.

Warum das Recht auf informelle Selbstbestimmung im Weg steht

>>Staatsfunk „ARD“ <<

„Prof. Dr. Hans Uszkoreit, Direktor des Fachbereichs Sprachtechnologie am Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin, träumt von offenen Daten, die miteinander vernetzt werden und einen bisher nie dagewesenen Wissensvorrat entstehen lassen, auf den jeder Mensch und jede Maschine zugreifen kann. So entstünde eine Art Mega-Cloud, die unser Leben revolutionieren würde.“

Der gläserne Bürger ohne Datenschutz

Diese „Mega-Cloud“ gibt es schon längst und trägt den landläufigen Namen „Internet“ und in der Tat, kann jeder Mensch darauf zugreifen. Hans Uszkoreit meint aber etwas ganz anderes: Das Recht auf informelle Selbstbestimmung soll faktisch aufgehoben werden. Um – in seinen Fall – alle Wörter die ein Mensch je gesprochen hat, auswerten zu können. Viele Geräte haben heutzutage ein – mehr oder minder – verstecktes Mikrophone verbaut: Diese sind in der Regel kaum abschaltbar. Allerdings das am Ende jeder Mensch auf die Daten zugreifen kann: Das ist wohl als ein modernes Ammenmärchen anzusehen. Aber irgendwie, muss der Staatsfunk sein „öffentliches Anliegen“ der Bevölkerung ja schmackhaft machen. Vermeintlich seriöse Berichterstattung, garniert mit Halbwahrheiten, Unkenntnis und einen finsteren Hintergedanken.

Der Algorithmus wird solange verändert bis das Ergebnis passt

>>Staatsfunk „Deutschlandfunk“ <<

„Algorithmus erkennt unseriöse Quellen … Die Forscher programmierten einen Algorithmus, der etwa 150 Artikel einer Quelle braucht, um deren Vertrauenswürdigkeit zu bewerten. Laut den Wissenschaftlern lag die Künstliche Intelligenz in 65 Prozent der Fälle richtig. In 70 Prozent der Fälle konnte sie auch die politische Richtung der Verfasser korrekt bestimmen.“

Unseriöse Berichterstattung mit Halbwahrheiten und Unwissen

Künstliche Intelligenz: Ist nichts weiter als ein mathematischer Algorithmus. „Die Forscher programmierten einen Algorithmus, der etwa 150 Artikel einer Quelle braucht, um deren Vertrauenswürdigkeit zu bewerten.“ Vertrauenswürdigkeit: Das ist ein vollkommen subjektiver – mathematisch nicht greifbarer – Begriff. Natürlich lassen sich die Parameter so verändern, bis das gewünschte – oder etwas in der Richtung – Ergebnis herauskommt. Der staatliche Rundfunk würde niemals eine „Künstliche Intelligenz“ akzeptieren, die ihre eignen Beiträge abstuft, weil sie beispielsweise zu Unwissenschaftlich und Ungenau sind. Unter diesen Beitrag werden weitere Artikel angeboten, diese basieren – nach Logik des Staatsfunks – ebenso auf einer „Künstliche Intelligenz“ die frei nach belieben manipuliert werden kann.

Die krude Logik in der Berichterstattung

Allerdings hier werden nur Wörter in verschiedenen Artikeln miteinander verglichen und die besten Übereinstimmungen dann angezeigt. Diese Technologie wäre niemals in der Lage, ein neues Klavierkonzert von Sergei Rachmaninow zu komponieren oder einen neuen Faust von Johann Wolfgang von Goethes zu schreiben. Schon bei einfachen Börsennachrichten – die ja praktisch nur aus Textbausteinen bestehen – kommt die Software an ihre Grenzen und verursacht nicht selten, mehr menschliche Arbeit, als sie an Nutzen bringt.

Kann die Künstliche Intelligenz einen Johann Wolfgang von Goethe ersetzen?

>>Silver Tipps<<

„Der Begriff Filterblase, Englisch „filter bubble“, wurde 2011 vom amerikanischen Politaktivisten Eli Pariser in seinem Buch „The Filter Bubble“ geprägt. Ihm ist aufgefallen, dass zwei verschiedene Nutzer bei der gleichen Internetsuchanfrage unterschiedliche Ergebnisse erhalten können. Als Beispiel nennt er zwei Personen, die beide nach dem Stichwort „BP“ – also dem britischen Mineralölunternehmen – suchen. Während die eine Person Nachrichten zu Investitionsmöglichkeiten angezeigt bekommt, wird die andere über die durch BP verursachte Ölkatastrophe im Jahr 2010 informiert. Wie lässt sich das erklären? Nutzerinnen und Nutzer werden im Internet getrackt, das heißt alle Bewegungen, die sie im Internet vornehmen, werden aufgezeichnet. Unternehmen wie Google, Facebook und Co. speichern diese Bewegungen und erfahren so, auf welche Links eine Person bevorzugt klickt oder welche Schlagzeilen sie liest. Die Daten werden an Dritte weitergegeben, die den Nutzerinnen und Nutzern dann maßgeschneiderte Werbung anbieten können.“

Glaubwürdigkeitskrise: Was hinter der Filterblase tatsächlich steckt

Genau darum geht es: Der staatliche Rundfunk steckt in einer Glaubwürdigkeitskrise und nun wird alles auf mathematische Algorithmen gesetzt: Um verlorenes Terrain zurück zu erobern. Nur offen aussprechen wollen sie es scheinbar (noch) nicht.