‹Künstliche Intelligenz› ist Thema in den Medien und beschäftigt die Medienbranche selbst: Das zeigte der Schweizer Journalismustag am 22. November in Winterthur.
Journalistinnen und Journalisten legen Wert auf Eigenständigkeit, Urteilsfähigkeit und Unersetzbarkeit. Da kratzt der Einsatz etwa von Roboterjournalisten am Selbstverständnis, selbst wenn diese ‹nur› Sport- oder Wetterergebnisse ausformulieren. Dass Texte mit sich wiederholenden Strukturen automatisch erstellt werden, stellt keinen Verlust für den Menschen dar. Diese Meinung vertritt Philosoph, Journalist und Bürgerrechtsaktivist Matthias Spielkamp: «Wenn sich etwas automatisieren lässt, macht man [als Mensch, als Journalist] etwas falsch.» Interessanter wird es, wenn ein Algorithmus auf Grundlage von ihm vorliegenden Daten vor einem Erdbeben warnt, auch wenn es aktuell nicht stattgefunden hat. Grund dafür war eine Neuberechnung von Daten des Erdbebens von 1925 bei Los Angeles. Die Feststellung, dass ein Erdbeben dort stattgefunden hat, war zwar richtig, nicht aber die Schlussfolgerung, dass dieses ein aktuelles Ereignis ist.
Ein Algorithmus ist also nur so gut wie die Daten, die er bekommt; ebenso die Qualität der Regeln, die ein ‹intelligenter› Algorithmus daraus ableitet. Auch können solche Daten gesteuert oder manipuliert werden. Beispiel Hass und Diskriminierung: Hasskommentare werden heute nicht mehr notwendigerweise von Menschen formuliert, sie können auch von Bots, also Algorithmen, die eine menschliche Identität vortäuschen, in Foren geflutet werden und damit Meinungen ‹machen› beziehungsweise einen Diskursraum besetzen. Beispiel Irrtümer: Systeme zur Gesichtserkennung lassen sich durch Details wie eine bunte Brille austricksen, sodass falsche Schlüsse auf die tatsächliche Identität gezogen werden. Oder ein Erkennungssystem stellt fest, dass eine Frau eine rote Ampel missachtet hat, obwohl ein Bus mit dem Foto dieser Frau an der Kamera vorbeigefahren war (‹Süddeutsche Zeitung› vom 24./25. November 2018).
Darüber hinaus können Videoaufnahmen so manipuliert werden, dass der gezeigte Mensch Grimassen eines anderen Menschen macht oder er etwas mit seiner Stimme zu sprechen scheint, was er nie gesagt hat. Zwar gibt es sogenannte Ton- und Bildforensiker, die Fälschungen im Nachhinein nachweisen können. Aber die Aufklärung über eine Fälschung erreicht eher nicht dieselben Menschen, die die Täuschung als Wirklichkeit aufgenommen haben.
All diese Nachbildungen sind faszinierend. Inwieweit sind sie aber relevant? Sie tragen nicht dazu bei, dass der Mensch seine Fähigkeiten an ihnen so weiter ausbildet, dass beispielsweise Hunger oder Krankheit angegangen werden. Es sind Spielereien auf hohem Niveau, betrieben mit viel Aufwand.
Sie wären nicht weiter erwähnenswert, wirkten sie nicht auf die reale, analoge Welt zurück. Von Gatebox Labs wurde eine holografische weibliche Hausassistentin entwickelt, die im Werbetrailer als eine Art Freundin präsentiert wird, die sich auf ihren Besitzer freut, wenn er von der Arbeit nach Hause kommt. Von China wird berichtet, dass ein Regelverstoß wie das Missachten einer roten Ampel auf Grundlage von Gesichtserkennung und Daten des Personalausweises zu einer Buße führt, die auf das Smartphone des erkannten Menschen gesendet wird. Führt gesetzesgemäßes Verhalten zum Gutschreiben oder nichtkonformes Verhalten zum Abziehen von ‹Sozialpunkten›, liegt nahe, auf dieser Grundlage Arbeitsstellen zu vergeben, Anspruch auf Wohnungen zu gewähren oder den Bezug von Fahrscheinen zu verweigern. All diese ‹Spielereien› haben also eine Schwester, die Überwachung, die Ausübung von Macht auf Grundlage einer ‹kalten› Gesetzesauslegung.
Rudolf Steiner beschreibt das Bilden einer von der Welt abgezogenen Insel als eine Grenzüberschreitung des Wesens Luzifer (GA 147, Vortrag vom 25. August 1913), ein konsequent logisches (jedoch empathiefreies) Denken als eine solche des Wesens Ahriman (GA 237, Vortrag vom 1. August 1924). Insofern gilt es, sich nicht von der Faszination über das, was die ‹intelligenten› Algorithmen können, ablenken zu lassen. Auch wenn sie das Übersetzen erleichtern, weit verstreutes Expertenwissen zusammenführen und verdichten oder anderes Hilfreiches ermöglichen, handelt es sich nicht um schöpferische Intelligenz, sondern um Mustererkennungssysteme, die für das Durchsetzen von Macht benutzt werden können. Der Mensch kann mehr: Er verfügt beispielsweise über Urteilsfähigkeit, Empathie sowie die Fähigkeit, zu verzeihen und zu vergessen. Der Informatiker Joseph Weizenbaum (1923–2008) machte einst Studierende an der Technischen Universität Berlin auf eine weitere Eigenschaft aufmerksam: Sie sollten sich die Folgen der von ihnen entwickelten Programme vor Augen führen, ganz konkret: Kann das von ihnen Programmierte zur Steuerung von Waffen verwendet werden? Was geschieht, wenn sie ein Haus ansteuern? Was geschieht mit den Menschen, die dort wohnen? Ganz konkret. Er appellierte an die Fähigkeit des Menschen, die Folgen seines Handelns im Voraus abzuschätzen. Und dafür braucht es neben dem Urteilsvermögen ein situatives Handeln auf einer moralischen Grundlage.
Zum Bild: Sophia ist ein humanoider Roboter, der 2017 die saudi-arabische Staatsbürgerschaft bekommen hat. Hier während der Münchner Sicherheitskonferenz 2018
Foto: Münchner Sicherheitskonferenz