Gespräch mit der IT-Spezialistin und Publizistin Aleksandra Sowa
Zur Reihe: Über kaum eine technologische Errungenschaft wird so viel geredet und gestritten wie über KI, die Künstliche Intelligenz in Form von ChatGPT und anderen, sich immer rasanter entwickelnden Tools. Ihre einschneidenden Auswirkungen auf unsere Gesellschaft werden sowohl als innovativ und arbeitsentlastend begrüßt als auch in ihren sozialen und arbeitsmarktgefährdenden Aspekten kritisch hinterfragt. Welche Konsequenzen haben diese Entwicklungen für die Kunst- und Literaturschaffenden in Bayern? Inwiefern wirkt sich KI auf ihre Arbeits- und Lebensbedingungen aus? Welche Erkenntnisse lassen sich gewinnen? In der Reihe „Die KI und wir“ widmet sich das Literaturportal diesem brisanten, aktuellen Thema in Form von Gesprächen, Berichten und Rezensionen.
Das dritte Gespräch, dieses Mal in Form eines schriftlichen Interviews, führte Andrea Heuser für die Redaktion des Literaturportals Bayern mit Aleksandra Sowa, Spezialistin für IT-Sicherheit und Datenschutz, Publizistin und Mitglied der Grundwertekommission.
*
LITERATURPORTAL BAYERN: Liebe Aleksandra, im künstlerischen, insbesondere im filmischen Sprechen über KI wird dieser fast durchweg ein menschliches Gesicht, ein menschlicher Körper verliehen. Aber eigentlich ist das ja „Robotik“; ein etwas anderes Feld, mit dem Du Dich auch auskennst. Wie genau verläuft da die Abgrenzung, welche Erkenntnisse lassen sich aus dem Gebiet der Robotik für die heutige Auseinandersetzung mit KI gewinnen?
ALEKSANDRA SOWA: Die beste Antwort auf die Frage, warum Roboter in Filmen so menschlich wirken, stammt meines Erachtens von der Politikwissenschafterin und Science-Fiction-Analytikerin Dr. Isabella Hermann: Roboter würden in den Filmen von menschlichen Darstellern gespielt, sagte sie, sinngemäß. Eventuell sollten wir uns nicht wundern, dass sie auch menschlich wirken.
Als ich vor etlichen Jahren an der Technischen Universität Gliwice das Studium aufnahm, gab es Robotik und Automatisierung zweimal: Einmal an der Fakultät für Mechanik. Dort haben die Studierenden gelernt, wie man Roboter, hauptsächlich Industrieroboter, plant, designt und konstruiert. An der Fakultät für Informatik haben die Studierenden wiederum gelernt, wie man Roboter programmiert. Das, was wir heute unter künstlicher Intelligenz verstehen, unterscheidet sich wesentlich vom Verständnis von KI, wie es noch in den 1990er-Jahren sehr verbreitet war, und davon, wie die frühen Science-Fiction-Autoren und Futurologen sie sich vorgestellt haben.
Die positronischen Gehirne aus den Robotergeschichten von Issac Asimov oder das Elektronenhirn, wie wir es aus Summa Technologiae von Stanislaw Lem aus dem Jahr 1964 kennen, haben nichts, aber auch gar nichts gemein mit den KI-Modellen wie ChatGPT, Bard, Gemini oder Claude, deren Hauptfunktionalität darin besteht, das, was es bereits gab oder gibt, in einer neuen, aber nicht grundsätzlich anderen Form zu replizieren. So gesehen tragen die LLMs dazu bei, den Status quo aufrechtzuerhalten und auf die Zukunft zu projizieren. Das trifft insbesondere auch auf die Zukunftsprognosen zu, die mit KI-Unterstützung erstellt werden.
Um den Futurologen Stanislaw Lem zu paraphrasieren: Es gibt keinen einzelnen Menschen, der weiß, wie eine Rakete funktioniert – das Wissen gehört sozusagen der Gesellschaft, es ist auf viele Spezialisten verteilt. Eine KI sollte in der Lage sein, das Wissen zu erfassen, auszuwerten, zu optimieren und es weiterzuentwickeln – und zwar wesentlich schneller, als es eine Gruppe von Menschen, also Experten, jemals können würde. Das Ziel des Fortschritts sollte dabei immer der Mensch sein, also beispielsweise die Erforschung fremder Welten, das Überleben im Weltall usw. Heute ist die NASA ein Bürokratiemonster, in dem Menschen, die etwas von Raketen verstehen, Ausnahmen sind. Und die KI ist zweifelsohne eine große technische Leistung. Aber nicht unbedingt ein Fortschritt.
Dabei sind wir Menschen gar nicht wenig anspruchsvoll: Als die Gesellschaft für Informatik (GI) vor ca. fünf Jahren in der Studie KI und Popkultur untersuchen ließ, wie die filmischen KI Vorbilder die Vorstellungen der deutschen Bevölkerung von der KI beeinflussen, stellte sich heraus, dass zu den bekanntesten KI-Vorbildern mit 76 % der Terminator klar vor R2-D2 (65 %) und K.I.T.T. (59 %) gehört. Wenn es allerdings um die Frage geht, welchen Filmroboter man sich am liebsten als persönlichen Assistenten oder Gehilfen aussuchen würde, führt klar R2-D2, gefolgt von Sonny oder K.I.T.T. und Commander Data aus Star Trek.
LPB: Man hört hier schon heraus, dass sich Deine Kenntnisse zur KI aus den vielfältigsten, im Studium und dann in jahrelanger praktischer Anwendungsarbeit erworbenen Einsichten speisen. Was genau sind Deine Arbeitsgebiete im Bereich KI?
SOWA: Ich bin zertifizierte Datenschutzbeauftragte und Datenschutzauditorin sowie IT-Compliance-Managerin. Was bedeutet, dass ich mich schwerpunktmäßig mit den Themen Informationssicherheit und Datenschutz befasse, also auch mit der Sicherheit und Qualität der Software. Wobei man die heutige KI auch als eine sehr komplexe Software qualifizieren könnte. Die Frage, die wir uns beispielsweise bei der Gesellschaft für Informatik gestellt haben, war: Was muss man tun, damit eine, sagen wir, von Facebook/Meta entwickelte KI nicht irgendwann Amok läuft und die Menschheit ausradiert?
Und stellten bei der Beantwortung fest, dass es, um eine gute Qualität und Sicherheit der Software zu gewährleisten, bereits Standards und Lösungen in der klassischen Computer-Science gibt – also praktisch seit der Pionierarbeit von Edsger Dijkstra. Das Problem ist, wie es der Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik (BSI) auf dem diesjährigen Kongress des BSI bemerkte, dass man sich leider bisher nicht hinreichend darum gekümmert hat, diese Ansätze zu operationalisieren. Das möchte man ändern.
Mein Spezialgebiet ist es, das Thema aus der Perspektive der Kontrollen zu betrachten. Das heißt, geeignete und relevante Methoden sowie Modelle zu entwickeln, die in der IT-Revision, beim Datenschutzaudit oder bei der Sicherheitsprüfung dabei unterstützen, zu prüfen oder zu testen, ob etwa die IT-Systeme das tun, wofür sie eingesetzt werden. Und dass sie dabei nicht etwa Gesetze, Normen oder gar Grundrechte der Anwender verletzen, indem sie bspw. Grundsätze der Datenminimierung, wie sie in Deutschland im Standarddatenschutzmodell (SDM) vorgegeben sind, nicht beachten.
LPB: Stichwort: Schutz der Grundrechte. Als Mitglied der Grundwertekommission beschäftigst Du Dich auch mit ethischen Fragen, den gesellschaftlich-sozialen Auswirkung der Entwicklung von KI. Was ist Dir hier am Wichtigsten?
SOWA: Wirtschaftswachstum durch KI klingt toll – Jobverlust durch Automatisierung aber eher nicht. Damit aus einer technologischen Verbesserung auch echter Fortschritt wird, ist es essenziell, dass der Mensch bzw. die Menschheit als Ziel des Fortschritts im Zentrum steht. Zwischen den vielen Stellungnahmen, Ratgebern und Gutachten zur Ethik der KI sticht deshalb eine besonders hervor: Rome Call for AI Ethics bzw. Römischer Aufruf zu einer KI-Ethik aus dem Jahr 2020.
Dem Aufruf liegt die Allgemeine Erklärung der Menschenrechte zugrunde – es wird gefordert, dass die neuen Technologien nach Kriterien erforscht und produziert werden, die der gesamten „Menschheitsfamilie“ dienen, „die jedes ihrer Mitglieder und jede der natürlichen Umwelt innewohnende Würde“ respektieren, um „die Bedürfnisse derer zu berücksichtigen, die am verletzlichsten sind“. Also neben dem Schutz der Menschen selbst auch der Schutz ihres Ökosystems bzw. des Planeten und, der nachhaltigen Ernährungssysteme in der Zukunft – dabei darf niemand diskriminiert werden.
Eine ethische Nutzung von KI, genannt „Algor-Ethik“, wird durch sechs Prinzipien definiert, die zugleich „grundlegende Elemente einer guten Innovation“ darstellen. Zu diesen Prinzipien gehören: Transparenz oder Erklärbarkeit der KI‐Systeme; Inklusion; Verantwortung, wobei damit gemeint ist, dass diejenigen, „die den Einsatz von KI konzipieren und einsetzen“, mit Verantwortung und Transparenz vorgehen müssen; Unvoreingenommenheit, darunter „Fairness und Menschenwürde“ gewährleisten; Verlässlichkeit, d.h., KI‐Systeme müssen zuverlässig arbeiten; sowie Sicherheit und Privatsphäre: „KI‐Systeme müssen sicher arbeiten und die Privatsphäre der Benutzer respektieren.“
Hier, bei dem sechsten Prinzip – „Sicherheit und Privatsphäre“ – beginnt konkret die Arbeit von Menschen wie uns. Und am Ende, das wäre schon ziemlich toll, kommt vielleicht auch eine Ethics by Design dabei heraus.
LPB: Ja, das wäre wirklich eine hoffnungsvolle Aussicht. Von dem, was am Ende idealerweise herauskommen könnte, zu etwas bereits Vorhandenem. Was genau sind die Frankfurter Hefte?
SOWA: Die Neue Gesellschaft wurde 1954 als Theoriezeitschrift im sozialdemokratischen Umfeld gegründet. Zu den Gründungsherausgebern zählten Willy Eichler, Otto Stammer von der FU Berlin, Fritz Bauer, 1963 Chefankläger im Frankfurter Auschwitz-Prozess, und Carlo Schmid. Die Frankfurter Hefte wiederum entstanden 1946 im linkskatholischen Milieu. Ihre Gründer waren der Politologe Eugen Kogon, Autor des Buchs Der SS-Staat, und die Publizisten Walter Dirks, Walter Maria Guggenheimer und Clemens Münster.
1985 wurden die Frankfurter Hefte von der Neuen Gesellschaft übernommen – daher auch der heutige Titel der Zeitschrift Neue Gesellschaft – Frankfurter Hefte. Ihr Selbstverständnis: „Heute versteht sich die Zeitschrift nicht mehr als Theorieorgan klassischen Typs, sondern als Zeitschrift für Politik und Kultur, der kluge Zeitdiagnosen und Kommentare ebenso am Herzen liegen wie praktische Zukunftsentwürfe.“
Dass sich Neue Gesellschaft nun auch „neuartigen“ Themen, wie Technologie, Digitalisierung oder Netzpolitik widmet, ist der Verdienst des früheren Mitherausgebers und späteren Chefredakteurs Thomas Meyer (Oktober 2005 bis Oktober 2021). Er war der Initiator der Kolumne „Online/Offline“, die ich die Ehre hatte, zu gestalten. In der Kolumne wurden jeweils aktuelle Themen, wie Exportverbote der Verschlüsselungssoftware, Hacktivismus, aber auch Onlinewahlen oder Datenschutz, behandelt.
Ein Highlight stellt zweifelsohne die Januar/Februar-Ausgabe der Neuen Gesellschaft dar, die dem Thema künstliche Intelligenz, konkret dem Schwerpunkt „Smarte neue Welt“ gewidmet ist. Dass KI ein Schwerpunktthema einer traditionsreichen Zeitschrift wie Neue Gesellschaft geworden ist, ist ein untrügliches Zeichen dafür, dass KI endgültig zum unbestrittenen Hype geworden ist.
LPB: Was würdest Du Dir, jenseits des Hypes, für die zukünftige Entwicklung wünschen?
SOWA: Mehr Humanismus – weniger Kapitalismus. Das klingt eventuell etwas abgehoben, ist es aber nicht. Der Futurologe Stanislaw Lem bemerkte in einem Interview aus dem Jahr 2005: „Je mehr Kapitalismus, desto weniger Sachen packt eine Gesellschaft an, die gut sind für ihr Weiterbestehen.“
Was wir brauchen, ist eine Lenkung der Technologien – auch der Künstlichen Intelligenz – weg von den Szenarien, die zunehmende Arbeits- und Lebenskontrolle bedeuten, hin zur Entwicklung neuer, alternativer Lebens- oder Arbeitswelten. Das ist mitunter die Aufgabe der Regierungen und der Politik: für eine gesunde Balance zu sorgen. Dafür brauchen wir auch mehr Menschen mit technischem Verständnis in den politischen, demokratischen Entscheidungsprozessen.
Die Idee, Regierungen außen vor zu lassen und die Entwicklung der Technologie den selbstregulierenden Kräften des Marktes bzw. „Maschine namens Kapitalismus“ zu überlassen, lehnte Lem übrigens mit der Begründung ab: „Menschen sind Raubtiere.“
LPB: Worin sieht Du die größten Chancen und Risiken für uns „menschliche Raubtiere“?
SOWA: Fortschritt macht Vieles möglich – Fortschritt birgt aber auch Gefahren und bedeutet deshalb enorme Verantwortung. Damit die Technologie der Menschheit tatsächlich auf die nächste Evolutionsstufe hievt und nicht, wie im Szenario des britischen Philosophen Nick Bostrom, uns und den Planeten gleich auch, zu Büroklammern verarbeitet, braucht es viel … natürliche Intelligenz. Eine Abhängigkeit von der Selbstregulierung durch private Unternehmen hätte schon einmal dazu geführt, dass die Menschenrechte und Freiheiten einer Vielzahl von Bedrohungen im Digitalen ausgesetzt sind, befand Freedom House in aktueller Studie Freedom on the Net 2023. Demokratische Politiker und zivilgesellschaftliche Experten aus der ganzen Welt sollten deswegen daran arbeiten, starke, menschenrechtsbasierte Standards sowohl für staatliche als auch für nichtstaatliche Akteure, die KI-Tools entwickeln oder einsetzen, zu schaffen.
Regierungen können beispielsweise die Risiken der KI mithilfe demokratischer Mechanismen adressieren, also Regulierung, Prüfung, parlamentarischen Untersuchungen oder Gesetzen, die im Einvernehmen mit der Zivilgesellschaft entwickelt werden. Zu weiteren Methoden, die legitime Sicherheitsherausforderungen adressieren, zählen gesetzliche Anforderungen an Transparenz, Datenschutz und Verantwortung bzw. Haftung.
Verbote alleine reichen leider nicht. Auch hier gilt die Empfehlung des Techkritikers, Evgeny Morozov, dass wenn man KI erfolgreich für eine Mission einsetzen möchte, zuerst diese Mission klar sein muss.
LPB: Wie lauten Deine Ratschläge für all jene um ihre Arbeitsplätze, ihre Zukunft besorgten Menschen, die hauptberuflich schreibend (schriftstellerisch, journalistisch, publizistisch) mit KI umgehen?
SOWA: Als ich für das Schwerpunktheft KI der Neuen Gesellschaft mit dem Techkritiker Evgeny Morozov sprach, haben wir u.a. über generative Sprachsysteme wie ChatGPT als Mittel politischer Kommunikation der Zukunft, aber auch der Desinformation gesprochen. Die Ursache des Problems war schnell identifiziert – und das ist vermutlich der richtige Ansatz, um mit der Frage erfolgreich umzugehen: sich auf die Ursachen und weniger auf die Bekämpfung der Symptome zu konzentrieren.
Die Kurzfristigkeit des Profit- und Quartaldenkens trägt heute Früchte. Seit den 1990ern verschwand peu à peu der Fachjournalismus, irgendwann haben die Zeitungen und Magazine auch ihre investigativen Abteilungen abgeschafft bzw. ausgespart. Es war wesentlich preiswerter, Texte der Nachrichtenagenturen oder Pressemitteilungen der Unternehmen (die zeitweise mehr Journalisten beschäftigen als die Redaktionen der Zeitschriften) einzukaufen, als in die Recherche und eigene Leute zu investieren.
Nun, wo man praktisch auf externen Input angewiesen ist, stellt sich heraus, dass vieles davon Fake News, Deep Fakes oder Desinformationen sind, und es werden hektisch forensische Abteilungen gegründet und in Betrieb genommen, die Fälschungen und Propaganda in Bild oder Ton erkennen, bevor sie in die Öffentlichkeit gesendet werden. Oder auch danach.
Hätten wir also daraus gelernt, müsste es heute anders laufen. Generative Textmaschinen wie ChatGPT haben nämlich einen echten Wert. Aber erst dann, wenn sie nicht von Firmen aus dem Silicon Valley angeboten werden, meint Evgeny Morozov. „Eine prädiktive Textmaschine sollte ein öffentlicher Dienst sein, der von öffentlicher Infrastruktur angeboten wird. Man könnte zwar verschiedene Unternehmen mit finanziellen Mitteln dazu bewegen, Grundmodelle zu entwickeln. Aber dann müssen wir einen Weg finden, diese Funktionen in eine öffentliche Infrastruktur zu übertragen. KI kann im öffentlichen Sektor so viel besser sein.
Ob dann noch in den Prognosen, die mit KI-Unterstützung erstellt werden, vorhergesagt wird, dass Jobs wie die der Journalisten, Analytiker, Ärzte oder Übersetzer durch eine KI ersetzt werden, an der die KI-Hersteller und Techunternehmen ganz und gar nicht verdienen würden, bleibt abzuwarten. Meine Vermutung ist, dass eher nicht.
LPB: Hoffentlich hast Du mit dieser Vermutung recht. Eine Einschätzung zum Schluss: Das Zeitalter der KI wird derzeit meist in (kritischen wie emphatischen) Superlativen geschildert und gern mit der Erfindung des Feuers oder, in Hinblick auf historische Epochen-Zäsuren, mit der Industriellen Revolution verglichen. Wie ist Deine Meinung dazu?
SOWA: Als die beiden Zeitreisenden aus dem Jahr 1985, Marty McFly und Doc Brown aus dem Film Zurück in die Zukunft, für ihre Landung am legendären 22. Oktober 2015 ausgerechnet die Jimmy Kimmel Live Talkshow ausgewählt haben, mussten sie erfahren: fliegende Autos gibt es nicht, Howerboards auch nicht, Schuhschnürsenkel muss man sich auch noch eigenhändig zubinden.
Das Beste an der Zukunft seien sowieso die Smartphones, erklärte der Talkmaster. Kleine Supercomputer, der es einem Wissenschaftler ermöglichen würde, komplexe Berechnungen in Real Time anzustellen, erkannte der Wissenschaftler, Doc Brown, sofort. Eigentlich werden sie von den Menschen dafür benutzt, sich gegenseitig lachende Gesichter (Smileys) zu schicken, berichtigte Jimmy Kimmel. „Verzeihen Sie die Frage“, mischte sich Marty McFly alias Michael J. Fox in die Konversation ein, „aber was zum Teufel haben Sie in den letzten dreißig Jahren gemacht?“
Als ehemalige Studentin der Robotik und Automatisierung und Science-Fiction-Fan, wusste ich natürlich schon früher, dass nicht alles, was man in Star Trek zu sehen bekam, in der Zukunft wahr werden konnte. Unerwartet ist allerdings, dass nichts davon Realität geworden ist – nicht die Weltraumreisen und der Commander Data auch nicht.
Allerdings sollten wir nicht den Fehler machen, uns ausschließlich auf die negativen Aspekte der Technologie zu konzentrieren, uns von Weltuntergangsszenarien von den realen Problemen und Herausforderungen ablenken lassen – oder sie ignorieren.
Wie Dr. Isabella Hermann in Neue Gesellschaft – Frankfurter Hefte richtig bemerkte: Künstliche Intelligenz – auch wenn sie nicht der Erfindung des Feuers gleichkommt – bietet „große Potenziale, die unser Leben und das Allgemeinwohl in konkreter Weise verbessern können – wenn wir die Systeme sinnvoll einsetzen, gut regulieren, verantwortungsbewusst gestalten und nicht vergessen, dass hinter solchen Systemen immer menschliche Interessen stehen.“
LPB: Vielen Dank, liebe Aleksandra, für dieses informative Gespräch.
**
Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierte Datenschutzauditorin und IT-Compliance-Managerin. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission und trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.
Gespräch mit der IT-Spezialistin und Publizistin Aleksandra Sowa>
Zur Reihe: Über kaum eine technologische Errungenschaft wird so viel geredet und gestritten wie über KI, die Künstliche Intelligenz in Form von ChatGPT und anderen, sich immer rasanter entwickelnden Tools. Ihre einschneidenden Auswirkungen auf unsere Gesellschaft werden sowohl als innovativ und arbeitsentlastend begrüßt als auch in ihren sozialen und arbeitsmarktgefährdenden Aspekten kritisch hinterfragt. Welche Konsequenzen haben diese Entwicklungen für die Kunst- und Literaturschaffenden in Bayern? Inwiefern wirkt sich KI auf ihre Arbeits- und Lebensbedingungen aus? Welche Erkenntnisse lassen sich gewinnen? In der Reihe „Die KI und wir“ widmet sich das Literaturportal diesem brisanten, aktuellen Thema in Form von Gesprächen, Berichten und Rezensionen.
Das dritte Gespräch, dieses Mal in Form eines schriftlichen Interviews, führte Andrea Heuser für die Redaktion des Literaturportals Bayern mit Aleksandra Sowa, Spezialistin für IT-Sicherheit und Datenschutz, Publizistin und Mitglied der Grundwertekommission.
*
LITERATURPORTAL BAYERN: Liebe Aleksandra, im künstlerischen, insbesondere im filmischen Sprechen über KI wird dieser fast durchweg ein menschliches Gesicht, ein menschlicher Körper verliehen. Aber eigentlich ist das ja „Robotik“; ein etwas anderes Feld, mit dem Du Dich auch auskennst. Wie genau verläuft da die Abgrenzung, welche Erkenntnisse lassen sich aus dem Gebiet der Robotik für die heutige Auseinandersetzung mit KI gewinnen?
ALEKSANDRA SOWA: Die beste Antwort auf die Frage, warum Roboter in Filmen so menschlich wirken, stammt meines Erachtens von der Politikwissenschafterin und Science-Fiction-Analytikerin Dr. Isabella Hermann: Roboter würden in den Filmen von menschlichen Darstellern gespielt, sagte sie, sinngemäß. Eventuell sollten wir uns nicht wundern, dass sie auch menschlich wirken.
Als ich vor etlichen Jahren an der Technischen Universität Gliwice das Studium aufnahm, gab es Robotik und Automatisierung zweimal: Einmal an der Fakultät für Mechanik. Dort haben die Studierenden gelernt, wie man Roboter, hauptsächlich Industrieroboter, plant, designt und konstruiert. An der Fakultät für Informatik haben die Studierenden wiederum gelernt, wie man Roboter programmiert. Das, was wir heute unter künstlicher Intelligenz verstehen, unterscheidet sich wesentlich vom Verständnis von KI, wie es noch in den 1990er-Jahren sehr verbreitet war, und davon, wie die frühen Science-Fiction-Autoren und Futurologen sie sich vorgestellt haben.
Die positronischen Gehirne aus den Robotergeschichten von Issac Asimov oder das Elektronenhirn, wie wir es aus Summa Technologiae von Stanislaw Lem aus dem Jahr 1964 kennen, haben nichts, aber auch gar nichts gemein mit den KI-Modellen wie ChatGPT, Bard, Gemini oder Claude, deren Hauptfunktionalität darin besteht, das, was es bereits gab oder gibt, in einer neuen, aber nicht grundsätzlich anderen Form zu replizieren. So gesehen tragen die LLMs dazu bei, den Status quo aufrechtzuerhalten und auf die Zukunft zu projizieren. Das trifft insbesondere auch auf die Zukunftsprognosen zu, die mit KI-Unterstützung erstellt werden.
Um den Futurologen Stanislaw Lem zu paraphrasieren: Es gibt keinen einzelnen Menschen, der weiß, wie eine Rakete funktioniert – das Wissen gehört sozusagen der Gesellschaft, es ist auf viele Spezialisten verteilt. Eine KI sollte in der Lage sein, das Wissen zu erfassen, auszuwerten, zu optimieren und es weiterzuentwickeln – und zwar wesentlich schneller, als es eine Gruppe von Menschen, also Experten, jemals können würde. Das Ziel des Fortschritts sollte dabei immer der Mensch sein, also beispielsweise die Erforschung fremder Welten, das Überleben im Weltall usw. Heute ist die NASA ein Bürokratiemonster, in dem Menschen, die etwas von Raketen verstehen, Ausnahmen sind. Und die KI ist zweifelsohne eine große technische Leistung. Aber nicht unbedingt ein Fortschritt.
Dabei sind wir Menschen gar nicht wenig anspruchsvoll: Als die Gesellschaft für Informatik (GI) vor ca. fünf Jahren in der Studie KI und Popkultur untersuchen ließ, wie die filmischen KI Vorbilder die Vorstellungen der deutschen Bevölkerung von der KI beeinflussen, stellte sich heraus, dass zu den bekanntesten KI-Vorbildern mit 76 % der Terminator klar vor R2-D2 (65 %) und K.I.T.T. (59 %) gehört. Wenn es allerdings um die Frage geht, welchen Filmroboter man sich am liebsten als persönlichen Assistenten oder Gehilfen aussuchen würde, führt klar R2-D2, gefolgt von Sonny oder K.I.T.T. und Commander Data aus Star Trek.
LPB: Man hört hier schon heraus, dass sich Deine Kenntnisse zur KI aus den vielfältigsten, im Studium und dann in jahrelanger praktischer Anwendungsarbeit erworbenen Einsichten speisen. Was genau sind Deine Arbeitsgebiete im Bereich KI?
SOWA: Ich bin zertifizierte Datenschutzbeauftragte und Datenschutzauditorin sowie IT-Compliance-Managerin. Was bedeutet, dass ich mich schwerpunktmäßig mit den Themen Informationssicherheit und Datenschutz befasse, also auch mit der Sicherheit und Qualität der Software. Wobei man die heutige KI auch als eine sehr komplexe Software qualifizieren könnte. Die Frage, die wir uns beispielsweise bei der Gesellschaft für Informatik gestellt haben, war: Was muss man tun, damit eine, sagen wir, von Facebook/Meta entwickelte KI nicht irgendwann Amok läuft und die Menschheit ausradiert?
Und stellten bei der Beantwortung fest, dass es, um eine gute Qualität und Sicherheit der Software zu gewährleisten, bereits Standards und Lösungen in der klassischen Computer-Science gibt – also praktisch seit der Pionierarbeit von Edsger Dijkstra. Das Problem ist, wie es der Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik (BSI) auf dem diesjährigen Kongress des BSI bemerkte, dass man sich leider bisher nicht hinreichend darum gekümmert hat, diese Ansätze zu operationalisieren. Das möchte man ändern.
Mein Spezialgebiet ist es, das Thema aus der Perspektive der Kontrollen zu betrachten. Das heißt, geeignete und relevante Methoden sowie Modelle zu entwickeln, die in der IT-Revision, beim Datenschutzaudit oder bei der Sicherheitsprüfung dabei unterstützen, zu prüfen oder zu testen, ob etwa die IT-Systeme das tun, wofür sie eingesetzt werden. Und dass sie dabei nicht etwa Gesetze, Normen oder gar Grundrechte der Anwender verletzen, indem sie bspw. Grundsätze der Datenminimierung, wie sie in Deutschland im Standarddatenschutzmodell (SDM) vorgegeben sind, nicht beachten.
LPB: Stichwort: Schutz der Grundrechte. Als Mitglied der Grundwertekommission beschäftigst Du Dich auch mit ethischen Fragen, den gesellschaftlich-sozialen Auswirkung der Entwicklung von KI. Was ist Dir hier am Wichtigsten?
SOWA: Wirtschaftswachstum durch KI klingt toll – Jobverlust durch Automatisierung aber eher nicht. Damit aus einer technologischen Verbesserung auch echter Fortschritt wird, ist es essenziell, dass der Mensch bzw. die Menschheit als Ziel des Fortschritts im Zentrum steht. Zwischen den vielen Stellungnahmen, Ratgebern und Gutachten zur Ethik der KI sticht deshalb eine besonders hervor: Rome Call for AI Ethics bzw. Römischer Aufruf zu einer KI-Ethik aus dem Jahr 2020.
Dem Aufruf liegt die Allgemeine Erklärung der Menschenrechte zugrunde – es wird gefordert, dass die neuen Technologien nach Kriterien erforscht und produziert werden, die der gesamten „Menschheitsfamilie“ dienen, „die jedes ihrer Mitglieder und jede der natürlichen Umwelt innewohnende Würde“ respektieren, um „die Bedürfnisse derer zu berücksichtigen, die am verletzlichsten sind“. Also neben dem Schutz der Menschen selbst auch der Schutz ihres Ökosystems bzw. des Planeten und, der nachhaltigen Ernährungssysteme in der Zukunft – dabei darf niemand diskriminiert werden.
Eine ethische Nutzung von KI, genannt „Algor-Ethik“, wird durch sechs Prinzipien definiert, die zugleich „grundlegende Elemente einer guten Innovation“ darstellen. Zu diesen Prinzipien gehören: Transparenz oder Erklärbarkeit der KI‐Systeme; Inklusion; Verantwortung, wobei damit gemeint ist, dass diejenigen, „die den Einsatz von KI konzipieren und einsetzen“, mit Verantwortung und Transparenz vorgehen müssen; Unvoreingenommenheit, darunter „Fairness und Menschenwürde“ gewährleisten; Verlässlichkeit, d.h., KI‐Systeme müssen zuverlässig arbeiten; sowie Sicherheit und Privatsphäre: „KI‐Systeme müssen sicher arbeiten und die Privatsphäre der Benutzer respektieren.“
Hier, bei dem sechsten Prinzip – „Sicherheit und Privatsphäre“ – beginnt konkret die Arbeit von Menschen wie uns. Und am Ende, das wäre schon ziemlich toll, kommt vielleicht auch eine Ethics by Design dabei heraus.
LPB: Ja, das wäre wirklich eine hoffnungsvolle Aussicht. Von dem, was am Ende idealerweise herauskommen könnte, zu etwas bereits Vorhandenem. Was genau sind die Frankfurter Hefte?
SOWA: Die Neue Gesellschaft wurde 1954 als Theoriezeitschrift im sozialdemokratischen Umfeld gegründet. Zu den Gründungsherausgebern zählten Willy Eichler, Otto Stammer von der FU Berlin, Fritz Bauer, 1963 Chefankläger im Frankfurter Auschwitz-Prozess, und Carlo Schmid. Die Frankfurter Hefte wiederum entstanden 1946 im linkskatholischen Milieu. Ihre Gründer waren der Politologe Eugen Kogon, Autor des Buchs Der SS-Staat, und die Publizisten Walter Dirks, Walter Maria Guggenheimer und Clemens Münster.
1985 wurden die Frankfurter Hefte von der Neuen Gesellschaft übernommen – daher auch der heutige Titel der Zeitschrift Neue Gesellschaft – Frankfurter Hefte. Ihr Selbstverständnis: „Heute versteht sich die Zeitschrift nicht mehr als Theorieorgan klassischen Typs, sondern als Zeitschrift für Politik und Kultur, der kluge Zeitdiagnosen und Kommentare ebenso am Herzen liegen wie praktische Zukunftsentwürfe.“
Dass sich Neue Gesellschaft nun auch „neuartigen“ Themen, wie Technologie, Digitalisierung oder Netzpolitik widmet, ist der Verdienst des früheren Mitherausgebers und späteren Chefredakteurs Thomas Meyer (Oktober 2005 bis Oktober 2021). Er war der Initiator der Kolumne „Online/Offline“, die ich die Ehre hatte, zu gestalten. In der Kolumne wurden jeweils aktuelle Themen, wie Exportverbote der Verschlüsselungssoftware, Hacktivismus, aber auch Onlinewahlen oder Datenschutz, behandelt.
Ein Highlight stellt zweifelsohne die Januar/Februar-Ausgabe der Neuen Gesellschaft dar, die dem Thema künstliche Intelligenz, konkret dem Schwerpunkt „Smarte neue Welt“ gewidmet ist. Dass KI ein Schwerpunktthema einer traditionsreichen Zeitschrift wie Neue Gesellschaft geworden ist, ist ein untrügliches Zeichen dafür, dass KI endgültig zum unbestrittenen Hype geworden ist.
LPB: Was würdest Du Dir, jenseits des Hypes, für die zukünftige Entwicklung wünschen?
SOWA: Mehr Humanismus – weniger Kapitalismus. Das klingt eventuell etwas abgehoben, ist es aber nicht. Der Futurologe Stanislaw Lem bemerkte in einem Interview aus dem Jahr 2005: „Je mehr Kapitalismus, desto weniger Sachen packt eine Gesellschaft an, die gut sind für ihr Weiterbestehen.“
Was wir brauchen, ist eine Lenkung der Technologien – auch der Künstlichen Intelligenz – weg von den Szenarien, die zunehmende Arbeits- und Lebenskontrolle bedeuten, hin zur Entwicklung neuer, alternativer Lebens- oder Arbeitswelten. Das ist mitunter die Aufgabe der Regierungen und der Politik: für eine gesunde Balance zu sorgen. Dafür brauchen wir auch mehr Menschen mit technischem Verständnis in den politischen, demokratischen Entscheidungsprozessen.
Die Idee, Regierungen außen vor zu lassen und die Entwicklung der Technologie den selbstregulierenden Kräften des Marktes bzw. „Maschine namens Kapitalismus“ zu überlassen, lehnte Lem übrigens mit der Begründung ab: „Menschen sind Raubtiere.“
LPB: Worin sieht Du die größten Chancen und Risiken für uns „menschliche Raubtiere“?
SOWA: Fortschritt macht Vieles möglich – Fortschritt birgt aber auch Gefahren und bedeutet deshalb enorme Verantwortung. Damit die Technologie der Menschheit tatsächlich auf die nächste Evolutionsstufe hievt und nicht, wie im Szenario des britischen Philosophen Nick Bostrom, uns und den Planeten gleich auch, zu Büroklammern verarbeitet, braucht es viel … natürliche Intelligenz. Eine Abhängigkeit von der Selbstregulierung durch private Unternehmen hätte schon einmal dazu geführt, dass die Menschenrechte und Freiheiten einer Vielzahl von Bedrohungen im Digitalen ausgesetzt sind, befand Freedom House in aktueller Studie Freedom on the Net 2023. Demokratische Politiker und zivilgesellschaftliche Experten aus der ganzen Welt sollten deswegen daran arbeiten, starke, menschenrechtsbasierte Standards sowohl für staatliche als auch für nichtstaatliche Akteure, die KI-Tools entwickeln oder einsetzen, zu schaffen.
Regierungen können beispielsweise die Risiken der KI mithilfe demokratischer Mechanismen adressieren, also Regulierung, Prüfung, parlamentarischen Untersuchungen oder Gesetzen, die im Einvernehmen mit der Zivilgesellschaft entwickelt werden. Zu weiteren Methoden, die legitime Sicherheitsherausforderungen adressieren, zählen gesetzliche Anforderungen an Transparenz, Datenschutz und Verantwortung bzw. Haftung.
Verbote alleine reichen leider nicht. Auch hier gilt die Empfehlung des Techkritikers, Evgeny Morozov, dass wenn man KI erfolgreich für eine Mission einsetzen möchte, zuerst diese Mission klar sein muss.
LPB: Wie lauten Deine Ratschläge für all jene um ihre Arbeitsplätze, ihre Zukunft besorgten Menschen, die hauptberuflich schreibend (schriftstellerisch, journalistisch, publizistisch) mit KI umgehen?
SOWA: Als ich für das Schwerpunktheft KI der Neuen Gesellschaft mit dem Techkritiker Evgeny Morozov sprach, haben wir u.a. über generative Sprachsysteme wie ChatGPT als Mittel politischer Kommunikation der Zukunft, aber auch der Desinformation gesprochen. Die Ursache des Problems war schnell identifiziert – und das ist vermutlich der richtige Ansatz, um mit der Frage erfolgreich umzugehen: sich auf die Ursachen und weniger auf die Bekämpfung der Symptome zu konzentrieren.
Die Kurzfristigkeit des Profit- und Quartaldenkens trägt heute Früchte. Seit den 1990ern verschwand peu à peu der Fachjournalismus, irgendwann haben die Zeitungen und Magazine auch ihre investigativen Abteilungen abgeschafft bzw. ausgespart. Es war wesentlich preiswerter, Texte der Nachrichtenagenturen oder Pressemitteilungen der Unternehmen (die zeitweise mehr Journalisten beschäftigen als die Redaktionen der Zeitschriften) einzukaufen, als in die Recherche und eigene Leute zu investieren.
Nun, wo man praktisch auf externen Input angewiesen ist, stellt sich heraus, dass vieles davon Fake News, Deep Fakes oder Desinformationen sind, und es werden hektisch forensische Abteilungen gegründet und in Betrieb genommen, die Fälschungen und Propaganda in Bild oder Ton erkennen, bevor sie in die Öffentlichkeit gesendet werden. Oder auch danach.
Hätten wir also daraus gelernt, müsste es heute anders laufen. Generative Textmaschinen wie ChatGPT haben nämlich einen echten Wert. Aber erst dann, wenn sie nicht von Firmen aus dem Silicon Valley angeboten werden, meint Evgeny Morozov. „Eine prädiktive Textmaschine sollte ein öffentlicher Dienst sein, der von öffentlicher Infrastruktur angeboten wird. Man könnte zwar verschiedene Unternehmen mit finanziellen Mitteln dazu bewegen, Grundmodelle zu entwickeln. Aber dann müssen wir einen Weg finden, diese Funktionen in eine öffentliche Infrastruktur zu übertragen. KI kann im öffentlichen Sektor so viel besser sein.
Ob dann noch in den Prognosen, die mit KI-Unterstützung erstellt werden, vorhergesagt wird, dass Jobs wie die der Journalisten, Analytiker, Ärzte oder Übersetzer durch eine KI ersetzt werden, an der die KI-Hersteller und Techunternehmen ganz und gar nicht verdienen würden, bleibt abzuwarten. Meine Vermutung ist, dass eher nicht.
LPB: Hoffentlich hast Du mit dieser Vermutung recht. Eine Einschätzung zum Schluss: Das Zeitalter der KI wird derzeit meist in (kritischen wie emphatischen) Superlativen geschildert und gern mit der Erfindung des Feuers oder, in Hinblick auf historische Epochen-Zäsuren, mit der Industriellen Revolution verglichen. Wie ist Deine Meinung dazu?
SOWA: Als die beiden Zeitreisenden aus dem Jahr 1985, Marty McFly und Doc Brown aus dem Film Zurück in die Zukunft, für ihre Landung am legendären 22. Oktober 2015 ausgerechnet die Jimmy Kimmel Live Talkshow ausgewählt haben, mussten sie erfahren: fliegende Autos gibt es nicht, Howerboards auch nicht, Schuhschnürsenkel muss man sich auch noch eigenhändig zubinden.
Das Beste an der Zukunft seien sowieso die Smartphones, erklärte der Talkmaster. Kleine Supercomputer, der es einem Wissenschaftler ermöglichen würde, komplexe Berechnungen in Real Time anzustellen, erkannte der Wissenschaftler, Doc Brown, sofort. Eigentlich werden sie von den Menschen dafür benutzt, sich gegenseitig lachende Gesichter (Smileys) zu schicken, berichtigte Jimmy Kimmel. „Verzeihen Sie die Frage“, mischte sich Marty McFly alias Michael J. Fox in die Konversation ein, „aber was zum Teufel haben Sie in den letzten dreißig Jahren gemacht?“
Als ehemalige Studentin der Robotik und Automatisierung und Science-Fiction-Fan, wusste ich natürlich schon früher, dass nicht alles, was man in Star Trek zu sehen bekam, in der Zukunft wahr werden konnte. Unerwartet ist allerdings, dass nichts davon Realität geworden ist – nicht die Weltraumreisen und der Commander Data auch nicht.
Allerdings sollten wir nicht den Fehler machen, uns ausschließlich auf die negativen Aspekte der Technologie zu konzentrieren, uns von Weltuntergangsszenarien von den realen Problemen und Herausforderungen ablenken lassen – oder sie ignorieren.
Wie Dr. Isabella Hermann in Neue Gesellschaft – Frankfurter Hefte richtig bemerkte: Künstliche Intelligenz – auch wenn sie nicht der Erfindung des Feuers gleichkommt – bietet „große Potenziale, die unser Leben und das Allgemeinwohl in konkreter Weise verbessern können – wenn wir die Systeme sinnvoll einsetzen, gut regulieren, verantwortungsbewusst gestalten und nicht vergessen, dass hinter solchen Systemen immer menschliche Interessen stehen.“
LPB: Vielen Dank, liebe Aleksandra, für dieses informative Gespräch.
**
Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierte Datenschutzauditorin und IT-Compliance-Managerin. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission und trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.