Mi 12. Mai 2021
Eine Diskussionsveranstaltung im TMW behandelte vor Kurzem die Auswirkungen von KI auf Gesellschaft und Politik. Nationalratspräsident Wolfgang Sobotka sprach mit mehreren Expertinnen und Experten. Einer davon fasste seine Meinung im folgenden Artikel zusammen.
Nicht wenige sehen im Einsatz von Künstlicher Intelligenz eine Bedrohung unserer gesellschaftlichen Ordnung. Insbesondere demokratisch organisierte Meinungsbildungs- und Entscheidungsprozesse scheinen gefährdet. Doch ist die Sorge berechtigt?

Die Befürchtungen nehmen zu, dass unsere Gesellschaft in immer kleinere Gruppen zerfällt, die sich in abgeschlossenen Meinungswelten, sogenannten Bubbles, bewegen. Der für demokratisch verfasste Gesellschaften so notwendige Diskurs werde so zunehmend behindert. Verstärkt durch KI, würden Verschwörungstheorien, tumbe ideologische Halbwahrheiten und Fake-News den Diskurs in diesen Bubbles bestimmen und so auch den Ausgang von demokratischen Wahlen beeinflussen. In Wahrheit jedoch ist KI zwar ein neues und sehr leistungsfähiges, aber neutrales Werkzeug, welches erst durch den Menschen zu einem „guten“ oder „schlechten“ Einsatz kommt. 
Zum allgemeinen Verständnis der KI müssen zunächst die beiden geläufigen Formen der KI vorgestellt werden. Eine regelbasierte KI folgt recht stur und mit unterschiedlichem Erfolg einprogrammierten Regeln. Die KI wird über die Regeln mit menschlichem Wissen gefüttert und sucht dann entlang von Entscheidungsbäumen richtige Antworten innerhalb dieser vorgegebenen Strukturen. Wie begrenzt diese Intelligenz ist, haben viele von uns schon vor Jahren durch oft eher untaugliche Chat-Bots bei so manchem „Kundensupport“ erfahren. Beim Machine Learning dagegen wird die KI ohne vorgegebene Denkmuster anhand riesiger Datenmengen trainiert, diese selbst zu finden. Soll beispielsweise eine KI einen Menschen von einem Hund unterscheiden, werden der KI zahlreiche Bilder von unterschiedlichen Menschen und Hunden gezeigt. Die KI „lernt“ dabei, immer wiederkehrende Ähnlichkeiten festzustellen und wird immer besser in ihrer Entscheidung „Mensch oder Hund“. Tatsächlich haben diese Verfahren des „Deep Learnings“ in bestimmten Bereichen inzwischen Fähigkeiten erlangt, die die von Menschen übertreffen.

 
Univ.-Prof. Dr. Christoph Meinel: Univ.-Prof. Dr. Christoph Meinel
Univ.-Prof. Dr. Christoph Meinel
 
Der Mensch als Maßstab
 
In beiden Fällen wird die KI aber nach menschlichen Maßstäben geformt, in Form von Regeln und ausgewählten Datenmengen. Das Programm selbst hat kein eigenes Bewusstsein, die Maschine lernt nur, weil ein Mensch vorher entschieden hat, welche Bilder er der Maschine unter dem Label „Mensch“ gibt und wann er selbst das Ergebnis der Maschine als richtig ansieht. So wird die KI stets unsere menschlichen Paradigmen reproduzieren, welche sie von ihrem Macher gezeigt bekommt. Eine KI weiß nicht, was im ethischen Sinne ein „Mensch“ oder ein „Hund“ ist, was ihn ausmacht und ob ein Mensch wichtiger als ein Hund ist. Die KI kann nur nach von Menschen vorgegebenen optischen Parametern besser und schneller entscheiden, ob es sich wohl um einen Menschen oder einen Hund handelt.
Es mag somit ernüchternd klingen, aber KI ist und bleibt ein Werkzeug in der Hand des Menschen. Und deshalb ist auch die Frage der Gefährlichkeit oder nach dem Nutzen von KI für die Demokratie so zu beantworten. KI kann, ganz ähnlich den aktuell in allen Bereichen sehr gefragten „Expert_innen“, durch ihre Einschätzung aus vielen Daten schnell und effektiv eine Erkenntnis für einen politischen Entscheidungsträger liefern. Doch daraufhin eine politische Entscheidung zu treffen, kann nur ein Politiker selbst. Nur dieser kennt den Gesamtkontext einer Information. Somit ist die eigentliche Frage nicht, ob KI eine Gefahr für die Demokratie ist, sondern wie Menschen sie einsetzen.
Dies lässt sich an zwei wesentlichen Merkmalen einer Demokratie gut studieren: Rechtsstaatlichkeit und Informationsfreiheit. Auf beiden Feldern gibt es aktuelle Anwendungsbeispiele für KI, die das Dual Use Potential von KI verdeutlichen.
KI kann politisch Verantwortlichen und Regierenden als leistungsstarkes Werkzeug zur Datenanalyse dienen, um Korrelationen zu finden oder Verhaltensmuster aufzudecken. Anstatt wie heute Gremien zu befragen, Umfragen in Auftrag zu geben oder „Expertenkommissionen“ einzusetzen, können die KI-Anwendungen schneller und in vielen Fällen sogar objektiver Ergebnisse liefern, als dass Einzelpersonen mit ihrer jeweils begrenzten Datenkenntnis können. Doch bleibt auch hier die Frage, wie die durch eine KI gewonnenen Informationen und Einschätzungen von den Regierenden genutzt werden. Durch ihre Einsichten und Empfehlungen kann eine KI politisch Verantwortliche zu Maßnahmen zur Diskriminierung einer Minderheit ermuntern. Sie kann aber auch dazu beitragen, die Diskriminierung bestimmter Minderheiten überhaupt erst sichtbar zu machen und dem anschließend entgegenzuwirken. 
: Wie wirkt sich KI auf die Diskriminierung von Minderheiten aus?
Wie wirkt sich KI auf die Diskriminierung von Minderheiten aus?
Soziale Treffsicherheit
 
Ein weiteres Beispiel sind KI-Anwendungen zur Erfassung und Rekonstruktion von Bewegungsprofilen. Viele Staaten werden dafür kritisiert, durch derartige Technologie „Totalüberwachung“ erreichen zu wollen. Umgekehrt kann so beispielsweise der Infektionsweg ansteckender Krankheiten nachverfolgt werden, so dass diese besser eingedämmt werden und es keine unnötigen Einschränkungen von Freiheitsrechten durch Quarantäne und Ausgangssperren gibt.
Auch im Bereich der Informationsfreiheit können Informationen mittels KI schneller gewonnen und gezielter verbreitet werden. Diese neue Fähigkeit sagt aber noch nichts darüber aus, ob die KI so die Demokratie befördert oder ihr schadet. Sowohl wahre als auch unwahre Informationen können durch KI schneller und wirksamer als bisher verbreitet werden. Über soziale Medien und mittels automatischer Übersetzung können diese auch in kürzester Zeit an sehr viel mehr Menschen verbreitet werden als das bisher möglich war. So ermöglicht die KI mehr Menschen den Zugang zu einer Information, unabhängig davon, ob diese richtig oder falsch ist. Die weitere Verbreitung von Informationen selbst ist also weder gut noch schlecht. 
Gleiches gilt für die vielzitierten „Filter-Bubbles“, also die von KI-Anwendungen erzeugten Echoräume in den sozialen Medien. Die sind als solche weder positiv noch negativ. Denn interessiert sich jemand für ein bestimmtes Thema, kann er oder sie dank dieser KI-Anwendungen sehr viel einfacher und schneller auch tiefergehende Informationen dazu bekommen und mehr Expertise aufbauen als bisher. Gleichzeitig entstehen so „Ein-Themen-Bubbles“, die alle anderen Themen blockieren, den Austausch zu anderen Themen behindern und so zu Abkapselung und Fraktionierung der Gesellschaft führen können. Ebenso gut kann KI aber auch eingesetzt werden, um eine Verbindung zwischen verschiedenen Themen aufzuspüren und dem Nutzer so ein vollständigeres Bild von unserer Welt zu vermitteln. 
Es kommt also einzig darauf an, wer KI einsetzt. Im bekannten Fall der Cambridge-Analytica war nicht der Einsatz von KI per se das Problem. Heutzutage werden Methoden der KI in vielen Kampagnen rund um die Welt eingesetzt, insbesondere um die öffentliche Meinung zu beherrschen und Wähler_innen zu mobilisieren. Das führt zu mehr Partizipation an demokratischen Prozessen, ist aber höchst problematisch, wenn so gezielt Hassbotschaften ausgesandt und Falschmeldungen lanciert werden. Die Quelle dieses Übels ist jedoch wieder nicht die KI, sondern der Mensch, welcher sie einsetzt. So ist KI auch in Fragen der Informationsfreiheit eine neutrale, keine gute oder schlechte Sache.
 
Demokratische Kriterien
 
KI bleibt somit ein neutrales Werkzeug und wird für die Demokratie erst „gut“ oder „schlecht“, wenn man sie für „gute“ oder „schlechte“ Zwecke einsetzt. Die KI selbst würde solche Kategorien erst kennen, wenn ihr diese vorher von einem Menschen beigebracht und antrainiert worden wären. Die neutrale Werkzeugfunktion hat KI übrigens mit vielen anderen, einst auch ganz neuen Technologien gemein. Auch diese haben der Demokratie aufgrund ihres Einsatzes durch den Menschen genützt und geschadet. Hörfunk und Fernsehen standen beide in einer ähnlichen Kritik, wie heute KI und Digitalisierung. Faktisch war der Hörfunk in den Händen der Nationalsozialisten ein kraftvolles Mittel der ideologischen Mobilisierung und gleichzeitig bot er den einzig praktischen Zugang zu Informationen der Alliierten – BBC konnte im damaligen Deutschland empfangen werden. Auch das Fernsehen wurde als ein Propaganda-Mittel genutzt, war aber auch ein wichtiges Vehikel, um freie journalistische Information zu verbreiten.
Für die Nutzung und Bewertung von KI ist es daher immens wichtig, diese neue Technologie zu verstehen, zu nutzen und sie selbst zu gestalten. Die Daten, die zum Training einer KI für den gesellschaftlichen Einsatz verwendet werden, müssen demokratischen Kriterien und unseren eigenen Werten entsprechen. Das zu garantieren gelingt auf Dauer nur, wenn wir in Deutschland, Österreich und Europa nicht zu einer digitalen Kolonie werden. Wir müssen selbst über die Daten verfügen, mit denen wir eine KI trainieren und wir müssen selbst KI programmieren und unter eigener Verantwortung einsetzen. Nur durch souveränen Umgang mit KI können wir sicherstellen, dass KI Zielen dient, die unseren Werten entspricht und die wir als erstrebenswert erachten. Wir brauchen Democracy by Design in eigener KI, statt die Wertvorstellungen oder Ideen anderer Länder einfach durch den unreflektierten Einsatz derer KI-Anwendungen zu übernehmen.
 
Univ.-Prof. Dr. Christoph Meinel ist CEO und wissenschaftlicher Direktor des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam.