Ein Jahr Chat GPT. Zu diesem Anlass bringen wir eine 3-teilige KI-Beitragsreihe zum Thema Künstliche Intelligenz (KI) heraus. In dieser Beitragsreihe wollen wir Ihnen einen Einblick in die Hintergründe von Chat GPT und KI geben. Im heutigen zweiten Teil unserer Reihe fragen wir uns: Wohin wird sich KI entwickeln, wie viel müssen wir erlernen – und welche Fragen sind noch vollkommen offen.
Im
zweiten Teil unsere 3-teiligen KI-Beitragsreihe ging es um den aktuellen Stand von KI und darum, wie sich diese Technologie zukünftig entwickeln wird. In unserem 3. Teil soll es nun darum gehen, welche KI-Tools die Politik jetzt schon nutzen kann. Dabei soll es auch darum gehen, wie wir dabei souverän etwa bezüglich unserer Daten bleiben können sowie welche Chancen und Risiken bestehen.
Es ist schon fast erschlagend: Nahezu jeden Tag erscheinen Berichte über eine neue Software, die mittels „KI“ irgendeine neue Zauberei verspricht. Das liegt zum einen daran, dass mittlerweile fast alles dieses Label bekommt, was Unerklärliches auf den Bildschirm zaubert. Zum anderen ist es aber auch wirklich atemberaubend, wenn ein kurzes Video reicht, sodass anschließend Software einen Menschen in alle Sprachen reden lässt, inklusive der richtigen Lippenbewegungen – obwohl der Mensch weiterhin weiter in seiner Sprache spricht.
Dabei fällt auf, dass wir aktuell das eher als Unterhaltung etwa auf Instagram konsumieren, weil es so neu und anders ist. Diese Belustigung und das Erstaunen werden aber bald verflogen sein. Vielmehr werden wir dann merken, wie es ernsthaft im Alltag angewendet werden wird. Das Kernelement von Kommunikation lässt sich nun automatisieren, vervielfältigen und nahezu allen Anlässen anpassen. Die Auswirkungen für nahezu jeden Bereich sind für viele noch gar nicht greifbar.
Und zwar nicht, weil wir zu beschränkt sind, sondern weil wir uns immer nur etwa das zehnfache dessen vorstellen können, was wir kennen. Das verträgt sich aber nicht mit dem exponentiellen Wachstum von KI – hier wird aus zehnfach schnell hundertfach und dann tausendfach. Da Politik traditionell mit die letzte gesellschaftliche Gruppe ist, welche sich neuer Technologie widmet, gibt es dadurch besonderen Handlungsbedarf: Es mag noch irgendwie zu schaffen sein, fünf Jahre nach dem eigentlichen Durchbruch von Instagram einen halbwegs reichweitenstarken Kanal aufzubauen. Wer aber glaubt, in fünf Jahren auf den KI-Zug aufspringen zu können, wird ein bitteres Erwachen erleben.
⁎⁎⁎
⁎⁎⁎
Dabei ist zunächst einmal wichtig, dass wir nicht der Technik hinterherrennen, sondern Ziele und Strukturen in den Vordergrund rücken, wie grundsätzlich im Falle der Digitalisierung. Erst, wenn wir genau wissen, was wir wollen, suchen wir die Programme, mit denen wir das umsetzen können. Sonst geht das wieder genauso schief, wie vielerorts die Einführung der Cloud oder das Dauergebimmel von WhatsApp und Co.
Um die KI zudem souverän zu nutzen, müssen wir beachten, dass sie aktuell noch starke Schwankungen in puncto Funktionsfähigkeit, Zuverlässigkeit und Stabilität hat. Die Programme, die wir verwenden, sind nicht allwissend oder unfehlbar. Sie basieren auf statistischen Modellen, die aus großen Datenmengen gelernt haben, wie Sprache verwendet wird. Das führt zu drei Fehlerquellen:
1. Die KI hat kein Verständnis von unserer Welt und gibt lediglich wieder, was sie findet. Deshalb liegt sie bspw. bei Namen von Filmen oder Büchern oft daneben, weil sie dazu unter anderem Webseiten durchsucht und nicht immer versteht, was davon der Buchtitel, der Titel des Artikels und einfach nur eine Zusammenfassung ist. Oft will KI so sehr eine Antwort geben, dass sie sich schlichtweg eine falsche Antwort zusammenreimt. Das nennt man auch KI-Halluzination. Diese mag für Fachexpert:innen eines Themas nicht problematisch sein, weil jene die Fehler sofort erkennen oder auf Plausibilität prüfen können, allerdings wissen wir auch, dass jetzt schon nicht unerhebliche Teile der Gesellschaft ein Problem damit haben, nicht alles aus dem Internet unhinterfragt zu glauben.
2. Durch permanente Veränderungen am Algorithmus – sei es, um schädliche Inhalte zu blocken, Strom zu sparen oder das Geschäftsmodell etwa auf Werbung auszurichten – ist zu erleben, dass sich die Qualität der Antworten nahezu täglich verändern kann. Ergebnisse, die gestern noch nahezu auf den Punkt genau waren, können heute schon komplett falsch sein und morgen eine Mischung aus Fakten und Ausgedachtem. Das führt auch dazu, dass Erfahrungen wie „Habe ich mal probiert, das Ergebnis war nicht gut genug“ eher Momentaufnahmen sind und eben nicht dazu führen sollten, dass man sich einer KI erst wieder Monate oder gar Jahre später widmet. Grundsätzlich gilt: KI war noch nie so schlecht wie jetzt, sie wird täglich immer besser.
3. Zudem fällt KI manchmal schlichtweg aus oder schafft nur eine begrenzte Anzahl an Ausführungen. Das liegt im Kern an den hohen Leistungen, die für die Berechnungen nötig sind. Bei erhöhtem Zugriff kann so spürbar ein Rückgang der Leistungsfähigkeit festgestellt werden, hierbei vor allem der Geschwindigkeit. Es kann aber auch darum gehen, dass Anbieter dies drosseln, um ganz praktisch Kosten zu sparen. Der Großteil an anfallenden Kosten wird aktuell noch nicht von den Nutzenden bezahlt, sondern ist Teil des Kampfes um die Vorherrschaft, welches durch Risikokapital und Investments großer Firmen getragen wird. Es ist auch noch gar nicht abzusehen, welches Bezahlmodell sich am Ende durchsetzen wird – ob wie bei Cloud-Diensten über Datenpakete oder wie bei den sozialen Medien über den Verkauf von unseren Daten für Werbung und anderes.
Zudem müssen wir uns bewusst sein, welche Chancen und Risiken die verschiedenen Programme bieten. Einige Programme sind spezialisiert auf bestimmte Aufgaben oder Domänen, andere sind universeller einsetzbar. Einige Programme sind offen zugänglich, andere erfordern eine Lizenz oder eine Anmeldung. Einige Programme sind transparent und erklären ihre Arbeitsweise, andere sind eher eine Blackbox. Je nachdem, welches Programm wir wählen, müssen wir uns mit den ethischen, rechtlichen und sozialen Implikationen auseinandersetzen.
⁎⁎⁎
⁎⁎⁎
Bei aller Sorge ist es enorm wichtig, dass wir jetzt mit KI-Tools loslegen, deren Anwendungsfälle sowie das „Prompting“ verstehen und dabei sofort schauen, wie wir das in unsere Strukturen und Abläufe integrieren könnten. Sicher kann auch im Team geschaut werden, wem es mehr liegt und ob sich schon Spezialisierungen abzeichnen. Mit diesen Tools sollten aber grundsätzlich alle lernen, umzugehen:
⁎⁎⁎
Schauen wir uns zu guter Letzt noch ein paar Hinweise bei der Anwendung an. Zunächst: Was sind sensible Daten, die wir möglichst nie verwenden sollten? Dazu zählen grundsätzlich alle Daten über Personen, interne Herausforderungen oder Finanzen. Man kann sich grundsätzlich fragen: Was würde ich eine wildfremde Person fragen oder um etwas bitten – alles, was wir hier nicht machen würden, machen wir auch besser nicht mit einer KI. Auch sollten wir vorsichtig sein, strategische Informationen über KI einzuholen. Dazu kommt, dass KI auch Zusammenhänge herstellen kann, das heißt, dass es sich auf Basis von Informationen auch das zusammenreimen kann, was vielleicht bewusst weggelassen wurde – vielleicht versuchen wir also gar nicht erst, schlauer zu sein…
Machen wir KI zudem kenntlich. Wenn in Texten, E-Mails oder Grafiken eine KI verwendet wurde, kann dieses transparent für das Gegenüber gemacht werden, etwa: “Diese E-Mail wurde mit Unterstützung von KI formuliert zur besseren Verständlichkeit”; “Dieser Text wurde mittels KI zu Recherchezwecken unterstützt” oder “Dieses Bild wurde mittels einer KI erstellt und zeigt keine real existierenden Menschen”. Auch wenn sicher viele Umtriebige KI bewusst einsetzen, um zu verschleiern oder gar Fake News zu erzeugen, sollten rechtschaffende Aktive wie wir hier bewusst den Gegentrend setzen und offen die Verwendung anzeigen. Plus: Man kann dies auch, wo möglich, etwas kleiner und farblich abweichend aufführen, um Lesende nicht von der eigentlichen Botschaft abzulenken.
Im Bereich der IT-Sicherheit ist bei allen Konten bei den KI-Anbietenden darauf zu achten, dass deren Schutz sowie die Passwortsicherheit stark sind und die generellen Regeln zur Geräte- und Browsersicherheit eingehalten werden. Da grundsätzlich Konten immer gehackt oder abgephisht werden können, sind auch eingegebene Daten in die KI, etwa bei nicht-gelöschten Verläufen von ChatGPT, nicht vor Diebstahl geschützt. Verfolgen wir auch, ob es neue Entwicklungen bspw. zu Datenlecks, Sicherheitsrisiken oder fragwürdige Möglichkeiten der IT gibt.
Auch zu bedenken ist, dass KI, deutlich mehr Strom als normale Suchanfragen verursacht. Das löst allerdings ein Dilemma aus: Grundsätzlich soll das Prompting erlernt und verbessert werden, um intensive Recherchen zu betreiben und Texte/Grafiken/etc. durch KI erstellen zu lassen. Auf der anderen Seite wird dadurch recht viel CO2 erzeugt. Daher raten wir, abzuwägen: Lerne ich, übe ich, arbeite ich mit KI – oder nutze ich sie zum Spaß. Wir schlagen vor, auf Letzteres eher mal zu verzichten.
Nicht zuletzt werden uns auch zunehmend moralische Fragen begegnen. Im Bereich der KI gibt es Aspekte, die von der Moral abweichen. Beispielsweise gibt es aktuell Diskussionen, inwieweit die Politik weiter die Plattform X (vormals Twitter) nutzen sollte. Das gleiche gilt nun auch für die kürzlich vorgestellte KI aus selbigem Hause. Nutzen wir zudem KI auch selbst nicht zu fragwürdigen Möglichkeiten, auch nicht zum Spaß. Wir erzeugen keine Fake News, versuchen nicht die Sicherheitsbeschränkungen von KI zu umgehen und achten darauf, möglichst keine Daten in Dienste autoritärerer Staaten abzugeben.
Das soll es erst einmal gewesen sein. Wenn Sie Fragen haben oder selbst einmal den Workshop von PolisiN zu „KI in der Politik“ bei sich erleben wollen, melden Sie sich gerne und machen Sie hier unten gleich Ihren Termin. Fangen wir jetzt an, gemeinsam ins Wissenszeitalter der KI durchzustarten.
⁎⁎⁎
KOMMEN WIR INS GESPRÄCH