Headerpicture

Revolution im Netz durch generative KIs

Generative KIs verändern das Netz grundlegend: Texte, Bilder und Videos entstehen in Sekunden, oft nicht mehr von Menschen unterscheidbar.

Was ist computergenerierter Content?

Viele der aktuellen Diskussionen drehen sich darum, zu erkennen, ob ein Text von einer künstlichen Intelligenz verfasst wurde oder von einem Menschen. So binär kann das allerdings schon längst nicht mehr betrachtet werden: Zwischen reinem computergeneriertem Content und dem zu 100% organischen Erzeugnis eines Menschen ohne jegliche technische Hilfestellung liegt in Wirklichkeit eine riesige Grauzone.

Ab wann gilt ein Text als computergeneriert? Bereits wenn man die Rechtschreib-Kontrolle von Microsoft Word einschaltet und die als Fehler erkannten Textstellen händisch korrigiert? Oder erst dann, wenn ich den Text automatisch korrigieren lasse, ohne selber einzugreifen? Was ist mit den Textprozessoren, die meinen Text inhaltlich unverändert lassen jedoch sprachlich abrunden? Oder automatisch übersetzte Texte? Wie wird das zu bewerten sein, was Microsoft uns für seinem GPT4-basierten Copilot prognostiziert?

Gilt ein Text noch als „selbsterzeugt“, wenn ich der KI in loser Folge ein paar lieblose Aussagen vor die Füße werfe und die KI dann einen geschliffenen Text daraus macht? Dann vermutlich nicht mehr.

Es ist in Wirklichkeit Teamwork

Wer sich aktuell mit generativen Text-KIs beschäftigt, wird feststellen, dass die Ergebnisse umso besser sind, je mehr man die KI mit Eingaben füttert. Tatsächlich werden brauchbare Ergebnisse, speziell für den professionellen Gebrauch, in der Regel erst dann erzielt, wenn man die Ergebnisse des Bots in mehreren Runden immer weiter verfeinert.

Wohlwollend könnte man also sagen, es ein kollaborativer Prozess, in dem der Mensch immer noch die führende Rolle hat und sich von der KI unterstützen lässt. Der Inhalt kommt vom Menschen, die Sprache vom Bot.

Es wird sehr viel Textcontent entstehen

Egal ob man es als Schummelei ansieht oder ob man den oben beschriebenen Prozess mit ein bis zwei zugedrückten Augen so gerade noch als das Ergebnis menschlich kreativer Arbeit bezeichnet — so oder so erleichtert es doch die Texterzeugung enorm. Es ist nicht schwer vorherzusagen, dass über diesen Prozess deutlich mehr Textcontent erzeugt werden wird als ohne die Hilfe der innovativen Bots.

Dieser Content wird in absehbarer Zukunft einen signifikanten Anteil im Netz ausmachen, und es wird nicht eindeutig erkennbar sein, welche Teile dieses Contents von Menschen und welche von Maschinen erzeugt wurden.

Wir werden nicht mehr erkennen können, ob ein Bild echt ist

Das, was für Texte gilt, gilt natürlich ebenso für Bilder. Wir beobachten aktuell, dass jede Menge Bilder im Netz unterwegs sind, bei denen nicht mehr erkennbar, ist, ob es sich um Fake oder um eine echte Momentaufnahme aus der realen Vergangenheit handelt. Häufig lässt lediglich die Absurdität des Bildinhalts noch erkennen, dass es sich um einen Fake handelt.

Natürlich ist dieses Phänomen nicht ganz neu, wir leben mit Fake Bildern bereits, seit es fortgeschrittenere Versionen von Photoshop gibt, aber durch KI generierte, absolut fotorealistische Bilder bekommt das ganze doch nochmal eine andere Dimension. Vor allem natürlich dann, wenn Bots vollautomatisiert Bildcontent erzeugen, der auf dem von ihnen erdachten Text-Content basiert.

Das Foto als Beweisquelle wird uns also wohl endgültig abhandenkommen, so viel ist mal sicher.

Das Gleiche gilt im Übrigen auch für Videos.

Was ist echt?

Am Ende werden wir nicht mehr wissen, welcher Text im Netz von Maschinen und welcher von Menschen geschrieben wurde. Und weil die Grenzen zwischen menschlichem und maschinellem Content, wie gesagt, schwer bis gar nicht zu benennen sind, ist auch eine mögliche (aktuell diskutierte) Auszeichnungspflicht nicht so einfach umsetzbar, wie sich manch einer das vorstellt.

Automatisierung von Contentgenerierung und -veröffentlichung

Abseits von diesen manuellen, oder auch halbmanuellen Prozessen verlockt natürlich die Möglichkeit, komplett automatisiert und unbeaufsichtigt zu 100% synthetischen Content zu erzeugen — im großen Stil, und diesen ebenso automatisiert in beliebige digitale Kanäle zu pumpen. Technisch ist das inzwischen keine große Herausforderung mehr.

Ein wenig kennen wir das bereits z. B. von den Twitter-Bots, allerdings wurde dort in der Vergangenheit eher vorgefertigter Content geposted. Automatisiert war also der Prozess des Veröffentlichens, nicht unbedingt der der Inhaltsschöpfung.

Was aber nun, wenn eine KI vollständig automatisiert auf Ereignisse im Netz reagiert, beispielsweise auf bestimmte Posts, die definierten Kriterien entsprechen, und daraufhin eigenständig reagierenden Content erzeugt und diesen ebenfalls postet?

Die KIs werden ihren eigenen Content lesen

Wenn man diese Entwicklung nun noch einen Schritt weiterdenkt, und den Gedanken zugrunde legt, dass die großen Sprachmodelle ihr Wissen wiederum aus dem Netz holen, und auch die KIs in Zukunft nicht erkennen werden, welche Texte von Menschen und welche von Maschinen erzeugt wurden, so ergibt sich doch eine äußerst interessante Situation: Die Maschinen werden zwar weiterhin vom Wissen der Menschen lernen, aber sie werden ebenfalls auch von Maschinen lernen.

Einmal gemachte Fehler drohen sich hierüber zu verstärken. Und möglicherweise bilden sich spezifische Verhaltens- und Kommunikationsmuster heraus, die sich über netzwerkartige Verstärkung manifestieren und so etwas ausbilden, was wir landläufig Sprachkultur nennen. Ja, vielleicht werden die KIs dann tatsächlich ihren eigenen Slang entwickeln.

Kampf um die Dominanz im Netz

Was bei diesem sich selbst reproduzierenden Content passieren sollte, ist eine Drosselung des Outputs der Maschinen. Würde man die Bots mit ihrer enormen Leistungsfähigkeit einfach ungebremst lesend und schreibend aufs Netz loslassen, so wird der Anteil des maschinengenerierten Contents im Netz in relativ kurzer Zeit den Anteil des menschengemachten Contents verdrängen, mindestens in den sozialen Medien, deren Inhalte im Wesentlichen user-generated ist.

Wenn wir davon ausgehen, dass wir einen großen Teil unseres Wissens, unsere Alltagsinformationen aus dem Netz ziehen, beispielsweise Parteien wählen auf der Grundlage von Informationen aus dem Netz, oder unsere wissenschaftliche Sicht auf die Welt sich aus Informationen aus dem Netz ableitet, so könnte man ahnen, dass die Maschinen in einem solchen Prozess — ich will nicht sagen, die Macht übernehmen, denn dies würde einen eigenen Willen und eine eigene Intention voraussetzen — aber dennoch unsere Wissensrealität nach eigenem digitalem Gusto auf links drehen werden.

Wer gibt uns Orientierung in einer Welt, in der wir nicht mehr wissen was real ist?

Vorherrschend in dieser Entwicklung ist die daraus resultierende Frage, wer wird in Zukunft „entscheiden“, was wahr ist und was nicht? Wie wird Demokratie überleben können, wenn wir keine gesicherten Fakten mehr haben, mithilfe derer wir unsere demokratische Teilhabe praktizieren und darüber gemeinsam den Souverän des Volkes bilden können?

Wer weiß?

Möglicherweise werden wir uns dem computergenerierten Content aber auch einfach unterwerfen und ihn als gegeben hinnehmen. Vielleicht akzeptieren wir der lieben Bequemlichkeit wegen die Realität, die uns die inzwischen flügge gewordenen Bots präsentieren. Ich glaube, der Mensch hat eine Schwäche für sowas (mit dem Privatfernsehen war es ja schon auch ein bisschen so). Und in vielen autoritären Staaten läuft es letztlich genau so, wenn auch der „Content“ durch die jeweilige Regierung erschaffen wird, und nicht von Bots.

Vielleicht nehmen wir einfach jeden Morgen unsere blaue Pille und leben zufrieden unsere bunte, behütete synthetische Scheindemokratie.

Vielleicht wurde dieser Text auch bereits vor 100 Jahren verfasst…