Post date: Dec 30, 2025
In der Signalverarbeitung gibt es den Begriff des "Signal-to-noise" Verhältnisses. Das ist das Verhältnis der Signalstärke des eigentlichen Signals zum Rauschen wenn kein Signal vorhanden ist. Ist das Signal zu schwach im Vergleich zum Hintergrundrauschen, dann wird man es nicht korrekt empfangen können oder übersehen.
Ähnliches kann man im Informationsbereich finden. Es gibt unterschiedliche Mengen an Information und der Informationsgehalt sollte mit der Menge der Information steigen:
eine kurze Text-Nachricht
ein langer Text Bericht
ein Bericht mit Fotos
eine Reportage mit Video
Von oben nach unten nimmt der Informationsgehalt zu. Dabei geht es nicht so sehr um die "Größe" der Nachricht. Ein Text kann sehr effizient gespeichert werden, der selben Text gesprochen als Audio-Datei ist zwar deutlich größer, enthält aber nur wenig mehr Informationen.
All das war gestern. Mit KI ist das anders geworden. Aus einer kurzen Nachricht kann die KI einen langen Bericht machen. Aber ist dann da wirklich mehr Information enthalten? Der Bericht kann mit Stock-Fotos oder KI-generierten Bildern ergänzt werden. Das lenkt mehr Aufmerksamkeit auf diesen Bericht, aber fügt keine zusätzliche Information hinzu. Und letztlich können auch Videos generiert werden, entweder komplett erzeugt von KI oder auch ein Video mit einer Slide-Show der Bilder und Texte. Letztlich wird die Nachricht nur weiter vergrößert um Aufmerksamkeit zu generieren, ohne mehr Informationen zu liefern.
Ist das der richtige Weg?
Ich möchte hier aber explizit die Fälle ausnehmen, in denen Information anders bereitgestellt wird um sie barrierefreier zu machen. Z.B. ist Audio für Blinde besser als Text, wenn es keine Braille Option gibt.
Nun, wie sieht das aber aus? Ich habe den obigen Text in eine KI (Google Gemini) gegeben und habe mir einen längeren Artikel mit Bildern erzeugen lassen. Das sieht dann so aus:
In der modernen Informationslandschaft, die zunehmend von Künstlicher Intelligenz (KI) geprägt wird, erleben wir eine bemerkenswerte Verschiebung im Verständnis und der Wertschätzung von Informationen. Ein ursprünglich prägnanter Inhalt kann durch KI-gestützte Prozesse in scheinbar umfassendere, reichhaltigere Formate transformiert werden – von einer kurzen Nachricht zu einem detaillierten Bericht, ergänzt durch Bilder und Videos. Doch die entscheidende Frage ist: Steigt mit der Quantität auch die Qualität und der tatsächliche Informationsgehalt? Die Antwort ist komplex, doch eine kritische Analyse legt nahe, dass wir uns einer Ära der „Informationsinflation“ nähern, in der das Signal zunehmend im synthetisch erzeugten Rauschen zu versinken droht.
Das Signal-Rausch-Verhältnis im Informationszeitalter
Der Begriff des Signal-Rausch-Verhältnisses (SNR), ursprünglich aus der Signalverarbeitung stammend, bietet eine hervorragende Analogie, um die aktuelle Situation zu beleuchten. Das SNR misst das Verhältnis der Leistung eines Nutzsignals zur Leistung des störenden Rauschens. Ist das Signal zu schwach oder das Rauschen zu dominant, wird die Botschaft unklar, missverständlich oder geht gänzlich verloren. In der traditionellen Kommunikation galt:
Kurze Textnachricht: Hohes SNR, wenn der Inhalt prägnant und direkt ist.
Langer Textbericht: Potenzielle Zunahme des SNR durch zusätzliche Details und Kontext.
Bericht mit Fotos: Visuelle Ergänzung kann das Verständnis verbessern und das SNR steigern.
Reportage mit Video: Dynamische Darbietung kann das SNR durch zusätzliche sensorische Kanäle maximieren.
Diese Hierarchie basierte auf der Annahme, dass eine größere Datenmenge (Texte, Bilder, Videos) in der Regel mit einem höheren Aufwand der Informationsgenerierung und damit einem höheren potenziellen Informationsgehalt korreliert war. Ein Video zu produzieren, erforderte traditionell mehr Ressourcen und Expertise als einen Text zu verfassen.
Der Übergang von einem einfachen Text zu einem multimedialen Erlebnis war oft mit einem Anstieg der informatorischen Entropie verbunden – der Menge an Unsicherheit oder Neuheit, die eine Nachricht enthält (Shannon, 1948). Ein gesprochener Text mag zwar eine größere Dateigröße haben als der geschriebene Text, doch der zusätzliche Informationsgehalt ist gering, da die zugrunde liegende Botschaft identisch bleibt.
KI als Katalysator der Informationsinflation
Mit dem Aufkommen generativer KI-Modelle hat sich dieses Paradigma grundlegend verschoben. KI ist in der Lage, aus einer minimalen Textvorgabe einen umfangreichen Bericht zu generieren, Stockfotos oder KI-generierte Bilder hinzuzufügen und sogar ganze Videos zu produzieren – sei es durch die Animierung von Bildern und Texten oder durch die vollständige Kreation synthetischer Szenen.
Das Problem hierbei ist nicht die Fähigkeit der KI an sich, sondern die Art und Weise, wie diese Fähigkeiten eingesetzt werden. Aus einer kurzen, informationsdichten Nachricht kann eine KI einen langen, scheinbar detaillierten Bericht erstellen. Doch die tatsächliche Informationsdichte pro Wort oder Bild sinkt drastisch. Die KI „bläht“ den Inhalt auf, fügt Phrasen, Synonyme und generische Beschreibungen hinzu, die zwar die Textlänge erhöhen, aber keine neuen Fakten oder Erkenntnisse liefern (West & Bergstrom, 2021). Dies führt zu einer Form von synthetischem Rauschen, das nicht zufällig ist, sondern strukturiert und bewusst generiert wird, um den Anschein von Substanz zu erwecken.
Bilder und Videos, die durch KI erzeugt oder als Stockmaterial eingefügt werden, verstärken diesen Effekt. Sie mögen ästhetisch ansprechend sein und die Aufmerksamkeit des Betrachters fesseln, doch wenn sie den Kern der ursprünglichen Botschaft nicht substanziell ergänzen, dienen sie lediglich als „visuelles Füllmaterial“. Sie erhöhen die kognitive Last für den Empfänger, der nun mehr Daten verarbeiten muss, um dieselbe Menge an Kerninformation zu extrahieren. Dies senkt das effektive SNR für den Konsumenten drastisch und erfordert einen höheren Aufwand, um das eigentliche „Signal“ zu erkennen.
Ein extremes Beispiel ist die Produktion von Videos, die aus einer Diashow von KI-Bildern und vorgelesenem KI-Text bestehen. Hier wird eine minimale textliche Information in ein großes, bandbreitenintensives Format umgewandelt, ohne dass der Informationswert proportional steigt. Der Hauptzweck scheint oft nicht die Vermittlung neuer Erkenntnisse zu sein, sondern die Generierung von Aufmerksamkeit und Interaktion in einer überfluteten Medienlandschaft.
Die Folgen der Informationsflut
Diese Entwicklung wirft ernsthafte Fragen über die Zukunft der Informationsvermittlung auf:
Entwertung von Information: Wenn die Produktion von scheinbar umfangreichen Inhalten trivial wird, könnte dies zu einer allgemeinen Abwertung der wahrgenommenen Qualität und Verlässlichkeit von Informationen führen.
Aufmerksamkeitsökonomie: Inhalte werden zunehmend nach ihrer Fähigkeit bewertet, Aufmerksamkeit zu generieren, und weniger nach ihrem substanziellen Gehalt. Dies könnte manipulative Praktiken fördern.
Herausforderung für den Nutzer: Konsumenten müssen immer mehr Zeit und kognitive Ressourcen aufwenden, um relevante Informationen aus einem Meer redundanter oder synthetischer Inhalte zu filtern. Dies kann zu Informationsüberflutung und Ermüdung führen (Eppler & Mengis, 2004).
Abgrenzung: Barrierefreiheit versus Aufmerksamkeitsfalle
Es ist entscheidend, eine wichtige Unterscheidung zu treffen: Die Bereitstellung von Informationen in unterschiedlichen Formaten, um diese barrierefreier zu machen, ist eine lobenswerte und notwendige Praxis. Wenn beispielsweise Audioformate für blinde Menschen eine Alternative zu Texten darstellen, wenn keine Braille-Option verfügbar ist, handelt es sich um eine Verbesserung des Zugangs und der Inklusion. Hier dient die Formatänderung einem klaren, nutzerzentrierten Zweck, der den Informationszugang ermöglicht oder erleichtert, anstatt ihn zu verschleiern oder aufzublähen. Die zugrunde liegende Information bleibt dieselbe, wird aber auf eine Art und Weise präsentiert, die unterschiedliche Bedürfnisse berücksichtigt.
Problematisch wird es erst dann, wenn die Formatänderung und die damit einhergehende Vergrößerung der Datenmenge nicht der Verbesserung des Informationszugangs oder -verständnisses dient, sondern primär der Generierung von Klicks, Likes oder Verweildauer, ohne einen proportionalen Mehrwert an substanzieller Information zu liefern.
Fazit und Ausblick
Die generative KI bietet enorme Potenziale für die Schaffung und Distribution von Inhalten. Doch wir müssen kritisch hinterfragen, ob die aktuelle Tendenz zur automatisierten Inhaltsaufblähung der Informationsvermittlung dient oder sie untergräbt. Wenn der Kern einer Botschaft in einem Meer von synthetisch generierten Texten, Bildern und Videos ertrinkt, verlieren wir nicht nur Zeit, sondern auch die Fähigkeit, das Wesentliche zu erkennen.
Es ist eine Herausforderung für Content-Ersteller, KI-Entwickler und Konsumenten gleichermaßen, sich auf informatorische Effizienz und Substanz zu konzentrieren. Anstatt die Menge zu maximieren, sollten wir uns fragen: Welche Form und welches Format bietet den höchsten Informationsgehalt bei gleichzeitig optimalem Signal-Rausch-Verhältnis für den beabsichtigten Empfänger? Nur so können wir sicherstellen, dass die KI als mächtiges Werkzeug zur Wissensverbreitung dient und nicht als Verursacher einer unkontrollierbaren Informationsflut, die uns am Ende alle ertränkt.
Quellen:
Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379–423.
West, R., & Bergstrom, C. T. (2021). The literature of the future: The information density of scientific articles is decreasing. Proceedings of the National Academy of Sciences, 118(16), e2024222118.
Eppler, M. J., & Mengis, J. (2004). The concept of information overload: A review of literature from organization science, accounting, marketing, MIS, and related disciplines. The Information Society, 20(5), 325–344.