Wie KI das Vertrauen ins Internet erschüttert und wie wir als Gesellschaft darauf reagieren

Wie KI das Vertrauen ins Internet erschüttert

Das Internet ist für viele Menschen eine wichtige Anlaufstelle für Kommunikation, Recherche und andere Zwecke. Allerdings hat das Vertrauen ins Internet in den letzten Jahren abgenommen, da es von künstlicher Intelligenz durchdrungen ist und infolgedessen eine berechtigte Sorge vor verfälschten Informationen vorliegt. Wie wir als Gesellschaft richtig mit KI umgehen, ist Gegenstand dieses Beitrags.

Kritische Medienkompetenz ist unabhängig von KI von großer Relevanz

Bevor wir näher auf die Auswirkungen von KI und effektive Gegenmaßnahmen eingehen, möchten wir hervorheben, dass kritische Medienkompetenz unabhängig davon von großer Bedeutung ist. Es gibt schließlich auch viele andere Themen, die mit großen Risiken assoziiert werden – etwa Kryptowährungen. Bedeutet dies, dass Kryptowährungen automatisch schlecht sind? Keineswegs, aber eine kritische Betrachtung gehört dazu. Natürlich hört man immer wieder von Rug Pull Scams und anderen abschreckenden Nachrichten. Diese bilden jedoch nur einen Teil der Krypto-Welt ab. Es gibt schließlich auch seriöse Glücksspielanbieter wie Fortune Jack, die regulierte Angebote bereitstellen und sogar etablierte Onlineshops, die Kryptowährungen wie den Bitcoin als Zahlungsmittel akzeptieren. Mit künstlicher Intelligenz verhält es sich ähnlich. Obwohl sie durchaus Risiken birgt, eröffnet sie gleichzeitig enorme Chancen.

Von Desinformation bis hin zu Manipulation

Künstliche Intelligenz ermöglicht die Erstellung von Inhalten in Sekundenschnelle. Was einerseits sehr praktisch ist, sorgt andererseits dafür, dass jeder ohne Probleme falsche Inhalte erstellen kann. Diese Inhalte können anschließend in sozialen Medien verbreitet werden, um gezielt Desinformation zu verbreiten oder die Stimmung zu beeinflussen. Auch hierbei kann KI helfen. Ein weiteres Problem stellen Deepfakes dar. Deepfakes sind nichts anderes als künstlich erzeugte Bild- oder Videoaufnahmen von echten Personen. Da sie immer realistischer werden, lassen sie sich ohne technische Überprüfung kaum noch von authentischem Material unterscheiden. Eine gezielte Manipulation von Menschen ist dadurch einfacher denn je.

Empfehlungsalgorithmen als zweischneidiges Schwert

Wie schmal der Grad zwischen Manipulation und Nützlichkeit ist, zeigen Empfehlungsalgorithmen. An sich sind solche Algorithmen eine gute Sache, da sie für uns relevante Informationen filtern, ohne dass wir uns durch eine riesige Flut an Daten kämpfen müssen. Leider können sie ebenso leicht unsere Wahrnehmung verzerren oder sogar gezielt missbraucht werden, um unsere Entscheidungen in eine bestimmte Richtung zu lenken. Wenn wir uns der Funktionsweise von Empfehlungsalgorithmen bewusst sind, behalten wir die Kontrolle darüber, wie sie unser Denken prägen.

Die besten Wege aus der Vertrauenskrise

Dass der Einfluss von KI zu einer Vertrauenskrise unter Internetnutzern geführt hat, steht außer Frage. Wir sollten uns daher damit beschäftigen, wie dieses Vertrauen wiederhergestellt werden kann. Hier gibt es drei vielversprechende Ansätze.

Aufklärung von Nutzern

Der unumstritten wichtigste Punkt ist die Aufklärung von Nutzern. Unsere Gesellschaft muss verstehen, wie KI-Systeme funktionieren – sowohl im Hinblick auf die Chancen als auch die Risiken. Diese Aufklärung beginnt am besten bereits in den Schulen, damit Kinder von jung auf Medienkompetenz lernen. Nur ein bewusster Umgang mit Medien kann langfristig vor Manipulation schützen.

Rechtliche Rahmenbedingungen

Es ist schwer, optimale rechtliche Rahmenbedingungen für künstliche Intelligenz zu schaffen, da KI bereits jetzt tief in gesellschaftliche und wirtschaftliche Prozesse integriert ist. Ein vollständiges Verbot ist daher weder realistisch noch zielführend. Vielmehr braucht es robuste Kontrollmechanismen wie die Regulierung von digitalen Angeboten. Die EU hat bereits erste Schritte in diese Richtung unternommen. Bis weltweit einheitliche rechtliche Standards gelten, wird es jedoch voraussichtlich noch einige Zeit brauchen.

Technologische Gegenmaßnahmen

Effektive technologische Schutzmechanismen wie Deepfake-Erkennungssysteme gibt es bisweilen nur wenige. Hinzu kommt, dass die bisherigen Optionen nur bedingt zuverlässig sind. Generell wird es immer schwerer, KI-Inhalte von authentischen Medien zu unterscheiden. Sich einfach damit abzufinden, ist dennoch keine verantwortungsvolle Lösung. Die Entwicklung von verlässlichen Erkennungstechnologien muss mindestens genauso schnell voranschreiten wie die Fähigkeiten von generativer KI.