Solche Desinformationen sind auf Anhieb nicht immer zu erkennen und werden durch die gefälschten Bilder verstärkt. Als Beglaubigung von Ereignissen dienen sie als vermeintliche Quelle und unterstreichen die vermeintliche Glaubhaftigkeit, auch wenn es sich um erfundene Desinformationen. Nicht anders verhält es sich mit der Fälschung von Stimmen oder ganzer Videos durch KI. Sie besitzen die Macht, Wirklichkeit glaubhaft darzustellen und dabei Kontexte und Narrative zu schaffen. Aufgestellte Behauptungen bekommen durch KI-Bilder eine vermeintliche Substanz – ein Einfallstor für antidemokratische Akteur*innen und Katalysator für Desinformationen. Wie problematisch der Umgang von KI mit der (Re-)Produktion von Informationen ist, zeigt eine Reportage des Y-Kollektiv zum ChatGPT. Auch die Faktenchecker*innen von Newsguard attestieren nach einem Experiment mit der KI, dass sie zum „Superspreader für Falschinformationen“ werden könne, da die Sicherheitsvorkehrungen innerhalb des Programms leicht umgangen werden können. In beiden Beispielen konnten die Sicherheitsvorkehrungen seitens der Unternehmen umgangen werden, indem Fragen an die KI so formuliert wurden, dass die Modelle ihre eigenen Sicherheitsmechanismen ignorierten. Und so Anleitungen zum Bau von Bomben, Verschwörungserzählungen oder sogar neue – durch die KI produzierte - Desinformationen erhält. Entsprechende Anleitungen zur Umgehung der Sicherheitsmechanismen finden sich in Windeseile im Internet. Auch Europol warnt nach eigenen Experimenten mit dem Chatbot mittlerweile davor, dass es durch Tools wie ChatGPT zu einem enormen Anstieg an Betrug, Cybercrime und Falschinformationen kommen kann.
Da KI weder ein moralisches Gewissen besitzt oder zwischen richtigen und falschen Information unterscheidet liegt es an den Unternehmen und Nutzer*innen, entsprechende Sicherheitsvorkehrungen zu treffen und einen kritischen Umgang zu finden.
Seitens der Unternehmen scheint es angesichts des großen Hypes um KI in den vergangenen Monaten bisher nur wenig Bemühungen zur Reglementierung zu geben. Zu stark ist der Konkurrenzkampf um die Markthoheit und Profite. Um mithalten zu können, werden die Programme schnell auf den Markt gebracht. Im Fokus stehen die Zufriedenstellung der Nutzer*innen und die möglichst schnelle Beantwortung der Anfragen – auf der Strecke bleiben die Sicherheit und der einhergehende mögliche Missbrauch der Programme. Was können wir noch glauben? Es wird immer schwieriger, diese Frage zu beantworten.
Kritik an dieser Dynamik gibt es auch seitens von KI-Expert*innen und Tech-Führungskräften, die Ende März einen offenen Brief veröffentlichten. Gefordert wird ein Stopp von Markteinführungen weiterer KI-Programme für mindestens sechs Monate, um möglichen Gefahren vorzubeugen, die Programme ausreifen zu lassen und dem Konkurrenzdruck Einhalt zu gebieten. Inwiefern eine ernstgemeinte Absicht dahinter ist oder eigene Interessen verfolgt werden, bleibt zunächst unklar. Der wohl prominenteste Unterzeichner ist Elon Musk, der OpenAI mitgegründet hat und bei einer gescheiterten Machtübernahme im Jahr 2018 aus dem Unternehmen gedrängt wurde – bleibt offen. Inzwischen hat Musk auf Twitter angekündigt, da ihm Chat GPT zu "politisch korrekt" wäre, würde er ein eigenes Programm namens "Truth GPT" entwickeln - quasi als Desinformations-KI. Die Organisation hinter dem offenen Brief, das "Future of Life Institute" beschäftigt sich mit Longterminism - einer pseudo-philosophischen Richtung, die die Gegenwart ausblendet und weit entfernte, hypothetische Gefahren anspricht. Der geistige Vater der Strömung, Nock Bostrom, befürtwortet Eugenik und Rassismus. Kümmern wir uns lieber um reale Probleme heute.
Fakt ist: KI basierte Programme können bei ungenügenden Schutzmechanismen von Akteur*innen mit schlechten Absichten als überzeugender Multiplikator von Fehlbehauptungen genutzt werden. Umso wichtiger ist es für Nutzer*innen, sich diesen Gefahren bewusst zu sein. In unseren Newsletter Ausgaben #3 und #5 thematisierten wir die Erkennung von Desinformationen und wie dieser begegnet werden kann. Als weitere Hilfe dienen die Tipps und Tricks zur Erkennung von KI-generierten Bildern des AFP Faktencheck-Teams.
In der praktischen Arbeit mit jungen Menschen lohnt es sich, gezielt diese neue Technologie anzusprechen: „Wo sind euch mögliche Fälschungen schon einmal begegnet?“ oder „Woran habt ihr sie erkannt?“ sind Fragen für einen Einstieg in die Thematik und können anhand von Beispielen verdeutlicht werden. Überlegt gemeinsam, inwiefern KI genutzt werden kann und wo mögliche Herausforderungen und Probleme liegen. |