Was ist noch echt? Das mithilfe von KI-Tools erschaffene Bild vom Papst im weißen Daunenmantel mag noch erheitert haben. Doch in Zeiten von Multikrisen, von Krieg und Zerstörung bekommen Fake News und gefälschte Bilder schnell eine gesellschaftliche und politische Dimension. Sich von Desinformation klar abzugrenzen und mit verifizierten, qualitativ hochwertigen Inhalten einen Gegenpol zu schaffen, wird für klassische Medien immer wichtiger. Wie das Web3 Medien und Journalismus dabei helfen kann, Content zu authentifizieren und das Vertrauen des Publikums zurückzugewinnen, hat das MedienNetzwerk Bayern in Zusammenarbeit mit der Denkfabrik 1E9 im Rahmen der MEDIENTAGE MÜNCHEN 2023 demonstriert.
Künstliche Intelligenz kann viel Kreatives schaffen, dabei aber auch mit täuschend echt kreierten Falschinformationen in Wort, Ton und Bild massiven Schaden anrichten. Die Herkunft und Wahrhaftigkeit eines veröffentlichten Inhalts nachvollziehen zu können, wird ergo immer relevanter. Doch wie können falsche Informationen entlarvt werden? Wie können Medien mit einer Art Prüfsiegel ihre Inhalte als wahrhaftig kennzeichnen?
Helfen kann das so genannte Web3 mit seinen Technologien, die den Besitz und die Kontrolle von Online-Daten dezentralisieren. Wie, das zeigt ein aktuelles Whitepaper des Web3-Thinktank. Titel: „Echt, Fälschung oder von der KI erstellt? Authentifizierung digitaler Inhalte mit Web3-Technologien“. Der Thinktank wurde vom MedienNetzwerk Bayern in Zusammenarbeit mit der Denkfabrik 1E9 ins Leben gerufen.
Im Rahmen der #MTM23 wurden im Gespräch mit Wolfgang Kerler (Foto oben, rechts; Quelle: Medien.Bayern GmbH), Chefredakteur & Co-Founder von 1E9, Lösungen vorgestellt, an denen erste Unternehmen bereits arbeiten:
BR24 #Faktenfuchs:
Jana Heigl (Foto oben; Quelle: Medien.Bayern GmbH), Faktencheckerin im Team von BR24 #Faktenfuchs, arbeitet mit Open Source Intelligence Tools, um herauszufinden, wo die Originalquelle solcher Bilder liegt, um sie einordnen zu können. Aus dem Kontext gerissene oder gefälschte Motive waren bereits vor dem Boom der generativen Künstlichen Intelligenz problematisch. Und auch wenn diese Tools oft helfen, stößt das Team des Bayerischen Rundfunks immer wieder an seine Grenzen – vor allem auf Drittplattformen.
Heigl betonte bei den MEDIENTAGEN im Münchner House of Communication, wie wichtig bei der Nutzung von Tools nachvollziehbare Informationen für den Faktencheck seien. Die BR-Managerin merkte aber auch an, dass diese Lösung nur eine von mehreren notwendigen Mitteln im Kampf gegen Desinformationen sei. Heigl: „Manche Leute wollen etwas glauben, weil es ihrem Weltbild entspricht. In diesen Fällen hilft auch die Authentifizierung nicht.“ Wichtig seien vor allem auch die Bereiche Medienkompetenz und Medienerziehung.
Valid
„Drittplattformen, vor allem Social Media, sind der Herd, an dem Desinformation entsteht. Dafür wollen wir Lösungen bieten“, berichtete Hans Brorsen (Foto oben, links; Quelle: Medien.Bayern GmbH), Geschäftsführer des Berliner Startups Valid bei der MEDIENTAGE-Session.
Anhand von kryptografischen Provenienz-Indikatoren will Valid die Authentizität von Inhalten überprüfbar machen – nicht nur auf Nachrichten-Webseiten, sondern auch auf Drittplattformen. Leser:innen sollen qualitativ hochwertige Nachrichteninhalte so anhand eines grünen Hakens oder einer Markierung erkennen und nachvollziehen können, wer diesen Content signiert und welches Medium ihn veröffentlicht hat.
Starling Lab
Die Authentifizierung von Bildern hat sich dieses Startup zur Aufgabe gemacht. Es sichert digitale Daten, zum Beispiel für journalistische Berichterstattung, für Ermittlungsverfahren oder für die Geschichtsschreibung, und versieht sie mit Informationen zur Provenienz. Das alles geschieht mit der Mission, das Vertrauen in Daten zu stärken. Als Beispiel für die Arbeit des Teams stellte Adam Rose, Chief Operating Officer des Starling Lab, das Projekt „The DJ and the War Crimes“ vor. Es wurde in Zusammenarbeit mit dem Magazin Rolling Stone realisiert und befasst sich mit ungesühnten Kriegsverbrechen während des Bosnienkrieges im Jahr 1992 befasst.
Mit Brorsen, Rose und den Startups Valid sowie Starling Lab waren zwei Unternehmen bei der anschließenden Talkrunde des MTM-Panels vertreten, die auch im Whitepaper des MedienNetzwerk Bayern vorkommen. Alle Mitdiskutierenden waren sich einig: Schneller, leichter, günstiger – KI Technologien können die Erstellung von Desinformation noch verstärken.
So funktionieren Web3-Lösungen technisch:
- Beim Erstellen
- Beim Speichern
- Beim Verifizieren
Stoßen Nutzer:innen in sozialen Netzwerken oder auf Webseiten auf digitale Inhalte, können sie die Informationen zur Provenienz und damit zur Authentizität abrufen – zum Beispiel per Klick auf ein Icon, wie oben beschrieben. Voraussetzung dafür ist, dass der Betreiber der jeweiligen Plattform dies ermöglicht. Zusätzliche Transparenz schafft die Möglichkeit, die unterschiedlichen Versionen eines digitalen Inhalts zu vergleichen. Für Bilder, die basierend auf dem C2PA-Standard mit Provenienz-Informationen versehen wurden, lässt sich dafür bereits das Tool Verify nutzen.
Weitere Information und Tipps enthält das Whitepaper „Echt, Fälschung oder von der KI erstellt? Authentifizierung digitaler Inhalte mit Web3-Technologien“. Es steht hier zum kostenfreien Download zur Verfügung.
Welche Rolle die Wissenschaft spielt
Im Whitepaper wird auch das Projekt Bloxberg vorgestellt, entstanden in der Max-Planck-Gesellschaft in München. Denn auch die Wissenschaft beschäftigt sich seit Jahrzehnten mit dem Thema Provenienz. Meist geht es darum, eine Erstveröffentlichung aus eigener Hand für Forscher:innen belegen zu können, um Glaubwürdigkeit und Reputation aufzubauen.
Zum Trägerkonsortium und den Teilnehmenden des großangelegten Experiments Bloxberg gehören internationale Forschungseinrichtungen, darunter die Carnegie Mellon University, die Universität Kassel, die ETH Zürich, die IT University of Copenhagen oder die University of Sarajevo.
Im Mittelpunkt steht der „Proof of Existence“. Will heißen: Sowohl einzelne Forscher:innen als auch Teams aus dem Verbund können die Existenz von Forschungsergebnissen, Hypothesen und Studien auf der Blockchain verifizieren. Hierfür werden die entsprechenden Forschungsinhalte in einen einmaligen Code – den bereits erwähnten Hash – umgewandelt, der auf der Blockchain gespeichert wird. Der Eintrag kann um Studientitel, Autorennamen, Namen von Forschungseinrichtungen sowie Anmerkungen erweitert werden. Forschungsbeiträge können so dokumentiert, Nachweise für Rechte an geistigem Eigentum geschaffen sowie zeitliche Abläufe nachvollziehbar werden – ohne diese sofort in kompletten Studien öffentlich publizieren zu müssen. So lässt sich beispielsweise belegen, wer Daten oder Forschungsergebnisse zuerst generiert hat.
Aufgrund der dezentralen Architektur der Blockchain ist eine Manipulation der Daten nahezu ausgeschlossen. Die Max-Planck-Gesellschaft und andere Institute haben die Funktionen der Bloxberg-Blockchain bereits in hauseigene Publikationswerkzeuge integriert.
Weitere Einsatzbereiche sind angedacht; analoge Funktionen wären – neben der Authentifizierung von Inhalten durch Provenienz-Informationen – auch für den Journalismus vorstellbar. Beispielsweise, indem unabhängige Fact Checker die Publikation eines Mediums verifizieren, was auf der Blockchain vermerkt werden könnte. Auch die Lizenzierung journalistischer Inhalte könnte über eine Blockchain oder ähnliche Datenbanken abgewickelt werden.
Die Zusammenfassungen wichtiger Panel-Diskussionen sowie Bildmaterial der 37. MEDIENTAGE MÜNCHEN stehen in der Mediathek der Medientage-Homepage und auch im Blog der Medientage bereit.
Die Medienthemen können auch gehört werden: im Podcast der Medientage München.
Kommentare