Citizen-based Monitoring for Peace and Security in the Era of Synthetic Media and Deepfakes
Projektbeschreibung
Digitale Texte, Bilder, Audio- und Videoinhalte sind allseits verfügbar – und können durch Fortschritte im generativen maschinellen Lernen inzwischen auch so synthetisiert werden, dass sie von realen Inhalten nicht zu unterscheiden sind. Das birgt Risiken: Hyperrealistische Videos, sogenannte Deepfakes, und synthetische Medien tragen zur Verbreitung von Fake News bei und können im schlimmsten Fall ganze Gesellschaften destabilisieren.
Eine besondere Rolle spielen Aufnahmen von Satelliten. Sie zeigen beispielsweise, wie die Umwelt sich verändert, wo neue Infrastrukturen – und damit potenziell auch neue nukleare Waffensysteme oder Internierungslager entstehen oder Siedlungen sowie archäologische Stätten zerstört werden. Zunächst vor allem von Regierungen genutzt, greifen inzwischen auch Forschende und Nichtregierungsorganisationen auf die Bilder aus dem All zu. Und über Dienste wie Google Earth sind sie auch für Bürger*innen verfügbar.
Bürger*innen können also ebenfalls zur Überwachung von Frieden und Sicherheit beitragen. Welchen Einfluss KI und generierte Medien darauf haben, untersuchen Prof. Dr. Felix Biessmann (BHT), Prof. Dr. Rebecca D. Frank (University of Tennessee, Knoxville) und Prof. Dr. Alexander Glaser (Princeton University) mit ihren Teams im Projekt „Citizen-based Monitoring for Peace and Security in the Era of Synthetic Media and Deepfakes“. Denn dass Satellitenbilder sich künstlich erzeugen lassen, hat positive wie negative Auswirkungen: Algorithmen können mit künstlichen Datensätzen trainiert werden, um reale Veränderungen besser und schneller zu erkennen. Gleichzeitig können diese künstlichen Bilder Desinformation verbreiten. Vor diesem Hintergrund stellen sich Fragen zu generativer AI, die unsere Gesellschaft nachhaltig beeinflussen können: Wie ist einfach es, authentisch aussehende Bilder zu erstellen? Und welche Methoden können Herkunft und Authentizität der Bilder bestätigen – damit Menschen künftig zuverlässig beurteilen, ob sie echt oder nicht sind? Diese Fragen wollen die Wissenschaftler*innen im Rahmen des Projekts untersuchen.