Von Deepfakes zum Metaversum: Wer hat das Monopol auf die Wahrheit?
Die Fähigkeit zur Informationsbeschaffung wird im KI-Zeitalter zu einer ziemlichen Herausforderung. Denn synthetische Inhalte können – wohl oder übel – neue Fakten schaffen.
Deep-Fakes verunsichern nicht nur die Gesellschaft im Allgemeinen. Sie können selbst das geübte Auge des einen oder anderen Medienschaffenden und Fachjournalisten hinter den Ofen locken.
Bei Deepfakes ist von KI-generierten, „synthetischen“ Inhalten die Rede, die mit Hilfe von KI-Algorithmen des Tiefen Lernens (Engl. deep learning, daher der Begriff „deep fake“) derart glaubwürdig umgesetzt wurden, dass sie von echtem Dokumentarmaterial kaum zu unterscheiden sind.
Bei den meisten Deepfakes handelt es sich um synthetische Videos, die aus verschiedenen Ausgangsmaterialien (Fotos, Videoclips und Ton-Spuren) unter Einbezug von KI-Algorithmen des Tiefen Lernens errechnet werden.
Es klappt mit Audio und es klappt mit Video – wenn es sein muss, sogar in Echtzeit. Synthetische Realität sieht zur Verwechslung lebensecht aus.
Der reelle Kontext von Deepfakes verschafft ihnen eine besondere Hebelwirkung. Das Phänomenon wird im Unternehmensumfeld mit Industriespionage in Verbindung gebracht. Cybertäter machen sich Deepfakes zur Informationsbeschaffung für ausgefuchste Cyberattacken mit Insider-Know-how zu Nutze.
Brot und Butter
Für Hollywood-Filmstudios und den Rest der Unterhaltungsbranche ist die Sprach- und Videosynthese per KI das Brot-und-Butter-Geschäft. Der Übergang von harmloser Unterhaltung zu folgenschwerer Realitätsverzerrung ist fliessend. Das Ganze steht und fällt mit dem Urteilsvermögen des Publikums und dieses stösst im KI-Zeitalter immer öfter an seine Grenzen.
Die Technologie ist reif für den Missbrauch im grossen Massstab.
KI-Systeme des Tiefen Lernens benötigen Trainingsdaten, um eigene schöpferische Leistung hervorzubringen. Je bekannter eine Persönlichkeit, desto mehr Audio- und Video-Material gibt es frei zugänglich in der Public Domain und umso einfacher ist dann die Sprach- und Bildsynthese.
Daten gibt es ja in Hülle und Fülle – nicht zuletzt aus Überwachungskameras.
Spätestens seit SnapChat mit künstlicher Intelligenz Videoclips seiner Nutzer auflockert, finden Deepfakes in den Alltag vieler Smartphone-Nutzer Einzug. Das beliebte soziale Netzwerk Snap liess sich dazu schon vor rund sieben Jahren das ukrainische KI-Startup Looksery rund 150 Millionen US-Dollar kosten (bis heute die grösste Akquisition der ukrainischen Landesgeschichte). Drei Jahre später war es soweit: Katzenzähne, virtuelle Fee-Wimpern und Vulkan-Ohren gehören zum „Leistungsumfang“ der kostenfreien App.
Seit SnapChat diese und andere Special Effects auf Video-Streams – in Echtzeit auf einem ganz gewöhnlichen Smartphone – „einfach so“ in Nahe-Echtzeit zaubern kann, hat die Trickserei ihren Wow-Faktor verloren – jedoch bei Weitem nicht ihren destruktiven Reiz.
Denn die kriminelle Unterwelt des Cyber-Space ist auch schon dahinter gekommen. Synthetisches Video und synthetische Stimme erweitern erheblich das Arsenal an Instrumenten der Manipulation, welche sowohl politischen Provokateuren als auch Cyber-Tätern zur Verfügung stehen.
An die allfällige Manipulation von Bildern hat sich die digitale Gesellschaft schon länger gewöhnt. Nicht zuletzt hat ja auch die Werbebranche im ständigen Streben nach visueller Perfektion so Einiges dazu beigetragen. Doch das Misstrauen des gesunden Menschenverstands vermochte mit der Explosion an technischen Möglichkeiten durch Algorithmen des Tiefen Lernens kaum Schritt zu halten. Deepfakes, synthetische Inhalte von Besorgnis erregender Überzeugungskraft, bringen mit sich ein hohes destruktives Potenzial scheinbar dokumentierter Halbwahrheiten.
Für die Benutzer digitaler Inhalte gibt es kaum Anhaltspunkte, um zwischen Wahrheit und Irrtum zu unterscheiden.
Und doch ist der Wettlauf um die leistungsstärksten Videobearbeitungstechniken nicht aufzuhalten.
Keep reading with a 7-day free trial
Subscribe to Digital Masters DACH to keep reading this post and get 7 days of free access to the full post archives.