Deepfakes: Woran erkennt man Fälschungen? - DEEP
Unsere digitalen Gesellschaften bringen ständig die unterschiedlichsten Inhalte hervor. Ob zu Informations-, Bildungs- oder Unterhaltungszwecken – wir konsumieren nahezu unablässig Texte, Bilder, Online-Videos usw. Haben Sie sich jedoch schon einmal gefragt, ob die angebotenen Inhalte authentisch und unverfälscht sind? Wie können Sie sicher sein, dass ein Bild einer Person, das Ihnen angezeigt wird, tatsächlich der Realität entspricht? Wie können Sie sicher sein, dass die Person, die in einem Video eine Rede hält, auch wirklich die Person ist, die sie vorgibt zu sein, und dass es sich nicht um Bilder handelt, die zu Manipulationszwecken bearbeitet wurden? Diese Fragen sind im Zeitalter der Künstlichen Intelligenz (KI) und des maschinellen Lernens alles andere als belanglos. Seit einigen Jahren gibt das Konzept des Deepfake (ein aus den Begriffen Deep Learning und Fake zusammengesetztes Wort) Anlass zu neuer Sorge.
Zwischen Schein und Wirklichkeit unterscheiden
„Fälschungen beschäftigen die Menschheit seit langem. Seit es Deepfakes gibt, haben wir es mit einer digitalen Version der Fälschung zu tun", erläutert Mohamed Ourdane, Head of Cybersecurity bei DEEP. Mithilfe von Technologien, die Künstliche Intelligenz und Deep Learning einsetzen, lassen sich Inhalte, die eindrucksvoll sind, aber die Realität verzerren und Menschen ohne ihre Zustimmung zeigen, von A bis Z selbst erstellen.
Seit langem gibt es Bildbearbeitungsprogramme wie beispielsweise Photoshop, mit denen man die Realität nachbearbeiten kann – meist um sie ästhetisch ansprechender zu gestalten. Mithilfe Künstlicher Intelligenz wurden in letzter Zeit Bilder oder Videos erstellt, die berühmte Persönlichkeiten wie den Papst, Politiker oder Stars zeigen, ohne dass diese davon etwas wussten oder gar eingewilligt haben. Es gibt heute Programme, mit denen die Stimme einer Person sehr genau imitiert werden kann. Avatare, die Personen täuschend echt nachbilden, können mit uns Menschen interagieren. „Die neuesten technologischen Entwicklungen und der erleichterte Zugang zu großer Rechenleistung ermöglichen es jedem, relativ einfach extrem überzeugende Fälschungen zu erzeugen. In Zukunft wird es immer schwieriger werden, zwischen Schein und Wirklichkeit zu unterscheiden", kommentiert Cu D. Nguyen, Experte für Data Science und Sicherheit bei DEEP.
Neue Risiken
Diese Entwicklungen bringen neue Risiken mit sich. Jeder von uns könnte in Zukunft mit Fälschungen konfrontiert werden, die böswilligen Zwecken dienen: „Eine Technologie an sich ist weder gut noch schlecht", so Mohamed Ourdane. „Es kommt immer darauf an, was man daraus macht. Bei Deepfake gibt es allerdings zahlreiche Arten von missbräuchlicher Verwendung der Technologie, um etwa falsche Informationen zu verbreiten, die Demokratie zu gefährden oder auch, um eine Person zu täuschen oder im Rahmen eines Cyberangriffes Daten zu stehlen.“
In den letzten Jahren wurde zum Beispiel viel über „CEO-Fraud“ gesprochen. Dabei bittet eine Person, die sich als Unternehmenschef ausgibt, beispielsweise per E-Mail einen Mitarbeiter der Buchhaltung, dringend eine Überweisung zu tätigen (natürlich zugunsten der Hintermänner, die den Betrug inszenieren). Solche Betrugsversuche sind umso überzeugender, wenn eine solche Anweisung telefonisch erfolgt und die Stimme des besagten Managers mithilfe von Computertools perfekt nachgeahmt wird. Wenn man die Betrugsmasche weiterdenkt, ist auch vorstellbar, dass der Mitarbeiter diese Anweisung per Videokonferenz von einem Avatar erhält, der nicht nur wie der besagte Chef klingt, sondern ihm auch zum Verwechseln ähnelt.
Die neuen Gefahren verstehen
Zwar sind die Risiken real und zahlreich, doch es existieren Abhilfemaßnahmen, die in Betracht gezogen werden sollten. Wie kann man gegen diese Fälschungen, die sich in Zukunft wohl häufen werden, vorgehen? Die für Cybersicherheit zuständigen Teams bei DEEP beschäftigen sich seit mehreren Jahren mit diesen Fragen und unterstützen Forschungs- und Entwicklungsprogramme in Zusammenarbeit mit der Universität Luxemburg, insbesondere mit deren Interdisciplinary Centre for Security, Reliability and Trust (SnT).
• Wahrheits- und Identitätsbeweise erbringen
„Um den Risiken zu begegnen, die mit der Zunahme von digitalen Fälschungen verbunden sind, können mehrere Möglichkeiten in Betracht gezogen werden", versichert Mohamed Ourdane. Beispielsweise sollte die Erstellung von Inhalten mit einer Identität verknüpft, indem z. B. Orts- und Zeitangaben integriert werden, und die Authentizität und Integrität der Inhalte während ihres gesamten Lebenszyklus gewährleistet werden." DEEP hat sich mit diesen Herausforderungen insbesondere im Rahmen des SKYTRUST-Projekts befasst, das in Partnerschaft mit der Europäischen Weltraumorganisation (ESA) durchgeführt wurde.
• Technologische Unterstützung zur Erkennung von Fälschungen
„Darüber hinaus können auch die neuartigen Technologien Künstliche Intelligenz und Machine Learning genutzt werden, um irreführende Inhalte zu erkennen. In diesem Fall geht es darum, durch die Inhaltsanalyse bestimmte Unstimmigkeiten aufzudecken. Wir beschäftigen uns im Rahmen eines Forschungs- und Entwicklungsprojekts in Partnerschaft mit dem SnT mit der Entwicklung solcher Detektionswerkzeuge", erklärt Cu D. Nguyen.
Die Analyse der Konturen eines Gesichts, des Blinzelns und der Stimmlage ermöglicht es beispielsweise, Anomalien zu erkennen und Fälschungen, die durch Künstliche Intelligenz generiert wurden, leichter aufzudecken. „Da die von den Erstellern der Inhalte verwendeten Algorithmen immer leistungsfähiger und ausgefeilter werden, wird die Erkennung von Fälschungen immer komplexer. Man muss sich ständig weiterentwickeln, um zwischen Schein und Wirklichkeit unterscheiden zu können. Es ist ein stetiger Wettlauf", so der Experte weiter.
• Sensibilisierung, um die Verbreitung von Fälschungen zu stoppen
Angesichts der Risiken, die mit diesen Fälschungen verbunden sind, stellen die Mittel zur Bekämpfung ihrer Verbreitung neben dem „Eigentums- oder Identitätsnachweis“ und dem Ausbau der Fähigkeiten, um von Künstlicher Intelligenz generierte Bilder zu erkennen, die letzte Herausforderung dar. „Das bedeutet, dass die Bevölkerung über diese neuartigen Risiken aufgeklärt werden muss. Mehr denn je müssen wir den kritischen Geist jedes Einzelnen stärken, insbesondere bei der jungen Generation, die digitale Inhalte besonders gerne nutzt", meint Mohamed Ourdane.
DEEP arbeitet seit mehreren Jahren gemeinsam mit der Universität Luxemburg an diesen Themen. Das Ziel dieser Zusammenarbeit ist es, den Nutzern von Technologie- und Telekommunikationsmitteln Sicherheitslösungen anbieten zu können.
Diese Herausforderungen werden unter anderem bei einer von DEEP angebotenen Veranstaltung am 23. Mai diskutiert.
Kontakt
Sie haben Fragen zu einem der Artikel? Sie brauchen Beratung, um die richtige Lösung für Ihre ICT-Probleme zu finden?
Einen Experten kontaktierenUnsere Experten beantworten Ihre Fragen
Sie haben Fragen zu einem der Artikel? Sie brauchen Beratung, um die richtige Lösung für Ihre ICT-Probleme zu finden?
Weitere Artikel aus der Kategorie Sicherheit
DDoS-Angriffe in Luxemburg im Jahr 2024
Erfahren Sie mehr über die Statistiken zu DDoS-Angriffen, die POST Cyberforce im Jahr 2024 in Luxemburg entdeckt hat.
Veröffentlicht am
31 März 2024
DDoS-Angriffe in Luxemburg im Jahr 2023
Erfahren Sie mehr über die Statistiken zu DDoS-Angriffen, die POST Cyberforce im Jahr 2023 in Luxemburg entdeckt hat.
Veröffentlicht am
15 Februar 2023
DDoS-Angriffe in Luxemburg im Jahr 2022
Erfahren Sie mehr über die Statistiken zu DDoS-Angriffen, die POST Cyberforce im Jahr 2022 in Luxemburg entdeckt hat.
Veröffentlicht am
11 Oktober 2022