Kombiniert man "deep" aus dem Deep Learning mit "fake", erhält man "deepfake" - eine Methode, bei der künstliche Intelligenz eingesetzt wird, um menschliche Bilder zu erzeugen, oft mit einer lippensynchronen Stimme. Das Endergebnis kann sehr überzeugend sein, und die Absicht ist oft, einen Prominenten oder Politiker zu fälschen, um ihn zu diskreditieren. Aber könnte es auch größere Gefahren geben?
Dies scheint auf jeden Fall der Fall zu sein, nicht zuletzt bei der Einmischung in Wahlen. Facebook sagte im Januar, dass es alle von KI erstellten Videos entfernen würde, und im vergangenen Jahr hat die Wall Street Journal einen besonders beunruhigenden Fall an, bei dem es um eine "geklonte" Stimme ging.
Wer ist am Telefon?
Darin wurde berichtet, dass dem Geschäftsführer eines Energieunternehmens im Vereinigten Königreich ein Anruf seines Chefs in der deutschen Muttergesellschaft vorgegaukelt wurde, der echt war. Der Mann aus dem Vereinigten Königreich sollte dringend 220 000 Euro auf ein Konto in Ungarn überweisen, was er auch tat, weil der Anrufer genauso klang wie der Deutsche, mit dem er schon oft gesprochen hatte.
Der Versicherer des Unternehmens, Euler Hermes, hat über den Fall berichtet, und der Vorstandsvorsitzende Rüdiger Kirsch geht davon aus, dass die Voice-Hacking-Technologie eingesetzt wurde. Nachdem die Zahlung erfolgt war, gab es zwei weitere Anrufe, einen, um mitzuteilen, dass die Zahlung nicht erfolgt war, und einen weiteren, um die erneute Überweisung der Zahlung zu verlangen. Zu diesem Zeitpunkt wurde der britische Geschäftsführer misstrauisch und bemerkte, dass der Anruf aus Österreich und nicht aus Deutschland kam. Aber es war zu spät, die erste Zahlung war erfolgreich, und es stellte sich heraus, dass der Betrag schnell von dem ungarischen Konto auf ein Konto in Mexiko und dann an andere Orte überwiesen worden war.
Kriminelle, die über das nötige Know-how verfügen, können mithilfe von KI synthetische Audiodaten erstellen. Und dann gibt es noch KI-Tools, sogenannte Encoder und Decoder, die dabei helfen können, Gesichtszüge auszutauschen - es gibt sogar eine App namens Zao, mit der Nutzer ihr Gesicht zu einer Liste von Fernseh- und Filmfiguren hinzufügen können. Aber es geht nicht nur darum, wie ein Prominenter auszusehen. Diese Technologie könnte es Kriminellen oder vielleicht sogar verärgerten ehemaligen Mitarbeitern ermöglichen, bösartige Inhalte zu erstellen, die großen Schaden anrichten könnten.
Wachsende Besorgnis
Eine in diesem Jahr durchgeführte Umfrage unter leitenden Informationssicherheitsbeauftragten im Finanzdienstleistungssektor ergab, dass die Besorgnis über Deepfakes wächst. Die Untersuchung des Biometrie-Technologieunternehmens iProov ergab, dass 77% dieser Fachleute über das Betrugspotenzial von Deepfakes besorgt sind, wobei Online-Zahlungen und persönliche Bankdienstleistungen am stärksten gefährdet sind. Trotzdem haben nur 28% irgendwelche Maßnahmen ergriffen.
Laut dem CEO von iProov, Andrew Bud:
"Es ist wahrscheinlich, dass so wenige Organisationen solche Maßnahmen ergriffen haben, weil sie sich nicht bewusst sind, wie schnell sich diese Technologie weiterentwickelt. Die neuesten Deepfakes sind so gut, dass sie die meisten Menschen und Systeme überzeugen werden, und sie werden nur noch realistischer werden.
Besonders besorgniserregend für die Entscheidungsträger war die Möglichkeit, dass gefälschte Bilder die Gesichtserkennungsabwehr beeinträchtigen könnten. "Die Ära, in der wir den Beweisen unserer eigenen Augen glauben können, geht zu Ende. Ohne Technologien, die uns helfen, Fälschungen zu erkennen, wird in Zukunft jedes bewegte und unbewegte Bild verdächtig sein", so Bud.
Obwohl auch das Internet nicht vollständig überwacht werden kann, wurde berichtet, dass Google Deepfake-Samples veröffentlicht hat, um Forschern die Möglichkeit zu geben, Erkennungstechnologien zu finden, während Facebook und Microsoft mit Universitäten zusammenarbeiten, um Preise für Forscher auszuloben, die Methoden zum Aufspüren und Verhindern der Verbreitung manipulierter Medien entwickeln. Was den Sprachbetrug betrifft, so ist dieser für die Finanzdienstleistungen wahrscheinlich am besorgniserregendsten. Es wird davon ausgegangen, dass Sprachhacks weitgehend blockiert werden, wenn Menschen die Anrufe entgegennehmen - aber der zunehmende Einsatz von automatischen Spracherkennungssystemen könnte leichter zu durchdringen sein.
Es besteht eindeutig das Potenzial, dass Kriminelle KI für betrügerische Zwecke nutzen. Deshalb ist es jetzt an der Zeit, dass der Finanzdienstleistungssektor auf der Hut ist, indem er seine Mitarbeiter schult, zusätzliche Überprüfungen vornimmt und in Technologien investiert, die Unstimmigkeiten abfangen können.