Kombinieren Sie „deep“ von Deep Learning mit „fake“ und Sie erhalten „deepfake“ – eine Methode, bei der künstliche Intelligenz eingesetzt wird, um menschliche Bilder zu erzeugen, oft mit einer lippensynchronen Stimme. Das Endergebnis kann sehr überzeugend sein, und die Absicht ist oft, einen Prominenten oder Politiker zu fälschen, um ihn zu diskreditieren. Aber könnte es auch größere Gefahren geben?
Das scheint auf jeden Fall der Fall zu sein, nicht zuletzt bei der Einmischung in Wahlen. Facebook hat im Januar angekündigt, alle von KI erstellten Videos zu entfernen, und im letzten Jahr hat das Wall Street Journal einen besonders alarmierenden Fall zitiert, bei dem es um eine „geklonte“ Stimme ging.
Wer ist am Telefon?
Darin wurde berichtet, dass der Geschäftsführer eines Energieunternehmens in Großbritannien einen Anruf seines Chefs in der deutschen Muttergesellschaft für echt hielt. Der Brite wurde aufgefordert, dringend 220.000 € auf ein Konto in Ungarn zu überweisen. Er tat dies, weil der Anrufer sich genauso anhörte wie der Deutsche, mit dem er schon oft gesprochen hatte. Der Fall wurde vom Versicherer des Unternehmens, Euler Hermes, aufgeklärt und dessen CEO, Rüdiger Kirsch, sagt, er glaube, dass die Voice-Hacking-Technologie verwendet wurde. Nachdem die Zahlung getätigt worden war, gab es zwei weitere Anrufe, einen, um mitzuteilen, dass die Zahlung nicht erfolgt war, und einen weiteren, um eine erneute Überweisung zu verlangen. Zu diesem Zeitpunkt wurde der britische Geschäftsführer misstrauisch und bemerkte, dass der Anruf aus Österreich und nicht aus Deutschland kam. Aber es war zu spät, die erste Zahlung war erfolgreich und wie sich später herausstellte, war das Geld schnell von dem ungarischen Konto auf ein Konto in Mexiko und dann an andere Orte transferiert worden. Kriminelle, die über das nötige Know-how verfügen, können KI nutzen, um synthetische Audiodaten zu erstellen. Und dann gibt es noch KI-Tools, so genannte Encoder und Decoder, die dabei helfen können, Gesichtszüge auszutauschen – es gibt sogar eine App namens Zao, mit der Benutzer ihr Gesicht zu einer Liste von Fernseh- und Filmfiguren hinzufügen können. Aber es geht nicht nur darum, wie ein Prominenter auszusehen. Diese Technologie könnte es Kriminellen oder vielleicht sogar verärgerten ehemaligen Mitarbeitern ermöglichen, bösartige Inhalte zu erstellen, die großen Schaden anrichten könnten.
Wachsende Besorgnis
Eine in diesem Jahr durchgeführte Umfrage unter Chief Information Security Officers im Finanzdienstleistungssektor ergab, dass die Besorgnis über Deepfakes wächst. Die Studie des biometrischen Technologieunternehmens iProov ergab, dass 77% dieser Fachleute besorgt sind, dass Deepfakes zu betrügerischen Zwecken eingesetzt werden könnten – wobei Online-Zahlungen und persönliche Bankdienstleistungen am meisten gefährdet sind. Trotzdem haben nur 28% der Befragten irgendwelche Maßnahmen ergriffen. Andrew Bud, CEO von iProov, meint dazu:
„Wahrscheinlich haben so wenige Unternehmen Maßnahmen ergriffen, weil sie nicht wissen, wie schnell sich diese Technologie entwickelt. Die neuesten Deepfakes sind so gut, dass sie die meisten Menschen und Systeme überzeugen werden, und sie werden nur noch realistischer werden.
“
Besonders besorgniserregend für die Entscheidungsträger war das Potenzial von Deepfake-Bildern, die Gesichtserkennungsabwehr zu gefährden. „Die Ära, in der wir den Beweisen unserer eigenen Augen glauben können, geht zu Ende. Ohne Technologie, die uns hilft, Fälschungen zu erkennen, wird in Zukunft jedes bewegte und unbewegte Bild verdächtig sein“, sagte Bud. Obwohl auch das Internet nicht vollständig überwacht werden kann, wurde berichtet, dass Google Deepfake-Samples veröffentlicht hat, um Forschern die Möglichkeit zu geben, Erkennungstechnologien zu finden, während Facebook und Microsoft mit Universitäten zusammenarbeiten, um Preise für Forscher auszuloben, die Möglichkeiten zur Erkennung und Verhinderung der Verbreitung manipulierter Medien entwickeln. Was den Sprachbetrug betrifft, so ist dieser für Finanzdienstleistungen wahrscheinlich am besorgniserregendsten. Es wird davon ausgegangen, dass Sprachhacks weitgehend verhindert werden, wenn Menschen die Anrufe entgegennehmen – aber der zunehmende Einsatz von automatischen Spracherkennungssystemen könnte leichter zu durchdringen sein. Es besteht eindeutig das Potenzial für Kriminelle, KI für betrügerische Zwecke zu nutzen. Daher ist es jetzt an der Zeit, dass der Finanzdienstleistungssektor auf der Hut ist, indem er seine Mitarbeiter schult, zusätzliche Überprüfungen vornimmt und in Gegenmaßnahmen investiert, die Unstimmigkeiten abfangen.