top of page
Suche

Fakeness wird mit Verbesserungen in der KI auf ein neues Level gehoben – Die Gefahren von Deepfake

  • Office optimus amicus
  • 2. März 2023
  • 3 Min. Lesezeit


„Deepfakes werden zu einer der grössten Bedrohungen für die globale Stabilität, sowohl in Bezug auf Fake News als auch in Bezug auf ernsthafte Cyberrisiken.“ sagt Joseph Carson (Chief Security Scientist bei Thycotic)



Sie täuschen uns … und sie werden von Tag zu Tag besser

Auch wenn Sie den Begriff noch nie gehört haben, sind Sie wahrscheinlich online auf Dutzende von Deepfake-Videos gestossen und wussten es vielleicht nicht.

Deepfakes – abgeleitet von „Deep Learning“ (einer Kategorie aus der künstlichen Intelligenz [KI]) und „Fake“ die Fälschung – sind Medien, die mit Hilfe künstlicher Intelligenz gefälscht oder manipuliert wurden.

In den meisten Fällen werden vorhandene Bilder oder Videos mithilfe von Techniken des maschinellen Lernens mit Quellmaterial kombiniert oder überlagert. Es ist schon eine Weile her, im Jahr 1997 war das Video Rewrite Program das erste Programm, das vorhandenes Videomaterial modifiziert, um eine Person darzustellen, die andere Worte spricht, als sie ursprünglich gesagt hat. Seitdem wurde ein regelrechtes Deepfake-Feuer entfacht, was die Entwicklung an Hochschulen, Online-Communitys und in der Medien- und Unterhaltungsindustrie stark vorangetrieben hat.

Die Technologie, die diese gefälschten Videos erstellt, wird immer besser. Während Produzenten einst Hunderte von Bildern benötigten, um ein Gesicht mit einem anderen zu überschreiben, zeigen moderne Apps wie FaceApp und Zao, wie einfach es ist, mit einem einzigen Bild ein sehr überzeugendes Deepfake-Video zu erstellen – und das alles erst noch in Sekundenschnelle.

Wie bei praktisch jeder Art von Technologie hängt die Art eines Werkzeugs vom Ehrgeiz und Charakter seines Benutzers ab. Deepfakes können entweder zu harmlosen Unterhaltungszwecken oder zur Irreführung, Täuschung und Schädigung verwendet werden. Deepfakes haben einige amüsante Inhalte geliefert, darunter bspw. das YouTube-Video von Bill Hader von Saturday Night Live, der sich in Arnold Schwarzenegger und Al Pacino verwandelt. Ein spannender Ansatz gibt es im Dali Museum in Florida, dort wurde interaktives Filmmaterial erstellt, um Salvador Dali „wiederzubeleben“.

Eine Maschine, die realistische Fälschungen erstellt, ist eine perfekte Waffe für Anbieter von Fake News, die alles von Aktienkursen bis hin zu Wahlen beeinflussen wollen“, sagt Martin Giles (San Francisco Bureau Chief des MIT Technology Review).

Eintauchen in die dunklen Tiefen von Deepfake

Die Medaille hat jedoch auch eine andere Seite, und sie ist alles andere als hübsch. Deepfakes haben wachsende Besorgnis über ihre Verwendung in pornografischen Videos von Prominenten, Finanzbetrug und Fake News hervorgerufen. Während die Verwendung von Facebooks App, um Bilder von sich selbst mit Hasenohren zu teilen, süss sein mag, können gefälschte Videos, die beleidigende oder irreführende Bilder von Prominenten realistisch darstellen, Kontroversen auslöst. Dies führt zu Desinformation, kann die Politik und Meinung in der Gesellschaften beeinflussen.

Die Erstellung solcher fabrizierter Videos ist immer einfacher geworden, und die digitalen Darstellungen selbst werden immer raffinierter und schwerer zu erkennen. Der Top-Deepfake-Künstler Hao Li glaubt, dass Deepfake-Videos in den nächsten sechs Monaten völlig unauffindbar sein werden. Es überrascht also nicht, dass die Welt immer mehr Vertrauensprobleme hat.

Betrüger verwendeten Deepfake-Audio, um die Stimme eines CEO‘s nachzuahmen, und brachten sein US-Unternehmen dazu, 243‘000 US-Dollar an die Betrüger zu überweisen.

Das Simulieren des Bildes oder der Stimme einer Person kann Angreiffern helfen, an persönliche Informationen zu gelangen und Zugang zu sicherheitskritischen Bereichen zu erhalten. Ausgeklügelte Technologie, gepaart mit gefährlichen Absichten, stellt ein beispielloses Cybersicherheitsrisiko dar, indem sie die Grenzen zwischen Echtem und Fälschung verwischt.

Welche Erfahrungen hast Du mit Deepfake bereits gemacht? Bist Du der Meinung, dass Du ein echtes und ein gefaktes Video voneinander unterscheiden kannst? Wie sollen wir dieser Entwicklung in Zukunft begegnen?

Für mich ist klar, ich bin sicher, dass ich aktuell die Fälschung von der Realität nicht mehr unterschieden könnte, wenn das Video von guter Qualität ist. Eine „billig“ Fälschung lässt sich teils noch erkennen, doch eine Gute, absolut nicht mehr.

Es ist aus meiner Sicht extrem gefährlich, welcher Bedrohung wir hier ausgesetzt sind. Es hilft wohl je länger je mehr nur noch der gesunde Menschenverstand und eine Portion Misstrauen, wenn ein doch eher spezielles Statement durch eine Person des öffentlichen Interesses gemacht wird.


Quelle: threatpost


Um sich effektiv vor solchen Gefahren zu schützen, hilft eine Awareness-Schulung. Das ist eine absolut wichtige und zielführende Investition für Ihr Unternehmen und Ihre Mitarbeiter.

Durch eine gezielte Schulung auf mögliche Gefahren, kann der Faktor Mensch als Risiko minimiert werden.


Melden Sie sich bei uns, wir beraten Sie gerne und zeigen Ihnen auf, was Sie für Möglichkeiten haben.


Comments


bottom of page