Hongkong Betrugsfall: Angestellter durch KI-Deepfakes um Millionen erleichtert

Kategorien:
No items found.
Freigegeben:

In einer beispiellosen Betrugsaktion wurde ein Angestellter eines internationalen Konzerns in Hongkong kürzlich Opfer einer ausgeklügelten Masche, bei der Kriminelle fast 24 Millionen Euro erbeuten konnten. Die Täter bedienten sich einer Methode, die auf künstlicher Intelligenz basierte und die bisherigen Grenzen des Cyberbetrugs neu auslotete.

Das Opfer wurde zu einer Videokonferenz eingeladen, in der alle Teilnehmer außer ihm durch KI-generierte Deepfakes repräsentiert wurden. Diese Deepfakes imitierten Kollegen und Vorgesetzte aus dem Konzern so täuschend echt, dass der Angestellte zu insgesamt 15 Überweisungen in einem Gesamtwert von 200 Millionen Hongkong-Dollar veranlasst wurde. Der Betrug trat erst zutage, als das Opfer ein persönliches Gespräch mit seinem Chef führte und die Wahrheit ans Licht kam.

Die Polizei von Hongkong, die den Fall untersucht, vermutet, dass die Betrüger sich Zugang zu internen Videos des Unternehmens verschafft hatten. Mit der Hilfe von KI-generierten Stimmen und möglicherweise auch Bewegtbildern schufen sie eine täuschend echte Konferenzumgebung. Das überwiesene Geld ist voraussichtlich verloren.

Die Polizei der Sonderverwaltungszone warnt nun die Öffentlichkeit und Unternehmen vor dieser neuen Betrugsmethode. Die sogenannte "Chef-Masche", bei der Angestellte durch direkten Kontakt zu vermeintlichen Vorgesetzten überrumpelt werden, ist bereits bekannt. Der Vorfall in Hongkong zeigt jedoch auf erschreckende Weise, dass Cyberkriminelle nun in der Lage sind, ganze Online-Meetings zu simulieren.

Die Polizei rät zu erhöhter Wachsamkeit und dazu, Identitäten in Videokonferenzen zu verifizieren und Details auf bekannten Kommunikationskanälen zu hinterfragen. Die Ereignisse in Hongkong unterstreichen die Notwendigkeit, dass Unternehmen ihre Sicherheitsprotokolle überdenken und ihre Angestellten entsprechend schulen, um solchen Betrugsversuchen vorzubeugen.

Dieser Vorfall wirft auch ein Schlaglicht auf die wachsenden Fähigkeiten von KI-Technologien und die potenziellen Risiken, die sie mit sich bringen. Während KI in vielen Bereichen als nützliches Werkzeug gilt, zeigt dieser Betrugsfall, dass die Technologie auch missbraucht werden kann, um Schaden anzurichten.

Für Unternehmen wie Mindverse, die an der Schnittstelle von KI und Inhalten arbeiten, ist es entscheidend, sich dieser dunklen Seite der Technologie bewusst zu sein und gleichzeitig Lösungen zu entwickeln, die Sicherheit und Vertrauen stärken. Mindverse selbst entwickelt als deutsches AI-Unternehmen maßgeschneiderte Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen, Wissenssysteme und vieles mehr, um die Interaktion zwischen Mensch und Maschine zu verbessern und sicherer zu machen.

Quellen:

- Heise Online - "Videokonferenz voller KI-Klone: Angestellter schickt Betrügern 24 Millionen Euro" (https://www.heise.de/news/Videokonferenz-voller-KI-Klone-Angestellter-schickt-Betruegern-24-Millionen-Euro-9618064.html)
- Trojaner-Board - "Videokonferenz voller KI-Klone: Angestellter schickt Betrügern 24 Millionen Euro" (https://www.trojaner-board.de/208340-videokonferenz-voller-ki-klone-angestellter-schickt-betruegern-24-millionen-euro.html)
- Newstral - "Videokonferenz voller KI-Klone: Angestellter schickt Betrügern 24 Millionen Euro" (https://newstral.com/de/article/de/1249255455/videokonferenz-voller-ki-klone-angestellter-schickt-betr%C3%BCgern-24-millionen-euro-videokonferenz-voller-ki-klone-angestellter-schickt-betr%C3%BCgern-24-millionen-euro)
- Golem.de - "KI-Deepfake eines Finanzchefs ermöglicht Millionenbetrug" (https://www.golem.de/news/ki-deepfake-eines-finanzchefs-ermoeglicht-millionenbetrug-2402-181858.html)

Was bedeutet das?
No items found.