Betrüger verwenden KI-Stimmen, um Millionen zu stehlen, indem sie sich als geliebte Menschen ausgeben


TL;DR

  • KI-Spracherzeugungssoftware ermöglicht es Betrügern, die Stimme geliebter Menschen nachzuahmen.
  • Diese Nachahmungen haben dazu geführt, dass Menschen im Jahr 2022 telefonisch um 11 Millionen Dollar betrogen wurden.
  • Ältere Menschen machen einen Großteil der Zielpersonen aus.

KI ist seit einiger Zeit ein zentrales Thema in der tech-Welt, da Microsoft seine Produkte weiterhin mit ChatGPT anreichert und Google versucht, mit der Einführung seiner eigenen KI-Produkte Schritt zu halten. Während KI das Potenzial hat, einige wirklich beeindruckende Dinge zu tun – wie das Generieren von Bildern auf der Grundlage einer einzelnen Textzeile – beginnen wir, mehr von den Nachteilen der kaum regulierten Technologie zu sehen. Das neueste Beispiel dafür sind KI-Sprachgeneratoren, die verwendet werden, um Menschen um ihr Geld zu betrügen.

KI-Spracherzeugungssoftware hat in letzter Zeit viele Schlagzeilen gemacht, hauptsächlich wegen des Diebstahls der Stimmen von Synchronsprechern. Zunächst waren nur wenige Sätze erforderlich, damit die Software den Klang und Ton des Lautsprechers überzeugend wiedergab. Die Technologie hat sich seitdem so weit entwickelt, dass nur wenige Sekunden Dialog ausreichen, um jemanden genau nachzuahmen.

In einem neuen Bericht von Die Washington Post, behaupten Tausende von Opfern, dass sie von Betrügern hinters Licht geführt wurden, die vorgaben, geliebte Menschen zu sein. Berichten zufolge sind Hochstaplerbetrügereien mit über 36.000 eingereichten Fällen im Jahr 2022 zur zweitbeliebtesten Betrugsart in Amerika geworden. Von diesen 36.000 Fällen wurden über 5.000 Opfer per Telefon um ihr Geld betrogen, was laut FTC-Beamten einen Gesamtverlust von 11 Millionen US-Dollar bedeutet .

Eine herausragende Geschichte handelte von einem älteren Ehepaar, das über 15.000 Dollar über ein Bitcoin-Terminal an einen Betrüger schickte, nachdem es glaubte, mit seinem Sohn gesprochen zu haben. Die KI-Stimme hatte das Paar davon überzeugt, dass ihr Sohn in rechtlichen Schwierigkeiten steckte, nachdem er einen US-Diplomaten bei einem Autounfall getötet hatte.

Wie bei den Opfern in der Geschichte scheinen diese Angriffe hauptsächlich auf ältere Menschen abzuzielen. Dies ist keine Überraschung, da ältere Menschen zu den am stärksten gefährdeten Personen gehören, wenn es um Finanzbetrug geht. Leider haben die Gerichte noch keine Entscheidung darüber getroffen, ob Unternehmen für Schäden haftbar gemacht werden können, die durch KI-Sprachgeneratoren oder andere Formen der KI-Technologie verursacht werden.

Techquell

Schreibe einen Kommentar