Edgar Cervantes / Android Authority
TL;DR
- Ein selbsternannter Neuling hat Berichten zufolge mithilfe von ChaptGPT Data-Mining-Malware erstellt.
- Die Malware soll so raffiniert sein wie Malware auf nationalstaatlicher Ebene.
- Die Erstellung dieser Art von Malware hätte ein Team Wochen gekostet.
Jetzt, da KI-Tools wie Bard und ChatGPT der Öffentlichkeit zur Verfügung stehen, ist es möglicherweise an der Zeit, Fragen zur Sicherheit zu stellen. Besonders jetzt, wo jemand damit ein ausgeklügeltes Malware-Programm erstellt hat, das fast nicht nachweisbar ist.
Entsprechend Digitale Trends, Forcepoint-Sicherheitsforscher Aaron Mulgrew sagt, dass er Zero-Day-Malware nur mit ChatGPT erstellt hat. Während der Chatbot von Open AI über Schutzmechanismen verfügt, die Benutzer normalerweise daran hindern, fand der selbsternannte Neuling eine Lücke.
Anstatt die Malware auf einmal von der Software erstellen zu lassen, ließ Mulgrew die KI Berichten zufolge separate Zeilen mit bösartigem Code schreiben. Sobald der Vorgang abgeschlossen war, konnte Mulgrew die einzelnen Funktionen zu einem einzigen zusammenhängenden Datendiebstahlprogramm kompilieren.
Die fragliche Malware soll sich als Bildschirmschoner-App tarnen, die unter Windows automatisch gestartet wird. Es ist in der Lage, Daten aus Dateien zu entnehmen, sie in kleinere Teile zu zerlegen, die sich in Bildern verstecken, und diese Daten in einen Google Drive-Ordner hochzuladen.
Die Tatsache, dass Mulgrew auf diese Weise Malware erstellen konnte, ist beängstigend genug, aber es kommt noch schlimmer. Berichten zufolge war Mulgrew in der Lage, seinen Code mit ChatGPT so weit zu verfeinern und zu verstärken, dass VirusTotal-Tests ihn nicht mehr erkennen konnten. Es wird auch gesagt, dass es so raffiniert ist wie jede Bedrohung auf nationalstaatlicher Ebene.
Der wirklich beängstigende Teil ist jedoch die Tatsache, dass er dies in wenigen Stunden alleine geschafft hat. Das Erstellen von Malware dieser Stufe wäre normalerweise eine Teamleistung, und die Kompilierung würde wochenlange Arbeit erfordern.
Zum Glück ist die Malware nicht öffentlich verfügbar. Das war nur ein Test, den Mulgrew durchführte. Aber das zeigt, wie gefährlich ChatGPT in den falschen Händen sein kann.