Balso deepfake atakos šoko 680%: 3 sekundžių įrašo pakanka tave nukopijuoti
·

3 sekundės. Tiek DI reikia, kad nuklonuotų tavo balsą. Ir paskambintų tavo mamai prašydamas pinigų.
Naujausia ataskaita rodo, kad balso deepfake atakos per metus šoko 680%. Tai ne tolima grėsmė. Tai vyksta dabar.
Kaip tai veikia
Sukčius paima 3 sekundžių tavo balso fragmentą – iš socialinių tinklų video, iš podcast’o, iš telefono pokalbio. DI modelis sukuria tavo balso kopiją. Tada kažkas paskambina tavo šeimos nariui ar kolegai ir kalba tavo balsu.
„Mama, man reikia 5000 eurų, paaiškinsu vėliau.” Ir mama perveda. Nes tai skambėjo kaip tu.
Skaičiai gąsdina
85% organizacijų patyrė bent vieną deepfake incidentą per praėjusius metus. 87% identifikuoja DI pažeidžiamumus kaip greičiausiai augančią kibernetinę riziką. FBI skaičiuoja 893 mln. dolerių nuostolių dėl DI sukčiavimo.
Šiaurės Amerikoje deepfake sukčiavimo nuostoliai viršijo 200 mln. dolerių vien per pirmą ketvirtį. Ir tai tik oficialūs skaičiai – tikri turbūt 3-5 kartus didesni.
Ką daryti
Sukurk šeimos „saugos žodį” – slaptą frazę, kurią žino tik artimieji. Jei gauni skambutį su pinigų prašymu – paprašyk pasakyti tą žodį. Deepfake jo nežinos.
Duomenų apsauga naudojant DI – tema, kuri tampa vis aktualesnė. JINKUSU deepfake jau apgaudinėja kripto KYC sistemas.
Klausimas tau: ar tavo artimieji žinotų, kad tai ne tu?


