Sokkal meggyőzőbb módszert eszeltek ki az unokázós csalók, legyünk óvatosak

Megosztás

Sajnos a technikai fejlődés mára lehetővé tette, hogy immáron valóban az eljátszani kívánt unoka hangján szólaljanak meg.

A jól ismert unokázós csalások fejlettebb változatára figyelmeztetnek a szakemberek: a csalók a mesterséges intelligenciát is bevethetik a jobb meggyőzés érdekében.

Ki ne ugrana azonnal, ha hírt kap arról, hogy valamilyen rokona, szerette bajban van. Az unokázós csalók ezt kihasználva a nagyszülők szeretetére és hiszékenységére építenek, és bár a módszerük egyre kevésbé hatékony, a mesterséges intelligencia negatív változásokat hozhat ezen a területen.

Az ilyesfajta csalás nem csak Magyarországon divat: a ZDNet egy jelentést idéz, amely szerint 2022-ben több mint 36 ezer amerikait tettek oly módon lóvá, hogy családtagjaikra, barátaikra hivatkoztak, és több mint 11 millió dollárt csaltak ki tőlük.

Sajnos úgy tűnik, a mesterséges intelligencia térhódítása ezt a ténykedést is érintheti: ugyanazokat a technikákat, amelyeket a hasznos nyelvi modellek betanításához használnak, felhasználhatják károsabb programok, például mesterséges intelligencia alapú hanggenerátorok betanításához. Ezen eszközök közül sok másodpercen belül olyan hangokat produkál, amely gyakorlatilag megkülönböztethetetlen az eredeti forrástól. A kiszemelt áldozat ezek után „közvetlenül a szeretett személytől” kap telefonhívást, és eszébe sem jut, hogy valójában egy robottal beszél. (via Hvg)

Kapcsolódó cikkek