Предупредување: Милиони луѓе би можеле да бидат жртви на финансиска измама

549

Милиони луѓе би можеле да станат жртви на измами кои користат вештачка интелигенција за клонирање на нивниот глас, предупреди една британска банка.

Старлинг банка, онлајн заемодавач, вели дека измамниците можат да користат вештачка интелигенција за да го реплицираат гласот на една личност од само три секунди аудио содржани, на пример, во видеото кое лицето го објавило на интернет.

Измамниците потоа можат да ги идентификуваат пријателите и членовите на семејството на лицето и да го користат гласот клониран со вештачка интелигенција за да направат телефонски повик барајќи пари, според Си-Ен-Ен.

Овие типови на измами имаат потенцијал да „заробат милиони“, се вели во соопштението за медиумите во средата.

Стотици веќе се погодени
Според истражувањето на повеќе од 3.000 возрасни лица спроведено од банката со Mortar Research минатиот месец, повеќе од една четвртина од испитаниците изјавиле дека биле цел на измама за клонирање глас со вештачка интелигенција во изминатите 12 месеци.

Истражувањето исто така покажа дека 46% од испитаниците не биле свесни дека постојат такви измами и дека 8% би испратиле пари колку што побарал пријател или член на семејството, дури и ако мислат дека повикот е чуден.

„Луѓето редовно објавуваат содржини на интернет на кои има снимки од нивниот глас, без да сфатат дека тоа ги прави поранливи на измамниците“, рече во соопштението за печатот Лиза Греам, директор за безбедност на информации во банката Старлинг.

Банката ги охрабрува луѓето да се договорат со своите најблиски за „безбедна фраза“ – едноставна, случајна фраза која лесно се памети и се разликува од другите лозинки – која може да се користи за да се потврди нивниот идентитет преку телефон.

Се советува да не се споделува лозинката преку пораки, што би можело да им олесни на измамниците да дознаат, но доколку се сподели на овој начин, пораката треба да се избрише кога другата личност ќе ја види.

Како што вештачката интелигенција станува повешта за имитација на човечки гласови, расте загриженоста за нејзиниот потенцијал да им наштети на луѓето, на пример помагајќи им на криминалците да пристапат до нивните банкарски сметки и да шират дезинформации.

Претходно оваа година, OpenAI, производител на генеративниот чат-бот со вештачка интелигенција ChatGPT, ја претстави својата алатка за репликација на гласот Voice Engine, но не ја направи достапна за јавноста во таа фаза, наведувајќи го „потенцијалот за синтетичка злоупотреба на гласот“.