В РФ наблюдается тревожная тенденция использования нейросетевых двойников в мошеннических схемах. Член Комитета Госдумы по информационной политике и федеральный координатор партийного проекта «Цифровая Российская Федерация » Антон Немкин рассказал Life.ru, что современные ИИ-инструменты способны воспроизводить внешность, мимику и голос конкретного человека, что открывает злоумышленникам возможность создавать правдоподобные видеообращения от имени известных личностей или даже близких.
Использование нейросетевых двойников в мошеннических схемах — это одна из наиболее тревожных тенденций в цифровой среде. Одна из распространённых схем включает отправку видео якобы от известных людей, который убеждает пользователей перейти по ссылке и ввести личные данные. Люди верят увиденному, поскольку картинка и голос кажутся абсолютно достоверными. Это новейшая форма социальной инженерии, подкреплённая технологиями.
Антон Немкин.
Член Комитета Госдумы по информационной политике, общефедеральный координатор партийного проекта «Цифровая Российская Федерация » Антон Немкин.
Комментируя способы распознавания дипфейков, Немкин подчеркнул, что, хотя вычислить подделку возможно, пользователи должны быть внимательными.
«В режиме живого видеозвонка стоит задать простые вопросы или попросить выполнить несложные действия: поднять руку, повернуть голову, назвать текущее время. Такие сигналы нейросеть пока воспроизвести в реальном времени не может», — объяснил он.
Немкин также посоветовал пользователям не доверять никаким ссылкам и видео с просьбой о срочных действиях, а лучше перепроверять информацию и повышать свою цифровую грамотность, что поможет снизить риски.
Ранее Life.ru писал, что мошенники научились взламывать «Госуслуги» россиян от лица военкомата. Злоумышленники используют реестр электронных повесток для обмана людей.