Интеллектуальный мегаполис
Информационная безопасность
Нейросети на службе мошенников 05.02.2025 Как отмечалось ранее, современным нейросетям не составляет сложности найти информацию о пользователе в открытых источниках, далее составить и отправить ему, например, персонализированное спам-сообщение. К сожалению, на этом список возможных проблем лишь начинается… Помимо текста, нейросети злоумышленников способны генерировать изображения, аудио и даже видео, зачастую превращая их в «дипфейки» («deepfake» от deep learning «глубинное обучение» + fake «подделка»). Например, бухгалтер может получить скан несуществующего приказа «директора» с подписью и печатью, требующего срочно перевести средства организации на указанный (мошеннический) счёт. Обычные пользователи могут получить поддельные фотографии своих близких и друзей, якобы попавших в беду и просящих оказать помощь и т.д. Не менее опасными могут оказаться аудиосообщения, созданные при помощи технологии синтеза голоса. Пользователь может потерять всякую бдительность, услышав голос близкого человека даже при звонке с неизвестного номера, а существующие программы-фильтры способны искажать голос собеседника даже в режиме реального времени! К сожалению, нейросети способны обучиться голосу жертвы буквально по нескольким фразам, образцы которых они могут получить как при спам-звонке, так и из открытых источников (например, со страницы социальной сети потенциальной жертвы). Разумеется, цели мошенников остаются прежними: так или иначе они стараются получить доступ к деньгам или к конфиденциальной информации пользователя. Необходимо проявлять бдительность, не верить сообщениям, передаваемым по каналам связи и в случае сомнений прерывать общение, пробуя связаться с собеседником альтернативным способом. |