Уральцев предупредили о мошенничестве с использованием ИИ

Эксперт по кибербезопасности рассказал, как искусственный интеллект применяют для кражи личной информации и финансовых средств.
22 февраля, 2026, 03:40
9
Бесплатные чат-боты часто обладают слабой защитой и представляют особую угрозу для пользователей.
Источник:

Наталья Лапцевич / 74.RU

В России распространяется новый вид мошенничества, в котором злоумышленники активно задействуют искусственный интеллект. ИИ используется на всех этапах кибератаки — от первого контакта с жертвой до создания вредоносного программного обеспечения.
При использовании ИИ-сервисов важно обращать внимание на пользовательское соглашение, где описан порядок обработки данных.
Источник:

Наталья Лапцевич / 74.RU

Об этом E1.RU сообщил Владислав Тушканов, руководитель группы исследований технологий машинного обучения «Лаборатории Касперского».
«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — отметил Владислав Тушканов.
Серьёзную угрозу представляют дипфейки — сгенерированные нейросетями поддельные видео- или аудиозаписи. Мошенники применяют их для похищения персональных данных и денег пользователей.
Риски связаны не только с действиями преступников, но и с использованием ИИ-сервисов обычными людьми. Даже на официальных платформах возможны утечки конфиденциальной информации.
«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».
«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.
Следует помнить, что любые данные, введённые в чат-бот, теоретически могут применяться провайдером сервиса — например, для обучения и улучшения алгоритмов.
«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»
Не рекомендуется передавать чат-ботам конфиденциальные корпоративные сведения, так как из-за возможных утечек они способны стать публичными.
Для снижения рисков эксперты советуют придерживаться нескольких базовых правил кибербезопасности:
  • Активировать двухфакторную аутентификацию везде, где это предусмотрено.
  • Избегать переходов по подозрительным ссылкам в сообщениях.
  • Применять уникальные сложные пароли и использовать менеджеры паролей.
  • При получении аудио- или видеосообщений, особенно касающихся финансов, удостоверяться в личности отправителя.
В качестве примеров дипфейков можно привести фальшивые видеоролики с мэром Екатеринбурга Алексеем Орловым и губернатором Свердловской области Денисом Паслером.
Читайте также