🚨 Новый тренд в мошенничестве: “Персонализированные атаки с использованием ИИ”
Мошенники начали активно использовать ИИ для создания сверхправдоподобных атак. Вот, что нужно знать:
🔍 Голосовые обманы: ИИ способен скопировать голос близкого человека. Вам могут позвонить “родственники” с просьбой о срочном переводе денег.
🔍 Фейковые видеозвонки: Видео с “вашим другом” — это дипфейк.
🔍 Инфовбросы с эмоциями: Вирусные посты с “сенсацией” для массовой паники или дискредитации.
‼️ Всегда проверяйте информацию по другим каналам и не спешите переводить деньги даже “близким”. Безопасность — в бдительности!
#БудьтеБдительны
Мошенники начали активно использовать ИИ для создания сверхправдоподобных атак. Вот, что нужно знать:
🔍 Голосовые обманы: ИИ способен скопировать голос близкого человека. Вам могут позвонить “родственники” с просьбой о срочном переводе денег.
🔍 Фейковые видеозвонки: Видео с “вашим другом” — это дипфейк.
🔍 Инфовбросы с эмоциями: Вирусные посты с “сенсацией” для массовой паники или дискредитации.
‼️ Всегда проверяйте информацию по другим каналам и не спешите переводить деньги даже “близким”. Безопасность — в бдительности!
#БудьтеБдительны