BREAKING NEWS & INDEPENDENT MEDIA
Новости которые не раздражают

В TikTok нашли мошеннические дипфейки Тейлор Свифт

Эксперты Copyleaks обнаружили масштабную сеть мошенничества в TikTok с использованием ИИ-голосов знаменитостей. В частности это дипфейки Тейлор Свифт и Рианны.

01.05.2026
17
Автор: Silas Pierce

Современные технологии генеративного искусственного интеллекта стали мощным инструментом в руках киберпреступников, создающих угрозу для безопасности пользователей социальных сетей. Согласно последнему отчету компании Copyleaks, специализирующейся на обнаружении ИИ-контента, в платформе TikTok зафиксирована волна рекламных роликов, использующих дипфейки мировых знаменитостей. Злоумышленники эксплуатируют образы Тейлор Свифт, Рианны и других звезд для продвижения фиктивных программ вознаграждения, нацеленных на кражу персональных данных.

В TikTok нашли мошеннические дипфейки Тейлор Свифт

В TikTok нашли мошеннические дипфейки Тейлор Свифт

Механика обмана: от клонирования голоса до поддельных интерфейсов

Аналитики Copyleaks детально описали схему, которую применяют мошенники. В основе видеороликов лежат подлинные кадры выступлений знаменитостей на красных дорожках, в подкастах или популярных ток-шоу. Однако оригинальный звук заменяется на клонированный голос ИИ, который с высокой точностью имитирует тембр и интонации артистов. Таким образом создается иллюзия того, что селебрити лично рекомендуют пользователям принять участие в схемах быстрого заработка.

В одном из выявленных примеров AI-версия Тейлор Свифт призывает аудиторию зарегистрироваться в несуществующем сервисе «TikTok Pay». Другой ролик демонстрирует поддельную Рианну, которая уверяет зрителей, что для получения выплат «нужно просто смотреть контент и делиться своим мнением». Для усиления психологического эффекта и повышения доверия в видео интегрируется официальная символика TikTok, что маскирует вредоносный характер объявлений под легитимную партнерскую программу соцсети.

Технологические уловки и обход модерации

Несмотря на развитие алгоритмов фильтрации контента, мошенники находят способы обхода защитных систем. Для сокрытия типичных артефактов работы ИИ — таких как рассинхронизация движений губ и неестественное освещение — авторы роликов накладывают поверх видео специфические стилистические фильтры. Это усложняет визуальное распознавание подделки обычными пользователями и автоматизированными инструментами платформы.

При переходе по ссылкам, указанным в описании, жертвы попадают на сторонние фишинговые ресурсы. Основная цель этих сайтов — сбор конфиденциальной информации, включая номера телефонов, адреса электронной почты и, в некоторых случаях, данные банковских карт. Исследование подчеркивает, что синтетические медиаматериалы становятся главным вызовом для модерации в 2024 году.

Ключевые признаки мошеннических дипфейков:

  • Неестественная мимика: резкие переходы и размытость в области рта при разговоре.
  • Специфические фильтры: избыточный шум или зернистость изображения, призванные скрыть огрехи генерации.
  • Обещание легкой выгоды: использование бренда платформы в связке с гарантиями быстрых выплат.
  • Подозрительные ссылки: перенаправление на домены, не имеющие отношения к официальным адресам соцсети.

Анализ рисков: будущее цифровой верификации

Проблема, выявленная экспертами, выходит за рамки простых рекламных махинаций. Это полноценная атака на цифровую репутацию публичных персон и доверие к видеоконтенту в целом. Эксперты в области кибербезопасности отмечают, что текущих мер борьбы с поддельными видео недостаточно. Инцидент с Тейлор Свифт и «TikTok Pay» является лишь вершиной айсберга в индустрии дипфейк-мошенничества.

Для минимизации ущерба специалисты рекомендуют пользователям проявлять критическое мышление: официальные программы вознаграждений никогда не требуют ввода данных на сомнительных внешних площадках. В то же время технологические гиганты вынуждены ускорять разработку методов детектирования синтетического контента на лету, чтобы предотвратить массовую компрометацию данных миллионов подписчиков по всему миру.

Данное расследование Copyleaks служит серьезным предупреждением как для регуляторов, так и для рядовых потребителей контента в условиях стремительного развития нейросетей.



ЕЩЕ В РАЗДЕЛЕ Технологии