AI-генерирани „фенове“ на Тръмп заливат платформите преди междинните избори в САЩ

France 24 EnglishДата на източника: 10.05.2026 г., 4:19
Хиперреалистични AI аватари, представяни най-често като млади, предимно руси жени в бански или военни униформи, публикуват съдържание в подкрепа на президента на САЩ Доналд Тръмп и критикуват негови съперници, съобщава France 24, позовавайки се на AFP. В клипове в TikTok и Instagram аватарите повтарят лозунги като „America First“ и MAGA послания по теми като имиграцията, като приканват потребителите да коментират и да ги последват. Не е ясно кой стои зад тези акаунти и дали са част от координирана операция за влияние преди изборите през ноември, които ще определят дали републиканците ще запазят контрола над Конгреса. По-рано тази година самият Тръмп е публикувал в Truth Social видео с платиненоруса AI фигура, която разпространява недоказани корупционни твърдения срещу губернатора на Калифорния Гавин Нюсъм. Американски медии са засекли стотици AI-генерирани про-Тръмп „инфлуенсъри“ в TikTok, Instagram и Facebook, включително образи на „агенти по имиграцията“ и „войници“, коментиращи абортите и конфликта с Иран. Governance and Responsible AI Lab (GRAIL) в Purdue University също проследява подобни профили. Според Andrew Yoon от CivAI, съдържанието става все по-трудно за разпознаване, а персонализираната манипулация може да нараства. Един Instagram профил с „синтетичен войник“ е събрал близо 1 милион последователи, преди да бъде спрян. Паралелно съществуват и анти-Тръмп AI акаунти. Изследователи предупреждават за риск от deepfake манипулации около избори. Някои про-Тръмп профили насочват аудитория към търговски продукти, включително MAGA арт до 500 долара; според Daniel Schiff (Purdue/GRAIL) при част от тях водещ мотив е „финансова печалба“.
warconflictfar rightiranisraellebanonukrainerussiamilitaryarmydronestrikestrikeskilledattackattackshormuzelectionelections
Прочети оригинала
Тази публикация е част от автоматизирания новинарски мониторинг на БАС Лозенец. RSS лента
← Всички новини