Лише 13% коментаторів змогли зрозуміти, що перед ними — відео, створені штучним інтелектом. Натомість майже 40% коментарів — це підтримка, схвальні реакції та репости фейків.
Такими є результати дослідження експертів OpenMinds щодо одного з найпопулярніших в українському YouTube каналів із ШІ-контентом. Аналіз провели після того, як ми звернули увагу на цей канал в одному з попередніх випусків.
Йдеться про YouTube-канал «ЗСУ-2026», який публікує згенеровані нейромережами відео з антиукраїнськими та проросійськими наративами. Канал збирає десятки мільйонів переглядів, досі не заблокований і продовжує масово продукувати маніпулятивний контент.
Менш ніж за три тижні він зібрав 46 тисяч підписників і понад 26 мільйонів переглядів.
На каналі «ЗСУ-2026» є й начебто безневинні відео. Наприклад, кадри влучання безпілотника в танк із триколором або нібито допити полонених «бурятів».
Є й інші ролики: відео, опубліковане днями, вже має майже 4 тисячі лайків і понад 32 тисячі переглядів. І це — ШІ.
Як же відрізнити такі відео від реальних?
Ознака 1. Мова і наголоси.
Одна з найчастіших ознак — неприродна вимова. ШІ часто неправильно ставить наголоси, не розпізнає апостроф, інтонація звучить «пластиково».
Ознака 2. «Ідеальний» голос.
Голоси часто звучать як професійний дубляж: поставлена дикція, рівний тембр, чистий звук без шумів.
У реальному житті люди, які знімають себе телефоном, відвертаються від камери, говорять нерівно, мають фоновий шум, ковтають слова.
У ШІ-відео звук часто надто якісний для «польових умов».
Ознака 3. Кінематографічність.
Багато роликів змонтовані як уривки з фільму: загальний план, крупний план, інша камера, драматичні склейки.
Для «випадкового» запису з телефону це виглядає надто професійно.
Ознака 4. Надмірна емоційність.
Такі відео б’ють у болючі точки: військові проти політиків, «зрада», корупція, мобілізація, втрати.
Вони не інформують — вони провокують емоцію.
Ознака 5. Платформна позначка.
YouTube уже вимагає маркувати контент із ШІ. Але більшість користувачів не звертає уваги на маленьку сіру позначку в кутку.
Для чого продукують ці відео?
Щоб завоювати довіру аудиторії. Пряма пропаганда вже не спрацьовує — її легко розпізнати. Тому поряд із маніпулятивними роликами публікують «патріотичні» або емоційні відео, які викликають співчуття.
Люди підписуються й лайкають, бо їм здається, що так вони підтримують військових. Але більшість контенту на таких каналах — провокативний, із антиукраїнськими та проросійськими наративами. Часто це ролики з нібито ветеранами, які «приходять у раду» і кричать на депутатів — усе побудовано на сильних емоціях.
Такі відео поширюють російський наратив про розлам між військовими та політиками, каже кандидатка соціологічних наук і керівниця відділу дослідження дезінформації Open Minds Юлія Дукач.
В Open Minds аналізували не лише спосіб створення роликів, а й реакцію аудиторії. З 18 500 коментарів майже половина — це підтримка і подяка «військовим». Лише близько 10% користувачів писали, що це фейк, і такі коментарі губилися внизу. Найпопулярнішими ставали емоційні реакції, які підживлюють теми корупції та мобілізації.
Дослідники з’ясували, що більшість коментаторів — реальні користувачі, не боти. І навіть маркування від платформи не зупиняє поширення.
«Уже найближчим часом відрізнити згенероване відео “на око” буде майже неможливо. Якість ШІ стрімко зростає. А головний інструмент таких роликів — гра на емоціях: що більше обурення чи співчуття, то активніше алгоритми просувають контент», — каже Юлія Дукач.
Інші подібні сторінки та групи
«Наприклад, сітка «Правда окопів» – є і в фейсбуці, і в інстаграмі, і в тіктоці. Увесь їхній контент створено нейромережами, несправжні вояки просувають меседжі «нема, за що воювати» або «треба здаватися».
Вкиди спрямовані не лише на фронт, а й на тил. Наприклад, сторінка «Щоденник ухилянта» з десятками тисяч підписників просуває меседж: «захищати нема кого, треба виїжджати».
У розділі «Інформація про сторінку» видно, що її нещодавно перейменували. Створена вона профілем на ім’я Лідія Худошина. Фактчекери проєкту «Ноти єнота» з’ясували: фото цього акаунта — крадене в реальної жінки з Кременчука і використане для фейкового профілю.
Як екологічно говорити з людьми, які поширюють фейки
«Коли близькі поширюють контент, створений штучним інтелектом, дуже хочеться викрити або висміяти. Але це майже гарантовано призведе до конфлікту. Людина поширює не просто відео — вона поширює емоцію. Якщо цю емоцію знецінити, психіка закривається.
Тому варто починати з визнання: “Бачу, що тебе це зачепило”. Це не означає погоджуватися, це означає не нападати», — пояснює психотерапевтка Надія Терещенко.
«Уявіть: людина закохана, з метеликами в животі. І раптом їй кажуть: “Та це не та людина, тобою маніпулюють”. Реакція — захист і конфлікт. Не тому, що аргументи слабкі, а тому, що знецінили важливі почуття.
З контентом штучного інтелекту так само. Це не просто відео — воно викликало страх, гнів чи співчуття. Коли людина поширює його, вона показує: для неї це важливо. І якщо у відповідь чує: “Як можна не бачити, що це ШІ, тобою маніпулюють”, — психіка просто закривається».
З розвитком технологій скоро відрізнити згенерований контент «на око» буде майже неможливо. Існують сервіси, які перевіряють фото, відео і тексти на наявність ШІ.
Тому важлива не лише технічна перевірка, а й критичність. Бо сьогодні штучний інтелект — це не просто технологія. Це інструмент, який формує те, що ми вважаємо реальністю.