Тексти

На кого працює штучний інтелект у соцмережах і як його виявляти

today17.02.2026 о 16:02

Тло

Лише 13% коментаторів змогли зрозуміти, що перед ними — відео, створені штучним інтелектом. Натомість майже 40% коментарів — це підтримка, схвальні реакції та репости фейків.

Такими є результати дослідження експертів OpenMinds щодо одного з найпопулярніших в українському YouTube каналів із ШІ-контентом. Аналіз провели після того, як ми звернули увагу на цей канал в одному з попередніх випусків.

Йдеться про YouTube-канал «ЗСУ-2026», який публікує згенеровані нейромережами відео з антиукраїнськими та проросійськими наративами. Канал збирає десятки мільйонів переглядів, досі не заблокований і продовжує масово продукувати маніпулятивний контент.

Менш ніж за три тижні він зібрав 46 тисяч підписників і понад 26 мільйонів переглядів.

На каналі «ЗСУ-2026» є й начебто безневинні відео. Наприклад, кадри влучання безпілотника в танк із триколором або нібито допити полонених «бурятів».

Є й інші ролики: відео, опубліковане днями, вже має майже 4 тисячі лайків і понад 32 тисячі переглядів. І це — ШІ.

Як же відрізнити такі відео від реальних?

Ознака 1. Мова і наголоси.

Одна з найчастіших ознак — неприродна вимова. ШІ часто неправильно ставить наголоси, не розпізнає апостроф, інтонація звучить «пластиково».

Ознака 2. «Ідеальний» голос.

Голоси часто звучать як професійний дубляж: поставлена дикція, рівний тембр, чистий звук без шумів.

У реальному житті люди, які знімають себе телефоном, відвертаються від камери, говорять нерівно, мають фоновий шум, ковтають слова.

У ШІ-відео звук часто надто якісний для «польових умов».

Ознака 3. Кінематографічність.

Багато роликів змонтовані як уривки з фільму: загальний план, крупний план, інша камера, драматичні склейки.

Для «випадкового» запису з телефону це виглядає надто професійно.

Ознака 4. Надмірна емоційність.

Такі відео б’ють у болючі точки: військові проти політиків, «зрада», корупція, мобілізація, втрати.

Вони не інформують — вони провокують емоцію.

Ознака 5. Платформна позначка.

YouTube уже вимагає маркувати контент із ШІ. Але більшість користувачів не звертає уваги на маленьку сіру позначку в кутку.

Для чого продукують ці відео?

Щоб завоювати довіру аудиторії. Пряма пропаганда вже не спрацьовує — її легко розпізнати. Тому поряд із маніпулятивними роликами публікують «патріотичні» або емоційні відео, які викликають співчуття.

Люди підписуються й лайкають, бо їм здається, що так вони підтримують військових. Але більшість контенту на таких каналах — провокативний, із антиукраїнськими та проросійськими наративами. Часто це ролики з нібито ветеранами, які «приходять у раду» і кричать на депутатів — усе побудовано на сильних емоціях.

Такі відео поширюють російський наратив про розлам між військовими та політиками, каже кандидатка соціологічних наук і керівниця відділу дослідження дезінформації Open Minds Юлія Дукач.

В Open Minds аналізували не лише спосіб створення роликів, а й реакцію аудиторії. З 18 500 коментарів майже половина — це підтримка і подяка «військовим». Лише близько 10% користувачів писали, що це фейк, і такі коментарі губилися внизу. Найпопулярнішими ставали емоційні реакції, які підживлюють теми корупції та мобілізації.

Дослідники з’ясували, що більшість коментаторів — реальні користувачі, не боти. І навіть маркування від платформи не зупиняє поширення.

«Уже найближчим часом відрізнити згенероване відео “на око” буде майже неможливо. Якість ШІ стрімко зростає. А головний інструмент таких роликів — гра на емоціях: що більше обурення чи співчуття, то активніше алгоритми просувають контент», — каже Юлія Дукач.

Інші подібні сторінки та групи

«Наприклад, сітка «Правда окопів» – є і в фейсбуці, і в інстаграмі, і в тіктоці. Увесь їхній контент створено нейромережами, несправжні вояки просувають меседжі «нема, за що воювати» або «треба здаватися».

Вкиди спрямовані не лише на фронт, а й на тил. Наприклад, сторінка «Щоденник ухилянта» з десятками тисяч підписників просуває меседж: «захищати нема кого, треба виїжджати».

У розділі «Інформація про сторінку» видно, що її нещодавно перейменували. Створена вона профілем на ім’я Лідія Худошина. Фактчекери проєкту «Ноти єнота» з’ясували: фото цього акаунта — крадене в реальної жінки з Кременчука і використане для фейкового профілю.

Як екологічно говорити з людьми, які поширюють фейки

«Коли близькі поширюють контент, створений штучним інтелектом, дуже хочеться викрити або висміяти. Але це майже гарантовано призведе до конфлікту. Людина поширює не просто відео — вона поширює емоцію. Якщо цю емоцію знецінити, психіка закривається.

Тому варто починати з визнання: “Бачу, що тебе це зачепило”. Це не означає погоджуватися, це означає не нападати», — пояснює психотерапевтка Надія Терещенко.

«Уявіть: людина закохана, з метеликами в животі. І раптом їй кажуть: “Та це не та людина, тобою маніпулюють”. Реакція — захист і конфлікт. Не тому, що аргументи слабкі, а тому, що знецінили важливі почуття.

З контентом штучного інтелекту так само. Це не просто відео — воно викликало страх, гнів чи співчуття. Коли людина поширює його, вона показує: для неї це важливо. І якщо у відповідь чує: “Як можна не бачити, що це ШІ, тобою маніпулюють”, — психіка просто закривається».

З розвитком технологій скоро відрізнити згенерований контент «на око» буде майже неможливо. Існують сервіси, які перевіряють фото, відео і тексти на наявність ШІ.

Тому важлива не лише технічна перевірка, а й критичність. Бо сьогодні штучний інтелект — це не просто технологія. Це інструмент, який формує те, що ми вважаємо реальністю.

0%