Уже за пів року ми можемо не відрізнити згенероване відео чи фото від справжнього. Новий сезон програми Public Talk ми починаємо з теми про те, що стало одним із головних інструментів дезінформації: штучний інтелект.
Сьогодні розглядаємо найяскравіші свіжі кейси й аналізуємо, як росія використовує цей інструмент проти України.
Кейс Романа Грибова
Роман Грибов — військовослужбовець із майже 100 тисячами підписників. Йому часто приписують авторство фрази про «русскій воєнний корабель», хоча це неправда. Державна прикордонна служба України офіційно пояснювала: авторство свідомо приписали Грибову, щоб не наражати на небезпеку справжнього автора, який тоді перебував у полоні.
Попри це Грибов отримав значну аудиторію і набув відповідного авторитету. Він публічно позиціонує себе як автор фрази й дає інтерв’ю про це.
Після трагедії у центрі Харкова другого січня, коли загинуло семеро людей, серед них — трирічний хлопчик і його 22-річна мати, Роман Грибов опублікував допис з очевидно згенерованим зображенням.
Пост набрав майже 15 тисяч уподобань.
І зображення, і текст — згенеровано. Такої історії не було. У Харкові батько не виносив дитини з авто, і їх не накривало в машині. Дитина була з матір’ю у квартирі, і їх так і знайшли під завалами.
Роман Грибов не вперше розміщує згенеровані картинки, але на десятки зауважень у коментарях, що це ШІ, не реагує. Часто українці поширюють такі фейки, не маючи злих намірів і лише не в змозі протистояти емоціям, а втім, як наслідок, грають на руку ворогові.
Якщо раніше ми могли сказати: «Це опублікувала авторитетна людина», «це опублікував військовослужбовець», то сьогодні така логіка більше не працює. Наприклад, Борис Ґудзяк, митрополит Української греко-католицької церкви, нещодавно перепостив класичну фейкову історію: нібито полонений — виснажений і худий, а на другому фото — той самий чоловік із дружиною, уже здоровий.
Обидва зображення, очевидно, згенеровано.
Незалежно від посади, освіти чи статусу автора публікації ми тепер не можемо автоматично довіряти всьому, що бачимо в стрічці соцмереж. Відповідальність за інформаційне поле тепер лежить на кожному з нас.
Як це працює
Такий контент часто публікують заради охоплень. Він викликає сильні емоції: співчуття, гнів, біль. Люди реагують уподобаннями й поширеннями.
Намальовані діти регулярно з’являються в українських соцмережах після кожної гучної трагедії.
Одна зі схем має такий вигляд: спершу публікують згенеровану картинку з нібито загиблою дитиною. Коли допис набирає десятки тисяч уподобань і поширень, картинку й текст змінюють — і ваш лайк уже стоїть під релігійними або сектантськими закликами.
Інший варіант — банальний збір охоплень для подальшого продажу реклами. Адміни таких фейсбук- і телеграм-помийок торгують людськими емоціями.
Поставте себе на місце близьких постраждалих і загиблих. Що вони мають відчувати, дивлячись на вигадані зображення і текст про те, чого ніколи не було? Нам і так не бракує справжнього горя, щоб тиснути на емоції ще й несправжнім намальованим горем.
Як це використовує росія
Поширення згенерованого контенту дає росії черговий аргумент: мовляв, українці брешуть, а отже брешуть і про Бучу, і про Маріуполь тощо.
Через такі фейки легко втратити й довіру західних партнерів, громадян ЄС і США, позиція яких впливає на підтримку України.
Керівниця відділу дослідження дезінформації OpenMinds та експертка з аналізу цифрових даних Юлія Дукач зазначає, що створення згенерованих відео стало для росії системною і постійною інформаційною операцією.
За її словами, уже найближчим часом ми майже не зможемо відрізнити згенероване відео від справжнього: рухи людей, тло й деталі стають щоразу реалістичнішими, а типові помилки швидко зникають.
Водночас головний вплив може відбуватися не стільки через самі відео, скільки через коментарі під ними.
росія використовує мережі фейкових акаунтів, які масово вподобують, поширюють контент і залишають радикальні або провокативні коментарі, створюючи ілюзію «народної реакції».
Це не окремі фейки, а ціла екосистема: емоційні теми, згенерований контент і кероване просування за допомогою ботів та штучного інтелекту.
За дослідженням Kapwing, з 15 тисяч найпопулярніших ютуб-каналів майже 2 % повністю складаються із ШІ-відео.
Заступник директорки Центру демократії та верховенства права й головний експерт із медійного права та модерації контенту в соцмережах Ігор Розкладай пояснює:
«Ці згенеровані військовослужбовці говорять, наприклад, що війна вигідна політикам, тому вона не закінчується. Це абсолютно той наратив, який нині потрібен росії. Бо росія має шалені економічні проблеми і, звісно, сьогодні вона, як ніхто, зацікавлена в ухваленні мирної угоди, яка, очевидно, не вигідна нам. Тобто росія, не маючи успіхів на міжнародній арені, удається до класичної формули ще часів Римської імперії: розділяй і володарюй. Вони намагаються накручувати населення, щоб люди збунтувалися, пішли до влади й вимагали мирної угоди.
Це не говорить про те, що в нас немає проблем. У нас є і корупційні скандали, і все решта, але ми завжди маємо чітко розуміти, що є наші внутрішні справи, а є те, що ворог намагається підсилити, щоб перемагати не тільки на полі бою, але й особливо в когнітивному сенсі, в інформаційному просторі, розхитуючи суспільство. На жаль, у деяких сферах їм це вдається».
Штучний інтелект не є абсолютним злом. Це потужний інструмент для будь-якої професії.
Але коли його використовують у війні або коли згенерований контент видають за реальні новини, він стає зброєю.
Уперше в історії інтернету у 2024 році активність ботів перевищила людську: штучний інтелект коментував і взаємодіяв більше, ніж живі люди.
Слухайте інтерв’ю повністю у програмі Public Talk на Радіо «Накипіло».
Як доєднатися до Спільноти «Накипіло»