Студенти-журналісти ХДУ дослідили безпечне та етичне використання штучного інтелекту в медіа

8 грудня 2025 р.

4 грудня здобувачі освіти спеціальності «Журналістика» долучилися до вебінару «Штучний інтелект в роботі медіа: дата-журналістика, політики редакції та безпека».

Захід відбувся за ініціативи ГО «Жінки в медіа» у співпраці з Національною радою України з питань телебачення і радіомовлення, у партнерстві з ЮНЕСКО та за підтримки народу Японії.

Зі вступним словом до учасників звернулися поважні спікери, серед яких керівниця Офісу ЮНЕСКО в Україні К’яра Децці Бардескі, Урядова уповноважена з питань гендерної політики Катерина Левченко, голова Нацради з питань телебачення і радіомовлення Ольга Герасим’юк та голова ГО «Жінки в медіа» Ліза Кузьменко. Вони акцентували на важливості етичного використання новітніх технологій та гендерній чутливості у цифровому просторі.

Значну увагу під час дискусії було приділено темі дезінформації та автоматизованого впливу на громадську думку. Керівниця досліджень дезінформації в OpenMinds Юлія Дукач представила доповідь про алгоритми ненависті та роль ботів у зміні тону онлайн-дискусій.

«Ми спостерігаємо, як теорія "мертвого інтернету" стає дедалі реалістичнішою. Вперше в історії боти становлять більшість інтернет-трафіку, а в новинній індустрії на "поганих ботів" припадає майже третина трафіку, а їхня активність за останні десять років зросла більш ніж удвічі», - зазначила експертка.

Також спікерка підкреслила небезпеку використання великих мовних моделей для генерації коментарів, які адаптуються до контексту та просувають ворожі наративи, зокрема критику української влади та дискредитацію західних партнерів.

Юридичні та етичні аспекти впровадження ШІ у роботу редакцій висвітлила старша юристка Лабораторії цифрової безпеки Тетяна Авдєєва. Вона наголосила на необхідності розробки кожним медіа власної політики використання штучного інтелекту, яка має базуватися на принципах прозорості, відповідальності та фахового людського нагляду.

«Коли редакція вирішує використовувати штучний інтелект, ключовим є розробка внутрішньої політики. Необхідно чітко визначити "червоні лінії" — що генерувати категорично не можна, а також розробити уніфіковану систему маркування такого контенту», - зауважила спікерка.

Важливим аспектом, на думку юристки, є призначення відповідальної особи, яка адмініструватиме процеси використання ШІ та здійснюватиме нагляд за етичністю, адже у всесвіті відповідальності найбільше страждає саме репутація медіа.

Практичний кейс використання дата-журналістики для викриття фейків продемонстрував дата-аналітик видання Texty.org.ua Сергій Міхальков. Він розповів про масштабне дослідження того, як штучний інтелект та TikTok використовуються для створення фальшивих образів відомих українських медійників.

«Творці фейкового контенту часто експлуатують образи медійних персон, тому що вони асоціюються з довірою. Ми виявили сотні відео у TikTok, де згенеровані ШІ голоси та обличчя телеведучих просувають сумнівні петиції або антиукраїнські наративи. Ці ролики набирають мільйони переглядів, адже знайомі обличчя привертають увагу», - підкреслив експерт.


Додатково спікер детально пояснив методологію виявлення діпфейків, зазначивши, що важливо звертати увагу на неприродну міміку та артикуляцію, щоб не стати жертвою маніпуляцій.

Автори — студенти IV курсу спеціальності “Журналістика” Сипко Олександр та Костик Валерія

Херсонський державний університет