Центр протидії дезінформації: практика імплементації

Центр протидії дезінформації: практика імплементації

8 Березня 2021
4997
8 Березня 2021
12:30

Центр протидії дезінформації: практика імплементації

Дмитро Золотухін
Медіаексперт, виконавчий директор громадської організації «Інститут постінформаційного суспільства»
4997
Детекція загроз за допомогою ключових слів - не працює з двох головних причин: по-перше, ми не завжди точно знаємо, що саме шукаємо; по-друге, інформаційного сміття настільки багато, що ми загрузнемо і потонемо в ньому. Щоб подолати цю проблему, існує два можливих шляхи.
Центр протидії дезінформації: практика імплементації
Центр протидії дезінформації: практика імплементації

Нещодавно я запропонував на сторінках “Детектор.Медіа” своє бачення того, як має працювати “Центр протидії дезінформації”. Артем Біденко доповнив його практичними пропозиціями у сфері автоматизації роботи такої установи, зокрема у сфері, яка має назву computational propaganda.

Через великий обсяг теми, важко донести усі нюанси в одному матеріалі. Тому ми продовжуємо обговорення деталей. Необхідні напрацювання вже давно створені. Однак, їх імплементація залишає бажати кращого.

В чому вимірюється протидія дезінформації?

У квітні 2019 року, коли Володимир Зеленський вже святкував перемогу у президентських перегонах, нами, у Міністерстві інформаційної політики, було фіналізовано пропозиції урядового документу, який носив назву “Концепція інтегрованої системи оцінки інформаційних загроз та реагування на них”. Ця Концепція мала бути затверджена Кабінетом Міністрів України та стати надійним фундаментом для функціонування системи кризових комунікацій в урядовій сфері.

Нагадаю, що єдиною і дуже простою метою функціонування системи кризових комунікацій на державному рівні є скорочення часу, який минає від моменту настання кризового явища (в тому числі і масового поширення фейкової інформації, яка може загрожувати урядовим планам), до моменту, коли урядові структури виходять в український інформаційний простір зі своєю реакцією чи комунікацією, яка представляє точки зору держави.

Ще раз простими словами: щоб ефективно протидіяти дезінформації, потрібно, щоб між поширенням фейку і оприлюдненням позиції держави пройшло якомога менше часу. Заміри, які я проводив самотужки влітку 2014 року, у розпалі інформаційної війни, показували час реагування на рівні 7-9 годин. Вже у жовтні 2018 року, коли відбулися вибухи на складах боєприпасів у Ічні, цей проміжок часу скоротився до 3-ох годин. О 3-ій годині ночі стало відомо про надзвичайну ситуацію, а вже о 6-ій ранку спікери Генерального Штабу ЗСУ готові були говорити в ранкових ефірах телеканалів (щоправда, не усі телеканали цим користувалися).

Таким чином, ідеальним показником роботи системи протидії дезінформації можна вважати 90-хвилинний проміжок (gap) між поширенням фейку і реагуванням на нього. Звичайно, такий показник є цілком віртуальною величиною, оскільки не завжди зрозуміло, в який саме момент потрібно вмикати секундомір? Однак, з філософської точки зору, саме час є найголовнішим ресурсом у протистоянні інформаційним атакам. Все буде залежати від того, хто перший зможе зайняти місце у свідомості споживача інформації зі своїми меседжами.

Система раннього попередження

У грудні 2018 року в Європейському Парламенті був представлений План дій щодо протидії дезінформації (Action Plan against Disinformation (JOIN(2018)0036). Однією з ключових частин цього плану була Система раннього попередження (Rapid Alert System (RAS). Про цю систему раннього попередження було написано і сказано дуже багато. Керівник стратегічних комунікацій European External Action Service Лутц Гьольнер говорив про те, що RAS використовується для повідомлення зацікавлених осіб про нові дезінформаційні кампанії, спрямовані на шкоду якимось європейським суб’єктам. За замислом розробників, RAS повинна була координувати обмін інформацією між тими, хто виявляє фейки і тими, хто, нібито, їм протистоїть.

У якості заступника міністра, який відповідає за роботу в сфері стратегічних комунікацій, я відвідував наших колег у Брюсселі та, серед іншого, вів перемовини з представниками EEAS East Stratcom Task Force, в ході яких неодноразово просив їх поділитися інформацією про те, хто саме є реципієнтом даних RAS, і які результати обміну інформацією можна помацати.

Однак, жодного разу, за весь час роботи RAS, брюсельські бюрократи так і не представили жодних даних про які-небудь видимі результати роботи цієї європейської “вундервафлі”.

Тим не менш, на мою скромну думку, з концептуальної точки зору обраний адміністративний підхід був дуже правильний. Я сам вперше стикнувся з управлінськими концепціями раннього попередження, коли вивчав сучасні світові тенденції застосування конкурентної розвідки в бізнесі, отримуючи другу вищу освіту. Теоретичні розробки систем раннього попередження прийшли в бізнес зі сфери спецслужб та сектору оборони. Вони мали сигналізувати особам, що приймають рішення, про ризики і загрози.

Так чи інакше - головним завданням системи RAS було, є і буде скорочення часу між виникненням загрози і прийняттям управлінського рішення. Ця сама теорія говорить, що, якщо управлінське рішення не приймається і не втілюється, то немає сенсу витрачати гроші на забезпечення раннього попередження про загрозу.

Саме на підставі цих теоретичних знань співробітниками Міністерства інформаційної політики України була розроблена “Концепція інтегрованої системи оцінки інформаційних загроз та реагування на них”, текст якої я не оприлюднюю тільки через те, що вона і досі є робочим документом - вже в надрах сучасного Міністерства культури, яке є формальним правонаступником “мінстеця”.

Кроки подолання проблеми

Прибираючи канцелярит, Концепція пропонувала наступні кроки вирішення проблеми дезінформації:

1. розробка і застосування стандартів і процедур медіа-моніторингу, яке могло б впорядкувати процесс виявлення (детекції) інформаційних загроз. А також стандартизація процесу оцінки загроз, розробки та прийняття управлінських рішень про реагування. Простими словами - як обирати, за чим ми спостерігаємо, та на що і як ми реагуємо;

2. розробка норм і правил міжвідомчої координації для оцінки ситуації та реагування. По суті, це створення британських COBR (Cabinet Office Briefing Rooms). Для тих, хто знайомий з галуззю - цей формат дуже зрозумілий;

3. централізація процесів детекції (виявлення) і оцінювання загроз на базі ДП “Центр захисту інформаційного простору”, яке підпорядковувалося Міністерству інформаційної політики, а нині підпорядковується Міністерству культури. Це означає, що уся діяльність по медіа-моніторингу з метою детекції загроз мала бути сконцентрована в одному місці;

4. максимальна автоматизація детекції інформаційних загроз і фейків та скорочення витрат на це. Саме та діяльність, про яку у своїй статті писав Артем Біденко;

5. залучення громадських об’єднань та приватного сектору.

Нагадаю, ці п’ять простих кроків були розроблені ще у 2018 році в рамках виконання завдань Доктрини інформаційної безпеки по розбудові системи кризових комунікацій. На жаль, коли документи були підготовлені до узгодження з іншими органами влади, влада в країні змінилася і ще через два роки ми знову говоримо про “Центр протидії дезінформації”.

У своїй попередній публікації я пояснював процеси, які мають бути реалізовані в роботі “Центру”:

• детекція,

• верифікація,

• управлінське рішення,

• створення контенту,

• комунікація контенту

Відповідаючи на зауваження, викладені в статті Артема Біденка, в цьому матеріалі я звертаю вашу увагу на те, як в Європейському Союзі та в Україні планувалося вирішити питання детекції та верифікації - найбільш складні стадії управлінського процесу.

Саме система раннього попередження та інструменти боротьби з computational propaganda і покликані вирішувати ці два найважчих завдання. Єдиним можливим шляхом їх ефективного вирішення є засоби комп'ютерної автоматизації виявлення та оцінки фейків.

Класична детекція

Найбільшою проблемою раннього виявлення фейків є те, що ми не завжди знаємо, що саме виявляти? Про що сьогодні пропагандисти будуть писати? Так, наприклад, ніхто не міг завчасно собі уявити, що офіційний Київ буде поставлений перед необхідністю спростовувати історію про те, що коронавірус був, начебто, розроблений у американських біологічних лабораторіях на території України.

Нагадаю, що автоматична детекція глобально потрібна для досягнення головної цілі - скорочення часу між розповсюдженням фейку і урядовим реагуванням на нього.

Однак сучасні моніторингові системи, які покликані автоматизувати детекцію, працюють на основі виявлення певних ключових слів. Тобто, таким чином, щоб вчасно вловити фейк про американські біолабораторії, ми повинні були б завчасно дати завдання моніторити повідомлення саме щодо біолабораторій. Але якщо ми не могли передбачити появу цієї нісенітниці, то не могли і сформулювати задачу відповідним чином!...

Є ще й інша сторона цієї проблеми. Якби ми просто поставили задачу моніторити усе, що пов’язане з коронавірусом, то ми були б тут же завалені величезними обсягами зібраних даних по цьому ключовому слову. Час на опрацювання призвів би до нівелювання задачі раннього виявлення.

Іншими словами, детекція загроз за допомогою ключових слів - не працює з двох головних причин: по-перше, ми не завжди точно знаємо, що саме шукаємо; по-друге, інформаційного сміття настільки багато, що ми загрузнемо і потонемо в ньому.

Щоб подолати цю проблему, існує два можливих шляхи. Перший ґрунтується на гіпотезі про те, що російська пропаганда і дезінформація позбавлена фантазії і атакує в інформаційному просторі одні й ті самі речі. Тому, для вловлювання інфозагроз ми можемо моніторити не увесь інформаційний простір, а певні теми і узагальнені наративи.

Саме для цього Міністерство інформаційної політики видало “Білу книгу спеціальних інформаційних операцій”, в якій було описано 10 з 35 виявлених гранд-наративів, що використовувалися для атак на український інфопростір. Це означало, що для ранньої детекції атак ми могли створити 35-60 комплектів ключових слів, які б описували основні атакуючі наративи.

Майже те саме зробили у Моніторинговому центрі Збройних сил Литви, який ми відвідали у 2018 році за допомогою партнерів з НАТО. З метою вирішення проблеми охопити неохопне, литовські колеги створили матрицю загроз, до якої увійшли теми, які вони моніторять, та об’єкти, які вони захищають. Наприклад, репутація Збройних Сил серед цивільного населення. Або стратегічні рішення прем’єр-міністра. Така матриця загроз по суті являла собою технічне завдання на здійснення прицільного медіа-моніторингу.

Другим способом вирішення проблеми є повна відмова від ключових слів взагалі, оскільки такий підхід все одно впирається в необхідність давати оцінку детектованим повідомленням. Якщо налаштування зробити занадто точними - можна упустити щось важливе. Якщо згрібати усе - ні в кого не вистачить сил на ретельний аналіз результатів моніторингу.

Детекція ad hoc

Емпірично доведено, що інформаційна картина дня включає в себе від 4-ох до 9-ти сюжетів. Саме таку кількість людина, в залежності від освіти та критичного мислення, може утримувати у свідомості. Саме стільки важливих сюжетів потрапить у підсумковий випуск новин. Саме стільки тем, можливо, будуть обговорювати на найближчому телевізійному ток-шоу.

Іншими словами, інфополе країни, вірогідно, не буде виходити за певні щоденні рамки. Єдиною проблемою є те, що ми не знаємо, якими будуть ці 4-9 сюжетів. А отже, ключові слова тут безсилі.

Однак, усі головні сюжети дня об’єднує одна-єдина властивість, яку можна визначити у цифрах - це повторюваність. Якщо люди про це говорять - це буде на телевізорі. Якщо нікому тема не цікава, то який сенс її обговорювати, навіть якщо це відвертий фейк? Загальна кількість вебсайтів, які формують інформаційну картину дня через покриття більшої частини української аудиторії, обчислюється кількома сотнями (до 1000).

Їх також можна сегментувати на сміттярки та мейнстрім, але не це головне. Крім вебсайтів, у соціальних мережах Facebook, Instagram, Telegram, Tok-Tok присутні близько 1000 лідерів громадської думки, які, по суті, також формують інформаційну картину дня через свої пости.

Іншими словами, нас з вами цікавить не увесь інтернет, а близько 2000 джерел, які генерують біля 200 000 текстових повідомлень щодня. Для сучасних потужностей комп'ютерної автоматизації цей масив інформації, практично, ніщо. Однак, нас цікавить навіть не він, а слова і фрази, які отримали найбільше зростання кількості повторень за короткий період часу.

Причому потрібен саме не статистичний показник - скільки повторень гіпотетичних слів “американські біолабораторії” в українських джерелах з’явилось за останні 6 годин?

Нам потрібен динамічний показник - на скільки повторюваність гіпотетичних слів “американські біолабораторії” в українських джерелах за останні 60 хвилин збільшилась ніж за попередні 60 хвилин.

Це є нелегкою задачею, оскільки, щоб дати відповідь на це питання, програмний комплекс повинен проаналізувати усю зібрану текстову інформацію в режимі реального часу, визначити в текстах семантичні об’єкти і змістовні словосполучення, а також порівняти їх частотність між собою і візуалізувати ранжування за кількістю повторень.

Однак, якщо ця задача буде виконана, то оператор такої моніторингової системи зможе визначати і оцінювати трендові тематики, які можуть увійти до інформаційної картини дня, з затримкою у 60 хвилин. Таким чином, задача детекції без завчасного визначення ключових слів зможе бути вирішена. А слідом за нею може додатися і робота по зображенням

Центр протидії дезінформації: практика імплементації
Детекція загроз за допомогою ключових слів - не працює з
двох головних причин: по-перше, ми не завжди точно знаємо,
що саме шукаємо; по-друге, інформаційного сміття настільки
багато, що ми загрузнемо і потонемо в ньому.
Щоб подолати цю проблему, існує два можливих шляхи. 
Нещодавно я запропонував на сторінках “Детектор.Медіа” своє
бачення того, як має працювати “Центр протидії
дезінформації”. Артем Біденко доповнив його практичними
пропозиціями у сфері автоматизації роботи такої установи,
зокрема у сфері, яка має назву computational propaganda.
Через великий обсяг теми, важко донести усі нюанси в одному
матеріалі. Тому ми продовжуємо обговорення деталей.
Необхідні напрацювання вже давно створені. Однак, їх
імплементація залишає бажати кращого.
В чому вимірюється протидія дезінформації?
У квітні 2019 року, коли Володимир Зеленський вже святкував
перемогу у президентських перегонах, нами, у Міністерстві
інформаційної політики, було фіналізовано пропозиції
урядового документу, який носив назву “Концепція
інтегрованої системи оцінки інформаційних загроз та
реагування на них”. Ця Концепція мала бути затверджена
Кабінетом Міністрів України та стати надійним фундаментом
для функціонування системи кризових комунікацій в урядовій
сфері.
Нагадаю, що єдиною і дуже простою метою функціонування
системи кризових комунікацій на державному рівні є
скорочення часу, який минає від моменту настання кризового
явища (в тому числі і масового поширення фейкової
інформації, яка може загрожувати урядовим планам), до
моменту, коли урядові структури виходять в український
інформаційний простір зі своєю реакцією чи комунікацією, яка
представляє точки зору держави.
Ще раз простими словами: щоб ефективно протидіяти
дезінформації, потрібно, щоб між поширенням фейку і
оприлюдненням позиції держави пройшло якомога менше
часу. Заміри, які я проводив самотужки влітку 2014 року, у
розпалі інформаційної війни, показували час реагування на
рівні 7-9 годин. Вже у жовтні 2018 року, коли відбулися
вибухи на складах боєприпасів у Ічні, цей проміжок часу
скоротився до 3-ох годин. О 3-ій годині ночі стало відомо про
надзвичайну ситуацію, а вже о 6-ій ранку спікери
Генерального Штабу ЗСУ готові були говорити в ранкових
ефірах телеканалів (щоправда, не усі телеканали цим
користувалися).
Таким чином, ідеальним показником роботи системи протидії
дезінформації можна вважати 90-хвилинний проміжок (gap)
між поширенням фейку і реагуванням на нього. Звичайно,
такий показник є цілком віртуальною величиною, оскільки не
завжди зрозуміло, в який саме момент потрібно вмикати
секундомір? Однак, з філософської точки зору, саме час є
найголовнішим ресурсом у протистоянні інформаційним
атакам. Все буде залежати від того, хто перший зможе зайняти
місце у свідомості споживача інформації зі своїми меседжами.
Система раннього попередження
У грудні 2018 року в Європейському Парламенті був
представлений План дій щодо протидії дезінформації (Action
Plan against Disinformation (JOIN(2018)0036). Однією з
ключових частин цього плану була Система раннього
попередження (Rapid Alert System (RAS). Про цю систему
раннього попередження було написано і сказано дуже багато.
Керівник стратегічних комунікацій European External Action
Service Лутц Гьольнер говорив про те, що RAS
використовується для повідомлення зацікавлених осіб про нові
дезінформаційні кампанії, спрямовані на шкоду якимось
європейським суб’єктам. За замислом розробників, RAS
повинна була координувати обмін інформацією між тими, хто
виявляє фейки і тими, хто, нібито, їм протистоїть. 
У якості заступника міністра, який відповідає за роботу в сфері
стратегічних комунікацій, я відвідував наших колег у Брюсселі
та, серед іншого, вів перемовини з представниками EEAS East
Stratcom Task Force, в ході яких неодноразово просив їх
поділитися інформацією про те, хто саме є реципієнтом даних
RAS, і які результати обміну інформацією можна помацати.
Однак, жодного разу, за весь час роботи RAS, брюсельські
бюрократи так і не представили жодних даних про які-небудь
видимі результати роботи цієї європейської “вундервафлі”.
Тим не менш, на мою скромну думку, з концептуальної точки
зору обраний адміністративний підхід був дуже правильний. Я
сам вперше стикнувся з управлінськими концепціями раннього
попередження, коли вивчав сучасні світові тенденції
застосування конкурентної розвідки в бізнесі, отримуючи
другу вищу освіту. Теоретичні розробки систем раннього
попередження прийшли в бізнес зі сфери спецслужб та
сектору оборони. Вони мали сигналізувати особам, що
приймають рішення, про ризики і загрози.
Так чи інакше - головним завданням системи RAS було, є і
буде скорочення часу між виникненням загрози і прийняттям
управлінського рішення. Ця сама теорія говорить, що, якщо
управлінське рішення не приймається і не втілюється, то немає
сенсу витрачати гроші на забезпечення раннього
попередження про загрозу. 
Саме на підставі цих теоретичних знань співробітниками
Міністерства інформаційної політики України була розроблена
“Концепція інтегрованої системи оцінки інформаційних загроз
та реагування на них”, текст якої я не оприлюднюю тільки
через те, що вона і досі є робочим документом - вже в надрах
сучасного Міністерства культури, яке є формальним
правонаступником “мінстеця”.
Кроки подолання проблеми
Прибираючи канцелярит, Концепція пропонувала наступні
кроки вирішення проблеми дезінформації:
1. розробка і застосування стандартів і процедур медіа-
моніторингу, яке могло б впорядкувати процесс
виявлення (детекції) інформаційних загроз. А також
стандартизація процесу оцінки загроз, розробки та
прийняття управлінських рішень про реагування.
Простими словами - як обирати, за чим ми спостерігаємо,
та на що і як ми реагуємо;
2. розробка норм і правил міжвідомчої координації для
оцінки ситуації та реагування. По суті, це створення
британських COBR (Cabinet Office Briefing Rooms). Для
тих, хто знайомий з галуззю - цей формат дуже
зрозумілий;
3. централізація процесів детекції (виявлення) і оцінювання
загроз на базі ДП “Центр захисту інформаційного
простору”, яке підпорядковувалося Міністерству
інформаційної політики, а нині підпорядковується
Міністерству культури. Це означає, що уся діяльність по
медіа-моніторингу з метою детекції загроз мала бути
сконцентрована в одному місці;
4. максимальна автоматизація детекції інформаційних загроз
і фейків та скорочення витрат на це. Саме та діяльність,
про яку у своїй статті писав Артем Біденко;
5. залучення громадських об’єднань та приватного сектору.
Нагадаю, ці п’ять простих кроків були розроблені ще у 2018
році в рамках виконання завдань Доктрини інформаційної
безпеки по розбудові системи кризових комунікацій. На жаль,
коли документи були підготовлені до узгодження з іншими
органами влади, влада в країні змінилася і ще через два роки
ми знову говоримо про “Центр протидії дезінформації”.
У своїй попередній публікації я пояснював процеси, які мають
бути реалізовані в роботі “Центру”:
 детекція,
 верифікація,
 управлінське рішення,
 створення контенту,
 комунікація контенту
Відповідаючи на зауваження, викладені в статті Артема
Біденка, в цьому матеріалі я звертаю вашу увагу на те, як в
Європейському Союзі та в Україні планувалося вирішити
питання детекції та верифікації - найбільш складні стадії
управлінського процесу.
Саме система раннього попередження та інструменти боротьби
з computational propaganda і покликані вирішувати ці два
найважчих завдання. Єдиним можливим шляхом їх
ефективного вирішення є засоби комп'ютерної автоматизації
виявлення та оцінки фейків.
Класична детекція
Найбільшою проблемою раннього виявлення фейків є те, що
ми не завжди знаємо, що саме виявляти? Про що сьогодні
пропагандисти будуть писати? Так, наприклад, ніхто не міг
завчасно собі уявити, що офіційний Київ буде поставлений
перед необхідністю спростовувати історію про те, що
коронавірус був, начебто, розроблений у американських
біологічних лабораторіях на території
Україниhttps://ms.detector.media/manipulyatsii/post/26057/202
0-11-25-amerykanski-biolaboratorii-medvedchuka-novyy-sezon-
uspishnogo-serialu/.
Нагадаю, що автоматична детекція глобально потрібна для
досягнення головної цілі - скорочення часу між
розповсюдженням фейку і урядовим реагуванням на нього.
Однак сучасні моніторингові системи, які покликані
автоматизувати детекцію, працюють на основі виявлення
певних ключових слів. Тобто, таким чином, щоб вчасно
вловити фейк про американські біолабораторії, ми повинні
були б завчасно дати завдання моніторити повідомлення саме
щодо біолабораторій. Але якщо ми не могли передбачити
появу цієї нісенітниці, то не могли і сформулювати задачу
відповідним чином!...
Є ще й інша сторона цієї проблеми. Якби ми просто поставили
задачу моніторити усе, що пов’язане з коронавірусом, то ми
були б тут же завалені величезними обсягами зібраних даних
по цьому ключовому слову. Час на опрацювання призвів би до
нівелювання задачі раннього виявлення.
Іншими словами, детекція загроз за допомогою ключових слів
- не працює з двох головних причин: по-перше, ми не завжди
точно знаємо, що саме шукаємо; по-друге, інформаційного
сміття настільки багато, що ми загрузнемо і потонемо в ньому.
Щоб подолати цю проблему, існує два можливих шляхи.
Перший ґрунтується на гіпотезі про те, що російська
пропаганда і дезінформація позбавлена фантазії і атакує в
інформаційному просторі одні й ті самі речі. Тому, для
вловлювання інфозагроз ми можемо моніторити не увесь
інформаційний простір, а певні теми і узагальнені наративи.
Саме для цього Міністерство інформаційної політики видало
“Білу книгу спеціальних інформаційних операцій”, в якій було
описано 10 з 35 виявлених гранд-наративів, що
використовувалися для атак на український інфопростір. Це
означало, що для ранньої детекції атак ми могли створити 35-
60 комплектів ключових слів, які б описували основні атакуючі
наративи.
Майже те саме зробили у Моніторинговому центрі Збройних
сил Литви, який ми відвідали у 2018 році за допомогою
партнерів з НАТО. З метою вирішення проблеми охопити
неохопне, литовські колеги створили матрицю загроз, до якої
увійшли теми, які вони моніторять, та об’єкти, які вони
захищають. Наприклад, репутація Збройних Сил серед
цивільного населення. Або стратегічні рішення прем’єр-
міністра. Така матриця загроз по суті являла собою технічне
завдання на здійснення прицільного медіа-моніторингу.
Другим способом вирішення проблеми є повна відмова від
ключових слів взагалі, оскільки такий підхід все одно
впирається в необхідність давати оцінку детектованим
повідомленням. Якщо налаштування зробити занадто точними
- можна упустити щось важливе. Якщо згрібати усе - ні в кого
не вистачить сил на ретельний аналіз результатів моніторингу.
Детекція ad hoc
Емпірично доведено, що інформаційна картина дня включає в
себе від 4-ох до 9-ти сюжетів. Саме таку кількість людина, в
залежності від освіти та критичного мислення, може
утримувати у свідомості. Саме стільки важливих сюжетів
потрапить у підсумковий випуск новин. Саме стільки тем,
можливо, будуть обговорювати на найближчому телевізійному
ток-шоу.
Іншими словами, інфополе країни, вірогідно, не буде виходити
за певні щоденні рамки. Єдиною проблемою є те, що ми не
знаємо, якими будуть ці 4-9 сюжетів. А отже, ключові слова
тут безсилі.
Однак, усі головні сюжети дня об’єднує одна-єдина
властивість, яку можна визначити у цифрах - це
повторюваність. Якщо люди про це говорять - це буде на
телевізорі. Якщо нікому тема не цікава, то який сенс її
обговорювати, навіть якщо це відвертий фейк?
Загальна кількість вебсайтів, які формують інформаційну
картину дня через покриття більшої частини української
аудиторії, обчислюється кількома сотнями (до 1000). Їх також
можна сегментувати на сміттярки та мейнстрім, але не це
головне.
Крім вебсайтів, у соціальних мережах Facebook, Instagram,
Telegram, Tok-Tok присутні близько 1000 лідерів громадської
думки, які, по суті, також формують інформаційну картину дня
через свої пости.
Іншими словами, нас з вами цікавить не увесь інтернет, а
близько 2000 джерел, які генерують біля 200 000 текстових
повідомлень щодня. Для сучасних потужностей комп'ютерної
автоматизації цей масив інформації, практично, ніщо. Однак,
нас цікавить навіть не він, а слова і фрази, які отримали
найбільше зростання кількості повторень за короткий період
часу.
Причому потрібен саме не статистичний показник - скільки
повторень гіпотетичних слів  “американські біолабораторії” в
українських джерелах з’явилось за останні 6 годин?
Нам потрібен динамічний показник - на скільки
повторюваність гіпотетичних слів “американські
біолабораторії” в українських джерелах за останні 60 хвилин
збільшилась ніж за попередні 60 хвилин.
Це є нелегкою задачею, оскільки, щоб дати відповідь на це
питання, програмний комплекс повинен проаналізувати усю
зібрану текстову інформацію в режимі реального часу,
визначити в текстах семантичні об’єкти і змістовні
словосполучення, а також порівняти їх частотність між собою і
візуалізувати ранжування за кількістю повторень.
Однак, якщо ця задача буде виконана, то оператор такої
моніторингової системи зможе визначати і оцінювати трендові
тематики, які можуть увійти до інформаційної картини дня, з
затримкою у 60 хвилин. Таким чином, задача детекції без
завчасного визначення ключових слів зможе бути вирішена. А
слідом за нею може додатися і робота по зображенням.
Команда «Детектора медіа» понад 20 років виконує роль watchdog'a українських медіа. Ми аналізуємо якість контенту і спонукаємо медіагравців дотримуватися професійних та етичних стандартів. Щоб інформація, яку отримуєте ви, була правдивою та повною.

До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування спільних ідей та отримувати більше ексклюзивної інформації про стан справ в українських медіа.

Мабуть, ще ніколи якісна журналістика не була такою важливою, як сьогодні.
* Знайшовши помилку, виділіть її та натисніть Ctrl+Enter.
4997
Читайте також
26.03.2021 09:30
Юлія Каздобіна
для «Детектора медіа»
5 192
11.03.2021 16:42
Ярина Ключковська
4 362
Коментарі
1
оновити
Код:
Ім'я:
Текст:
Ольга
1384 дн. тому
Дмитрия поздравляю с 8 марта!
Долучайтеся до Спільноти «Детектора медіа»!
Ми прагнемо об’єднати тих, хто вміє критично мислити та прагне змінювати український медіапростір на краще. Разом ми сильніші!
Спільнота ДМ
Використовуючи наш сайт ви даєте нам згоду на використання файлів cookie на вашому пристрої.
Даю згоду