Центр протидії дезінформації: філософія проти менеджменту
Дмитро Золотухін написав дуже хороший аналітичний матеріал щодо Центру протидії дезінформації, який до кінця березня має створити Міністерство культури. Водночас він (свідомо чи несвідомо) відстежив лише одну сторону діяльності такого органу. Я би назвав її філософською, адже Дмитро спробував відповісти на рефлексивні питання: що таке протидія дезінформації, чи правильно визначено проблеми, чи існують інші шляхи вирішення означених проблем.
Тим часом дуже часто в гуманітарній та соціальній сфері неможливо наперед визначити проблему, стейкхолдерів та необхідні алгоритми. Підхід, який часто домінує в ринковій економіці, — це орієнтир на попит, який можна виміряти, й численні спроби цей попит задовольнити. Саме так виникло дуже багато феноменів сучасного світу, зокрема й соціальні мережі. Ми й сьогодні до кінця не розуміємо, якою буде комунікація та медіа майбутнього, але технологічні корпорації вже розробляють і пропонують нам десятки рішень для ще неусвідомлених проблем.
Ситуація із протидією дезінформації у світі саме така: здавалося б, очевидні речі та інструменти виявилися абсолютно неефективними, а ресурси, які витрачено на фактчекінг та медіаграмотність, ніяк не вплинули на резистентність населення до інформаційних вкидів. За рік коронакризи це стало очевидним для дуже багатьох урядів: дезінформація, як і вірус, поширюється значно ширше й агресивніше, ніж будь-які спроби навчити населення, журналістів, поширити розвінчування і т. д. Тож необхідно винайти інші інструменти, які дозволять управляти ризиками та швидше реагувати.
Саме це призвело до того, що в 2020-2021 роках демократичні уряди раптом стали толерантніше ставитися до блокування тих чи інших повідомлень. Те, що у 2015‒2017 роках сприймалося як загроза цензури, сьогодні виявилося новою нормою. І це аж ніяк не подвійні стандарти, але визнання помилковості попередніх «чистих» підходів. Ключова потреба сформульована наступним чином: створити інструменти, які дозволять фіксувати зародження дезінформаційних наративів, і блокувати їх на етапі такого зародження. Ці інструменти мають бути максимально автоматизовані, щоб уникнути звинувачень у спробах контролювати інформаційний простір.
Така потреба повністю відповідає новим дослідженням у сфері обчислюваної або цифрової пропаганди (computational propaganda). І такі інструменти сьогодні реальні, адже базуються на роботі з великими масивами даних і машинному навчанні. Фактично замість вручну аналізувати зміст повідомлень та писати глибокі роз'яснення з подальшим їх поширенням у медіа, ми можемо за допомогою програмних рішень фіксувати незвичні активності в тих чи інших сегментах мережі, спільне застосування певними групами користувачів слів-маркерів, фінансування із сумнівних джерел тих чи інших таргетованих кампаній.
Жодна інформаційна атака не може обійтися без певних маркерів: таргетування, мільтон-мови, оплати деяких первинних виходів. Ці сліди реально відстежувати, так само як реально відстежувати злочинців у великому місті за допомогою камер. Тож створення системи, достатньо складної, щоб аналізувати незвичну поведінку в мережі, і пропонувати виконавцям проєкти рішень щодо такої поведінки, — це завдання, яке виходить за межі класичних журналістських розробок і більше стосується IT-сфери.
Ідея Центру протидії дезінформації народилася в нас у Мінінформполітики в 2017 році саме як створення програмного комплексу з виявлення загроз. Із цією ж метою було створено Центр захисту інформаційного простору. Але далі технічного завдання і тривалої рефлексії щодо філософії такого проєкту ми не змогли піти. На той час це була сира ідея, яка не мала підкріплення дослідженнями цифрової пропаганди. Нині ж як учасники європейського проєкту SOMA ми бачимо, що потужності багатьох аналітичних команд спрямовані саме на розробку технологічних інструментів. Найпростіші з них дозволяють автоматично перевіряти твіти, промови політиків, новини, користувачів:
https://idir.uta.edu/claimbuster/
https://botometer.osome.iu.edu/
https://osome.iu.edu/tools/botslayer/
https://www.rand.org/research/projects/truth-decay/fighting-disinformation.html
Складніші не є публічними. Однак опосередковано ми можемо здогадуватися, що вони наближаються до вирішення проблеми поширення дезінформації — наприклад, по тому, як проєкт Palantir успішно пройшов IPO. Очевидно, що в IT-корпорацій уже є алгоритми, які дозволяють фіксувати незвичну поведінку користувачів і блокувати її в зародку.
Україна перебуває на вістрі інформаційних воєн, і було б логічно, якби саме ми залучили сучасні розробки до вирішення проблеми, яка для нас існує не гіпотетично, не філософськи, а цілком реально. Тож те, що Міністерство культури невдовзі запустить Центр протидії дезінформації, є однозначним кроком уперед. Це менеджерське рішення, яке потребує відповідних підходів: формування команди під завдання, залучення технологій та актуальних досліджень. Часу для рефлексій не залишилося, необхідно зважитися на те, що здається складним і навіть фантастичним.
Адже дуже важливо, щоб це було справді технологічне рішення, а не черговий аналітичний центр. Для моніторингу та аналітики існує державний Національний інститут стратегічних досліджень або ж можна залучити комерційних підрядників, наприклад Інститут майбутнього. У сфері фактчекінгу та роботи з медіаграмотністю населення працюють кілька великих успішних команд.
Натомість державний ресурс дозволяє запустити складний стратегічний проєкт, на який не готові українські технологічні компанії, оскільки він не зможе окупитися. Попереду є кілька років, підтримка президента, тож можна сконцентруватися на розробці IT-рішення, можливо навіть у кооперації з проєктом Дія.
Інший шлях — це консорціум донорів і технологічних компаній, який створить програмний комплекс і передасть його державі для подальшого використання. Так, як це було із Prozorro. В будь-якому разі менеджерське завдання сьогодні — створити інструмент, який вирішить проблему кількості повідомлень, автоматизує їх аналіз і зможе уніфікувати підготовку управлінських рішень. Тільки подолавши інформаційний хаос, структурувавши його, визначивши алгоритми, можна буде рухатися далі, до ефективної протидії дезінформації.
Фото: scientificamerican