Катерина Крук: «Ми щодня видаляємо близько мільйона ботів»
Що таке дезінформація, як Європа й Україна борються проти неї, яку допомогу можуть надати європейські партнери Україні в цій боротьбі. Про це та інше йшлося на міжнародному онлайн-семінарі «Відповідь дезінформації: європейські підходи та стандарти», організованому за підтримки медійних проєктів Ради Європи в Україні. «Детектор медіа» вже публікував найважливіше з виступів керівниці відділу медіадепартаменту інформаційного суспільства Ради Європи Уршки Умек та консультантки Ради Європи Крістіни Розґоні, члена групи Європейської комісії з підтримки України Танела Танґа та Ліз Корбін, заступниці директора Європейської телерадіомовної спілки (EBU).
У цьому матеріалі Катерина Крук, яка працює менеджеркою Facebook із публічної політики для України з літа 2019 року, розповідає про політику корпорації щодо протидії дезінформації в соцмережах.
Англійська мова розрізняє misinformation та disinformation. Різниця полягає в тому, що misinformation — поширення неправдивої інформації незалежно від наміру, а disinformation — цілеспрямоване. В українській мові відповідника misinformation немає, тому ми будемо називати це явище неправдивою інформацією, а дезінформація залишиться дезінформацією.
Три способи боротьби з неправдою
Фейсбук — величезна платформа з двома мільярдами користувачів у всьому світі. Соціальні мережі використовуються для поширення пропаганди, інформаційних спецоперацій, і ми не зможемо розв’язати цю проблему раз і назавжди. Наша мета — мінімізувати можливість легкого поширення дезінформації на наших платформах. У боротьбі з поширенням неправдивої інформації компанія Facebook зосередилася на трьох головних напрямках.
Перша стратегія — видалення інформації, яка не відповідає дійсності, а також фейкових акаунтів, які створюються й ведуться програмами; в Україні їх називають ботами. Ми розуміємо, як часто їх використовують у дезінформаційних кампаніях, і працюємо зі штучним інтелектом, щоб унеможливити створення таких віртуальних користувачів або одразу їх видаляти. Щодня ми видаляємо близько мільйона ботів.
Ми видаляємо інформацію, яка збиває з пантелику виборців під час виборчих кампаній — наприклад, дає неправдиві інструкції щодо процедури голосування. Видаляємо інформацію, яка може призвести до насильства в офлайні, завдати шкоди здоров’ю. В цьому плані зараз головний виклик — дезінформація про коронавірусну пандемію, але ми почали робити це раніше, коли поширювалася неправда про спалахи вірусу ебола або холери в різних країнах. Коли ми розуміємо, що неправдива інформація, яка поширюється в соцмережі, загрожує людям у реальному житті, ми блокуємо її.
Втім видалення інформації — це жорсткий метод, який ми застосовуємо дуже обережно, аби не перетворити боротьбу з неправдивою інформацією на цензуру. Для боротьби з неправдивими або частково правдивими новинами ми вирішили працювати із фактчекерами — організаціями, які мають експертизу. Другий напрямок нашої роботи — обмеження поширення неправди.
Ми працюємо з понад 80 організаціями, які перевіряють та обробляють інформацію шістдесятьма мовами. В Україні наші партнери з 2019 року — VoxUkraine і StopFake. Українські фактчекери працюють ефективно: масиви інформації, яку вони обробляють, вражають.
Фактчекери мають доступ до спеціального інструменту, в якому виставляють рейтинг інформації відповідно до її правдивості. Наш алгоритм враховує цей рейтинг, щоби понизити маніпулятивні повідомлення у стрічках новин користувачів. Що неправдивішою є інформація, то менше людей будуть її бачити. Сторінки і групи, в яких часто з’являються неправдиві повідомлення, також будуть рідше відображатись у стрічках, зникають зі списків рекомендацій, можуть втратити право монетизуватись і запускати рекламу. Ми думаємо про те, щоби почати видаляти такі сторінки, хоча поки що наша політика — зменшувати поширення неправдивої інформації, а не видаляти.
Чому ми не прагнемо видаляти все, що фактчекери визначили як неправду? Бо фейсбук — не інтернет. Якщо ми видалимо щось із наших платформ, люди побачать це деінде. Тому ми зосереджуємося на інформуванні, попередженні, додаванні контексту, аби люди зрозуміли, що це неправдива інформація й чому саме вона неправдива. Люди, які спростовують фейки, завжди відстають від тих, хто ці фейки створює. Але якщо дати аудиторії розуміння та навички перевірки інформації, вони будуть захищені від дезінформації, хоч на якій платформі її побачать.
Тому наш третій напрямок роботи — інформування. Ми додаємо до неправдивих повідомлень посилання на правдиву інформацію, й додаємо контекст про джерело. Ми також організовуємо кампанії з медіаграмотності. В Україні з 2019 року було вже дві такі кампанії, і ще одна, що інформувала людей про неприйнятність мови ворожнечі та про базові правила культури спілкування в онлайн-просторі.
Чи дієві ці наші підходи? З березня по травень 2020 року ми проводили дослідження серед американських користувачів — з’ясовували, як вони реагують на наші ярлички-попередження про неправдиву чи частково правдиву інформацію. Чи зупиняє це їх, чи вони відкривають пост і читають? На прикладі 50 мільйонів дописів, для яких був застосований попереджувальний напис, ми побачили, що 95 % користувачів не клікали на таку інформацію.
Полювання на ботоферми
В Україні боротьба проти дезінформації нерозривно пов’язана з боротьбою проти мереж, які заведено називати ботофермами. Ми використовуємо англійський термін Coordinated Inauthentic Behavior (скоординована неавтентична поведінка). Це свідчить про те, що ми передусім звертаємо увагу на поведінку користувачів: як сторінки, групи або люди координуються між собою, використовують цю мережу, аби приховати, ким вони є, і яка мета цих дій.
Люди координуються в соціальних мережах із різних причин. Тому ми не видаляємо групи, які вирішили провести флешмоб. В Україні було багато прикладів, коли люди організовано приходили на сторінки міжнародних брендів чи організацій, аби висловити свою позицію — наприклад, закликати до визнання Криму українським абощо. Це приклад природної мобілізації.
Та коли ми бачимо, що групи людей і сторінок, зокрема фейкових персонажів, намагаються донести, проштовхнути певну точку зору, ми починаємо думати, як це припинити, адже такі дії суперечать правилам соцмережі.
Ми виділяємо два типи скоординованої неавтентичної поведінки. Перший — внутрішні кампанії, які часто створюються піар-агенціями або іншими організаціями, які прагнуть просунути певний бренд або ідею. Якщо в таких кампаніях використовуються як фейкові акаунти, так і сторінки реальних людей, ми видаляємо всіх. Нам закидали, що ми зробили помилку, бо стверджували, що закрили ботоферму, а частина людей, чиї акаунти видалені, — реальні. Але ні, коли йдеться про скоординовані кампанії, видаляються всі залучені.
Другий приклад — коли зовнішні сили, часто уряди держав, часом неформальні організації, створюють скоординовані мережі для впливу на аудиторію в певній країні. Українці добре знають, що це таке. В Україні ми видалили набагато більше мереж зовнішнього впливу, ніж внутрішнього. В таких випадках ми видаляємо все — людські акаунти, сторінки, групи, якими вовни пов’язані. А потім стежимо, аби вони не повернулися.
В Україні мені найчастіше ставлять запитання про модераторів. Адже українці переймаються, аби до модерування дописів українців не залучали росіян. Наша команда модераторів — це понад тридцять п’ять тисяч людей. Ми використовуємо різні підходи до модерування різного контенту. Фото й відео насамперед модерує штучний інтелект, тексти — людина. Ми віддаємо перевагу людям, які походять із певного регіону чи країни, знають культурний і мовний контекст. Тому в українській команді модераторів працюють українці. Скільки їх, хто вони — це інформація, яку ми не розголошуємо. Базуються вони переважно в наших великих офісах у Дубліні та Лондоні, де в них є безпечний доступ до модераторських інструментів.
Як оскаржити рішення адміністрації
Комусь видається, що Facebook — це гігантська корпорація, яка приймає рішення, нікому нічого не пояснюючи, й не дбає про наслідки. Насправді ж ми відповідально підходимо до рішень щодо контенту, бо розуміємо, що видалення чи блокування має великий вплив на життя користувача й на перебіг дискусії.
Спершу в соцмережі не було правил, які б обмежували чи забороняли поширення якогось контенту. Але згодом ми побачили природну потребу в цьому, аби захистити права дітей і дорослих користувачів, авторські права, аби перешкодити порушенню законодавства тощо. І займаємося цим, аби платформа була безпечною й комфортною для всіх. Та водночас дбаємо про те, щоб не порушити права людини та принципи свободи слова.
Стандарти спільноти — це не кам’яні скрижалі: вони змінюються, аби відповідати часу, світовим і регіональним особливостям. Ми обговорюємо їх з експертами, зокрема залучали для цього й українських фахівців. Ми постійно говоримо, що не хочемо приймати це рішення самі, й пропонуємо урядам різних країн долучатися до процесу.
Втім ми постійно чуємо претензії щодо блокування й видалення не тих, кого треба, й не за те, за що треба. Аби хоч трохи знизити градус напруги й незадоволення нашими рішеннями, ми створили незалежну зовнішню наглядову раду (External Oversight Board). Facebook створила окремий фонд, який фінансує цю організацію. Ми не втручаємось у їхню роботу ні на організаційному, ані на фінансовому рівні. Не впливаємо на кейси, які вони добирають для себе. І ми зобов’язалися виконувати всі рішення цієї ради, окрім тих, які суперечитимуть закону.
Це група експертів з усього світу, яку на першому етапі допомагала формувати корпорація, але надалі вони самі вирішуватимуть, коли запрошувати замість членів, що вибувають. Вони займаються складними випадками, важливими для певного регіону або такими, що мають глобальне значення. Вони можуть прийняти рішення про уточнення правил соцмережі — ми з цим погоджуємося. До зовнішньої наглядової ради може звернутися кожен користувач фейсбука, чий контент видалили, заповнивши форму на сайті. Рада розглядає скарги протягом 90 днів і публікує рішення на сайті, а адміністрація соцмережі зобов’язана їх виконувати. Було чимало випадків, коли зовнішня рада приймала рішення, що суперечило рішенням наших модераторів — ми їх виконали.