Китай, Росія чи Skynet: хто перший доб’є демократію та журналістику? Медіапідсумки 17–23 червня 2019 року
Китай, Росія чи Skynet: хто перший доб’є демократію та журналістику? Медіапідсумки 17–23 червня 2019 року
У житті кожного є доленосні зустрічі, які змінюють наші погляди. Для мене такою зустріччю стало знайомство з роботом Софією.
Воно відбулося лише в травні цього року, значно пізніше, ніж із нею зустрілися Володимир Гройсман чи Руслан Сенічкін, не кажучи вже про керівництво ООН та Саудівської Аравії. Я весь цей час ставилася до неї з певним скепсисом як до маркетингового виверту розробників робототехніки та штучного інтелекту. Але місце, де ми з нею зустрілися, й загальний контекст обговорення змусив поставитися до цього явища серйозніше.
Зустріч відбулася в Бонні під час Глобального медіафоруму «Німецької хвилі» (Deutsche Welle Global Media Forum), значна частина дискусій якого оберталася довкола зміни медійного ландшафту внаслідок масштабної експансії технологічних гігантів — у першу чергу Google і Facebook. Наразі по всьому світу тривають обговорення впливу фейсбуку на вибори, й багато політиків, громадських активістів, журналістів намагаються переконати цю компанію відкоригувати свою роботу таким чином, щоб унеможливити інформаційні спецоперації, дезінформацію, розповсюдження мови ненависті чи введення громадян в оману.
Цей скепсис учасників форуму перекинувся й на обговорення теми штучного інтелекту — частина журналістів у кулуарах та навіть зі сцени говорила: «Сподіваюся, я не доживу до того моменту, коли роботи почнуть активно писати статті». І це не просто драматичні слова. Використання штучного інтелекту в роботі ЗМІ — це вже не майбутнє, а фактично початок нашого сьогодення. Активні в цій сфері китайці нещодавно явили світу роботів-дикторів Чжан Чжао й Сінь Сяомень, а також суперпопулярні новинний та розважальний додатки Jinri Toutiao і TikTok, де штучний інтелект рекомендує користувачам персоналізовану інформацію. Microsoft активно створює чат-ботів і, що іронічно, компанії вже доводилося вибачатися за расистські й сексистські висловлювання одного з них. Сінгапурське видання Esquire випустило номер, частково написаний штучним інтелектом. А шведська медіакомпанія MittMedia разом зі шведською ж технологічною компанією United Robots уже кілька років забезпечують роботу ньюзруму, що складається з роботів.
Уже нині штучний інтелект здатний самостійно писати спортивні новини, витрачаючи по дві хвилини на кожну, що робить його просто-таки мрією редактора. На щастя для нас, журналістів-людей, роботи поки що взагалі не вміють писати про політику — така вже це складна для їхнього алгоритмічного розуміння діяльність людини розумної.
Але загалом у мене погані новини для тих, хто, як і я раніше, сподівався пересидіти цю технологічну революцію в аналітиці: роботи вже зараз показують себе загалом кращими в аналізі, ніж люди (наразі чемпіон та віцечемпіон світу з гри в го — роботи й тепер вони можуть битися між собою вічно). Так що під час медіафоруму не раз прозвучало, що аналітика зрештою відійде роботам, а люди постачатимуть їм дані. Як вам таке? Хочете побути стажером на побігеньках у Софії?
Погляньте на проблему й ширше: якщо вже тепер демократія явно потерпає від політичного мікротаргетування та інформаційних бульбашок, що їх створюють нескладні алгоритми соціальних мереж для своїх користувачів, то що станеться, коли на зміну цим алгоритмам прийдуть удосконалені навички штучного інтелекту? Ось чому, на відміну від соціальних мереж, які людство намагається законодавчо врегулювати постфактум, коли вони вже набули дуже широкого розповсюдження та продемонстрували не тільки користь, але і здатність руйнівного впливу, штучний інтелект наразі намагаються відрегулювати авансом. Якщо пошукати етичні політики щодо застосування штучного інтелекту, то можна легко знайти десятки документів різного авторства — починаючи від Єврокомісії й закінчуючи аналітичними центрами по всьому світу.
Штучний інтелект був однією з центральних тем і на цьогорічному саміті «Ризький діалог зі стратегічних комунікацій» (Riga StratCom Dialogue), організованому Центром передового досвіду з питань стратегічних комунікацій НАТО (NATO Strategic Communications Centre of Excellence) у Ризі. Тільки там, на відміну від форуму медійників, зібралися в основному прихильники штучного інтелекту: мабуть, військові дуже хочуть застосовувати цю технологію у своїй роботі. Зокрема, учасники говорили про те, що не треба відмовлятися від розвитку штучного інтелекту через страх перед глибинними фейками (deep fakes), який нещодавно підсилило уповільнене відео Ненсі Пелосі, де вона виглядала ніби п’яною. По-перше, все, що може бути підроблено, безперечно, буде підроблено. По-друге, їх не так уже й складно розрізняти — люди на підроблених відео неприродно кліпають очима, тому що їхні зображення конструюються з публічно доступних, де вони переважно з відкритими очима. По-третє, про штучний інтелект написано стільки політик, що залишилося тільки, щоби свої політики написав сам штучний інтелект.
Хороший жарт. Я якраз чекаю, як західну демократію хакне не Росія чи Китай, а Skynet. А поки людству доведеться звикнути, що не тільки фото можуть бути змінені фоторедакторами, але й відео.
І тільки одне мене бентежить по-справжньому: на початку травня цього року Ізраїль уперше в історії цілеспрямовано бомбив будівлю, де сиділи хакери «Хамасу», у відповідь на їхню діяльність. Як на мене, це може свідчити про певне безсилля перед кібератаками, на які не знайшлося дієвої відповіді в кіберпросторі. А тепер уявіть, що одного разу кібератаку почнуть не люди.