Передплата 2024 ВЗ

Нова російська зброя

Із Росії долітає дедалі більше військових страшилок. Зокрема, про «Посейдон» — велику ядерну торпеду чи безпілотник. Москва охоче зливає інформацію про його дальність і потужність. Дещо з тих історій може бути правдою. Ще одна нібито непереможна зброя росіян — гіпер­звукова ракета «Авангард», яку введуть в експлуатацію цього року.

Звісно, ці та інші поповнення кремлівського арсеналу змусять західних воєнних стратегів замислитися. Та загалом картина лишається незмінною. У військовому розумінні РФ значно слабша за США та їхніх союзників. У будь-якій повномасштабній конфронтації росіяни програють. А якщо дійде до світової війни із застосуванням ядерної зброї, то ми всі помремо. Це не змінилося з часів холодної війни. Нові озброєння мають значення насамперед на внутрішньому рівні: переконують росіян, що їхня країна досі є наддержавою та що рублі, якими вони, сплачуючи податки, фінансують військово-промисловий комплекс, витрачаються з розумом.

Тим часом стратегічна мета Москви — не знищити, а контролювати й стримувати Захід тактикою «поділяй і володарюй». Для цього росіяни експлуатують суперечності між країнами (зокрема, між США та європейськими союзниками), а також розколи й напруженості усередині них, як-от етнічні, мовні, релігійні й суспільні конфлікти. Може прислужитися й політична поляризація, від якої нині потерпають Велика Британія через Brexit, країни — члени ЄС через міграцію або США через Адміністрацію Трампа.

Ядерна зброя (стара чи нова) не відіграє в цьому особ­ливої ролі. Військове залякування наявне, та це лише одна з багатьох тактик, до яких вдається Кремль, сіючи розбрат. Серед інших методів — кібератаки, інформаційні операції, купівля впливу, зловживання правовою системою (цей метод називають lawfare, або «правовійна»), використання експорту енергоресурсів та диверсії. Замість роззявляти роти, спостерігаючи блискучі «штучки», які показують російські телеканали, нам слід замислитися, як протидіяти зброї, що її Росія застосовує вже зараз.

Це зброя наступного покоління у статичній війні без військових методів.

Одна з нових небезпек, що чигає на нас, — deepfakes, тобто створені програмами аудіо- та відеоматеріали, які показують реальні дії реальних людей, які насправді ніколи такого не робили й не казали. Ми давно знаємо, що комп’ютерна графіка використовується в кіноіндустрії. Раніше ці технології були дорогими й потребували багато праці. Нині вони дешеві й швидкі. За допомогою deepfake можна виставити політика на посміховисько або викликати до нього осуд. Можна видати наказ із вимогою здатися противникові.

Другою, дотичною, небезпекою є штучний інтелект і машинне навчання, завдяки якому можна реалістично підробити електронну взаємодію, як-от телефонні дзвінки, листування в чатах тощо, і використати підробки для політичних або ворожих цілей. Потоком імовірних телефонних дзвінків, повідомлень і дописів у соцмережах можна шокувати або відволікати виборців, можна формувати громадську думку.

Третьою небезпечною тактикою є супердоксинґ — онлайн-залякування, що змушують критиків замовкнути. Доксинґ не новий інструмент, але людські та електронні ресурси розвідувальної служби країни здатні зробити його значно дошкульнішим та дієвішим. Він може застосовуватися для витоку приватної інформації, щоб експлуатувати чиїсь слабинки або потенційні конфузи в особистому житті, а також проти родичів відомої особи.

Четвертою тактикою, якої слід остерігатися, є посилене використання вразливих соціальних верств. На Заході падає рівень суспільної довіри, зростає небезпека розколів і бунтів. Зв’язки росіян із рухами протесту, добровольчими загонами та іншими соціальними й культурними організаціями поширюються в багатьох європейських країнах. Це може робитися для того, щоб політизувати їх або використати для диверсійних дій.

Про цю зброю російське телебачення не розповідає. Запитайте себе: чому?

***

На думку експертів із Массачусетського інституту технологій, методика deepfake буде серед головних загроз у 2019 році. Про це йдеться в матеріалі MIT Technology Review. Зловживання відео та аудіо можуть набути надзвичайного поширення та правдоподібності, якщо їх почнуть створювати за допомогою штучного інтелекту (ШІ). Крім deepfake, експерти називають такі потенційно небезпечні технології: використання ШІ для проведення хакерських атак, злам і втручання в системи блокчейну для викрадення криптовалюти аналогічно до втручання в системи реальних банків, злам систем криптозахисту за допомогою ШІ, а також атаки зловмисників на хмарні сховища.

Джерело

Схожі новини