Штучний інтелект все активніше впливає на нашу реальність. Причому відбувається це у найрізноманітніших сферах суспільного життя – освіті, медицині, науці, технологіях і, звісно, політиці. Водночас цей вплив, м’яко кажучи, не завжди є позитивним – передусім через сумнівну якість того продукту, який створюється штучним інтелектом (як правило, мова йде про банальне копіювання вже наявної інформації, переписування її іншими словами або прямий плагіат), а також активне поширення маніпулятивної інформації або відвертої дезінформації, згенерованої у машинний спосіб.
Разом з тим, системи штучного інтелекту на кшталт ChatGPT постійно удосконалюються і можуть упродовж найближчих десяти років збільшити річний світовий ВВП на 7% за рахунок автоматизації роботи, що призведе до буму продуктивності. Щоправда, це негативно вплине на ринок праці, адже близько 300 млн людей, які працюють у великих економіках на повну ставку, можуть залишитися без роботи. Або змушені будуть працювати за набагато менші гроші.
Вже зараз вищезазначені тенденції викликають значний спротив (згадаймо, наприклад, останній страйк сценаристів у Голівуді, які вимагали, щоб письмовий контент, створений штучним інтелектом, не вважався «літературним матеріалом»), який у перспективі може призвести до появи нових луддитів, які виступатимуть проти машин, здатних повноцінно замінити людину. Тож питання регулювання використання штучного інтелекту набуває особливої актуальності, тим більше зараз – адже у 2024 році нас очікує ціла хвиля виборів, на яких ключове місце буде відведено пропаганді, згенерованій системами штучного інтелекту.
Новий вид пропаганди, маніпуляцій та дезінформації
У 2024 році життя близько 4 млрд людей буде проходити під знаком виборів. Індія, США, Індонезія, Велика Британія, Мексика – далеко не повний перелік країн, у яких відбудуться виборчі перегони. Причому політичне протистояння цього разу обіцяє бути вкрай жорстким, що прямо позначиться на методах ведення кампаній. Останні стануть ще більш агресивними і сумнівними з точки зору закону. І саме тут на перший план вийде штучний інтелект. Тож що конкретно він може зробити?
По-перше, значно збільшити масштаби поширення дезінформації та маніпуляцій. Причому це якраз той випадок, коли кількість важливіша за якість. Виборців зможуть у буквальному сенсі бомбардувати фейковими повідомленнями, згенерованими машиною, що врешті-решт вплине на їх вибір.
По-друге, створити альтернативну, фейкову реальність за допомогою фальшивих аудіо-, фото- та відеоматеріалів. Часу на їх спростування елементарно може не вистачити, особливо якщо мова буде йти про фінальний етап виборчих перегонів. Навряд чи за три дні до виборів вдасться повністю «загасити» скандал зі згенерованим штучним інтелектом відео, на якому кандидат, наприклад, буде розважатися у сауні. З ким – насправді неважливо (головне, що це точно буде не його дружина або чоловік), адже головне – створити інформаційних привід. І тут скільки не спростовуй, скільки не доводь, що це фейк, осад у виборців все одно залишиться.
По-третє, суттєво персоналізувати політичну рекламу та пропаганду. Не прийдеться вже бити «по площам», орієнтуватися на великі групи та аудиторії. Кожен виборець зможе отримати ту рекламу, яка максимально відповідатиме його очікуванням (недарма же існує Big Data). Хтось скаже, що це непогано, однак не треба забувати, що відкриває величезний простір для маніпуляцій.
Це лише кілька проблем, які може спричинити неконтрольоване використання штучного інтелекту під час виборів та у політиці в цілому. То що з цим робити? Як контролювати та регулювати його використання?
Заборонити не можна регулювати
Відразу зазначу, що про повну заборону штучного інтелекту (зокрема, у виборчому процесі) мова не йде. Адже це буде… не зовсім демократично. Тим більше, що про великі суспільні ризики мова поки що не йде. Так, є певні побоювання щодо «повстання машин» (наприклад, уряд Британії вже додав штучний інтелект до списку загроз в «Національному реєстрі ризиків»), однак це достатньо віддалена перспектива. Водночас штучний інтелект достатньо активно застосовують у різних сферах (у тому числі – військовій), тому мова йде про регулювання його використання. І ось тут наявний достатньо широкий простір для маневру.
Передусім слід удосконалити вимоги до ліцензування та тестування систем штучного інтелекту. Наприклад, всі продукти, створені за допомогою штучного інтелекту, повинні бути відповідним чином промаркіровані. Споживач повинен знати, з чим має справу. І хто стоїть за тим чи іншим продуктом, згенерованим штучним інтелектом. В іншому випадку – штрафи та ліквідація компаній, які безвідповідально будуть ставитися до цих вимог. Зробити це можна буде як за допомогою нормативно-правових актів та державних органів, так і через формування відповідного професійного співтовариства, яке розробить та впровадить у життя етичний кодекс розробників штучного інтелекту.
Ще один момент – максимальне поширення та підтримка принципу «що незаконно в офлайні, те має бути незаконним і в онлайні» (наприклад, штати Техас, Каліфорнія та Вірджинія вже прийняли законодавство про регулювання діпфейків в контексті порнографії та впливу на вибори). Це дозволить чітко розділити законні та незаконні інструменти використання продуктів, створених штучним інтелектом і зменшить кількість випадків його використання для ведення незаконної діяльності.
І, нарешті, необхідно все робити для того, аби громадяни володіли принаймні базовим рівнем цифрових навичок та мали навички критичного мислення. Це – ключовий механізм, який дозволить тримати штучний інтелект під контролем. Схоже, в ЄС це розуміють, адже розробили та прийняли Європейську цифрову стратегію, яка передбачає, що до 2030 року 80% європейських громадян повинні володіти цифровими навичками. Тож за демократію, принаймні в Європі, поки що можна бути спокійним. Але не слід забувати, що штучний інтелект швидко розвивається. І ми – Homo sapiens – не повинні відставати від нього. Бо в іншому випадку рано чи пізно опинимося на початку другої частини «Термінатору».
Ігор Рейтерович, кандидат політичних наук, керівник політико-правових програм Українського Центру суспільного розвитку