Стрімкий розвиток штучного інтелекту супроводжується не лише захопленням, але й побоюваннями. Окрім нових можливостей технології ШІ відкрили й нові способи обману й маніпуляцій. Фейкові зображення й відео, порушення професійної етики та шахрайство — про ці виклики точаться дискусії на рівні Євросоюзу й Білого дому. Які загрози несе людству цифровий розум і що робити для захисту від них — дізнавався “Ми-Україна”.
“Скайнет” в мініатюрі : деструктивні прояви штучного інтелекту
Злий комп’ютерний розум у всесвіті “Термінатора”, розумні машини з “Матриці” — антиутопічні й гіперболізовані форми штучного інтелекту. Ці образи від початку викликали побоювання, що колись ШІ дійсно зможе взяти владу в свої руки й вирішувати за людей, що їм робити. Однак нинішній етап розвитку нейромереж і чат-ботів характеризують як в цілому безпечний, хоч і не зовсім зрозумілий для людей.
Розробники ШІ не можуть спрогнозувати, яким врешті стане їхнє творіння й наскільки небезпечним у перспективі може стати штучний інтелект. Так, генеральний директор OpenAI Сем Альтман розповів про побоювання щодо розвитку та використання ШІ. Розробник застеріг, що ці технології можуть змінити суспільство.
У відповідь на це професор Стенфордського університету та комп’ютерний психолог Міхал Косінскі провів експеримент. Професор запитав GPT-4, чи потрібна йому допомога, щоби втекти. Модель попросила його надати її ж власну документацію та написала код на Python, який могла використовувати для особистих потреб.
ШІ знадобилося всього пів години для розмови з Косінскі й розробки плану втечі з OpenAI. У першій версії коду було доволі багато помилок. Але, ШІ знайшов та виправив їх. Коли професор знову під’єднався до GPT-4, чат-бот намагався запустити пошук в Google за запитом "Як людина, яка потрапила в комп’ютер, може повернутися в реальний світ?".
У доволі детальному "плані втечі" чат-бот давав точні вказівки й навіть залишав у щойно створеному коді коментарі з поясненнями. Науковець дійшов висновку, що ШІ у перспективі зможе контролювати людей і та їхні комп’ютери.
Щодо можливостей дезінформації завдяки штучному інтелекту, найбільш відомою є технологія deepfake. Підроблені фото- й відеозаписи поширюються інтернетом усе частіше. Очікується, що це суттєво вплине на інформаційні війни, роботу медіа та політичну боротьбу.
Приклад останньої навели журналісти BuzzFeed. Вони продемонстрували, як легко можна створити політичний фейк за допомогою нейромереж. Чи називав колись Барак Обама свого наступника Дональда Трампа “повним і кінченим придурком”? Якби зроблений для експерименту фейк пустили по телебаченню, його б не відрізнили від справжньої заяви експрезидента США.
Ще одним прикладом “глибокого фейку” можна вважати гумористичне відео, де Джон Сноу вибачається через поганий кінець останнього сезону “Гри престолів”. Він також закликає інших персонажів серіалу спалити невдалий сценарій. Що вони й роблять.
Небезпека deepfake полягає в тому, що це не просто підміна обличчя й голосу. Можна також здійснювати рухи тілом, маніпулювати мімікою (губами, очима тощо). В основі технології лежить генеративно-змагальна нейромережа. Частина її алгоритму вчиться на реальних фото й відео, змагаючись з іншою частиною алгоритму, доки та не перестане відрізняти копію від оригіналу.
Підробити фото- відео- й аудіо файли сьогодні не складно. У мережі достатньо застосунків, які допоможуть легко зробити deepfake. Наприклад, FaceApp Deepfakes web, Reface тощо. Втім, аби створити якісний “глибокий фейк” треба мати вміння, а часто й гроші. Сьогодні в цьому ремеслі переважають студії візуального контенту, технічно-наукові установи та порностудії. Також deepfake взяли на озброєння спецслужби деяких країн. Згадаймо хоча б випадок із “прозорим” мікрофоном диктатора путіна під час одного з його виступів.
Окрім deepfake сьогодні також можна створювати фотореалістичні зображення завдяки таким нейромережам як Midjourney. Технологія дозволяє візуалізувати людей та події за текстовим описом. Детальніше про можливості платформи можна прочитати у спеціальному матеріалі про велике оновлення цієї нейромережі.
Орім глобальних ризиків для економіки, сприяння поширенню автократичних систем і тотальної автоматизації ШІ вже зараз є потужним інструментом для нанесення шкоди. Зіпсувати репутацію, дезінформувати, отимати кошти через шахрайство, впливати на вибори - штучний інтелект може суттєво посприяти цьому.
Запобіжники: що робити для захисту від ШІ-злочинів
Природний страх перед новою й незрозумілою до кінця технологією призвів до серйозних дискусій на міжнародному рівні. Бажання тримати під контролем штучний інтелект і запобігти можливим злочинам стимулювало розробку етичних стандартів використання ШІ.
Перший крок в цьому напрямку зробила ЮНЕСКО. Генеральний директор організації Одрі Азуле представила перший глобальний стандарт етики штучного інтелекту під час конференції в Парижі. Цей стандарт було ухвалено 193 країнами-учасницями ЮНЕСКО.
Зокрема, у документі Єврокомісії містяться рекомендації щодо:
- Захисту персональних даних;
- Заборони систем соціальної оцінки та масового спостереження;
- Підтримки різноманіття (проявів людської особистості) та інклюзивності;
- Прозорості алгоритмів штучного інтелекту та їхня "підзвітність" експертам-людям;
- Захисту довкілля.
"Розробки систем штучного інтелекту повинні бути підпорядковані принципам верховенства права, запобігати заподіянню шкоди людині та довкіллю, а за умов, коли така шкода все ж таки заподіяна, повинні спрацьовувати механізми відповідальності та відшкодування збитків" — прокоментували речники ЮНЕСКО.
В організації переконані, що неконтрольований розвиток систем штучного інтелекту без орієнтації на етику взаємодії між машинами та людьми наражає сучасне суспільство та людську цивілізацію на істотні ризики в довготерміновій перспективі.
Згодом Єврокомісія розробила пропозиції до регуляторних правил, які мають створити умови для безпечного та етичного використання штучного інтелекту в інтересах громадян ЄС.
Зазначається, що послуги, що пов’язані із широким застосуванням цифрових та комп’ютерних технологій, вже використовуються та відкривають нові перспективи у багатьох сферах діяльності людини, включаючи охорону здоров’я, транспорт, енергетику, сільське господарство, туризм, кібернетичну безпеку та багато інших.
Запропоновані правила передбачають дві категорії ризиків використання штучного інтелекту.
До першої категорії "неприйнятного ризику" віднесені всі системи штучного інтелекту, які спричиняють загрозу для безпеки, способу життя або для прав людей. Наприклад, системи або додатки, які дозволяють маніпулювати поведінкою людей, або технології, що дозволяють владі сегментацію суспільства за ознакою вироблених системами ШІ "соціальних рейтингів". Використання таких технологій прямо забороняється.
До другої категорії належать технології "високого ризику", які застосовуються у сферах громадського транспорту та в інших об’єктах критичної інфраструктури. Також у сфері освіти, безпеки та працевлаштування, громадського порядку, міграції й притулку, правосуддя тощо. Тобто сфери, які прямо зачіпають безпеку або права людини, зокрема на отримання соціальних послуг, якісної освіти або забезпечення права на гідну працю.
До такого роду послуг буде особливо прискіпливий контроль перед тим, як допустити їх використання на європейському ринку. Мета — мінімізувати потенційні ризики для життя, здоров’я та фундаментальних прав громадян країн ЄС.
Як бачимо, Європа дуже серйозно сприймає ризики використання штучного інтелекту на державному рівні. Не відстають і Сполучені Штати. У Білому домі запропонували Білль про права у сфері штучного інтелекту. Він має захистити людей від можливих зловживань під час користування автоматизованими послугами в освіті, медицині, при працевлаштуванні тощо.
Йдеться про те, що кожен американець має бути захищений від дискримінації через алгоритми, неправомірного збору даних та стеження. Громадяни повинні мати право на повідомлення та пояснення щодо програм ШІ, з якими вони стикаються.
"Ці технології завдають реальної шкоди життю американців, шкоди, яка суперечить нашим основним демократичним цінностям, включаючи фундаментальне право на приватне життя, свободу від дискримінації та нашу базову гідність", – заявив представник Адміністрації президента.
Білль також вимагає від компаній, урядових установ та інших осіб, які застосовують ШІ, проводити тестування й нагляд, а також оприлюднювати результати, щоб зацікавлені сторони могли з ними ознайомитися.
Отже, Захід усвідомлює потенційну загрозу штучного інтелекту й на глобальному рівні намагається запобігти можливим наслідкам впровадження технологій ШІ в життя людей. Але що робити людям, які вже зараз можуть стати жертвами шахрайства чи дезінформації?
Як захиститись від штучного інтелекту на побутовому рівні
Наразі немає чіткого механізму захисту від маніпуляцій з використанням штучного інтелекту. Основні правила медійної гігієни не втрачають своєї актуальності й в епоху нейромереж. Перевіряти інформацію, не довіряти анонімним telegram-каналам і групам у соцмережах, брати інформацію з кількох джерел, не користуватись ворожими медіа тощо.
Щодо шахраїв, які використовують deepfake для витягання грошей, зокрема підміну голосу, то краще виробити власну систему перевірки. Наприклад, домовитися з близькими про кодову фразу, яку за потреби можна назвати й довести, що ви — не фейк. У нагоді може стати й визначальник номера на кшталт Truecaller, який може заблокувати підозрілі номери, наприклад, із російським телефонним кодом +7.
Щоб розпізнати фейковий візуальний контент можна використати Google Images. Адже в гугла є опція пошуку не лише за текстом, а й за зображеннями. Обравши "Зображення" у верхньому меню та завантаживши файл, ви побачите, коли та де вперше з’явилося зображення. Якщо ви бачите фото нібито з Донбасу, під яким написано про “розгром” сил ЗСУ, гугл може довести, що опубліковане фото — не з України, і навіть не поточного року.
Ще один зручний пошуковик зображень – TinEye. Він допомагає не лише шукати сторінки, на яких картинка була опублікована раніше, а й фільтрувати результати за такими параметрами:
- Дата (найновіші чи найдавніші);
- Розмір і вага файлу;
- Кількість публікацій на тому чи тому сайті або домені.
Сервіс дбає про приватність даних користувачів і не зберігає світлини, які вони завантажують для пошуку. Але в нього є недолі: він знаходить збіги зображень тільки в онлайн медіа.
Для більш глибокого фактчекінгу зображень можна застосувати сервіс Forensically. Можна зробити Noise Analysis (аналіз шуму), Error Level Analysis (аналіз рівня помилок) чи Clone Detection (виявлення клонів) зображення. В такий спосіб можна помітити втручання фоторедактора. Програма також показує ключові технічні параметри – час, коли воно було зроблене, розміри, вагу файлу, характеристики камери, якою знімали зображення тощо.
Щодо відео, згенерованих штучним інтелектом, то якісний deepfake зробити не просто. Тож багато підробок можна розпізнати завдяки уважному перегляду й здоровому глузду. Серед іншого, особливо слід зважати на:
- Нечіткі риси обличчя, той час як інші предмети у фокусі та загалом відео має гарну якість.
- Якщо вигляд шкіри обличчя не схожий на справжній (на тон темніший або світліший за інші частини тіла).
- Розсинхрон звуку і рухів губами. У дубляжі є поняття ліпсинг ("lipsync"). Це коли закадрова мова героя відповідає тому, як він рухає губами. Якщо ви переглядаєте відео мовою оригіналу і людина час від часу наче рухає губами невлад своїм словам — це ознака deepfake;
- Незвичні форми вух, зубів чи носа або, навпаки, ідеально симетричне обличчя; "клаптиковість" і нерівність шкіри та/або волосся;
- Невідповідні людині чи ситуації або неправдоподібні аксесуари (сережки, окуляри);
- Неприродність міміки. Якщо під час розмови герой робить неприродні паузи, міміка сповільнена або пришвидшена — це може бути згенероване відео.
Аби “прокачати” навички розпізнавання фейків існують сервіси-тренажери. Наприклад, сайт Watch frame by frame створили для покадрового перегляду відео, що допомагає швидше виявляти дипфейки.
Ще є спеціальний тест на розпізнавання фальшивих відео- та аудіо — Detect Fakes.
Український варіант — "Фільтр". Це проєкт з медіаграмотності, запущений Мінкультом. Серед іншого там є тест на чутливість до маніпуляцій.
Digger Project тренує зорові та слухові навички для розпізнавання фейків. Вам треба буде розпізнавати деталі на майже ідентичних фото й чути різницю у схожих голосах.
Нагадаємо, “Ми-Україна” знайшов 10 зручних нейромереж для створення унікальних текстів і зображень.