Через 5 років штучний інтелект стане набагато потужнішим, як він себе вестиме?
(Частина третя. Чекаючи на нову сингулярність)
Штучний інтелект (ШІ) надійно і непомітно увійшов у наше життя, власне ставши частиною людського сьогодення. Та нині ШІ це не лише стрімка технологічна революція, а також виклики та загрози. Дискусії про заповітний (або зовсім ні) сингулярний момент, коли ШІ стане розумнішим за людину, перевершить людський розум та стане недоступним для людського інтелекту – триває вже не один рік. Хтось досі каже, що це утопія, але все більше тих, для кого очевидно, що це лише питання часу. Щодня горизонт події під назвою технологічна сингулярність стає все ближчим. Два роки тому гендиректор OpenAI повідомив, що навчання GPT-5 припинили на прохання 50 тисяч впливових людей, серед яких Ілон Маск, Стів Возняк та багато інших людей. Двічі вжите слово «людей» в попередньому реченні недаремне. Бо поки ще люди здатні зупинити неконтрольований розвиток ШІ, людство існує в ситуації передбачуваної (гм, ще б пак!) ентропії. Тим часом ентропією віє з боліт, і кому як не українцям про це знати. Але поки нової сингулярності не сталося, можна окреслити, що ми маємо станом на зараз.
ШІ став однією з ключових рушійних сил сучасного світу, докорінно змінюючи економіку, соціум і спосіб мислення людини. Від автоматизації виробництва до формування суспільної думки через соцмережі – вплив цієї технології неможливо переоцінити. Проте разом із прогресом приходять і загрози: розмивання критичного мислення, кібератаки, маніпуляції інформацією. Яким є реальний масштаб впливу ШІ на людство?
Розвиток штучного інтелекту суттєво прискорив технологічну еволюцію. Системи машинного навчання оптимізують виробничі процеси, зменшуючи людський фактор і підвищуючи ефективність. В медицині ШІ допомагає в діагностиці та створенні нових ліків, в аграрній сфері – у прогнозуванні врожаїв, а в енергетиці – в управлінні розподілом ресурсів. Вже зараз автоматизація витісняє мільйони працівників у сфері обслуговування, логістики, навіть творчих професій. Проте водночас створюються нові можливості – зростає попит на фахівців, які можуть взаємодіяти з ШІ та контролювати його роботу. Штучний інтелект сьогодні формує те, що ми бачимо у Facebook, TikTok, Instagram та інших соцмережах. Алгоритми персоналізують контент, враховуючи наші уподобання, пошукові запити й навіть емоційний стан. Саме так ШІ створює ефект «інформаційної бульбашки», коли користувач отримує лише ті дані, які підтверджують його погляди, що веде до радикалізації суспільства та зростання дезінформації. Завдяки ШІ зросла ефективність таргетованої реклами, що призвело до комерціалізації нашої уваги. Водночас соцмережі стали інструментом маніпуляції масами через інформаційно-психологічні спецоперації (ІПСО), які особливо полюбляє божевільна українська сусідка, нав’язуючи свою шизоїдну білочервоносиню гарячку довірливим українцям, для яких все ще непринципові речі з вибірки «какаяразніца».
Інформаційний потік, який контролюється алгоритмами ШІ, змінює структуру мислення людини. Люди, як худобинка, звикають до коротких, яскравих, емоційних повідомлень – це сприяє розвитку кліпової свідомості, коли інформація сприймається фрагментарно, без аналізу контексту. Також ШІ поступово підміняє критичне мислення: ми все частіше покладаємося на рекомендації алгоритмів замість того, щоб самостійно шукати інформацію й аналізувати її. Це сильно спрощує маніпулювання суспільною думкою для тих, кому це потрібно. Але солодка цукерочка така, що технології ШІ можуть бути використані й для саморозвитку – адаптивне навчання, персоналізовані курси, інтелектуальні помічники можуть допомогти людині стати більш ефективною. Все залежить від того, як ми використовуємо ці інструменти.
Автоматизація процесів кібербезпеки, що здійснюється за допомогою ШІ, значно підвищила ефективність захисту від хакерських атак. ШІ, з іншого боку, на повну застосовують злі генії і для атак – deepfake-технології, автономні віруси, генеративні алгоритми, що здатні обходити традиційні системи кіберзахисту. Уже й діти знають, що за допомогою ШІ можна створювати фальшиві голосові повідомлення або відео, які неможливо відрізнити від реальних. А це безмежні можливості для шахрайства й інформаційних атак. Військові та спецслужби вже давно і активно розробляють і навчають системи ШІ для ведення кібервійн. Людство на собі відчуло, як інформаційні війни стали ще більш небезпечними через появу ШІ. «Боти атакують знову» – новий недивний світ, ботоферми, що створюють ілюзію суспільних настроїв, дозволяють масштабувати маніпуляції громадською думкою; спеціально навчені боти це не овечки Доллі, вони створюють реалістичні тексти, зображення й відео.
Каґебісти з московських боліт отримали новий інструмент для дестабілізації суспільств: ШІ пише і фейкові новини, і масово поширює пропаганду, і займається (достоту як натхненний садівник) підміною історичних фактів. Якщо не розробити механізмів контролю за використанням ШІ в інформаційному просторі, ця загроза зросте до «неможливо уявити». росія активно впроваджує технології штучного інтелекту (ШІ) для посилення своїх пропагандистських кампаній, спрямованих на дезінформацію та маніпуляцію громадською думкою як всередині країни, так і за її межами. Тож що вони роблять? російські пропагандисти використовують ШІ для створення фальшивих новинних матеріалів, що імітують стиль провідних світових медіа. Ці матеріали публікуються на підроблених новинних сайтах, створених за допомогою клонування доменів, що вводить користувачів в оману щодо їхньої достовірності. Крім того, технології ШІ застосовуються для створення дипфейків – підроблених відео та аудіозаписів, які важко відрізнити від реальних. Наприклад, у межах інформаційної операції під назвою «Матрьошка» російські пропагандисти створювали сфабриковані відео про українських біженців, поширюючи їх у соціальних мережах за допомогою ботів та штучного збільшення переглядів. Компанія OpenAI, розробник ChatGPT, виявила групи з росії, Китаю та Ірану, які використовують її технології для впливу на політичні дискусії у всьому світі. Ці групи застосовують ШІ для створення та поширення контенту, спрямованого на формування громадської думки та дезінформацію. кремлівські медіа, такі як RT, впроваджують віртуальних ведучих, створених за допомогою ШІ, для поширення пропагандистського контенту. Ці віртуальні персонажі, що говорять різними мовами, дозволяють забезпечити безперервну трансляцію пропаганди та уникнути ризику, пов’язаного з людським фактором, наприклад, відхилення від затвердженого сценарію. москва використовує генеративний ШІ для посилення кампаній з дезінформації проти України. Створення фальшивих новин, маніпулятивних зображень та відео, які поширюються через різні платформи з метою впливу на громадську думку та дискредитації української влади. москва також застосовує ШІ для впливу на політичні процеси в інших країнах. Американська розвідка було повідомляла, що росія активно використовує контент, створений за допомогою ШІ, для впливу на вибори в США, поширюючи дезінформацію та маніпулятивні матеріали.
Глобально (і тут увага!): ШІ стрімко змінює методи ведення кібератак. Якщо раніше хакери покладалися на ручні або напівавтоматизовані інструменти, то сьогодні алгоритми машинного навчання значно підвищують ефективність атак і ускладнюють їхнє виявлення. Одна з найпоширеніших кібератак, у якій ШІ вже активно застосовується, – це фішинг. Традиційні фішингові листи часто містили граматичні помилки або виглядали підозріло, але сучасні нейромережі здатні створювати переконливі, стилістично точні повідомлення, що імітують комунікацію відомих компаній або посадових осіб. ШІ дозволяє автоматично персоналізувати атаки: аналізувати соцмережі жертви, підбираючи персоналізовані теми листів; визначати стиль письма та імітувати його в шахрайському повідомленні; генерувати динамічні фішингові сайти, які змінюються в реальному часі, уникаючи детектування. Традиційні атаки методом перебору паролів (brute force) потребували великих обчислювальних ресурсів. ШІ дозволяє значно прискорити процес завдяки: використанню алгоритмів генерації паролів на основі поведінкових моделей (аналіз попередніх витоків, урахування особливостей користувача); оптимізації атак завдяки нейромережам, що прогнозують найімовірніші комбінації паролів; адаптації алгоритмів у реальному часі залежно від відповідей сервера (наприклад, аналіз відгуку системи на некоректний пароль). Хакери використовують ШІ для аналізу коду сайтів, додатків і мереж, виявляючи слабкі місця. ШІ значно пришвидшує аналіз великих масивів даних, дозволяючи атакувальникам знаходити цілі швидше, ніж це роблять традиційні сканери вразливостей. ШІ дозволяє створювати реалістичні дипфейки – підроблені відео та аудіозаписи, які імітують голоси й обличчя реальних людей. Це відкриває нові можливості для атак. Наприклад, дезінформаційні атаки – публікація підроблених відеозвернень політиків або військових командирів. Чи такі банально-ґешефтні штучки, як злам біометричних систем (підробка голосу або обличчя для обходу систем аутентифікації).
Як на лінії бойового зіткнення у російсько-українській війні дрони вже воюють з дронами, там ШІ можна використати для атак на інші ШІ-системи. Це актуально у царинах кібербезпеки (так вже роблять), військових технологій та фінансових алгоритмів. Атаки на розпізнавання облич, коли невидимі для людини маніпуляції із зображенням можуть змусити систему ідентифікувати одну особу як іншу; обман антифрод-систем (маніпуляція алгоритмами банківських систем для обходу захисту транзакцій); маніпуляції алгоритмами рекомендацій та аналітики даних – і то всьо вже си діє.
А ще DDoS-атаки. Раніше DDoS-атаки будувалися на однотипних запитах, що дозволяло їх ефективно блокувати. Зараз ШІ допомагає хакерам створювати адаптивні атаки, які динамічно змінюють патерн запитів, уникаючи виявлення, можуть аналізувати поведінку серверів у режимі реального часу та адаптуються під їхню реакцію. Системи ШІ здатні використовувати ботнети на основі IoT-пристроїв, роблячи атаки масштабнішими. Висновків не буде.
