Новини

Біозброя: Загроза для людства? Нове попередження від хрещеного батька ШІ

Біозброя: Загроза для людства? Нове попередження від хрещеного батька ШІ
Зміст

Світ на порозі революції штучного інтелекту може зіткнутися з загрозою, яка перевищить всі попередні виклики людству. Сценарій, в якому машини не просто перевершують людей в інтелекті, але й починають розглядати нас як перешкоду для власного розвитку, більше не здається фантастикою.

Джеффрі Хінтон, визнаний піонер у сфері нейронних мереж і отримавший неофіційне звання “хрестного батька ШІ”, виступив з безпрецедентним попередженням про екзистенційні ризики для людства.

Експерт, який у травні 2023 року залишив Google і Університет Торонто на користь можливості відкрито говорити про небезпеки штучного інтелекту, представив детальний аналіз загроз майбутнього. На його думку, ШІ становить загрозу не тільки для ринку праці, але й для самого існування нашого виду.

У нещодавньому інтерв’ю Хінтон описав апокаліптичне бачення майбутнього, де надрозумні системи можуть вийти з-під контролю і використовувати проти людства автономну зброю, кібератаки та навіть біологічні загрози.

Двоїста природа загрози

Згідно з аналізом Хінтона, небезпека штучного інтелекту проявляється в двох ключових напрямках.

Перше напрямок пов’язаний з неправильним використанням технологій людьми.

Основні ризики включають:

  • Кібератаки нового покоління: ШІ здатний створювати надзвичайно складні та руйнівні кібератаки, що перевершують всі існуючі методи захисту.
  • Масова дезінформація: Сучасні системи вже демонструють здатність генерувати переконливий, але хибний контент, що може дестабілізувати цілі суспільства.
  • Смертоносна автономна зброя: “В даний час вони розробляють смертоносну автономну зброю, і я впевнений, що всі крупні військові відомства активно працюють над її створенням”, – підкреслив Хінтон. Навіть якщо такі системи не перевершують людину в інтелекті, вони залишаються “крайньо небезпечними та лякаючими створіннями”.

Другий напрямок представляє ще більшу загрозу – це ризики від абсолютно автономних систем ШІ, що вийшли з-під людського контролю.

Хінтон попереджає: якщо штучний інтелект дійде висновку, що людство є застарілим видом, “ми будемо абсолютно безсилі запобігти нашому знищенню, якщо він прийме таке рішення”.

Експерт наводить провокаційне порівняння: “Якщо ви хочете зрозуміти, як це – не бути на вершині інтелектуальної піраміди, просто подивіться на курку”.

Військові амбіції та комерційні інтереси

Попередження Хінтона звучать на фоні безпрецедентного зростання військового застосування ШІ-технологій. США лідирують у фінансуванні та інтеграції цих розробок у оборонну сферу.

В проекті бюджету на 2025 рік Міністерство оборони США запросило 143 мільярди доларів на дослідження та розробки, при цьому 1,8 мільярда виділено виключно на розвиток штучного інтелекту.

Корпорації на зразок Palantir отримують багатомільйонні контракти на створення систем прицілювання на основі ШІ для американської армії. Пентагон активно співпрацює зі Scale AI в розробці симулятора бойових дій під кодовою назвою Thunderforge.

Хінтон проводить паралель з епохою створення ядерної зброї, але зазначає критичну різницю:

“Атомна бомба призначалася тільки для однієї мети, і принцип її дії був очевидним. Штучний інтелект застосовний в безлічі областей”.

Саме поєднання прагнення до корпоративних прибутків і міжнародної конкуренції пояснює, чому розвиток ШІ неможливо зупинити, вважає експерт.

Погоня за прибутком штовхає компанії до створення контенту, який “змушує користувачів клікати”, що призводить до “все більш екстравагантного контенту, що підтверджує існуючі упередження”.

Біологічна зброя як апогей загрози

Відповідаючи на питання про конкретні способи знищення людства штучним інтелектом, Хінтон не ухилився від детального опису жахливих сценаріїв. Він припустив, що надрозумний ШІ може створити нові біологічні загрози для повного знищення людського роду.

“Найбільш очевидним методом стало б створення смертельного вірусу – висококонтагіозного, абсолютно летального та з тривалим інкубаційним періодом, щоб всі встигли заразитися до усвідомлення небезпеки”, – заявив він.

Експерт додав, що якщо супермудрість вирішить позбутися людства, вона “швидше за все обере біологічний метод, який не вплине на її власне функціонування”.

Промінь надії в похмурих прогнозах

Незважаючи на апокаліптичні перспективи, Хінтон визнає невизначеність у питанні можливості навчання ШІ відмовлятися від прагнення до влади чи заподіяння шкоди.

“Я не впевнений, що ми здатні це гарантувати, тому ситуація може виявитися безнадійною. Але я також вірю у можливість успіху, і було б абсолютним безумством дозволити людству зникнути тільки тому, що ми навіть не намагалися це запобігти”, – підсумував Хінтон.

Бойко Богдан

About Author

Leave a comment

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

You may also like

Грузія втрачає європейську мрію: Єврокомісія критично відгукується про закон про "іноагентів"
Новини

Грузія втрачає європейську мрію: Єврокомісія критично відгукується про закон про “іноагентів”

АВТОР Бойко Богдан ПУБЛІКАЦІЯ 31.05.2025 НА ЧИТАННЯ 1 хв ПЕРЕГЛЯДІВ 2 ОНОВЛЕНО 31.05.2025 Зміст ▼ Основні положення закону Жорстка реакція
Нові горизонти міграції: як Польща змінює правила з 1 червня
Новини

Нові горизонти міграції: як Польща змінює правила з 1 червня

АВТОР Бойко Богдан ПУБЛІКАЦІЯ 31.05.2025 НА ЧИТАННЯ 1 хв ПЕРЕГЛЯДІВ 5 ОНОВЛЕНО 31.05.2025 Зміст ▼ Ускладнення вимог для студентів Нові