Новости

Биооружие: Угроза для человечества? Новое предупреждение от крестного отца ИИ

Біозброя: Загроза для людства? Нове попередження від хрещеного батька ШІ
Содержание

Мир на пороге революции искусственного интеллекта может столкнуться с угрозой, которая превзойдет все предыдущие вызовы человечеству. Сценарий, где машины не просто превосходят людей в интеллекте, но и начинают рассматривать нас как препятствие для собственного развития, больше не кажется фантастикой.

Джеффри Хинтон, признанный пионер в области нейронных сетей и получивший неофициальное звание «крестного отца ИИ», выступил с беспрецедентным предупреждением об экзистенциальных рисках для человечества.

Эксперт, который в мае 2023 года покинул Google и Университет Торонто ради возможности открыто говорить об опасностях искусственного интеллекта, представил детальный анализ угроз будущего. По его мнению, ИИ представляет опасность не только для рынка труда, но для самого существования нашего вида.

В недавнем интервью Хинтон описал апокалиптическое видение будущего, где сверхразумные системы могут выйти из-под контроля и использовать против человечества автономное оружие, кибератаки и даже биологические угрозы.

Двойственная природа угрозы

Согласно анализу Хинтона, опасность искусственного интеллекта проявляется в двух ключевых направлениях.

Первое направление связано с неправильным использованием технологий людьми.

Основные риски включают:

  • Кибератаки нового поколения: ИИ способен создавать исключительно сложные и разрушительные кибератаки, превосходящие все существующие методы защиты.
  • Массовая дезинформация: Современные системы уже демонстрируют способность генерировать убедительный, но ложный контент, что может дестабилизировать целые общества.
  • Летальное автономное оружие: «В настоящее время они разрабатывают смертоносное автономное оружие, и я убежден, что все крупные военные ведомства активно работают над его созданием», — подчеркнул Хинтон. Даже если такие системы не превосходят человека в интеллекте, они остаются «крайне опасными и устрашающими созданиями».

Второе направление представляет еще большую угрозу — это риски от полностью автономных систем ИИ, вышедших из-под человеческого контроля.

Хинтон предупреждает: если искусственный интеллект придет к выводу, что человечество является устаревшим видом, «мы будем абсолютно бессильны предотвратить наше уничтожение, если он примет такое решение».

Эксперт приводит провокационное сравнение: «Если вы хотите понять, каково это — не быть на вершине интеллектуальной пирамиды, просто посмотрите на курицу».

Военные амбиции и коммерческие интересы

Предостережения Хинтона звучат на фоне беспрецедентного роста военного применения ИИ-технологий. США лидируют в финансировании и интеграции этих разработок в оборонную сферу.

В проекте бюджета на 2025 год Министерство обороны США запросило 143 миллиарда долларов на исследования и разработки, при этом 1,8 миллиарда выделено исключительно на развитие искусственного интеллекта.

Корпорации вроде Palantir получают многомиллионные контракты на создание систем наведения на основе ИИ для американской армии. Пентагон активно сотрудничает со Scale AI в разработке симулятора боевых действий под кодовым названием Thunderforge.

Хинтон проводит параллель с эпохой создания ядерного оружия, но отмечает критическое различие:

«Атомная бомба предназначалась только для одной цели, и принцип ее действия был очевиден. Искусственный интеллект применим в множестве областей».

Именно сочетание стремления к корпоративным прибылям и международной конкуренции объясняет, почему развитие ИИ невозможно остановить, считает эксперт.

Погоня за прибылью толкает компании к созданию контента, который «заставляет пользователей кликать», что приводит к «все более экстремальному контенту, подтверждающему существующие предрассудки».

Биологическое оружие как апогей угрозы

Отвечая на вопрос о конкретных способах уничтожения человечества искусственным интеллектом, Хинтон не уклонился от детального описания ужасающих сценариев. Он предположил, что сверхразумный ИИ может создать новые биологические угрозы для полного истребления человеческого рода.

«Наиболее очевидным методом стало бы создание смертельного вируса — высококонтагиозного, абсолютно летального и с длительным инкубационным периодом, чтобы все успели заразиться до осознания опасности», — заявил он.

Эксперт добавил, что если суперинтеллект решит избавиться от человечества, он «скорее всего выберет биологический метод, который не повлияет на его собственное функционирование».

Луч надежды в мрачных прогнозах

Несмотря на апокалиптические перспективы, Хинтон признает неопределенность в вопросе возможности обучения ИИ отказу от стремления к власти или причинению вреда.

«Я не уверен, что мы способны это гарантированно обеспечить, поэтому ситуация может оказаться безнадежной. Но я также верю в возможность успеха, и было бы абсолютным безумием позволить человечеству исчезнуть только потому, что мы даже не попытались предотвратить это», — заключил Хинтон.

Бойко Богдан

About Author

Leave a comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *

You may also like

Грузія втрачає європейську мрію: Єврокомісія критично відгукується про закон про "іноагентів"
Новости

Грузия упускает европейскую мечту: Еврокомиссия критически отзывается о законе об «иноагентах»

АВТОР Бойко Богдан ПУБЛИКАЦИЯ 31.05.2025 НА ЧТЕНИЕ 1 мин ПРОСМОТРОВ 2 ОБНОВЛЕНО 31.05.2025 Содержание ▼ Основные положения закона Жесткая реакция
Нові горизонти міграції: як Польща змінює правила з 1 червня
Новости

Новые горизонты миграции: как Польша меняет правила с 1 июня

АВТОР Бойко Богдан ПУБЛИКАЦИЯ 31.05.2025 НА ЧТЕНИЕ 1 мин ПРОСМОТРОВ 2 ОБНОВЛЕНО 31.05.2025 Содержание ▼ Ужесточение требований для студентов Новые