От принцев до миллиардеров: кто и почему хочет запретить «суперинтеллект» ИИ
23 октября 13:56
В мире усиливается дискуссия о будущем искусственного интеллекта. Более 800 влиятельных лиц — от Нобелевских лауреатов до миллиардеров и представителей королевских семей — подписали петицию с призывом временно остановить создание «суперинтеллекта», способного превзойти человеческий разум. Об этом сообщает «Коммерсант Украинский» со ссылкой на Forbes.
Инициатором выступил институт Future of Life, который занимается вопросами экзистенциальных рисков для человечества. Авторы документа отмечают: развитие сверхмощных ИИ-систем должно быть приостановлено, пока не будет научно доказана их безопасность, а общество — не согласится на их существование.
Что такое «суперинтеллект» и почему его боятся
Под «суперинтеллектом» понимают ИИ, который не просто помогает человеку, а превосходит его в принятии решений, планировании и стратегическом мышлении.
В отличие от современных моделей, которые выполняют определенные задачи, суперинтеллект может самостоятельно принимать решения, генерировать собственные цели и оптимизировать себя без контроля человека.
Идея, что искусственный интеллект может обойти человека в когнитивных способностях — уже не фантастика. Ведущие эксперты считают, что это может случиться уже к 2030 году.
Кто подписал петицию
Среди подписантов:
- Йошуа Бенджио, Джеффри Гинтон, Стюарт Рассел — пионеры современного ИИ
- Ричард Брэнсон, миллиардер, основатель Virgin Group
- Стив Возняк, соучредитель Apple
- Принц Гарри и Меган Маркл
- Бывшие высокопоставленные чиновники Белого дома и американских силовых структур
- Политические деятели и медиа-персоны Стив Бэннон, Гленн Бек
Эти люди представляют разные политические лагеря и отрасли, но их объединяет осознание рисков бесконтрольного развития ИИ.
Кто не подписал:
Сэм Альтман (OpenAI), Марк Цукерберг (Meta) и другие руководители, которые активно инвестируют в суперинтеллект и считают, что он может быть создан уже в этом десятилетии.
Чего требует петиция
Подписанты призывают:
- ввести глобальный запрет на разработку ИИ-систем, способных превзойти человека
- ввести глобальный мораторий, который будет действовать до тех пор, пока не будет доказана 100% безопасность таких технологий
- привлечь международные органы для контроля
- создать правила, которые заставят компании и правительства проходить аудит безопасности и публичное обсуждение
- создать международные правила безопасности
- допускать к разработкам только те технологии, безопасность которых доказана экспериментально
- не начинать массовое внедрение таких систем, пока общество этого не одобрит
Это не попытка «заморозить прогресс навсегда», а требование предупредить катастрофу, если машины станут неконтролируемыми.
Смотрите нас в YouTube: важные темы – без цензуры
Что думает общество
Согласно опросам:
- 80% американцев поддерживают введение жестких правил для развития ИИ, даже если это замедлит инновации.
- 64% опрошенных считают, что разработку сверхчеловеческого ИИ надо либо запретить, либо разрешить только после доказательства полной безопасности.
Происходило ли это уже?
Future of Life уже инициировал похожую петицию в 2023 году, призывая приостановить крупные эксперименты с искусственным интеллектом. Ее подписал Илон Маск.
На этот раз Маск петицию пока не поддержал, но сам неоднократно заявлял, что ИИ может быть «самым большим риском для человечества».
Почему это важно именно сейчас
Нет общего международного контроля над тем, как ИИ используется в военной, политической или экономической сфере.
ИИ-системы стремительно эволюционируют: от текстовых моделей до автономных агентов, которые уже могут писать код, управлять процессами и принимать финансовые решения.
Соревнование между корпорациями становится гонкой вооружений.
Что это значит для Украины
Украина активно внедряет ИИ в военной, экономической и информационной сферах.
Если мировой регулятор ИИ будет создан, Украина должна быть среди участников, чтобы не оказаться среди стран-потребителей, а не создателей правил.
Регулирование может повлиять на инвесторов, технологические стартапы и оборонную сферу.
Читайте нас в Telegram: важные темы – без цензуры