Від принців до мільярдерів: хто і чому хоче заборонити «суперінтелект» ШІ
23 Жовтня 13:56
У світі посилюється дискусія щодо майбутнього штучного інтелекту. Більше ніж 800 впливових осіб – від Нобелівських лауреатів до мільярдерів та представників королівських родин – підписали петицію із закликом тимчасово зупинити створення «суперінтелекту», здатного перевершити людський розум. Про це повідомляє «Комерсант Український» з посиланням на Forbes.
Ініціатором виступив інститут Future of Life, який займається питаннями екзистенційних ризиків для людства. Автори документа наголошують: розвиток надпотужних ШІ-систем має бути призупинено, доки не буде науково доведена їхня безпечність, а суспільство — не погодиться на їх існування.
Що таке “суперінтелект” і чому його бояться
Під «суперінтелектом» розуміють ШІ, який не просто допомагає людині, а перевершує її у прийнятті рішень, плануванні та стратегічному мисленні.
На відміну від сучасних моделей, які виконують певні завдання, суперінтелект може самостійно ухвалювати рішення, генерувати власні цілі та оптимізувати себе без контролю людини.
Ідея, що штучний інтелект може обійти людину в когнітивних здібностях — уже не фантастика. Провідні експерти вважають, що це може трапитися вже до 2030 року.
Хто підписав петицію
Серед підписантів:
- Йошуа Бенджіо, Джеффрі Гінтон, Стюарт Рассел – піонери сучасного ШІ
- Річард Бренсон, мільярдер, засновник Virgin Group
- Стів Возняк, співзасновник Apple
- Принц Гаррі та Меган Маркл
- Колишні високопосадовці Білого дому та американських силових структур
- Політичні діячі й медіа-персони Стів Беннон, Ґленн Бек
Ці люди представляють різні політичні табори та галузі, але їх об’єднує усвідомлення ризиків безконтрольного розвитку ШІ.
Хто не підписав:
Сем Альтман (OpenAI), Марк Цукерберг (Meta) та інші керівники, які активно інвестують у суперінтелект і вважають, що він може бути створений вже цього десятиліття.
Чого вимагає петиція
Підписанти закликають:
- ввести глобальну заборону на розробку ШІ-систем, здатних перевершити людину
- ввести глобальний мораторій, який діятиме доти, доки не буде доведена 100% безпечність таких технологій
- залучити міжнародні органи для контролю
- створити правила, які змусять компанії та уряди проходити аудит безпечності та публічне обговорення
- створити міжнародні правила безпеки
- допускати до розробок лише ті технології, безпечність яких доведена експериментально
- не починати масове впровадження таких систем, доки суспільство цього не схвалить
Це не спроба «заморозити прогрес назавжди», а вимога попередити катастрофу, якщо машини стануть неконтрольованими.
Дивіться нас у YouTube: важливі теми – без цензури
Що думає суспільство
Згідно з опитуваннями:
- 80% американців підтримують запровадження жорстких правил для розвитку ШІ, навіть якщо це сповільнить інновації.
- 64% опитаних вважають, що розробку надлюдського ШІ треба або заборонити, або дозволити лише після доведення повної безпеки.
Чи це вже відбувалося?
Future of Life уже ініціював схожу петицію у 2023 році, закликаючи призупинити великі експерименти зі штучним інтелектом. Її підписав Ілон Маск.
Цього разу Маск петицію поки не підтримав, але сам неодноразово заявляв, що ШІ може бути «найбільшим ризиком для людства».
Чому це важливо саме зараз
Немає спільного міжнародного контролю над тим, як ШІ використовується у військовій, політичній або економічній сфері.
ШІ-системи стрімко еволюціонують: від текстових моделей до автономних агентів, які вже можуть писати код, управляти процесами та приймати фінансові рішення.
Змагання між корпораціями стає гонкою озброєнь.
Що це означає для України
Україна активно впроваджує ШІ у військовій, економічній та інформаційній сферах.
Якщо світовий регулятор ШІ буде створений, Україна має бути серед учасників, щоб не опинитися серед країн-споживачів, а не творців правил.
Регулювання може вплинути на інвесторів, технологічні стартапи та оборонну сферу.
Читайте нас в Telegram: важливі теми – без цензури