Які загрози для людства несе ШІ: пояснює гендиректор Anthropic Даріо Амодей
Генеральний директор Anthropic Даріо Амодей під час дискусії на Всесвітньому економічному форумі попередив про критичні ризики, пов’язані зі стрімким наближенням штучного загального інтелекту (AGI).
Він порівняв поточний стан цивілізації з небезпечним перехідним періодом, коли людство створює надпотужні технології, здатні як принести неймовірну користь, так і спричинити глобальну катастрофу в разі втрати контролю.
Амодей підготував нове есе, присвячене ризикам ШІ, де використовує метафору з фільму «Контакт» Роберта Земекіса про виживання цивілізації.
«Є сцена в "Контакті", де вони виявляють інопланетне життя, і міжнародна комісія проводить співбесіди з кандидатами на роль представника людства для зустрічі з прибульцями. І одне із запитань кандидату: "Якби ви могли поставити інопланетянам одне запитання, яке б це було?" І один із персонажів відповідає: "Я б запитав: як вам це вдалося? Як ви змогли пройти через це технологічне дорослішання, не знищивши себе? Як ви впоралися?"» — каже він.
Встановлення контролю
Голова Anthropic підкреслив, що наступні кілька років будуть вирішальними для встановлення контролю над автономними системами, які стають розумнішими за людину. Серед найбільших загроз він виділив «біотероризм» та зловживання з боку авторитарних держав, зокрема КНР.
«Найближчими роками ми розбиратимемося з тим, як утримати під контролем ці системи, які високоавтономні та розумніші за будь-яку людину. Як переконатися, що окремі люди не використовують їх на зло — мене турбує, наприклад, біотероризм. Як переконатися, що держави не зловживають ними — тому я так стурбований КПК та іншими авторитарними урядами. Які економічні наслідки — я багато говорив про витіснення робочої сили», — сказав гендиректор Anthropic.
«Це відбувається так швидко і є настільки критичним, що ми повинні присвятити майже всі наші зусилля роздумам про те, як крізь це пройти», — наголосив Амодей.
Коли настане AGI
Амодей залишається вірним своєму прогнозу з минулого року про появу моделі, «здатної робити все, що може людина, на рівні нобелівського лауреата в багатьох галузях» до 2026-2027 років.
«Механізм, яким я уявляв, що це станеться — ми створимо моделі, які добре пишуть код і добре займаються AI-дослідженнями, і використаємо це для створення наступного покоління моделей», — пояснив глава Anthropic свою логіку.
За його словами, інженери в Anthropic вже не пишуть код самостійно — вони лише редагують те, що генерує AI.
«Думаю, ми можемо бути за 6-12 місяців від того, коли модель робитиме більшість, можливо всю роботу software-інженерів від початку до кінця», — заявив він.
Загрози для ринку праці
Амодей підтвердив свій тривожний прогноз щодо економічних наслідків: «половина офісних робочих місць початкового рівня може зникнути протягом наступних одного-п’яти років». Хоча історично ринок праці пристосовувався до автоматизації, цього разу швидкість змін може бути фатальною. «Моє побоювання полягає в тому, що ця експонента продовжує наростати... і вона перевантажить нашу здатність адаптуватися», — заявив він.
Він підкреслив, що ризик того, що «щось піде не так» є надзвичайно високим, якщо компанії продовжуватимуть гонку без належних наукових методів контролю та «запобіжників».
Загроза для світової безпеки
Окрему увагу Амодей приділив геополітичним ризикам та експорту технологій. Він виступив за жорсткі обмеження на продаж передових чипів, порівнявши це з торгівлею зброєю масового знищення.
«Для мене це виглядає як рішення: чи збираємося ми продавати ядерну зброю Північній Кореї, тому що це приносить певний прибуток Boeing?» — риторично запитав він, критикуючи логіку бізнесу в умовах екзистенційної загрози.
За його словами, відмова від продажу чипів — це один із найефективніших кроків, щоб «мати час впоратися з цим» та не дати противникам розвивати небезпечні системи швидше, ніж будуть створені запобіжники.
Читайте також: Що думає ШІ про Україну? Дослідження упереджень великих мовних моделей