Навіщо техномільярдери будують собі бункери і як це пов'язано з ШІ
Мільярдери з Кремнієвої долини скуповують ділянки землі з підземними приміщеннями, які можна перетворити на розкішні бункери.

Про це пише BBC.
Видання зазначає, що засновник компанії Meta Марк Цукерберг придбав 11 об'єктів нерухомості у місті Пало-Альто в Каліфорнії з підземним простором у 650 кв. метрів.
Співзасновник LinkedIn Рід Гоффман згадував якось "підстраховку на випадок апокаліпсиса". Він стверджував раніше, що майже половина супербагатіїв світу так і роблять, а популярним місцем для будинків з бункером є Нова Зеландія.
Загроза ШІ
За останні кілька років список потенційних екзистенційних загроз поповнив розвиток штучного інтелекту. Багато хто глибоко стурбований швидкістю цього прогресу.
Один із них – Ілля Суцкевер, головний науковець і співзасновник Open AI. Влітку цього року він заявив, що вчені близькі до розробки загального штучного інтелекту (ЗШІ) – етапу, на якому машини досягають рівня людського інтелекту.
На зустрічі Суцкевер запропонував колегам викопати підземні укриття для провідних вчених компанії до того, як цю потужну технологію випустять у світ.
Технологічні лідери стверджують, що поява загального штучного інтелекту неминуча. Керівник OpenAI Сем Альтман заявив у грудні 2024 року, що це станеться "швидше, ніж думає більшість людей у світі".
Сер Деміс Хассабіс, співзасновник DeepMind, передбачив, що це станеться в наступні п'ять-десять років, а засновник Anthropic Даріо Амодей минулого року написав, що "потужний ШІ", так він воліє називати новий вид інтелекту, може з'явитися вже у 2026 році.
Інші сумніваються. "Наукова спільнота каже, що технологія ШІ дивовижна, але вона далеко не така, як людський інтелект", – каже Венді Голл, професорка інформатики з Саутгемптонського університету.
Спочатку потрібна низка "фундаментальних проривів", погоджується Бабак Ходжат, головний технічний директор компанії Cognizant.
Вінс Лінч, генеральний директор каліфорнійської компанії IV.AI, також обережно ставиться до перебільшених заяв про ЗШІ.
"Це не те, чого можна чекати через два роки. Тут потрібно стільки обчислень, стільки людської творчості, стільки спроб і помилок", – пояснює він.
Стримати ШІ
"Якщо він стане розумнішим за нас, то ми повинні його стримувати, – попередив в інтерв'ю BBC творець Всесвітньої павутини Тім Бернерс-Лі, – У нас має бути опція вимкнути його".
Уряди вже вживають певних заходів. У США, де базується багато провідних компаній зі штучного інтелекту, президент Байден у 2023 зобов'язав фірми ділитися результатами тестів з федеральним урядом. Хоча президент Трамп з того часу скасував частину цього наказу, назвавши його "перешкодою" для інновацій.
Тим часом у Великій Британії два роки тому створили Інститут безпеки штучного інтелекту – дослідницький орган, який фінансує уряд. Інститут має вивчати ризики, які виникають через розвиток штучного інтелекту.