Що відбувається в OpenAI. Історія з Семом Альтманом вказує на глибокий розкол у світі технологій

Співзасновник OpenAI Сем Альтман повернеться на посаду керівника через кілька днів після того, як його звільнило правління.

Сем Альтман. Фото: dev
Сем Альтман. Фото: dev

Про це повідомили у технологічній компанії, інформує BBC Україна.

Минулого тижня рада директорів раптово вирішила усунути Альтмана, а слідом за ним й іншого співзасновника компанії Грега Брокмана, що призвело до хаосу в корпорації. Після чого 700 співробітників компанії написали відкритого листа, погрожуючи піти у відставку, якщо їхнього боса не повернуть.

Рада директорів заявила, що вважає, що Альтман не був "абсолютно відкритим у спілкуванні" з ними, і в результаті вони "втратили довіру" до його керівництва.

Рішення про усунення Альтмана ухвали три члени правління, які не є співробітниками компанії: Адам Д'Анджело, Таша МакКолі та Хелен Тонер, а також третій співзасновник OpenAI й головний науковий розробник компанії Ілля Суцкевер, який народився у Нижньому Новгороді в Росії.

У понеділок Суцкевер попросив вибачення у соцмережі X і підписав лист співробітників, у якому закликав правління змінити курс.

Водночас компанія Microsoft, найбільший інвестор в OpenAI, запропонувала Альтману очолити у себе "нову передову дослідницьку групу штучного інтелекту".

У середу OpenAI заявили, що погодили повернення Альтмана та частково відновлять раду директорів, яка його звільнила.

До ради директорів увійдуть колишній співдиректор Salesforce Брет Тейлор і колишній міністр фінансів США Ларрі Саммерс, а Адам Д'Анджело залишиться у раді.

"Після оголошення про звільнення Альтмана підтримали впливові діячі Кремнієвої долини, серед яких і колишній гендиректор Google Ерік Шмідт, який назвав його "мій герой". Одним із персонажів, який досі зберігав незвичне мовчання, є Ілон Маск. Він і Альтман створили OpenAI разом з іншими, але, як кажуть, посварилися через рішення залишити технологію некомерційною. Ходять чутки, що саме це питання зараз знову розділило думки всередині корпорації", – пише BBC.

Хаос назрівав давно

Як зазначає Vox, потрясіння в OpenAI стали шоком майже для всіх. Але правда полягає в тому, що компанія була побудована на лінії розлому, настільки глибокій і нестабільній, що з часом рівновага неодмінно б поступилася б місцем хаосу.

Цією лінією розлому була подвійна місія OpenAI: створити ШІ, розумніший за людство, і водночас переконатися, що ШІ буде безпечним і корисним для людей.

"Між цими цілями існує внутрішня суперечність, оскільки просунутий ШІ може завдати шкоди людям різними способами – від укорінення упереджень до створення умов для біотероризму", – наголошує видання.

Vox пише, що OpenAI не є типовою технологічною компанією. Вона має унікальну структуру, яка є ключовою для розуміння нинішніх потрясінь.

Компанія була заснована як некомерційна організація, що займалася дослідженнями в галузі ШІ у 2015 році. Але у 2019-му, відчуваючи гостру потребу в ресурсах для створення AGI – штучного загального інтелекту, гіпотетичної системи, яка може зрівнятися зі здібностями людини або навіть перевершити їх, – OpenAI створила комерційну організацію.

Це дозволило інвесторам вкладати гроші в OpenAI і потенційно отримувати прибуток, хоча, згідно з правилами нової структури, їхні прибутки будуть обмежені, а все, що перевищуватиме ліміт, повертатиметься до неприбуткової організації. Важливо, що рада директорів неприбуткової організації зберегла повноваження керувати комерційною організацією. Це включало право наймати та звільняти працівників.

Завдання правління полягало в тому, щоб переконатися, що OpenAI дотримується своєї місії, вираженої в її статуті, де чітко сказано: "Наш основний фідуціарний обов'язок – служити людству". Не перед інвесторами. Не перед співробітниками. Перед людством.

У статуті також сказано: "Ми стурбовані тим, що розробка ШІ на пізніх стадіях перетворюється на конкурентну гонку без часу на адекватні запобіжні заходи". Але в ній також парадоксально сказано: "Щоб ефективно боротися з впливом ШІ на суспільство, OpenAI повинен бути на передньому краї можливостей ШІ".

«Здається, Сем Альтман і Грег Брокман вважають, що прискорення штучного інтелекту може принести найбільшу користь людству. Однак більшість правління, схоже, дотримується іншої думки, що темпи просування надто швидкі та можуть поставити під загрозу безпеку та довіру», — сказала Сара Крепс, директор Інституту технічної політики Корнелльського університету.

Свідчення розколу

Події в OpenAI є найдраматичнішим проявом ширшого розколу в Кремнієвій долині, вважає The Economist. З одного боку — "думери", які вважають, що без контролю ШІ становить екзистенційну загрозу для людства, і тому виступають за більш жорстке регулювання. Їм протистоять "бумери", які применшують страх перед ШІ-апокаліпсисом і підкреслюють його потенціал для прискорення прогресу. Табір, який виявиться більш впливовим, може або заохочувати, або гальмувати посилення регулювання, що своєю чергою може визначити, хто отримає найбільшу вигоду від штучного інтелекту в майбутньому.

Розкол частково відображає філософські розбіжності. Багато хто в таборі думерів перебуває під впливом "ефективного альтруїзму" — руху, який занепокоєний можливістю знищення штучним інтелектом усього людства. До таких людей належить Даріо Амодей, який залишив OpenAI, щоб заснувати Anthropic, іншого виробника моделей. Інші великі технологічні компанії, зокрема Microsoft, також занепокоєні безпекою штучного інтелекту, але не настільки, як думери.

Бумери підтримують світогляд під назвою "ефективний акселераціонізм", який полягає в тому, що розвиток штучного інтелекту слід не лише дозволити безперешкодно продовжувати, а й прискорити. Лідером є Марк Андрессен, співзасновник венчурної фірми Andreessen Horowitz. Інші ШІ-дослідники, схоже, симпатизують цій справі. Ян Лекун і Ендрю Ин з Meta, а також безліч стартапів, включаючи Hugging Face і Mistral AI, виступають за менш обмежувальне регулювання.

Проте, схоже, відбувається щось більше, ніж абстрактна філософія, пояснює британський тижневик. Так сталося, що ці дві групи також розділилися за комерційною ознакою. Думери — це ті, хто першими розпочали перегони штучного інтелекту, у них глибші кишені й вони підтримують власні моделі. З іншого боку, бумери — це радше фірми, які наздоганяють, вони менші за розміром і віддають перевагу програмному забезпеченню з відкритим кодом. Останній є ще однією лінією розлому між двома групами.

ШІ були або пропрієтарними, як в OpenAI, Anthropic та Google, або з відкритим кодом. Прихильники других стверджують, що моделі з відкритим кодом безпечніші, оскільки вони відкриті для перевірки. Недоброзичливці побоюються, що оприлюднення цих потужних моделей ШІ дасть змогу використовувати їх у зловмисних цілях.

"Поки що регулятори, схоже, прислухаються до аргументів думерів. Нещодавній указ президента США Джо Байдена може загальмувати розвиток ШІ з відкритим кодом. Широке визначення моделей "подвійного призначення", які можуть мати як військове, так і цивільне призначення, накладає на виробників таких моделей складні вимоги до звітності, які з часом можуть поширитися і на моделі з відкритим кодом.

Наскільки ці правила можуть бути застосовані сьогодні, поки що неясно. Але з часом вони можуть набути сили, скажімо, якщо будуть прийняті нові закони", — підсумовує The Economist.

openAI технології ШІ сша

Знак гривні
Знак гривні