Футуролог Ювал Ной Харарі: "Я не знаю, чи зможе людство пережити ШІ"

Ізраїльський історик, філософ і футуролог Ювал Ной Харарі глибоко стурбований появою конкурента людської майстерності розповідання – штучного інтелекту (ШІ), пише The Telegraph.

«Це перша в історії технологія для створення історій», — зазначає 47-річний Харарі.

Для нього ніщо не може бути більшою демонстрацією сили. Оскільки, на його думку, наша колективна віра в «історії» — про віру, фінанси та націю серед іншого — сприяла домінуванню людства на Землі. Тепер штучний інтелект також може плести такі наративи, показуючи, що потенціал технології як для великої користі, так і для шкоди, який раніше вважався далеким і теоретичним, тепер є реальним.

Саме тому Харарі додав своє ім’я до листа минулого місяця, підписаного тисячами експертів, із закликом до мораторію на дослідження моделей штучного інтелекту, які можуть взаємодіяти з текстами, зображеннями та звуками з "тривожними нюансами".

Показові приклади вже є. Нещодавно німецький журнал розкритикували за публікацію того, що здавалося ексклюзивним інтерв’ю з Міхаелем Шумахером, хоча насправді текст був створений ШІ, імітуючи паралізованого колишнього гонщика.

Харарі припускає, що штучний інтелект незабаром піде набагато далі, створюючи світ, у якому «ви заходите в інтернет і сперечаєтеся з кимось про якесь політичне питання. Але за цим не стоїть жодна людина. Це все штучний інтелект».

Харарі каже, що ми маємо регулювати технологію, щоб приймати правильні рішення.

Який ефект може мати ця технологія, якщо її зловмисно запустити на полі бою тоталітарними режимами, розмірковує історик і філософ. «Нацистський режим базувався на таких технологіях, як потяги, електрика та радіо. У них не було таких інструментів, як штучний інтелект», — каже Харарі. — Новий режим у 21 столітті матиме набагато потужніші інструменти. Наслідки можуть бути набагато катастрофічнішими. Тож я не знаю, чи зможе людство пережити ШІ».

Читайте також: Війна Росії проти України може загрожувати виживанню нашого виду, – Ювал Ной Харарі

Навіть банальніші наслідки можуть бути революційними, каже він. «Інша небезпека полягає в тому, що багато людей можуть повністю залишитися без роботи, не лише тимчасово, а й без основних навичок для майбутнього ринку праці. Ми можемо досягти точки, коли економічна система вважатиме мільйони людей абсолютно марними. Це матиме жахливі психологічні та політичні наслідки».

Саме автономія ШІ робить його таким відмінним. Проте навіть Харарі, який зробив собі ім’я завдяки складним темам, здається, розчарований своєю неспроможністю змусити всіх нас зрозуміти це так само глибоко, як він.

Він згадує сумнозвісні випадки, коли програмне забезпечення штучного інтелекту використовувалося для перевірки заявників на кредит або для розв’язання питання про дострокове звільнення в’язнів. «Ми винайшли те, що забирає у нас владу. І це відбувається настільки швидко, що більшість людей навіть не розуміють, що відбувається. Нам потрібно переконатися, що ШІ приймає правильні рішення щодо нашого життя. Наразі ми дуже далекі від вирішення».

Дивіться також: Фото дня. Світлина, створена штучним інтелектом, скандально перемогла на престижному конкурсі фотографії

Як і інші, він тепер підтримує регулювання для управління потужністю штучного інтелекту, використовуючи його перспективи та запобігаючи можливій катастрофі. На думку Харарі, такі правила мають бути подібними до медичних гарантій.

Він наполягає на тому, що заходи регулювання мають здійснюватися на рівні урядів. Очікувати, що технологічна індустрія сама себе регулюватиме, марно. «За всієї поваги до Маска та Цукерберга чи інших керівників великих технологічних компаній, вони ніким не обрані, не представляють нікого, крім своїх акціонерів, і немає причин довіряти їм».

Харарі вважає, що нині людство споживає забагато непотрібної інформації. «Це як їжа. Ми повинні бути дуже обережними як щодо кількості, так і щодо якості їжі, яку ми приймаємо», — каже він.

У фрагменті використано матеріали dev.ua.

Знак гривні
Знак гривні