Зниклі пенсії у Перу: як алгоритм позбавив допомоги тисячі літніх людей
У Перу розслідування під назвою «Invisibles» викрило масштабні збої в державній системі нарахування соціальної допомоги Pensión 65.
Розслідування опубліковане на сайті The Global Investigative Journalism Network.
В основі проблеми лежить алгоритм SISFOH, який уряд використовує для класифікації домогосподарств за рівнем бідності. Як з’ясували журналісти, між 2020 роком та червнем 2025 року понад 81 000 людей похилого віку були помилково виключені з програми, а згодом поновлені.
Багато з них змогли повернути виплати лише після виснажливих апеляційних процесів, що стало прямим доказом безпідставності початкових рішень про відмову в допомозі.
Система SISFOH базується на моделі Proxy Means Test — методиці, впровадженій за рекомендацією Світового банку ще у 2000-х роках. Алгоритм оцінює рівень бідності не за прямими доходами, а за непрямими показниками: типом житла, споживанням електроенергії чи наявністю певних побутових товарів.
Проте в реаліях сучасного Перу, особливо в міських умовах, цей підхід виявився глибоко дефектним. Система не здатна розпізнати випадки занедбаності, самотності чи фізичної залежності літніх людей, якщо вони формально мешкають у будинках, які за паперами не виглядають екстремально бідними. Наприклад, алгоритм може автоматично виключити людину з програми через показники лічильника електроенергії, не враховуючи реальний контекст її життя.
Ситуація ускладнюється операційними проблемами на місцях. Інспектори часто не мають належної підготовки, а територіальні підрозділи SISFOH припускалися кричущих помилок. Контрольно-ревізійне управління Перу задокументувало випадки, коли літніх людей видаляли із системи на підставі неперевірених чуток про їхню смерть, без наявності офіційних документів. У таких ситуаціях тягар доведення того, що людина жива, повністю лягав на самих постраждалих.
Процес апеляції при цьому залишається повільним та недоступним для тих, хто хворіє або не має підтримки родичів. Розслідування доводить, що автоматизація рішень про бідність у країні із застарілими базами даних та глибокою нерівністю не є нейтральною — вона стає інструментом несправедливості, який карає найвразливіших.
"Нас привернула ця історія не лише тому, що вона виявила серйозні недоліки в державній політиці, а й тому, що показує, як автоматизовані системи — навіть якщо вони не є передовим штучним інтелектом — можуть посилювати ту саму нерівність, яку вони нібито виправляють, якщо вони не розроблені, не оновлені чи не налаштовані з урахуванням справедливості та соціальної реальності", — зазначили розслідувачі.