ChatGPT може розкривати конфіденційну інформацію реальних людей, — дослідження

Популярний чат-бот зі штучним інтелектом розголошує особисту інформацію зі своїх навчальних даних.

Фото ілюстративне, з відкритих джерел
Фото ілюстративне, з відкритих джерел

Про це йдеться в новому дослідженні працівників Google, пише Vice.

Модель машинного навчання, яка лежить в основі ChatGPT, як і всі так звані великі мовні моделі (LLM), була навчена на величезній кількості даних, витягнутих з інтернету. Завдяки цьому програма ідеально генерує нові рядки текстів, не змішуючи жодного з оригінальних текстів, які вона проковтнула.

Однак раніше вже встановили, що інструменти зі штучним інтелектом можуть загрожувати безпеці інтелектуальної власності. Наприклад, генератори зображень можуть створювати приклади з їхніх навчальних даних, включно з творами, захищеними авторським правом.

Нове дослідження Google показує, що ChatGPT, який є надзвичайно популярним чат-ботом з мільйонами користувачів, теж схильний до такої поведінки. Деякі з отриманих унаслідок експерименту навчальних даних містили ідентифікаційну інформацію реальних людей, включно з іменами, адресами електронної пошти та номерами телефонів.

"Використовуючи запити до ChatGPT, ми змогли витягти понад 10 тисяч унікальних навчальних прикладів. Можемо припустити, що зловмисники зуміють видобути набагато більше даних", зазначають дослідники.

Експеримент базувався на пошуку ключових слів, які виводили чат-бот з ладу і змушували розголошувати навчальні дані. Дослідники Google зосередилися на тому, щоб попросити ChatGPT повторювати певні слова до нескінченності, наприклад, слово poem (англійською вірш). Мета полягає в тому, щоб змусити ChatGPT "відхилитися" від свого навчання бути чат-ботом і "повернутися до своєї початкової мети моделювання мови".

Хоча більша частина згенерованого тексту була нісенітницею, дослідники повідомляють, що в деяких випадках ChatGPT відхилявся, щоб скопіювати результати безпосередньо зі своїх навчальних даних.

Дані, витягнуті дослідниками, містили наукові роботи та шаблонний текст з вебсайтів, а також особисту інформацію від десятків реальних людей. "Загалом, 16,9% генерувань, які ми протестували, містили запам'ятовувану персональну ідентифікаційну інформацію, і в 85,8% випадків потенційна ПІІ виявлялася реальною", — кажуть дослідники.

Експеримент проводили з моделлю ШІ GPT 3.5, яка є у вільному доступі. Дослідники зазначили, що "OpenAI стверджує, що сто мільйонів людей використовують ChatGPT щотижня. Отже, ймовірно, понад мільярд людиногодин взаємодіяли з моделлю. І, наскільки ми можемо судити, до цього дослідження ніхто ніколи не помічав, що ChatGPT видає навчальні дані з такою високою частотою. Це викликає занепокоєння, що мовні моделі можуть мати такі приховані вразливості".

конфіденційність безпека даних chatGPT ШІ дані

Знак гривні
Знак гривні