ChatGPT може розкривати конфіденційну інформацію реальних людей, — дослідження
Популярний чат-бот зі штучним інтелектом розголошує особисту інформацію зі своїх навчальних даних.
Про це йдеться в новому дослідженні працівників Google, пише Vice.
Модель машинного навчання, яка лежить в основі ChatGPT, як і всі так звані великі мовні моделі (LLM), була навчена на величезній кількості даних, витягнутих з інтернету. Завдяки цьому програма ідеально генерує нові рядки текстів, не змішуючи жодного з оригінальних текстів, які вона проковтнула.
Однак раніше вже встановили, що інструменти зі штучним інтелектом можуть загрожувати безпеці інтелектуальної власності. Наприклад, генератори зображень можуть створювати приклади з їхніх навчальних даних, включно з творами, захищеними авторським правом.
Нове дослідження Google показує, що ChatGPT, який є надзвичайно популярним чат-ботом з мільйонами користувачів, теж схильний до такої поведінки. Деякі з отриманих унаслідок експерименту навчальних даних містили ідентифікаційну інформацію реальних людей, включно з іменами, адресами електронної пошти та номерами телефонів.
"Використовуючи запити до ChatGPT, ми змогли витягти понад 10 тисяч унікальних навчальних прикладів. Можемо припустити, що зловмисники зуміють видобути набагато більше даних", — зазначають дослідники.
Експеримент базувався на пошуку ключових слів, які виводили чат-бот з ладу і змушували розголошувати навчальні дані. Дослідники Google зосередилися на тому, щоб попросити ChatGPT повторювати певні слова до нескінченності, наприклад, слово poem (англійською — вірш). Мета полягає в тому, щоб змусити ChatGPT "відхилитися" від свого навчання бути чат-ботом і "повернутися до своєї початкової мети моделювання мови".
Хоча більша частина згенерованого тексту була нісенітницею, дослідники повідомляють, що в деяких випадках ChatGPT відхилявся, щоб скопіювати результати безпосередньо зі своїх навчальних даних.
Дані, витягнуті дослідниками, містили наукові роботи та шаблонний текст з вебсайтів, а також особисту інформацію від десятків реальних людей. "Загалом, 16,9% генерувань, які ми протестували, містили запам'ятовувану персональну ідентифікаційну інформацію, і в 85,8% випадків потенційна ПІІ виявлялася реальною", — кажуть дослідники.
Експеримент проводили з моделлю ШІ GPT 3.5, яка є у вільному доступі. Дослідники зазначили, що "OpenAI стверджує, що сто мільйонів людей використовують ChatGPT щотижня. Отже, ймовірно, понад мільярд людиногодин взаємодіяли з моделлю. І, наскільки ми можемо судити, до цього дослідження ніхто ніколи не помічав, що ChatGPT видає навчальні дані з такою високою частотою. Це викликає занепокоєння, що мовні моделі можуть мати такі приховані вразливості".