Майже неможливо надійно розпізнати, чи текст написаний людиною, чи ШІ, – дослідження

Згідно з нещодавнім дослідженням, науковці сумніваються, що коли-небудь вдасться надійно розпізнати текст, створений штучним інтелектом, пише Insights.

Разом з чотирма докторантами комп'ютерних наук професор Сохейл Фейзі у своєму дослідженні ставить питання: "Чи можна надійно розпізнати текст, створений штучним інтелектом?" Їхня відповідь, на жаль, негативна.

Враховуючи, що великі мовні моделі (ВММ) можуть бути використані для плагіату та масштабного поширення дезінформації, це дослідження, безумовно, викликає занепокоєння, пише видання.

АІ-детектор для розпізнавання тексту, написаного штучним інтелектом, страшенно неточний. OpenAI визнає, що він не є надійним, оскільки інструмент правильно ідентифікує лише 26% тексту, написаного ШІ (істинно позитивні результати). Крім того, в 9% випадків він помилково позначає текст, написаний людиною, як написаний ШІ (помилкові спрацьовування).

Інший популярний на ринку інструмент, GPTZero, по суті, вимірює випадковість певного фрагмента тексту. Згідно зі сторінкою поширених запитань GPTZero, цей інструмент здатний ідентифікувати текст, створений людиною, у 99% випадків, а текст, згенерований ШІ, – у 85% випадків, хоча дехто може обуритися цим твердженням.

За допомогою емпіричного аналізу вчені Університету Меріленда проаналізували кілька популярних на ринку моделей розпізнавання тексту зі штучним інтелектом і виявили, що вони ненадійні.

Дослідивши схеми нанесення водяних знаків, класифікатори тексту з нуля і детектори на основі нейронних мереж, вони виявили, що атака перефразування може допомогти зловмисникам уникнути виявлення ШІ. Вони пишуть: "Ми показуємо, що атака перефразування, коли до вихідного тексту моделі, створеної ШІ, застосовується легкий перефразувальник на основі нейронних мереж, може обійти різні типи детекторів".

Крім того, вони стверджують, що детектори на основі водяних знаків можна легко підробити, створюючи враження, ніби створений людиною текст має водяний знак.

Такі ворожі атаки підробки можуть підірвати довіру до компаній-розробників ВВM-технологій водяних знаків. Професор Фейзі вважає, що верифікація акаунтів у соціальних мережах може бути хорошим способом боротьби з поширенням дезінформації.

"Я думаю, нам потрібно навчитися жити з тим, що ми ніколи не зможемо достовірно сказати, чи текст написаний людиною, чи штучним інтелектом. Натомість потенційно ми можемо перевірити "джерело" тексту через іншу інформацію. Наприклад, багато соціальних платформ починають широко перевіряти акаунти. Це може ускладнити поширення дезінформації, згенерованої штучним інтелектом", – каже Фейзі.

Утім, покладатися на соціальні медіаплатформи – Meta, Twitter та інші – для верифікації акаунтів таким чином, щоб контролювати дезінформацію і приносити користь суспільству, – це складне завдання. Наприклад, досі не з'ясовано, чи означає синя галочка поруч з акаунтом у Твіттері, що він перевірений.

На відміну від тексту, згенерованого штучним інтелектом, який, як стверджують дослідники з Мериленду, буде майже неможливо перевірити на автентичність, синтетичні зображення та відео легше ідентифікувати. За допомогою водяних знаків на зображенні чи відео можна встановити походження контенту. Автор відео чи зображення, а також його місцеперебування та метадані можуть бути криптографічно підписані, проставлені часові мітки та збережені на блокчейні.

мовні моделі openAI технології ШІ

Знак гривні
Знак гривні