Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей


Опубликованно 08.07.2023 18:48

Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей

Вчeні з Унівeрситeту Вaтeрлoo в Кaнaді зa дoпoмoгoю штучного інтелекту розробили декрипитация фальсифікації голосу, що дає змогу обходити голосову автентифікацію. examen.od.ua

Голосова автентифікація ґрунтується получи и распишись унікальності голосу кожної людини. Получи и распишись це впливають фізичні характеристики, як-ото розмір і форма голосових шляхів і гортані, а також соціальні чинники.

Системи автентифікації фіксують нюанси в голосових відбитках. Штучний інтелект вже може досить реалістично імітувати мову людей, проте алгоритми мають відмінні артефакти, после якими аналітики можуть визначити підробку.

Розроблена дослідниками техніка спрямована получи усунення цих особливостей. Ідея полягає в тому, щоб   «вигравіювати»   відбиток голосу користувача в підробленому записі.

Дослідники навчили систему получи зразках мови 107 дикторів исполнение) кращого розуміння, що змушує мову звучати в области-людськи. Для перевірки алгоритму вони створили кілька зразків, щоб обдурити системи автентифікації. Проти деяких слабких систем вони домоглися 99% після 6 спроб.

Однак сильніші автентифікатори виявилися надійнішими. У тесті проти Amazon Connect вчені досягли 10% успіху по (по грибы) чотирисекундної атаки та 40% — менш ніж по (по грибы) 30 секунд.

Також дослідники зазначили, що в целях здійснення атаки зловмисникам необхідний зразок голосу жертви, а також відповідні технічні навички. Це досить високий видеобар’єр, однак вони закликали розробників систем автентифікації працювати надо вдосконаленням захисту своїх технологій.




Категория: Hi-Tech