Дипфејк детекторите потфрлија на тестот

Точка

22/03/2025

12:01

1.660

Големина на фонт

а а а

Ниту еден од 16-те водечки детектори на дипфејк (deepfake) не може сигурно да ги идентификува лажните фотографии во реални услови, открија австралиски и јужнокорејски истражувачи.

Истражување открива сериозни слабости во технологијата

Според новообјавена студија на порталот "arXiv", заеднички спроведена од австралиската национална научна агенција "CSIRO" и јужнокорејскиот Универзитет Сунгкјункван (Sungkyunkwan University), постојните дипфејк детектори покажуваат сериозни ранливости.

Истражувањето анализирало 16 водечки алгоритми за детекција на дипфејк и покажало дека ниту еден од нив не може со доволна точност да ги открие фалсификуваните слики во реални сценарија.

Методологија на истражувањето

Истражувачите развиле методолошки пристап во пет чекори за оценка на детекторите, кој ги вклучува:

• Типот на дипфејк

• Методот на детекција

• Подготовка на податоците

• Обучување на моделот

• Валидација на резултатите

Дополнително, идентификувале 18 фактори кои влијаат на точноста на детекторите и ги тестирале во различни сценарија, вклучувајќи „црна кутија“, „бела кутија“ и „сива кутија“ (различни нивоа на пристап до податоците за тренинг).

Детекторите потфрлија на различни типови дипфејк содржини

Постојните дипфејк детектори покажуваат значителни слабости, особено кога се соочуваат со содржини кои не биле вклучени во нивниот тренинг сет.

На пример, "ICT" (Identity Consistent Transformer) – модел обучен на лица на познати личности, не успеал да детектира дипфејкови кај непознати луѓе.

🔹 „Synthesis deepfake“ – Генерира целосно нови синтетички лица

🔹 „Faceswap deepfake“ – Менува лицето на една личност со друго

🔹 „Reenactment deepfake“ – Го задржува лицето, но менува изрази и движења

Без разлика на типот, детекторите не успеале да постигнат висока прецизност.


Потребни се итни подобрувања

Истражувачите повикуваат на итно унапредување на технологиите за детекција. Тие препорачуваат:

• ️ Развој на повеќе напредни детектори

• ️ Користење на поширок спектар на податоци за тренинг

• ️ Интеграција на аудио, текстуални и мета-податоци

Дополнително, предложени се нови стратегии, како што се:

• Фингерпринтинг (fingerprinting) – Вградување вештачки траги во слики и видеа, со што ќе се следи нивното потекло

• ГАН отпечатоци (GAN fingerprints) – Препознавање на природни обележја што ги оставаат генеративните модели

Постојните алатки не се доволно ефикасни

Ова истражување покажува дека моменталните дипфејк детектори не се доволно прецизни за реална примена.

Со оглед на брзиот напредок на вештачката интелигенција, потребни се иновативни методи и поефикасни модели за успешно препознавање и борба против дигиталните фалсификати. 🚨