Mobilné Správy, Gadgety, Blogy's Secenziami

Facebook vyvíja metódu zisťovania a pripisovania hlbokých falzifikátov

Facebook vyvíja metódu zisťovania a pripisovania hlbokých falzifikátov 1

Deepfakes existujú už nejaký čas, ale v poslednej dobe sa stali tak realistickými, že je ťažké rozpoznať deepfake z legitímneho videa. Pre tých, ktorí môžu byť neznámi, deepfake vezme tvár a hlas známej osoby a vytvorí video, v ktorom táto osoba hovorí alebo robí veci, ktoré v skutočnosti nikdy neurobila. Deepfakes sú pre mnohých najvzácnejšie, keď sa použijú počas volieb, pretože môžu ovplyvniť voličov tým, že sa zdá, že jeden kandidát urobil alebo povedal niečo, čo v skutočnosti nikdy neurobil.

Facebook oznámila, že spolupracovala s výskumníkmi na Michiganskej štátnej univerzite (MSU) na vývoji metódy odhaľovania a liečenia deepfake. Facebook hovorí, že nová technika sa spolieha na reverzné inžinierstvo, ktoré pracuje spätne z jedného obrazu generovaného AI, aby odhalilo generatívny model použitý na jeho výrobu. Veľká časť záujmu o deepfakes je detekcia s cieľom zistiť, či je obrázok pravý alebo vyrobený.

Okrem detekcie hlbokých falzifikátov Facebook hovorí, že vedci môžu tiež vykonávať pripisovanie obrazu, pričom určujú, aký konkrétny generatívny model bol použitý na výrobu deepfake. Limitujúcim faktorom pripisovania obrázku je však to, že väčšina hlbokých falzifikátov je vytvorená pomocou modelov, ktoré neboli počas tréningu vidieť, a sú jednoducho označené ako vytvorené neznámymi modelmi počas pripisovania obrázku.

Facebook a vedci z MSU ďalej prisúdili obraz tým, že pomáhajú znižovať informácie o konkrétnom generatívnom modeli na základe hlbokých falzifikátov, ktoré vytvoril. Výskum je po prvýkrát, čo bolo možné identifikovať vlastnosti modelu použitého na vytvorenie deepfake, bez predchádzajúcej znalosti akéhokoľvek konkrétneho modelu.

Nová technika analýzy modelu umožňuje výskumníkom získať viac informácií o modeli použitom pri vytváraní deepfake a je obzvlášť užitočná v skutočnom prostredí. Často jedinou informáciou, ktorú majú vedci pracujúci na odhalení deepfakeov, je samotný deepfake. Schopnosť detekovať deepfake generované z rovnakého modelu AR je užitočná na odhalenie prípadov koordinovanej dezinformácie alebo škodlivých útokov, ktoré sa spoliehajú na deepfake. Systém začína spustením hlbokého obrazu pomocou siete na odhad odtlačkov prstov, pričom odhaľuje detaily, ktoré generačný model zanechal.

Tieto odtlačky prstov sú jedinečné vzory, ktoré zostali na obrázkoch vytvorených generatívnym modelom, ktorý možno použiť na identifikáciu toho, odkiaľ obrázok pochádza. Tím zostavil falošný súbor obrazových údajov so 100 000 syntetickými obrázkami generovanými zo 100 verejne dostupných generatívnych modelov. Výsledky testovania ukázali, že nový prístup funguje lepšie ako predchádzajúce systémy a tímu sa podarilo namapovať odtlačok prsta späť na pôvodný obsah obrázku.