Jak umělá inteligence může pomoci rozpoznat zvukové obálky

2. října 2025

Zvukové zhodnocení se stávají rostoucí hrozbou pro ekonomiku a společnost. Vědci Fraunhofer AISEC ukazují, že pro lidi je obtížné odhalit AI generované hlasy, ale specializované modely AI mohou pomoci. S výsledky experimentu s přibližně 500 účastníky lze zlepšit rozpoznávací systémy a vzdělávací programy.

Podezřelý hovor, dobře známý hlas – a společnost může být poškozena. Útoky Deepfake se rychle zvyšují: podle zprávy Identity Murd 2025 Institutu Entrust Cybersecurity Institute došlo v roce 2024 každých pět minut po celém světě. Signicat, poskytovatel řešení digitální identity v Evropě, hlásí při vyšetřování nárůstu o 2 137 procent takových útoků v Evropě na evropské banky, pojišťovací a platební specialisty do tří let.

Fraunhofer Institute for Applied and Integrated Security AISEC zkoumal, jak dobře lidé mají ve srovnání s AI, když rozpoznávají manipulované hlasy jako součást experimentu se 472 účastníky. Výsledek podle téměř 15 000 patřících souborů: Lidé uznávají 80 procent, specializují se na modely AI 95 procent zvukových dekretů. Mezi věkovými skupinami, jazykovými dovednostmi, ale ne na pozadí tréninku: starší lidé mohou být oklamáni častěji než mladší, rodilí mluvčí mají výhody oproti non-matkám reproduktorům. IT odborníci zase nepoznávají pfakes lépe než laici.

„Tato zjištění mohou být užitečná při vývoji efektivních vzdělávacích programů pro kybernetickou bezpečnost a při zlepšování algoritmů rozpoznávání,“ vysvětluje Dr. Nicolas Müller, asistent výzkumu v oddělení kognitivních bezpečnostních technologií ve Fraunhofer AISEC.

Soutěžíte s AI: Online hra „Spot the Deepfake“

Za účelem procvičování uznání zvukových dekretů vyvinul výzkumný tým online hru „Spot the Deepfake“. Je to součást platformy „Deepfake Total“-bezplatný webový sortiment hostovaný v Německu, aby zvýšil povědomí a trénoval veřejnost v detekci zvukového beepfake. Uživatelé poslouchají hry Audiobe a rozhodnou se: Skutečný nebo falešný? Integrované hodnocení ukazuje, jak dobře se odřízly.

Na platformě „Deepfake Total“ trénuje Müller model AI, který automaticky rozpoznává manipulované hlasové nahrávky. Školení je založeno na verzi veřejné sady dat MLAAD (více jazykové zvukové anti-spoofing datové sady) na verzi veřejného souboru dat ve Fraunhofer AISEC. Kombinuje jak veřejně dostupné, tak speciálně vytvořené originální a hluboké audia. Nejedná se o množství, které je rozhodující pro dobrou míru zásahu, ale vyvážená kombinace dat – aby se zabránilo systematicky lepší předávání modelu než ženské hlasy nebo irelevantní faktory, jako je přízvuk nebo objem.

Müller: „I když se detekce na základě AI zlepšuje: budeme schopni účinně čelit rozvíjejícímu se hlubokému věku kombinací technologie, vzdělávání a školení v celé populaci.“

Přečtěte si také


Obrázek/zdroj: https://depositephotos.com/de/home.html

Sledujte nás na x

Sledujte nás na Bluesky

Zdroj: Freepik
One thought on “Jak umělá inteligence může pomoci rozpoznat zvukové obálky”
  1. Pattern recognition in baccarat is fascinating – it’s about observing trends, not predicting! Reminds me of the strategic thinking honed in games like solitaire – a great mental workout, accessible anywhere! It’s all about probabilities.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *