AI otevřela dveře k novému typu útoku. Zero-click zneužil Microsoft Copilot, chyba už byla opravena

Kybernetická bezpečnost čelí nové výzvě. Odborníci identifikovali typ útoku, při němž může být zařízení kompromitováno bez jakékoli interakce uživatele – tzv. zero-click. Útočníci přitom dokázali zneužít chybu v AI nástroji Microsoft Copilot. Americká technologická společnost na hrozbu zareagovala a zranitelnost již odstranila.

Skrytý útok přes e-mail

Zneužitá slabina dostala název EchoLeak. Útok se odstartuje pouhým doručením upraveného e-mailu, který na první pohled nevzbuzuje podezření. Vypadá jako běžná obchodní komunikace nebo pozvánka, přesto však obsahuje neviditelné instrukce, které aktivuje až AI asistent při práci s poštou.

Klíčovým momentem je interakce uživatele s Copilotem – například dotaz na obsah inboxu. V tu chvíli Copilot zprávu analyzuje a neúmyslně aktivuje skrytý kód. Ten se dostane na cloudové servery, kde běží jazykový model, a následně se data automaticky přepošlou útočníkovi. Celý proces probíhá bez vědomí uživatele.

„Fakticky to znamená, že své Copilot prostředí sdílíte s někým cizím,“ komentuje situaci etický hacker Martin Hanic ze společnosti Citadelo.

Obcházení ochran i přes důvěryhodné služby

Podle výzkumníků je útok zvlášť zákeřný tím, že využívá legitimní služby, jako je například Microsoft Teams, aby obešel bezpečnostní zásady a získal přístup k datům. Právě důvěryhodné domény hrály klíčovou roli při maskování škodlivých operací.

Microsoft reagoval, experti varují

Na slabinu upozornili výzkumníci z Aim Labs. Microsoft po oznámení provedl interní šetření a tvrdí, že nemá důkazy o reálném zneužití chyby. I přesto byla zranitelnost neprodleně opravena.

Zástupci Aim Labs upozorňují, že nejde o tradiční softwarovou chybu, ale o konstrukční nedostatek AI systémů. Volají proto po větší opatrnosti a důkladnější separaci důvěryhodných a nedůvěryhodných dat v interakci s velkými jazykovými modely.

Doporučení: Pozor na to, co AI čte

Etický hacker Martin Hanic upozorňuje, že firmy i jednotlivci by měli pečlivě zvažovat, jaké informace zpřístupňují AI nástrojům typu Copilot a co těmto systémům dovolí zpracovávat.

„Je důležité přemýšlet o tom, co Copilot skutečně ‚vidí‘. Není to jen o komfortu, ale i o bezpečnosti,“ dodává.

Historie se opakuje – tentokrát s umělou inteligencí

Přestože EchoLeak není první zneužitelnou slabinou, upozorňuje na rizika spojená s prudkým nástupem AI. Odborníci připomínají paralely s koncem 90. let, kdy se exploity začaly masivně využívat v rozšířených zařízeních jako notebooky nebo mobilní telefony.

Dnes je cílem AI – a znovu platí, že technologický pokrok přináší nejen výhody, ale i nové hrozby.

Zdroj: Freepik

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *