Teknologi

Digitale assistenter kan snydes af kommandoer, du ikke selv kan høre

Hører du til dem, der er betænkelige ved at lade en digital assistent som for eksempel Amazon Alexa eller Apples Siri lytte med på samtaler i hjemmet? Så vil en ny rapport fra en række forskere hos University of California, Berkeley, næppe ændre din holdning. Den fortæller nemlig, at de digitale assistenter er sårbare overfor angreb, som du ikke engang kan høre.

Kan ikke høres af det menneskelige øre

I rapporten beskriver Nicholas Carlini og David Wagner en metode, hvor en lydfil ganske let kan modificeres til at indeholde en hemmelig kommando, som ikke kan høres af det menneskelige øre.

For at demonstrere det, gemte Calinie beskeden “OK Google, browse to evil.com” i en lydfil af Verdis ‘Requiem’. Forsøget snød Mozillas open-source DeepSpeech-software, der bygger på Googles TensorFlow-software.

Teoretisk kan der altså ske ting og sager i hjemmet, bare du lytter til radio. I det bedst tænkelige scenarie er det bare generende, at den digitale assistent aktiveres. I værste fald kan en skjult kommandoer begynde at lægge ting i indkøbskurven på Amazon – eller det, der er værre.

Der har tidligere været forsøg på at bryde sikkerheden i digitale assistenter. En af metoderne, DolphinAttack, slukkede endda for lyden på offerets enhed, så assistentens svar ikke kunne høres.

Carlini vil med rapporten opfordre virksomheder til at sikre sine produkter og tjenester mod “lydløse” angreb, så brugerne er sikrede. Lad os håbe, at Google, Amazon, Apple og Microsoft læser rapporten.

Peter Engels Ryming

Var med til at starte Danmarks første gadgetmagasin Gear i 2003 og var chefredaktør for magasinet indtil starten af 2009. Samtidig leverede han i en årrække test af forbrugerelektronik til Ekstra Bladet. Har også været redaktør på den danske udgave af T3.

Skriv et svar

Close

Adblock Detected

Please consider supporting us by disabling your ad blocker