×
Teknologi

Digitale assistenter kan snydes af kommandoer, du ikke selv kan høre

Hører du til dem, der er betænkelige ved at lade en digital assistent som for eksempel Amazon Alexa eller Apples Siri lytte med på samtaler i hjemmet? Så vil en ny rapport fra en række forskere hos University of California, Berkeley, næppe ændre din holdning. Den fortæller nemlig, at de digitale assistenter er sårbare overfor angreb, som du ikke engang kan høre.

Kan ikke høres af det menneskelige øre

I rapporten beskriver Nicholas Carlini og David Wagner en metode, hvor en lydfil ganske let kan modificeres til at indeholde en hemmelig kommando, som ikke kan høres af det menneskelige øre.

For at demonstrere det, gemte Calinie beskeden “OK Google, browse to evil.com” i en lydfil af Verdis ‘Requiem’. Forsøget snød Mozillas open-source DeepSpeech-software, der bygger på Googles TensorFlow-software.

Teoretisk kan der altså ske ting og sager i hjemmet, bare du lytter til radio. I det bedst tænkelige scenarie er det bare generende, at den digitale assistent aktiveres. I værste fald kan en skjult kommandoer begynde at lægge ting i indkøbskurven på Amazon – eller det, der er værre.

Der har tidligere været forsøg på at bryde sikkerheden i digitale assistenter. En af metoderne, DolphinAttack, slukkede endda for lyden på offerets enhed, så assistentens svar ikke kunne høres.

Carlini vil med rapporten opfordre virksomheder til at sikre sine produkter og tjenester mod “lydløse” angreb, så brugerne er sikrede. Lad os håbe, at Google, Amazon, Apple og Microsoft læser rapporten.

Back to top button

Vi lever af annoncer

Hejsa kære læser. Vi kan se, at du bruger en Adblocker. Det er vi superkede af. Som et lille medie er vi afhængige af annoncekroner for at kunne levere gratis indhold til dig. Vi vil derfor bede dig om at lukke for din AdBlocker eller i det mindste give vores site lov til at vise bannere, hvis du gerne vil læse vores indhold. Med venlig hilsen iNPUT.