fbpx

 

 

 

 

TeknologiTophistorie

Apple hugger bremsen i – sætter udskældte funktioner på pause

Efter hård kritik har Apple valgt at udsætte udrulningen af de meget omdiskuterede værktøjer til bekæmpelse af børneporno.

Efter at Apple i sidste måned annoncerede en række værktøjer til bekæmpelse af børneporno, har selskabet mødt hård kritik for at give køb på brugernes privatliv. Derfor udsættes udrulningen af værktøjerne på ubestemt tid, fortæller Apple i en officiel udtalelse.

Et af de initiativer, der skabte mest røre, var beslutningen om at scanne alle de fotos, brugerne sendte gennem iCloud-systemet. Værktøjet skulle lede efter billeder, der “skildrer seksuelt eksplicitte aktiviteter, der involverer et barn”. Det, der på amerikansk kaldes CSAM, Child Sexual Abuse Material.

Artiklen fortsætter efter annoncen

På trods af, at Apple gentagende gange har understreget, at analysen af billederne foregår anonymt og på brugerens egen enhed, har flere brugerrettighedsorganisationer reageret skarpt mod initiativet.

Organisationen Electronic Frontier Foundation erklærede i starten af august, at det nye system, på trods af de gode intentioner, ville bryde en grundlæggende fortrolighed mellem bruger og producent, ligesom initiativet på sigt ville kunne åbne døren for et bredere misbrug.

Apple skriver i den offcielle udtalelse, der blev sendt til pressen fredag:

“Sidste måned annoncerede vi planer om funktioner, der har til formål at beskytte børn mod personer, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem, og begrænse spredningen af seksuelt indhold. Baseret på feedback fra kunder, advokatgrupper, forskere og andre har vi besluttet at bruge yderligere tid i de kommende måneder på at indsamle input og lave forbedringer, før vi frigiver disse kritisk vigtige børnesikkerhedsfunktioner.”

Udtalelsen er også blevet tilføjet til den hjemmeside, hvor Apple forklarer om de nye værktøjer.

Artiklen fortsætter efter annoncen
Back to top button