Apple har netop annonceret en stor ændring, der har fået privacy-forkæmpere til at flippe helt ud

Apple har netop annonceret en stor ændring, der har fået privacy-forkæmpere til at flippe helt ud

9. august 2021 Slået fra Af Mathias

Hvis de tusindvis af sikkerheds- og privatlivseksperter, der har råbt vagt i gevær på de sociale medier i de seneste dage – og underskrevet mindst ét brev med krav om ændringer – har ret, så er Apple ved at begå en forfærdelig fejlberegning. Mere specifikt advarer de om, at et nyt funktionssæt, der er indbygget i virksomhedens software for at slå ned på en meget specifik, meget forfærdelig handling (brug af iPhones til udnyttelse af børn), faktisk vil åbne døren til netop det dystopiske mareridt om privatlivets fred, som Apples egne ledere har advaret om i årevis. Målet for denne vrede: De nyligt annoncerede funktioner, der omfatter Apple scanning af fotos i jagten på indhold, der er relateret til udnyttelse af børn. Dette blev annonceret af virksomheden for et par dage siden og repræsenterer et forsøg fra Apples side på at forsøge at operere inden for det sikkerhedsparadigme, som den har skabt for sin egen hardware og software, samtidig med at den er rettet mod folk, der bruger virksomhedens værktøjer til at skade børn.

Lad os i øvrigt ikke glemme et par fakta om Apple, mens vi ser nærmere på dette: Denne kontrovers er blevet skabt af det samme firma, der lover “Hvad der sker på din iPhone, forbliver på din iPhone”, ifølge ordret tekst i en annonce, som firmaet viste i Las Vegas på CES for et par år siden. Og det er også det samme firma, der har indgået en række kompromiser for at formilde det undertrykkende kinesiske regime til at tillade, at det kan drive forretning i landet. Et land, der svarer til en overvågningsstat.

Artiklen forsætter under annoncen

Apple scanner billeder = mareridt om privatlivets fred?

I takt med at nyhederne om, hvad der er på vej fra iPhone-producenten, fortsætter med at cirkulere, gør de presserende advarsler det samme. Eksperter fra Electronic Frontier Foundation samt den tidligere NSA-whistleblower Edward Snowden og Facebooks tidligere sikkerhedschef Alex Stamos har delt indsigt og vigtig kontekst, der er nødvendig for den større diskussion her.

En hurtig opsummering af, hvad Apple planlægger (med de nye funktioner, der ankommer samtidig med iOS 15, iPadOS 15, watchOS 8 og macOS Monterey): Ifølge virksomheden vil Messages-appen bruge “maskinlæring på enheden til at advare om følsomt indhold, samtidig med at privat kommunikation forbliver ulæselig for Apple.”

I mellemtiden vil Apples iOS- og iPadOS-software bruge nye kryptografiprogrammer. For at “hjælpe med at begrænse spredningen af (materiale om seksuelt misbrug af børn) online, samtidig med at der designes til brugernes privatliv.”

Artiklen forsætter under annoncen

Endelig vil opdateringerne af Siri og Search gøre et par nye ting i samme retning. De vil gribe ind, hvis en bruger søger efter CSAM-relaterede emner. Og de vil give forældre og børn oplysninger og hjælp, hvis de støder på usikre situationer.

Læs også  HBO Now virker ikke længere på nogle Apple TV-modeller

Kritikere af Apples nye plan ser ikke et bedre udviklet system, der forbedrer det, som Google og Microsoft har gjort i årevis. I stedet ser de et markant skift i politik fra det firma, der sagde “hvad der sker på din iPhone forbliver på din iPhone.” https://t.co/fud78Wn4pF

– kif (@kifleswing) August 6, 2021

Artiklen forsætter under annoncen

Medierne begynder at skrive med mærkbart mere skepsis om @Apples plan om at omdanne din iPhone til en spyPhone. Keep pushing! https://t.co/uCLRtrZlgc

– Edward Snowden (@Snowden) August 7, 2021

Apple scanner fotos fra Messages-appen

Her er hvordan Apple siger, at de nye Messages-relaterede funktioner vil fungere. “Messages-appen vil tilføje nye værktøjer til at advare børn og deres forældre, når de modtager eller sender seksuelt eksplicitte billeder.”

Artiklen forsætter under annoncen

Når man modtager denne type indhold, fortsætter Apple, vil billedet blive sløret, og barnet vil blive advaret.”

Når man modtager denne type indhold, fortsætter Apple, vil billedet blive sløret, og barnet vil blive advaret Barnet vil også blive “præsenteret for nyttige ressourcer og forsikret om, at det er okay, hvis de ikke ønsker at se dette billede” Barnet kan også få at vide, at for at være sikker på, at de er i sikkerhed, vil deres forældre få en besked, hvis de ser billedet. En lignende beskyttelse træder i kraft, hvis det er et barn, der forsøger at sende et seksuelt eksplicit billede. Barnet vil få en advarsel, før det sender billedet, og forældrene kan også få en besked.

Her er en af de ting, der giver fortalere for privatlivets fred anledning til at tænke sig om. Igen, fra Apple: “Messages bruger maskinlæring på enheden til at analysere vedhæftede billeder og afgøre, om et billede er seksuelt eksplicit.”

Med Snowdens ord, som er begyndt at kalde Apples signaturmobilenhed for SpyPhone: “Hvis de kan scanne efter børneporno i dag, kan de scanne efter alt i morgen.”

Artiklen forsætter under annoncen

Dette er ikke rigtig en “glidebane” – det er et enkelt, stærkt smurt trin. Du skal bruge én ordre med en gag vedhæftet, der siger “du er forpligtet til at tilføje denne liste over hashes”, og dit omhyggeligt udformede børnebeskyttelsessystem bliver et universalværktøj til søgning i befolkningsskala.

– Julian Sanchez (@normative) August 6, 2021

CSAM Detection

Her er i mellemtiden mere af det, som Apple siger er på vej. Igen er dette fra virksomhedens beskrivelse af, hvordan alt dette fungerer. “Ny teknologi i iOS og iPadOS vil gøre det muligt for Apple at opdage kendte CSAM-billeder, der er gemt i iCloud Photos. Dette vil gøre det muligt for Apple at rapportere disse tilfælde til National Center for Missing and Exploited Children (NCMEC).

Læs også  iPhone 13 Pro lækage afslører telefonens vigtigste opgradering
Artiklen forsætter under annoncen

“… I stedet for at scanne billeder i skyen foretager systemet en matchning på enheden ved hjælp af en database med kendte CSAM-billedhashes, som NCMEC og andre organisationer for børnesikkerhed stiller til rådighed. Apple omdanner desuden denne database til et ulæseligt sæt hashes, der opbevares sikkert på brugernes enheder.”

Blandt de løfter om beskyttelse af privatlivets fred, som Apple insisterer på her, er følgende. “Ved hjælp af en anden teknologi kaldet tærskelhemmelighedsdeling sikrer systemet, at indholdet af sikkerhedskuponerne ikke kan fortolkes af Apple, medmindre iCloud Photos-kontoen krydser en tærskel for kendt CSAM-indhold.”

Virksomheden fortsætter med at bemærke, at tærsklen skulle give en ekstremt høj grad af nøjagtighed. Og den sikrer angiveligt “mindre end en chance på en ud af en trillion om året for at en given konto bliver fejlagtigt markeret.”

Hvad så i mellemtiden, når iCloud Photos-kontoen rent faktisk krydser den ovennævnte tærskel? I det tilfælde vil Apple manuelt gennemgå rapporten. Virksomheden vil bekræfte, at der er et match, deaktivere brugerens konto og sende en rapport videre til NCMEC. Brugerne vil også få mulighed for at appellere.

Artiklen forsætter under annoncen

Hvad er det næste

I mellemtiden, for alle, der er bekymrede over konsekvenserne for privatlivets fred af, at Apple scanner billeder fra brugere? Virksomheden har siden delt lidt mere om sine planer. Efter det første ramaskrig, altså.

For det første kommer disse værktøjer kun til USA ved lanceringen. Apple fortalte i hvert fald en nyhedsmedie, at virksomheden kun vil udrulle dette globalt på et land for land-basis. Når Apple har foretaget en juridisk vurdering, der er specifik for hvert nyt land, det vil sige. Apple hjalp dog ikke ligefrem sin sag ved at sprede en NCMEC-embedsmands budskab som en del af et internt notat. Meddelelsen til Apple-medarbejdere, der arbejdede på denne indsats, indeholdt en linje, der fordømte al kritikken som “mindretallets skrigende stemmer.”

“NCMEC skal også skrue meget ned for blusset”, tweetede Matthew Green, der underviser i kryptografi på Johns Hopkins. “Dette er stødende. Dit job er ikke at smide civilsamfundet og Apples kunder under bussen.”

Artiklen forsætter under annoncen

Denne tråd fra Stamos om samme emne er i mellemtiden også værd at læse.

Snakken omkring Apples nylige meddelelse om nye sikkerhedsforanstaltninger for børn er ret frustrerende, da forstærknings-/kendskabsforholdet synes ret højt i denne sag.

Apples dokumenter: https://t.co/TIcVQ6Zb1J

En diskussion med venner: https://t.co/c4IYPVMHUA

Artiklen forsætter under annoncen

– Alex Stamos (@alexstamos) August 7, 2021