Apple Nyheder

Apple udgiver ofte stillede spørgsmål for at løse bekymringer om CSAM-detektion og meddelelsesscanning

Mandag den 9. august 2021 kl. 02.50 PDT af Tim Hardwick

Apple har udgivet en FAQ med titlen 'Udvidet beskyttelse for børn', som har til formål at dæmpe brugernes bekymringer om privatlivets fred omkring den nye CSAM-detektion i iCloud-billeder og kommunikationssikkerhed for Beskeder funktioner, som virksomheden annonceret i sidste uge .





æble privatliv
'Siden vi annoncerede disse funktioner, har mange interessenter, herunder privatlivsorganisationer og børnesikkerhedsorganisationer, udtrykt deres støtte til denne nye løsning, og nogle har taget kontakt med spørgsmål,' lyder ofte stillede spørgsmål. 'Dette dokument tjener til at løse disse spørgsmål og give mere klarhed og gennemsigtighed i processen.'

Nogle diskussioner har sløret skelnen mellem de to funktioner, og Apple gør meget ud af det dokument for at differentiere dem og forklarer, at kommunikationssikkerhed i Beskeder 'kun virker på billeder, der sendes eller modtages i Beskeder-appen for børnekonti, der er oprettet i Familiedeling', mens CSAM-detektering i ‌iCloud Photos‌ 'påvirker kun brugere, der har valgt at bruge ‌iCloud Photos‌ at gemme deres billeder... Der er ingen indflydelse på andre data på enheden.'



Fra FAQ:

den ene side af airpoden virker ikke

Disse to funktioner er ikke de samme og bruger ikke den samme teknologi.

Kommunikationssikkerhed i Messages er designet til at give forældre og børn yderligere værktøjer til at hjælpe med at beskytte deres børn mod at sende og modtage seksuelt eksplicitte billeder i Messages-appen. Det virker kun på billeder, der sendes eller modtages i appen Beskeder for børnekonti, der er oprettet i Familiedeling. Det analyserer billederne på enheden og ændrer derfor ikke fortrolighedsgarantierne for Beskeder. Når en børnekonto sender eller modtager seksuelt eksplicitte billeder, bliver billedet sløret, og barnet vil blive advaret, præsenteret for nyttige ressourcer og forsikret om, at det er okay, hvis de ikke vil se eller sende billedet. Som en ekstra sikkerhedsforanstaltning kan små børn også få at vide, at for at sikre, at de er i sikkerhed, vil deres forældre få en besked, hvis de ser den.

Den anden funktion, CSAM-detektion i iCloud Photos, er designet til at holde CSAM fra iCloud Photos uden at give oplysninger til Apple om andre billeder end dem, der matcher kendte CSAM-billeder. CSAM-billeder er ulovlige at besidde i de fleste lande, inklusive USA. Denne funktion påvirker kun brugere, der har valgt at bruge iCloud Photos til at gemme deres billeder. Det påvirker ikke brugere, der ikke har valgt at bruge iCloud Photos. Der er ingen indvirkning på andre data på enheden. Denne funktion gælder ikke for Beskeder.

Resten af ​​dokumentet er opdelt i tre sektioner (med fed skrift nedenfor) med svar på følgende ofte stillede spørgsmål:

hvilken type usb bruger apple

hvordan du ændrer dit airpods navn
    Kommunikationssikkerhed i Beskeder
  • Hvem kan bruge kommunikationssikkerhed i Beskeder?
  • Betyder det, at Beskeder deler oplysninger med Apple eller politiet?
  • Bryder dette ende-til-ende-kryptering i Beskeder?
  • Forhindrer denne funktion børn i voldelige hjem i at søge hjælp?
  • Vil forældre blive underrettet, uden at børn bliver advaret og givet et valg?
  • CSAM-detektion
  • Betyder det, at Apple vil scanne alle de billeder, der er gemt på min iPhone ?
  • Vil dette downloade CSAM-billeder til min ‌iPhone‌ at sammenligne med mine billeder?
  • Hvorfor gør Apple dette nu?
  • Sikkerhed til CSAM-detektion for iCloud-fotos
  • Kan CSAM-detektionssystemet i ‌iCloud Photos‌ bruges til at opdage andre ting end CSAM?
  • Kunne regeringer tvinge Apple til at tilføje ikke-CSAM-billeder til hash-listen?
  • Kan ikke-CSAM-billeder 'injiceres' i systemet for at markere konti for andre ting end CSAM?
  • Vil CSAM-detektering i ‌iCloud Photos‌ fejlagtigt rapportere uskyldige mennesker til retshåndhævelsen?

Interesserede læsere bør konsultere dokumentet for Apples fulde svar på disse spørgsmål. Det er dog værd at bemærke, at for de spørgsmål, som kan besvares med et binært ja/nej, begynder Apple dem alle med 'Nej' med undtagelse af de følgende tre spørgsmål fra afsnittet med titlen 'Sikkerhed for CSAM-detektion for ‌ iCloud-billeder‌:'

Kan CSAM-detektionssystemet i iCloud Photos bruges til at registrere andre ting end CSAM?
Vores proces er designet til at forhindre, at det sker. CSAM-detektering til iCloud-fotos er bygget således, at systemet kun fungerer med CSAM-billedhash leveret af NCMEC og andre børnesikkerhedsorganisationer. Dette sæt billedhash er baseret på billeder erhvervet og valideret til at være CSAM af børnesikkerhedsorganisationer. Der er ingen automatiseret rapportering til retshåndhævelsen, og Apple udfører menneskelig gennemgang, før den indberetter til NCMEC. Som et resultat er systemet kun designet til at rapportere billeder, der er kendte CSAM i iCloud Photos. I de fleste lande, inklusive USA, er det en forbrydelse blot at besidde disse billeder, og Apple er forpligtet til at rapportere ethvert tilfælde, vi får kendskab til, til de relevante myndigheder.

Kunne regeringer tvinge Apple til at tilføje ikke-CSAM-billeder til hash-listen?
Apple vil afvise sådanne krav. Apples CSAM-detektionsfunktion er udelukkende bygget til at detektere kendte CSAM-billeder gemt i iCloud-fotos, som er blevet identificeret af eksperter hos NCMEC og andre børnesikkerhedsgrupper. Vi har tidligere stået over for krav om at opbygge og implementere regeringsmanderede ændringer, der forringer brugernes privatliv, og har konsekvent afvist disse krav. Vi vil fortsætte med at afvise dem i fremtiden. Lad os være klare, denne teknologi er begrænset til at detektere CSAM gemt i iCloud, og vi vil ikke imødekomme nogen regerings anmodning om at udvide den. Ydermere udfører Apple menneskelig gennemgang, før den rapporterer til NCMEC. I et tilfælde, hvor systemet markerer billeder, der ikke matcher kendte CSAM-billeder, vil kontoen ikke blive deaktiveret, og der vil ikke blive indsendt nogen rapport til NCMEC.

Kan ikke-CSAM-billeder 'injiceres' i systemet for at markere konti for andre ting end CSAM?
Vores proces er designet til at forhindre, at det sker. Sættet af billedhash, der bruges til matchning, er fra kendte, eksisterende billeder af CSAM, der er erhvervet og valideret af børnesikkerhedsorganisationer. Apple tilføjer ikke til sættet af kendte CSAM-billedhash. Det samme sæt hashes er gemt i operativsystemet for hver iPhone- og iPad-bruger, så målrettede angreb mod kun specifikke individer er ikke mulige under vores design. Endelig er der ingen automatiseret rapportering til retshåndhævelsen, og Apple udfører menneskelig gennemgang, før den foretager en rapport til NCMEC. I det usandsynlige tilfælde, at systemet markerer billeder, der ikke matcher kendte CSAM-billeder, vil kontoen ikke blive deaktiveret, og der vil ikke blive indsendt nogen rapport til NCMEC.

Apple har været udsat for betydelig kritik fra privatlivsforkæmpere, sikkerhedsforskere, kryptografieksperter, akademikere og andre for deres beslutning om at implementere teknologien med udgivelsen af iOS 15 og iPad 15 , forventes i september.

Dette har resulteret i en åbent brev kritiserer Apples plan om at scanne iPhones for CSAM i ‌iCloud Photos‌ og eksplicitte billeder i børns beskeder, som har fået over 5.500 underskrifter i skrivende stund. Apple har også modtaget kritik fra Facebook-ejede WhatsApp, hvis chef Will Cathcart kaldte det 'den forkerte tilgang og et tilbageslag for folks privatliv over hele verden.' Epic Games CEO Tim Sweeney også angrebet beslutningen, idet han hævdede, at han havde 'prøvet hårdt' for at se flytningen fra Apples synspunkt, men havde konkluderet, at 'uundgåeligt er dette regeringsspyware installeret af Apple baseret på en formodning om skyld.'

'Uanset hvor velmenende, Apple udruller masseovervågning til hele verden med dette,' sagde fremtrædende whistleblower Edward Snowden, der tilføjer, at 'hvis de kan scanne for børneporno i dag, kan de scanne efter hvad som helst i morgen.' Den non-profit Electronic Frontier Foundation også kritiseret Apples planer, hvori det hedder, at 'selv en grundigt dokumenteret, omhyggeligt gennemtænkt og snævert bagdør er stadig en bagdør.'

hvorfor tager æble så lang tid at sende 2021
Tags: Apple privatliv , Apple børnesikkerhedsfunktioner