Apple će nadgledati fotografije u telefonima zbog otkrivanja dečije pornografije – korisnici zabrinuti za privatnost
Komentari24/08/2021
-09:32
Kompanija Apple najavila je da će u novoj verziji operativnog sistema za iPhone, iOS15, postojati funkcija koja se zove "CSAM Scanning", i da će ona služiti za otkrivanje materijala na uređaju koji sadrži elemente dečije pornografije. Ova najava zabrinula je mnoge korisnike jer će se njihove fotografije skenirati, a kontroverza je dodatno nastavljena informacijom da Apple, u ovu svrhu, još od 2019. godine skenira mejlove korisnika koji se skladište na iCloud.
Do ovog "priznanja" kompanije Apple došao je portal 9to5Mac, a iz tehnološkog giganta su dodali da, iako već dve godine skeniraju mejlove, fotografije i bekapi koji se nalaze na iCloud-u nisu obuhvaćeni.
Kako su objasnili, u borbi protiv dečije pornografije koja se skraćeno zove CSAM ("Child Sexual Abuse Material" - "Materijal koji sadrži seksualno zlostavljanje dece"), Apple skenira priloge u mejlovima, što je lako jer mejlovi nisu nikako enkriptovani.
Rekli su i da, iz istog razloga, skeniraju još neke podatke. Pritom nisu naveli koje, osim da je u pitanju "mala količina drugih podataka".
Kontroverzna izjava
Objašnjenje zbog čega je Apple odlučio da uvede funkciju CSAM skeniranja za iOS 15, bilo bi najbolje da se ilustruje prepiskom Erika Fridmana, osobe koja je u Apple kompaniji glavna kada je u pitanju procena rizika i borba protiv prevara, odnosno lažnih aplikacija.
U jednom trenutku, u prepisci o privatnosti do koje je došao The Verge i objavio je pre nekoliko dana, Fridman izjavljuje stvar koja je prilično šokantna, ukoliko se zna da dolazi od osobe sa visoke pozicije.
"Fejsbuk je dobar u sigurnosti korisnika, a u privatnosti nisu. Kod nas su prioriteti obrnuti. Zbog toga, mi smo najveća platforma za distribuciju dečije pornografije", napisao je Fridman u poruci.
Postavlja se, naravno, pitanje kako je Fridman ovo mogao da zna ukoliko Apple nije skenirao i pratio iCloud naloge svojih korisnika - deo odgovora možda leži u "najsvežijoj" informaciji, o skeniranju mejlova od 2019. godine.
Kako funkcioniše CSAM skeniranje?
Velike tehnološke kompanije imaju, naravno, razrađene čitave mehanizme kako bi se borile protiv dečije pornografije i drugog ilegalnog sadržaja koji se može deliti putem njihovih platformi.
Postoje velike baze fotografija nestale i eksploatisane dece, koje tehnološkim kompanijama poput Gugla dostavljaju organizacije koje se bave zaštitom dece.
Kada, na primer, učitate ("aploudujete") fotografiju na svoj uređaj, Gugl je skenira, i proverava da li se podudara sa nekom od fotografije iz već postojeće baze ugrožene dece.
Upoređivanje fotografija obavlja se, zapravo, upoređivanjem "hešova", odnosno "digitalnih otisaka" fotografije. Ovo nije potpuno precizan proces, pa se nekada može dogoditi i greška, odnosno "lažno podudaranje".
Kod Apple kompanije, CSAM skeniranje će funkcionisati u nekoliko tačaka.
- 1. Apple će integrisati CSAM bazu podataka na vaš uređaj
- 2. Uređaj će skenirati da li ima podudaranja sa "hešovima" fotografija koje ste učitali u iCloud
- 3. Ako ima manje od 30 podudaranja, ništa se ne dešava. Ako ih ima više, onda se vaše fotografije ručno pregledaju
- 4. Ukoliko se potvrdi da postoje elementi dečije pornografije, Apple kontaktira policiju
Bez obzira na dobru nameru ovakve ideje, ipak, postoji nekoliko načina da se thenologija CSAM skeniranja zloupotrebi, i upravo zbog toga su korisnici zabrinuti.
Lažno podudaranje može naštetiti nečijoj reputaciji, kao i namerno "podmetanje" podudaranja, možda napravljeno kako bi se osoba ucenjivala.
Baze podataka sa kojima se podaci upoređuju mogli bi da zloupotrebe da budu zloupotrebljene i u političke svrhe, a postoji i opasnost od toga da će se "heš pretraga" kasnije koristiti i za skeniranje iMessage aplikacije, odnosno poruka korisnika.
Reakcije širom sveta
Odluka kompanije Apple da skenira fotografije svojih korisnika nije prošla neopaženo - izazvala je reakcije širom sveta, a one su uglavnom u vezi sa zabrinutošću za privatnost.
Tako je više od 90 organizacija koje se bave građanskim pravima napisalo pismo ovoj kompaniji, u kom se protive onome što nazivaju "potencijal za nadzor korisnika".
U dokumentu čiji su potpisnici, između ostalih, Američka unija za građanske slobode, Kanadska asocijacija građanskih sloboda, Australijska grupa za nadzor digitalnih prava i druge organizacije, piše da su, najpre, zabrinuti da bi vlade država mogle da zloupotrebe ovaj sistem za obračunavanje sa političkim neistomišljenicima.
"Jednom kada ovaj sistem zaživi, kompanija će se suočiti sa ogromnim pritiscima, odnosno vlade širom sveta će od njih zahtevati ne samo da skeniraju fotografije da bi tražili CSAM, već i sve ono što im ne odgovara", piše u dokumentu.
"Najveći instrument za nadzor u istoriji"
Reakcija je stigla i od nemačkog parlamenta. Iako je Apple naglasio da će CSAM skeniranje funkcionisati (bar za sada) samo u SAD, šef komiteta za digitalna pitanja u Bundestagu, Manuel Hoferlin, pisao je direktoru kompanije Apple Timu Kuku.
Kako prenosi nemački "Heise", Hoferlin je Kuku poručio da je planirano skeniranje "najveće kršenje privatnosti komunikacije od kada je internet napravljen".
Hoferlin je, takođe, dodao i da je zabrinut zbog toga što mu se čini da Apple ide "opasnim putem" i da će ovo biti "najveći instrument za nadzor u istoriji".
Uprkos time što ih kritikuju sa raznih strana, Apple je ostao neobično tih na sve ove primedbe - umesto toga, u nekoliko navrata su pokušali da objasne šta će CSAM tačno raditi.
Jedan od potpredsednika kompanije Kreg Federigi i šef za privatnost Erik Nojšvander dali intervjue, upravo ovim povodom, u kojima su uglavnom razložili korake u procesu skeniranja.
Kompanija je pokušala da odradi i krizni PR time što su objavili detaljnije objašnjenje toga kako će CSAM skeniranje funkcionisati
Takođe, obećali su da će objaviti bazu na osnovu koje će korisnici moći da upoređuju svoje "hešove" sa onima u bazi podataka ugrožene dece.
(Priredio: J.Đ.)
Komentari (0)