În iOS 18.2, Apple adaugă o nouă funcție care reia intențiile din spatele planurilor abandonate de scanare CSAM — de data aceasta, fără a compromite criptarea end-to-end sau a oferi acces guvernelor.
Inițial, funcția va fi disponibilă în Australia, extinzând funcția „Communication Safety”, care utilizează învățarea automată pe dispozitiv pentru a detecta și estompa conținutul nud, adăugând avertismente și solicitând confirmare înainte ca utilizatorii să poată continua. Dacă copilul are sub 13 ani, acesta nu poate vizualiza conținutul fără a introduce codul de acces Screen Time al dispozitivului.
Dacă învățarea automată de pe dispozitiv detectează conținut nud, funcția estompează automat fotografia sau videoclipul, afișează un avertisment că acesta poate fi sensibil și oferă opțiuni de ajutor. Aceste opțiuni includ părăsirea conversației sau a grupului, blocarea persoanei și accesarea resurselor de siguranță online.
Funcția afișează, de asemenea, un mesaj care asigură copilul că este în regulă să nu vizualizeze conținutul sau să părăsească conversația.
Există și opțiunea de a trimite un mesaj către un părinte sau tutore. Dacă copilul are 13 ani sau mai mult, acesta poate alege să continue după ce primește avertismentele — cu o repetare a mesajelor care încurajează renunțarea și indică disponibilitatea ajutorului suplimentar.
Potrivit publicației The Guardian, există și opțiunea de a raporta imaginile și videoclipurile către Apple.
Funcția analizează fotografii și videoclipuri pe iPhone și iPad în aplicațiile Mesaje, AirDrop, Contact Posters (în aplicațiile Telefon sau Contacte) și mesajele video FaceTime. De asemenea, funcția va scana „unele aplicații terțe” dacă copilul selectează o fotografie sau un videoclip pentru a le împărtăși.
Aplicațiile acceptate variază ușor pe alte dispozitive. Pe Mac, funcția scanează mesajele și unele aplicații terțe dacă utilizatorii aleg conținut de partajat prin acestea. Pe Apple Watch, funcția acoperă Mesaje, Contact Posters și mesajele video FaceTime. În final, pe Vision Pro, funcția scanează Mesaje, AirDrop și unele aplicații terțe (în condițiile menționate mai sus).
Funcția necesită iOS 18, iPadOS 18, macOS Sequoia sau visionOS 2.

The Guardian raportează că Apple plănuiește să extindă funcția la nivel global după perioada de testare în Australia. Este probabil ca Apple să fi ales Australia pentru un motiv specific: țara intenționează să introducă noi reglementări care obligă companiile Big Tech să monitorizeze conținutul de abuz asupra copiilor și conținutul terorist.
Ca parte a noilor reguli, Australia a fost de acord să adauge clauza conform căreia obligațiile sunt impuse doar „acolo unde este tehnic fezabil”, fără a fi necesar să se compromită criptarea end-to-end și securitatea. Companiile vor trebui să se conformeze până la sfârșitul anului.
Confidențialitatea și securitatea utilizatorilor au fost în centrul controversei din jurul încercării infame a Apple de a monitoriza CSAM. În 2021, Apple se pregătea să adopte un sistem care să scaneze imaginile pentru abuz sexual online, care urmau să fie trimise apoi către recenzenți umani. (A fost o surpriză, având în vedere istoricul Apple de a se opune FBI-ului în încercarea acestuia de a debloca un iPhone aparținând unui terorist.)
Experții în confidențialitate și securitate au susținut că funcția ar deschide o ușă pentru regimurile autoritare care doresc să își spioneze cetățenii în situații care nu implică materiale exploatatoare. Anul următor, Apple a abandonat funcția, ceea ce a dus, indirect, la această funcție de siguranță pentru copii mai echilibrată, anunțată astăzi.
După lansarea globală, funcția poate fi activată în Setări > Screen Time > Communication Safety, și se poate comuta opțiunea pe activat. Această secțiune este activată implicit de la iOS 17 încoace.