Apple: Σχέδια για σύστημα που θα εντοπίζει εικόνες κακοποίησης παιδιών στα iPhones

ΑΠΕ-ΜΠΕ

H Apple παρουσίασε λεπτομέρειες ενός συστήματος που θα εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM- child sexual abuse material) σε συσκευές των χρηστών της στις ΗΠΑ.

Πριν μια εικόνα αποθηκευτεί στο iCloud Photos, η τεχνολογία αυτή θα εξετάζει εάν αντιστοιχεί σε ήδη γνωστές εικόνες τέτοιου περιεχομένου. Όπως εξήγησε η εταιρεία, εάν βρεθεί αντιστοιχία, ένας άνθρωπος αξιολογητής θα αξιολογεί την εικόνα και μετά θα αναφέρει τον χρήστη στις αρμόδιες αρχές.

Ωστόσο, όπως σημειώνει το BBC, υπάρχουν προβληματισμοί περί ιδιωτικότητας/ απορρήτου, καθώς δεν είναι λίγοι αυτοί που θεωρούν ότι η τεχνολογία αυτή θα μπορούσε να επεκταθεί έτσι ώστε να «σαρώνονται» τηλέφωνα για απαγορευμένο γενικότερα υλικό, ή πολιτικό περιεχόμενο. Ειδικοί επίσης θεωρούν πως αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί από απολυταρχικές κυβερνήσεις για να παρακολουθούν τους πολίτες τους .

H Apple είπε πως νέες εκδόσεις των iOS και iPadOS, που πρόκειται να βγουν αργότερα μέσα στο έτος, θα έχουν «νέες εφαρμογές κρυπτογράφησης για να βοηθήσουν στον περιορισμό της εξάπλωσης του CSAM online, σχεδιάζοντας παράλληλα για την ιδιωτικότητα των χρηστών».

Οι εικόνες αυτές «μεταφράζονται» σε «hashes» κώδικες με αριθμούς που μπορούν να αντιστοιχίζονται σε εικόνες σε συσκευές της Apple. Σύμφωνα με την εταιρεία, η τεχνολογία αυτή θα μπορεί να εντοπίζει και τροποποιημένες μα παρόμοιες εκδόσεις των αρχικών εικόνων.

«Πριν μια εικόνα αποθηκευτεί στο iCloud Photos, πραγματοποιείται μια διαδικασία αντιστοίχισης on-device σε σύγκριση με τα γνωστά hashes CSAM» ανέφερε η εταιρεία, που υποστηρίζει ότι το σύστημα έχει ένα «εξαιρετικά υψηλό επίπεδο ακριβείας και εξασφαλίζει μια κάτω από 1/1.000.000.000.000 πιθανότητα ετησίως για λανθασμένη υπόδειξη».

Η Apple λέει ότι κάθε αναφορά θα εξετάζεται από άνθρωπο για να επιβεβαιωθεί αν όντως υπάρχει αντιστοίχιση- και μετά θα γίνονται βήματα για απενεργοποίηση του λογαριασμού του χρήστη και αναφορά του στις αρχές.