Keystone
STATI UNITI
08.09.2021 - 20:040

Apple mette in pausa a tempo indeterminato l'algoritmo per stanare i pedofili

L'algoritmo avrebbe dovuto cercare, e segnalare, foto pedopornografiche sugli iPhone e sull'iCloud

SAN FRANCISCO - Apple ha deciso di abbandonare la sua caccia ai pedofili attraverso un algoritmo di intelligenza artificiale che avrebbe dovuto scansionare tutte le fotografie presenti sugli iPhone e l'iCloud. L'idea, comunicata ad agosto, aveva fatto molto discutere negli States - dove avrebbe dovuto iniziare - per motivi legati alla privacy dell'utenza.

A comunicare il cambio di direzione è stata la stessa azienda attraverso una nota diffusa venerdì che spiega come la decisione sia arrivata «dal feedback di clienti, associazioni per la tutela e ricercatori». Feedback che ha portato alla decisione di prendere tempo e un numero non precisato di mesi «per effettuare le dovute migliorie» alla funzione comunque definita «importante per la sicurezza dei bambini».

Per diversi osservatori del digitale, ripresi dal portale Wired, la decisione di temporeggiare della Mela è quella giusta - se non forse l'unica possibile - anche considerando le estremamente delicate implicazioni relative alla sicurezza e al rispetto della sfera privata degli utenti.


YouTube

Facebook

Instagram

Linkedin

Twitter

TikTok


Copyright © 1997-2021 TicinOnline SA - Tutti i diritti riservati
IMPRESSUM - DISCLAIMER - SEGNALACI - COMPANY PAGES
Disposizioni sulla protezione dei dati  -   Cookie e pubblicità online  -   Diritto all'oblio


Ultimo aggiornamento: 2021-12-08 20:47:16 | 91.208.130.86