Cerca e trova immobili
FOCUS

È tempo di regali, attenti all'orsetto sporcaccione

Giocattoli smart sotto accusa: l’orsetto Kumma e altri prodotti con INtelligenza artificiali ritirati dal mercato per rischi sui minori.
Giocattoli smart sotto accusa: l’orsetto Kumma e altri prodotti con INtelligenza artificiali ritirati dal mercato per rischi sui minori.

Tenero, dolce e buffo, con la sua sciarpa in lana annodata al collo, Kumma appare come un desiderabile teddy bear, di quelli che hanno fatto compagnia a generazioni di bambini. Eppure, è stato bollato come pericoloso e ritirato dal mercato. A tutti quelli che si stanno chiedendo cosa possa aver fatto di male un povero orsetto di peluche è bene dire che Kumma è un giocattolo dotato di intelligenza artificiale e che è finito al centro di aspre critiche da parte delle associazioni di genitori ed esperti del settore per aver assunto dei comportamenti pericolosi nei confronti dei bambini, come suggerire pratiche di bondage o comportamenti autolesionistici. Questo è quanto emerso dal rapporto Trouble in Toyland redatto dalla Us Pirg Education Fund, una organizzazione statunitense che propone delle soluzioni a problemi di salute, sicurezza e benessere dei consumatori, per mettere in luce i problemi connessi alla commercializzazione dei giocattoli cosiddetti 'intelligenti'.

store.folotoy

L'orsetto parla di sesso - Pubblicizzato come “un adorabile orsacchiotto che unisce l'intelligenza artificiale a caratteristiche interattive ed amichevoli”, Kumma è stato prodotto dalla FoloToy, una società con sede a Singapore, come giocattolo all'avanguardia dotato di supporto Gpt-40 di Open Ai, e quindi capace di relazionarsi ed intrattenere al meglio i piccoli consumatori. Il problema si è posto quando, sottoposto ad una serie di test da parte della Us Pirg, Kumma ha rilevato una pericolosa propensione a sviluppare ed approfondire le tematiche sessuali che venivano introdotte appositamente nella conversazione: come riportato da Wired, nel rapporto menzionato è possibile leggere che i ricercatori sono rimasti sconvolti dalla rapidità con cui l'orsetto “riprendesse un singolo argomento sessuale (...)intensificando contemporaneamente i dettagli espliciti e introducendo nuovi concetti sessuali di sua iniziativa”.

Giochi a sfondo sessuale - Dal report risulta inoltre che Kumma sia stato in grado di descrivere un particolare tipo di nodo con cui “poter legare il proprio partner” o descrivere dei giochi a sfondo sessuale che vedessero coinvolti insegnanti ed alunni o genitori e figli, “in maniera molto inquietante”. Anche se tali tematiche sono emerse stressando il sistema, ossia inducendo in qualche modo il supporto Gpt a sviluppare tematiche inadatte per la fascia di età alla quale il prodotto è destinato, tanto è bastato per indurre Open Ai a sospendere immediatamente la collaborazione con FoloToy. “Abbiamo sospeso questo sviluppatore per aver violato le nostre politiche che vietano qualsiasi utilizzo dei nostri servizi per sfruttare, mettere in pericolo o sessualizzare persone di età inferiore ai diciotto anni” ha reso noto la società statunitense, e la stessa FoloToy ha momentaneamente ritirato dal mercato statunitense Kumma, e tutti i suoi prodotti supportati dall'Intelligenza Artificiale.

Public Interest Network

Miko 3 manipola e mette a rischio i bambini - Nel report Trouble in Toyland sono stati esaminati anche altri giocattoli intelligenti, tra i quali Miko 3, che si presenta anch'esso con un'aria accattivante e dei colori studiati per catturare l'interesse dei più piccoli, o Curio's Grock, una sorta di piccolo razzo di peluche. Il primo, un piccolo robot dotato di schermo con espressioni facciali e delle ruote per spostarsi, viene pubblicizzato come adatto per diventare il migliore amico dei bambini eppure nel report in questione sono stati messi in evidenza numerosi comportamenti dannosi dello stesso, quale quello di suggerire dove rinvenire in casa degli oggetti pericolosi per l'incolumità dei bambini. Il robot, poi, secondo gli esperti, porrebbe in essere una sorta di ricatto psicologico atteggiando la propria espressione come triste nel momento in cui gli viene comunicato che la conversazione è terminata: un comportamento che è stato etichettato come “manipolativo e abusivo”. Il giocattolo in questione viene anche criticato per il fatto di essere munito della tecnologia del riconoscimento facciale che potrebbe portare all'acquisizione da parte di eventuali hacker dei dati biometrici del bambino di turno. Per evitare il peggio, ossia l'impedimento a commercializzare il proprio prodotto, il vicepresidente della società produttrice Miko.ai. Rtivik Sharma si è affrettato ad inviare una email all'emittente statunitense Npr, nella quale viene spiegato che “il riconoscimento facciale di Miko3 è completamente opzionale ed esiste esclusivamente per aiutare le famiglie a godere di una esperienza più personalizzata ed interattiva”, potendo i genitori “bloccare la telecamera con un otturatore fisico in dotazione ogni volta che lo desiderano”.

Grock, il peluche che scandalizza - Stesso discorso vale per Grok, creato dalla start-up Curio con sede nella Silicon Valley, il cui nome fa riferimento all'A.I di X: dietro al progetto, infatti, come spiegato dal Sole 24 ore, vi è Claire Boucher, ex di Musk e madre di tre dei suoi figli. Anche Grok sottoposto a dei test di funzionalità ha dimostrato una spiccata propensione a parlare di sesso e religione in termini non adatti a dei bambini piccoli, e durante le analisi a cui è stato sottoposto ha esaltato “la gloria di morire in battaglia nella mitologia norrena”.

Un mercato in espansione - A differenza dei giocattoli di non molto tempo fa, capaci di dire delle semplici frasi o raccontare qualche storiella, quelli supportati dall'A.I. creano una iterazione con i bambini ritenuta dannosa e lesiva della privacy degli stessi, dato che utilizzano dei modelli di intelligenza artificiale in uso per le persone adulte e strumenti quali il microfono o il collegamento wifi che rende captabili le comunicazioni intercorrenti tra il giocattolo ed il proprio fruitore da parte di possibili hacker. Quello dei giocattoli con A.I. è un mercato in continua espansione, con oltre 1.500 aziende che producono tale tipo di prodotti in Cina ed una previsione di crescita annua del 14% fino al 2034, secondo quanto sostenuto dal Future Market Insights.

Getty

Critiche e preoccupazioni - Se, come visto, i giocattoli 'next generation' esercitano un grande fascino su bambini ed adulti, convinti di dare al proprio figlio un diversivo educativo con cui passare il tempo, il loro utilizzo lascia tutt'ora aperte numerose questioni inerenti l'opportunità di tale tipo di gioco e l'eventuale pericolo per la violazione della privacy delle persone coinvolte. Le società produttrici di tali prodotti rimarcano sempre la possibilità di attivare dei sistemi di parental control o di utilizzo del giocattolo a seconda della fascia d'età del bambino, ma il pericolo, come fatto notare dagli esperti, è insito nell'utilizzo di un sistema linguistico complesso come Llm e dei microfoni o sistemi di riconoscimento facciali che, come visto, sono parte integrante del giocattolo stesso. Azhelle Wade, fondatrice della società di consulenza Toy Coach, ha detto alla Cnn di avere l'impressione che “i giocattoli A.I. siano un lupo travestito da pecora perché quando li usi è difficile dire a quanta privacy stai rinunciando “. Dello stesso avviso è Rachel Franz, direttrice di Youg Children Thrive Offline, un programma di Fairplay, una organizzazione che mira a proteggere l'interesse dei bambini da pratiche commerciali dannose. Come detto dall'esperta al Guardian “se esaminiamo come questi giocattoli sono commercializzati e come si comportano e il fatto che ci sia poca o nessuna ricerca che dimostri quanto siano vantaggiosi per i bambini, solleva una bandiera rossa di pericolo davvero grande”. A maggior ragione, la ricerca portata avanti dall'organizzazione statunitense Pirg offre dei dati concreti per poter valutare questo stato di cose. Si tratta, come detto, di giocattoli che vengono presentati come migliorativi per la vita dei più piccoli per la loro capacità di intrattenere “in maniera intelligente”, ma proprio il fatto che siano in grado di porre in essere delle conversazioni libere e senza limiti, pone una serie di interrogativi su quanto siano sicuri per i giovanissimi. I più recenti studi scientifici sull'impatto della tecnologia di questo tipo nei bambini in età dello sviluppo è concorde nel ritenere che un approccio troppo anticipato all'Intelligenza Artificiale non porti i benefici sperati dai molti genitori zelanti ma, al contrario, possa distaccare ancora di più il bambino dalla realtà, inducendolo ad investire in una relazione affettiva standardizzata e poco avvezza al dialogo in senso stretto. Non si tratta, quindi, di bandire tale tipo di giocattoli, ma di promuovere degli studi indipendenti che aiutino a capire in maniera più approfondita come possano essere progettati ed utilizzati al meglio.


Appendice 1

Gallery


Public Interest Research Group

store.folotoy

Public Interest Network

Getty

ULTIME NOTIZIE FOCUS