Cerca e trova immobili
ATED

Fine vita: mai

L’uso degli avatar AI apre dilemmi etici e legali sulla delega decisionale e la sopravvivenza digitale dopo la morte.
Immagine creata dall'AI
Fonte A cura di Luigi Sbriz
Fine vita: mai

NEWSBLOG
Rubriche argomentali a pagamento curate da aziende e inserzionisti esterni

L’uso degli avatar AI apre dilemmi etici e legali sulla delega decisionale e la sopravvivenza digitale dopo la morte.

Accettare l’uso dell’AI è di fatto una delega del processo decisionale umano ad un macchina. Quando esistono dubbi di legittimità sul decidere di delegare o meno un compito all’AI ci affidiamo alla frase “deve essere una scelta consapevole” cioè l’umano dovrebbe essere consapevole dei limiti della macchina e dovrebbe assumersi le responsabilità in vece della macchina. Purtroppo, non sempre è possibile prevedere le possibili conseguenze delle risposte del modello AI ed allora un problema legale risolto accettando l’azione dell’AI può diventare un tema etico aperto. Accettiamo decisioni senza avere una reale consapevolezza del rischio dell’AI.

L’avatar intelligente
Quando parliamo di avatar, intendiamo indifferentemente una reincarnazione di un soggetto soprannaturale o una rappresentazione virtuale di un soggetto umano in un ecosistema digitale. Fondamentalmente è il desiderio della capacità di replica di un essere umano e del suo comportamento in un ambiente dove la copia possa interagire con altri umani come se stessero con l’originale. La tecnologia, al momento, non riesce (ancora) a reincarnare ma si sforza di perfezionare la clonazione ossia la creazione di copie fisiche. Queste hanno la sembianza dell’originale ma con un’incognita sulla capacità di replica dell’intelligenza e della memoria. Per memoria si intende l’insieme dei ricordi dell’originale.

Abbandonando la strada della copia fisica ma considerando solo quella digitale, la situazione è diversa. L’avatar vive apparentemente dentro un monitor e per rappresentare efficacemente l’umano deve avere delle capacità utili a replicarne i comportamenti, le espressioni, le variazioni di tono in funzione della conversazione e così via. Alcune qualità sono necessarie.

    • Memoria, la profondità del ricordo non costituisce un problema nel mondo digitale se l’addestramento è fatto direttamente dal soggetto umano che viene rappresentato.
    • Sembianza, grazie alle tecniche di morphing potenziate dai modelli AI, la riproduzione bidimensionale della figura umana è di buona qualità.
    • Voce, la sintetizzazione digitale, sempre aiutata da modelli AI, riesce a esprimere le emozioni con tono realistico.
    • Logica, la conoscenza raccolta con l’aiuto di modelli neurali addestrati sull’umano da replicare riesce a risolvere anche compiti di classificazione, previsione, riconoscimento, o in generale decisioni o ragionamenti specifici dell’umano emulato.

Sono già disponibili modelli AI specializzati su varie caratteristiche umane, che integrati, possono dar origine ad un agente AI (avatar) realistico come replica di un soggetto umano. L’integrazione è principalmente un problema di costo nell’acquisire e far dialogare risorse tecniche differenti piuttosto che di pura fattibilità.

Ad esempio, il classico operatore digitale o chatbot, è spesso basato sull'intelligenza artificiale e rafforzato da tecniche di elaborazione dei linguaggi naturali (NLP) per comprendere meglio le domande degli utenti. Generalmente, l’interfaccia di interazione con l’umano è semplice ossia è di tipo testo o vocale con dell’animazione potenziata dalla computer graphics. Creare un interfaccia che riproduce realisticamente movenze, espressioni e tono vocale di un soggetto umano non è un reale problema tecnico ma solo di maggior costo di gestione del chatbot. Semplicemente, riprodurre concretamente le sembianza umane non è sempre giustificato dal modello di business.

L’avatar clone
Un modo di addestrare i modelli AI nel mondo digitale per la replica di un umano è di farlo su noi stessi in modo consapevole e finalizzato a sostituirci in situazioni ove non siamo fisicamente in grado di interagire con gli altri. Nel tempo possiamo perfezionare e correggere il modello mentale di noi stessi con le nostre nuove esperienze, i nostri ragionamenti, i nostri pensieri, che magari ad un altro essere non osiamo comunicare ma lo dobbiamo fare con il modello AI per essere in sintonia con la nostra copia digitale. Il risultato atteso dell’avatar clone è troppo appagante per non accettare che quei dati finiscano nelle disponibilità del fornitore del modello AI. Intanto, rischio accettato in attesa di meccanismi che garantiscano la privacy.

Quindi, addestriamo il modello AI con il nostro comportamento in varie situazioni per replicare le espressioni facciali, la postura, la scelta dei vestiti, il suono della voce, e tutte le caratteristiche specifiche che ci rendono originali. Possiamo fornire tutte le informazioni che il modello AI sarà in grado di elaborare per renderlo capace di rappresentarci nell’ecosistema digitale in modo completo ed adeguato agli scenari che potrebbero formarsi. Possiamo pensare anche di creare differenti snapshot temporali, ad esempio, un nostro avatar ventenne, quello quarantenne e quello in un’età più avanzata. Più l’AI evolverà, più l’addestramento sarà sistematico e migliore sarà il clone digitale. Come una moneta falsa. Può essere una copia iniziale molto grezza, ma con l’esperienza il falsario riproduce una copia quasi identica all’originale. Sarà comunque sempre un falso.

Il periodo del Covid-19 ci ha abituati ad affrontare la distanza con i nostri conoscenti ed i nostri cari per tramite di un monitor. Per qualcuno è diventato oramai routine mantenere la relazione a distanza in questo modo perché è più facile che affrontare uno spostamento. Questa interazione non è dissimile da quella che possiamo raggiungere con l’agente AI che ci rappresenta. Il nostro sosia digitale ha anche il dono dell’ubiquità, non possedendo limiti sul numero di colloqui distinti che può gestire. L’interazione con l’avatar per ora va guidata in quanto agisce per reazione ad un sollecito ma più l’AI migliora e più l’avatar ci assomiglierà, fisicamente e logicamente, con sempre maggior grado di autonomia nelle azioni che può compiere.

Un possibile business del fine vita
Nell’uso degli avatar, ci sono scenari che non sono ancora stati analizzati a sufficienza sotto il profilo etico e giuridico. Supponiamo che abbiamo creato un nostro agente AI che ci possa rappresentare nel mondo digitale. Supponiamo pure che sia stato rilasciato un qualche disclaimer affinché l’interlocutore abbia consapevolezza di trattare con un avatar creato per rappresentare un umano, per evitare responsabilità su decisioni che devono richiedere la conferma dell’umano stesso. Il nostro addestramento serve a rendere l’avatar sempre più autonomo e simile al nostro comportamento. Finché ci siamo lo miglioriamo, lo controlliamo, ma un certo giorno non ci saremo più. La questione è quanto ci può sopravvivere l’avatar.

Tecnicamente finché il software è ospitato in una hardware che lo fa sopravvivere. Il software ha bisogno di upgrade periodici per la compatibilità con gli altri software ed anche l’hardware va mantenuto e sostituito per inevitabili necessità. In altre parole, la vita dell’avatar è semplicemente dipendente dal pagamento di un abbonamento, e fintanto ci sono sufficienti soldi l’avatar potrebbe continuare ad esistere. Le persone con cui ci relazioniamo potrebbero continuare ad avere una sensazione di presenza simile a quella di una classica videoconferenza. L’impresa di onoranze funebri potrebbe avere a listino anche la continuità di servizio del nostro avatar. Non è un’ipotesi così remota ma sorgono delle perplessità etiche.

I propri cari potrebbero avere il desiderio di continuare ad avere almeno questa presenza virtuale, in grado di interagire, accumulare nuove esperienze ma sempre a partire dall’impronta dell’addestramento originale. È comunque una traccia persistente ed attiva della presenza, non un semplice ricordo ma un esperienza con capacità artificiale di far evolvere autonomamente i ragionamenti sulle nuove esperienze acquisite. Nonostante il lecito desiderio altrui, si dovrebbe prima considerare il diritto all’oblio della persona originale, purché espresso.

Un’altra questione che rimane aperta è la rilevanza che possono assumere le decisioni prese dall’avatar. Se la qualità dell’avatar rispetto all’originale fosse elevata, le decisioni sarebbero verosimilmente analoghe a quelle che avrebbe preso l’originale. Se la persona originale è in stato di coma, quindi impossibilitata a decidere per sé stessa, le eventuali decisioni che la riguardano potrebbero essere prese dall’avatar, in quanto più rispondente alla volontà dell’individuo rispetto magari ad un parente prossimo non convivente. È un aspetto che deve essere normato.

Ulteriori questioni possono sorgere dalla discriminazione economica nel far sopravvivere l’avatar rispetto all’originale. I benestanti hanno questa opzione ma gli altri no, anzi chi ha maggior disponibilità economica potrebbe organizzare per l’avatar anche degli eventi di miglioramento con upgrade dell’algoritmo di AI oppure l’eventuale cambio di vendor se questo ha difficoltà a proseguire il servizio. Inoltre, è necessario stabilire a chi dovrebbero spettare tutte le decisioni non previste dalla volontà dell’individuo o normate dalla legge a riguardo della continuità operativa o di accettazione delle richieste dell’avatar.

Conclusioni
L’evoluzione dell’intelligenza artificiale rende oramai possibile creare un proprio avatar, un alter-ego digitale, realizzato allo scopo di migliorare la nostra esperienza virtuale con un realismo elevato, ossia la capacità di interazione autonoma con un soggetto terzo. Questo significa che l’avatar ha la possibilità tecnica di continuare ad esistere anche oltre la nostra esistenza.

Attualmente a livello legale non c’è ancora un’attenzione specifica sull’argomento. Il GDPR non si applica ai deceduti: il considerando 27 del GDPR esclude espressamente l'applicazione della normativa ai dati personali di persone decedute. La normativa italiana, tramite il decreto legge 101/2018 di armonizzazione del Codice Privacy ha previsto l'estensione delle tutele del GDPR ai trattamenti dei dati di persone decedute (art. 2-terdecies del Codice Privacy). In Svizzera, la protezione dei dati di persone decedute è regolata dalla Legge sulla protezione dei dati (LPD). In generale, i dati personali di una persona defunta possono essere trattati se la loro utilizzazione è compatibile con lo scopo per cui erano stati raccolti e se la sua cancellazione non pregiudica un interesse pubblico rilevante.

Ragionevolmente, la creazione di un proprio avatar è un’azione che viene fatta con consapevolezza, mentre l’uso dell’avatar dopo la nostra scomparsa sarà solo parzialmente condizionato dalle nostre lecite volontà e dai mezzi che destiniamo al suo funzionamento. Una decisione sull’oblio dell’avatar, sull’eredità per il funzionamento dell’avatar e sulle attribuzioni di responsabilità nell’accettazione delle decisioni dell’avatar, richiede una chiara normazione legale.

Se il defunto esprimesse una volontà specifica riguardo alla gestione dei propri dati usati per l’addestramento dell’avatar, essa dovrebbe essere rispettata. Se non fosse stata espressa o mancasse un lascito per attuare tale volontà, dovrebbe esistere una norma di legge che regolamenti un lecito comportamento. In conclusione, nel testamento bisogna ricordarsi di indicare anche la scelta del trattamento futuro dei propri dati e dell’avatar.


Questo articolo è stato realizzato da ated - Associazione Ticinese Evoluzione Digitale, non fa parte del contenuto redazionale.
COMMENTI
 
POTREBBE INTERESSARTI ANCHE