HT Psicologia
Psicologia per psicologi - Psicologia del lutto: le app afterlife e l'immortalità digitale
HT: La Psicologia per Professionisti

Psicologia del lutto: le app afterlife e l'immortalità digitale

Gratis
Lascia vuoto questo campo:
Iscriviti alla Newsletter di HT
HT Psicologia Network
Psicologia-Psicoterapia.it
AREA G - Scuola di Psicoterapia ad Orientamento Psicoanalitico per Adolescenti e Adulti
Scuola di specializzazione in Psicoterapia - Milano
S.I.B. - Società Italiana di Biosistemica
IL CORPO VIOLATO - Bologna
ARPCI - Associazione per la Ricerca in Psicoterapia Cognitivo-Interpersonale
Scuola di specializzazione in Psicoterapia - Roma
Logos - Consulenza e formazione sistemico-relazionale
Corso: 'La Coordinazione Genitoriale. Un percorso verso la cooperazione' - Online
PsicoCitta.it
Dott.ssa Lorenza Tosarelli
Psicologo Psicoterapeuta
Riceve a: Castel San Pietro Terme (BO)
Centro di Terapia Cognitiva di Rovigo
Centro di Psicoterapia
Riceve a: Rovigo
Dott.ssa Roberta Civardi
Medico Psicoterapeuta
Riceve a: Piacenza
Dott.ssa Claudia Mattioni
Psicologo Psicoterapeuta
Riceve a: Jesi (AN) e Ancona

Psicologia del lutto: le app afterlife e l'immortalità digitale
Regno Unito: analizzati i rischi sociali e psicologici dell'utilizzo di deadbot

L'articolo "Psicologia del lutto: le app afterlife e l'immortalità digitale" parla di:
  • Morte, mortalità e "tanatosensibilità"
  • DeadBots e riproduzioni dei defunti tramite l'IA
  • I 3 scenari di progettazione dello studio
Psico-Pratika:
Numero 207 Anno 2024

Tutti gli articoli
Iscriviti alla newsletter
A cura di: Redazione - Pubblicato il 03 Giugno 2024

Psicologia del lutto: le app afterlife e l'immortalità digitale
Regno Unito: analizzati i rischi sociali e psicologici dell'utilizzo di deadbot

Cambridge. L'immortalità digitale - la possibilità che la nostra identità "sopravviva" alla morte grazie alle nuove tecnologie - offerta da app afterlife attraverso chat che riproducono virtualmente una persona defunta sfruttando l'Intelligenza Artificiale, potrebbe avere implicazioni sociali e psicologiche negative nella popolazione.
Per questo motivo è necessario indirizzare i fornitori di questi servizi ricreativi al meglio, dando loro suggerimenti utili per la progettazione futura.

A sostenerlo un nuovo studio pubblicato sulla rivista Philosophy and Technology il 9 Maggio 2024, condotto dal Dr. Tomasz Hollanek* e dalla Dr.ssa Katarzyna Nowaczyk-Basińska*, ricercatori presso il Leverhulme Center for the Future of Intelligence (LCFI)*.

Le chat offerte da queste app vengono chiamate in vari modi, per citarne alcuni: deadbots, griefbots, ghostbot, thanabot, avatar postmortem. Noi utilizzeremo il termine deadbot, come utilizzato nello studio, e bot/avatar.

Premesse
Come affermano gli autori dello studio, negli ultimi due decenni sia nel mondo accademico che in quello dell'industria sono sorte una serie di iniziative il cui obiettivo principale è stato rispondere al tema della morte e della mortalità nel momento in cui si progettano nuovi prodotti o servizi. In questo campo ha preso sempre più piede un nuovo approccio chiamato "tanatosensibilità"1 che, in sostanza, consiste nel tener conto durante una progettazione, delle emozioni che si provano di fronte a questi argomenti. Grazie a questo approccio, per esempio, si possono creare applicazioni ed opzioni che aiutano le persone a elaborare il lutto2.

Accanto a questi progetti, però, stanno nascendo sempre più strumenti che, al contrario, sembrano quasi voler "trascendere" la morte. È il caso appunto di DeadBots e/o Griefbots e, in generale, di tutti quei servizi che fanno sì che un defunto venga riprodotto digitalmente dall'intelligenza artificiale, che viene "educata" in questo senso grazie all'utilizzo di documenti come fotografie, registrazioni audio, video, ecc. risalenti al periodo precedente la morte. La simulazione che ne deriva intrattiene poi i parenti (o comunque chi l'ha creata) attraverso messaggi testuali e vocali oppure - a seconda dei casi - con un vero e proprio avatar digitale che ne riproduce anche sembianze fisiche e movimenti3.

Un esempio di servizio che sfrutta questa nuova tecnologia è Project December, dove - dietro il pagamento di una somma di denaro - è possibile "ridare vita" virtualmente ad una persona scomparsa anche da molto tempo. Questa piattaforma è stata recentemente sottoposta ad un esame pubblico dopo la diffusione della storia di Joshua Barbeau, un ragazzo che nel 2021 se n'era servito per creare un deadbot della sua fidanzata morta 8 anni prima4.

A differenza del passato, quindi, la possibilità di ricreare virtualmente una persona tramite app è oggi alla portata di tutti e queste nuove tecnologie sono già molto diffuse nel mondo, in modo particolare in Cina. Proprio qui lo scorso aprile, in occasione della tradizionale "Festa del Qingming"5, molte persone hanno avuto l'opportunità di "incontrare" virtualmente i propri defunti grazie alla creazione di una loro versione digitale6.
La Dott.ssa Katarzyna Nowaczyk-Basińska in un articolo pubblicato dall'Universitò di Cambridge7, asserisce che i rapidi progressi nel settore dell'intelligenza artificiale generativa sono "un campo minato etico". I rischi che si corrono nell'utilizzare l'IA anche per argomenti delicati come la morte sono stati, infatti, fino ad ora trascurati.

Lo studio: i 3 scenari di progettazione

Per analizzare gli effetti collaterali che l'utilizzo dell'IA potrebbe provocare simulando persone scomparse, i ricercatori hanno immaginato 3 scenari di progettazione, 3 piattaforme che potrebbero offrire servizi di questo genere. Per ogni piattaforma, hanno elaborato un possibile scenario di utilizzo e per ogni scenario simulato, hanno pensato a conseguenze e possibili raccomandazioni indirizzate a potenziali futuri fornitori.
Vediamo di seguito nello specifico i 3 scenari di progettazione immaginati.

MaNana

Il primo scenario riguarda MaNana, una piattaforma che permetterebbe di riportare in vita virtualmente il proprio nonno scomparso grazie a un deadbot.
Lo slogan di MaNana potrebbe essere "Sii il nipote preferito, per sempre" e la sua fonte di guadagno sarebbero abbonamenti alla versione premium e pubblicità per la versione gratuita.
I ricercatori hanno elaborato la storia di Bianca, una donna di 35 anni che ha perso sua nonna Laura 7 anni prima e si imbatte per caso nella pubblicità del servizio. La ragazza ha nostalgia della nonna e sceglie allora di utilizzare la versione gratuita di MaNana accettando di ricevere sporadiche pubblicità. Tuttavia, dopo un po' i messaggi pubblicitari la mettono a disagio: si tratta, infatti, di consigli per gli acquisti che arrivano direttamente dall'avatar della nonna.
Bianca comincia allora ad aver la sensazione di aver mancato di rispetto alla memoria di Laura e vorrebbe quindi disattivare il servizio. MaNana, però, le permette solo di cancellare il suo account, non di "eliminare" il deadbot creato e questo secondo disagio si somma al precedente.

Secondo il Dott. Hollanek, in una situazione del genere una persona potrebbe sviluppare anche forti legami emotivi con la simulazione e ciò potrebbe renderla particolarmente vulnerabile alle manipolazioni. Oltre alle possibili problematiche psicologiche che si potrebbero generare o acuire in chi sta ancora vivendo un lutto, un servizio così impostato danneggerebbe la dignità del defunto. Un ulteriore danno colpirebbe, infatti, anche la "donatrice di dati": non avendo dato il consenso al trattamento delle sue informazioni dopo la sua morte, si vedrebbe violato il diritto alla "privacy post mortem".

Gli studiosi rivolgono quindi due suggerimenti ai futuri fornitori di servizi simili a MaNana.
In primo luogo, per preservare la dignità dei defunti, potrebbe esser chiesto loro quando sono ancora in vita un consenso esplicito sul trattamento dei dati post-mortem.
Qualora ciò non fosse possibile, bisognerebbe spingere chi potrebbe voler utilizzare un deadbot a riconsiderare il proprio rapporto con il defunto e la sua reale volontà, anche attraverso domande mirate (per es. "Hai mai parlato con X di come vorrebbe essere ricordato?" oppure "X ti ha mai dato istruzioni su come maneggiare i suoi effetti personali dopo la sua morte?").
Inoltre, sempre al fine di garantire la dignità di chi non c'è più, i nuovi servizi dovrebbero prevedere procedure per "ritirare" i deadbot in modo dignitoso, pensando anche ad un protocollo per il ritiro automatico se il bot resta inattivo per un tot periodo di tempo.

Paren't

Il secondo scenario immaginato dai ricercatori è Paren't, un servizio grazie al quale una persona che sa di esser prossima alla morte potrebbe lasciare al proprio figlio una sua versione digitale per aiutarlo ad elaborare il lutto. Il motto di Paren't sarebbe "Sii presente per i tuoi figli, anche quando non puoi più" e la sua fonte di guadagno gli abbonamenti.
In questo caso gli studiosi hanno immaginato Anna, una donna colpita da una grave malattia che, insieme al marito John, decide di usare Paren't per dare supporto emotivo al figlio Sam.
Dopo la sua scomparsa, inizialmente il deadbot si rivela un buon aiuto terapeutico per il piccolo. Man mano che cerca di adattarsi ai suoi bisogni, però, inizia a fornire anche risposte che lo confondono e a far credere in un ipotetico incontro di persona.

Il primo rischio di una piattaforma di questo tipo sarebbe legato proprio all'età di utilizzo: non esistono nella realtà strumenti simili rivolti ai bambini, ma gran parte dei servizi di IA già attivi non hanno limiti di età, per cui potrebbero essere usati per creare deadbot da chiunque.
Inoltre, se già l'impatto psicologico di questi servizi sugli adulti è un campo in fase di studio, ancora più complicato è comprendere cosa accadrebbe nel mondo dei bambini.
Secondo gli studi effettuati dalla sociologa e psicologa americana Sherry Turkle - affermano gli autori - i bambini sono una categoria di persone in grado di costruire relazioni strette e spesso intime anche con compagni interattivi, come per esempio un Tamagotchi o il Furby, in quanto li sentono "abbastanza vivi" da considerarli appunto come esseri viventi. Per questo, si può supporre che i bambini potrebbero sviluppare relazioni intime anche con i deadbot.

I fornitori di servizi simili a Paren't dovrebbero adottare misure per tutelare le persone più vulnerabili e un buon punto di partenza potrebbe essere assicurare la trasparenza dei propri servizi, facendo in modo che una persona si renda subito conto di star interagendo con una chatbot e non con un essere umano. Importante, poi, è anche dichiarare esplicitamente quali rischi si potrebbero correre utilizzando questi servizi.
Tuttavia, dal momento che nel caso dei bambini tutto questo può non essere sufficiente, potrebbe esser utile imporre anche limiti di età per l'accesso ai servizi.

Stay

L'ultimo scenario ipotizzato è Stay, un servizio che permetterebbe ad una persona di creare direttamente il suo Deadbot da lasciare ai familiari per essere ricordata.
Il motto di Stay potrebbe essere "Per me, per i miei ricordi, per sempre", e la sua fonte di guadagno un addebito una tantum per la creazione della simulazione e un abbonamento mensile pagato dagli interlocutori del servizio.
In questo caso i ricercatori hanno immaginato la storia di Henry, un signore ricoverato in un reparto di cure palliative che, all'insaputa dei figli Rebecca e Simon, crea un suo bot per far sì che i nipoti in futuro possano conoscerlo.
Qualche giorno dopo la sua morte, i figli ricevono email da Stay in cui viene spiegato cosa ha fatto il padre. Simon decide di non voler procedere e, quindi, di non interagire col deadbot. Per questo, però, inizia a ricevere numerosissime notifiche e messaggi da Stay, tra cui email prodotte dal bot del padre stesso.
Rebecca, dopo aver trovato inizialmente confortante il pensiero di poter parlare con l'avatar del padre, inizia a sentirsi a disagio e a desiderare di sospendere il suo account, ma è combattuta tra sensi di colpa e paura di che fine farà quel bot.
I due fratelli decidono allora di contattare i fornitori del servizio per chiedere la disattivazione del bot di Henry, ma la richiesta viene respinta in quanto il padre morto ha pagato già in anticipo un abbonamento ventennale.

Per il Dott. Hollanek sarebbe importante in una situazione simile che i fornitori dei servizi considerino il consenso non solo delle persone che hanno deciso di creare il proprio deadbot, ma anche di chi dovrà interagire con le versioni digitali dei defunti.
Il rischio, infatti, è che chi non desidera procedere oltre, si ritrovi vittima di una forma di "stalking" data da un probabile continuo ricevere notifiche da parte del deadbot, cosa che potrebbe provocare un profondo disagio.
è importante, quindi, dare la priorità a protocolli che permettano a queste persone di interrompere i rapporti con i deadbot, se lo desiderano.

Conclusioni

Per i ricercatori di Cambrige, lo studio fornisce una panoramica sulle problematiche etiche che possono insorgere utilizzando l'IA nel settore che si occupa dell'"aldilà digitale".
Il suo scopo principale è stato quello di gettare le basi per dar vita ad interventi mirati durante le future progettazioni tecnologiche, nonché per veder nascere ulteriori ricerche sull'impatto che i servizi ricreativi hanno sulle singole persone e sulla società in generale.

Note
  1. Michael Massimi e Andrea Charise, "Dying, Death, and Mortality: Towards Thanatosensitivity in HCI", Università di Toronto,
    www.dgp.toronto.edu/~mikem/pubs/MassimiCharise-CHI2009.pdf
  2. Un esempio è il Legacy Contact di Facebook, funzione che permette a una persona di scegliere cosa ne sarà del suo account dopo la morte, designando chi dovrà occuparsene qualora fosse trasformato in un profilo commemorativo.
  3. Nel dicembre del 2023, per esempio, l'attore e musicista taiwanese Bao Xiaobo ha presentato al mondo l'avatar digitale di sua figlia Rong, una ragazza morta a soli 22 anni nel 2021. L'avatar è in grado di danzare e di cantare una canzone di Buon compleanno alla mamma ancora viva.
    www.scmp.com/video/technology/3254494/taiwanese-entertainer-uses-artificial-intelligence-bring-back-deceased-daughter
  4. Jason Fagone, "The Jessica Simulation: Love and loss in the age of A.I.", San Francisco Chronicle, 23 Luglio 2021
    www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/
  5. "Giorno della Pulizia delle Tombe", ricorrenza durante la quale la popolazione è solita recarsi presso le tombe dei propri antenati per render loro omaggio.
  6. Redazione AsiaNews, "Per il Qingming nella 'nuova Cina' si fanno 'riapparire' i morti con l'intelligenza artificiale", 4 Apr. 2024,
    www.asianews.it/notizie-it/Per-il-Qingming-nella-nuova-Cina-si-fanno-riapparire-i-morti-con-l-intelligenza-artificiale-60479.html
  7. "Call for safeguards to prevent unwanted 'hauntings' by AI chatbots of dead loved ones", cam.ac.uk, 9 Maggio 2024
    www.cam.ac.uk/research/news/call-for-safeguards-to-prevent-unwanted-hauntings-by-ai-chatbots-of-dead-loved-ones
Fonte
  • Tomasz Hollanek & Katarzyna Nowaczyk-Basińska, "Griefbots, Deadbots, Postmortem Avatars: on Responsible Applications of Generative AI in the Digital Afterlife Industry", pubblicato su Philosophy and Technology il 9 Maggio 2024
    link.springer.com/article/10.1007/s13347-024-00744-w
Altre letture su HT
Cosa ne pensi? Lascia un commento
Nome:
Mail (La mail non viene pubblicata):
Testo:



HT Psicologia - Psicologia del lutto: le app afterlife e l'immortalità digitale

Centro HT
HT Collaboratori