|
|
HT Psicologia Network
Psicologia-Psicoterapia.it
IPSICO - Istituto di Psicologia e Psicoterapia Comportamentale e CognitivaMaster Online: 'L'approccio cognitivo-comportamentale ai disturbi dell'età evolutiva' - Online Analisi Immaginativa - Scuola Superiore di Specializzazione in PsicoterapiaScuola di specializzazione in Psicoterapia - Cremona Laboratorio Freudiano per la formazione degli psicoterapeutiScuola di specializzazione in Psicoterapia - Milano INPEF - Istituto Nazionale di Pedagogia FamiliareMaster in Psicomotricità e minorazioni sensoriali - Roma e Online
PsicoCitta.it
Dott.ssa Giorgia ZaffiniPsicologo Riceve a: Fano (PU) Dott. Giancarlo ManciniPsicologo Psicoterapeuta Riceve a: Caianello (CE), Caserta e Cassino (FR) Dott.ssa Anna CelliPsicologo Psicoterapeuta Riceve a: Prato e Pontassieve (FI) Dott.ssa Denisa BorgesePsicologo Riceve a: Giardini-Naxos (ME)
|
Psicologia e intelligenza artificiale: integrare l'innovazione nel rispetto della persona Intervista al Dott. Tommaso Ciulli
L'articolo " Psicologia e intelligenza artificiale: integrare l'innovazione nel rispetto della persona" parla di:
- L'intelligenza artificiale e la figura dello Psicologo
- Opportunità e rischi dell'IA per lo Psicologo
- La relazione tra Psicologo e paziente nell'era dell'intelligenza artificiale
Articolo: 'Psicologia e intelligenza artificiale: integrare l'innovazione nel rispetto della persona Intervista al Dott. Tommaso Ciulli'
INDICE: Psicologia e intelligenza artificiale: integrare l'innovazione nel rispetto della persona
- Dottor Tommaso Ciulli
- Lo Psicologo verrà sostituto dall'IA?
- Le applicazioni dell'IA nel tempo
- Le opportunità offerte dall'IA
- Rischi e aspetti a cui prestare attenzione
- Intelligenza artificiale VS realtà virtuale
- Come usare l'IA nella relazione terapeutica?
- Cosa è l'AI Act e perché è una forma di tutela
- Aggiornarsi sull'utilizzo dell'IA
Dottor Tommaso Ciulli
Tommaso Ciulli Psicologo e Psicoterapeuta Cognitivo-Comportamentale, svolge la propria attività clinica con
particolare attenzione ai disturbi d'ansia, agli attacchi di panico, all'ansia generalizzata e ai traumi psicologici.
È Consigliere dell'Ordine degli Psicologi della Toscana, membro della Commissione Tutela e del Consiglio di Indirizzo Generale Enpap.
Ricopre inoltre il ruolo di Segretario nazionale della SIPSiDi - Società Italiana di Psicologia Digitale.
Collabora con la società Idego e con l'Università di Trento su tematiche riguardanti il rapporto tra Psicologia e tecnologia.
È formatore per aziende private e pubbliche amministrazioni sulle nuove tecnologie (intelligenza artificiale, realtà virtuale,
videoconsulenze) e affianca enti e organizzazioni nella progettazione e adozione di soluzioni innovative, come applicativi di realtà
virtuale per la clinica e strumenti digitali a supporto del benessere psicologico e della pratica professionale.
È docente al Master di I livello in Psicologia Digitale dell'Università Cusano.
Intervista al Dott. T. Ciulli: Psicologia e intelligenza artificiale: integrare l'innovazione nel rispetto della persona
- 1. "Lo Psicologo verrà sostituto dall'IA?" domanda che in questo 2025 sembra aver sostituito i tormentoni estivi. Cosa
risponderesti ai colleghi che se lo chiedono?

- Direi di no. Il lavoro dello Psicologo è un'attività estremamente complessa che richiede non solo competenze tecniche, ma
anche capacità relazionali e di valutazione fine.
È un intreccio di sapere, saper fare e saper essere che, ad oggi, nessuna tecnologia di IA è in grado di replicare.
Certo, l'IA può simulare in parte una relazione terapeutica, proporre indicazioni strutturate, ad esempio di tipo cognitivo-comportamentale,
ed è anche piuttosto efficace nel supportare la diagnosi differenziale. Ma il nostro mestiere non si esaurisce in questo: è
molto di più.
- 2. Si tende a parlare oggi dell'intelligenza artificiale come di una novità travolgente nel mondo della salute. In realtà,
da quanto tempo si studiano e si sperimentano applicazioni dell'IA per migliorare il benessere psicofisico delle persone?
- L'uso dell'IA in Psicologia non è affatto una novità. Già nel 1966 Joseph Weizenbaum sviluppò ELIZA, uno dei
primi sistemi di elaborazione linguistica, che simulava il ruolo di un terapeuta.
Negli anni successivi sono state avanzate numerose proposte di applicazione, ad esempio per supportare la diagnosi o per offrire indicazioni
in ambito terapeutico, anche sessuologico.
La vera svolta, però, è arrivata a partire dal 2016, con la diffusione delle reti neurali profonde e, poco dopo, dei modelli di
tipo transformer: tecnologie in grado di analizzare enormi quantità di dati linguistici, comprendere il parlato e generare testi in modo
molto più naturale ed efficace rispetto ai sistemi precedenti.
A questo si sono aggiunti altri fattori decisivi: l'accesso facilitato e a basso costo a queste tecnologie, che ne ha permesso una diffusione
capillare e un utilizzo quotidiano da parte di professionisti e cittadini, cosa impensabile fino a pochi anni fa.
Ecco perché oggi se ne parla tanto. Ma, come ricordavo, la ricerca e la sperimentazione sull'uso dell'IA per il benessere psicofisico
hanno radici ben più lontane.
- 3. Quali sono le opportunità che l'IA offre agli Psicologi nella loro pratica quotidiana?
- Secondo me, ad oggi abbiamo solo sfiorato le potenzialità dell'IA in Psicologia.
L'elenco delle applicazioni possibili sarebbe molto lungo e certamente non esaustivo. Pensiamo, ad esempio, alla concettualizzazione del caso
clinico, all'analisi del sentiment per monitorare come stanno procedendo le sedute, al supporto nella creazione di materiali psicoeducativi,
o nella progettazione di eventi e progetti.
L'IA può aiutare anche nella lettura di bandi, spesso complessi in Italia, e nell'organizzazione del lavoro quotidiano dello Psicologo.
E sto menzionando volutamente solo alcune delle opportunità che riguardano direttamente la pratica professionale, senza entrare ancora
nelle potenzialità più ampie e interdisciplinari che meriterebbero una discussione più ampia.
- 4. Quali sono i rischi e gli aspetti a cui gli Psicologi devono prestare attenzione nel loro lavoro?
- Questa domanda è molto importante. Secondo me ci sono tre aspetti principali a cui gli Psicologi devono prestare attenzione:
- Criticità degli algoritmi delle IA generative (come ChatGPT)
- Gestione delle informazioni inserite dall'operatore
- Uso dell'IA da parte degli utenti per questioni legate alla salute mentale
Per quanto questi strumenti siano molto competenti nel comprendere il linguaggio umano, scritto o verbale, e nel generare risposte plausibili,
presentano alcune criticità intrinseche.
Tra le più note ci sono le cosiddette allucinazioni, ovvero risposte che sembrano corrette ma contengono errori profondi.
Altri problemi riguardano i bias: le IA apprendono da grandi quantità di dati che possono contenere informazioni parziali o
discriminanti, generando quindi risposte potenzialmente distorte.
Inoltre, anche dopo conversazioni lunghe, un'IA può "perdere pezzi" di quanto discusso in precedenza.
Dal punto di vista del professionista, le informazioni che inseriamo in un sistema possono essere immagazzinate e utilizzate dall'algoritmo
o dall'azienda. Ciò significa che:
- le informazioni non sono più di nostra proprietà;
- inserire dati sensibili potrebbe violare la normativa sulla protezione dei dati e il codice deontologico.
Per questo è fondamentale anonimizzare qualsiasi informazione e informare il paziente qualora si intenda utilizzare l'IA, prevedendo
un consenso informato specifico.
Inoltre, lo Psicologo non deve affidarsi ciecamente alle risposte generate dall'IA: possono essere fuorvianti o contenere bias e, in ogni
caso, l'IA:
- non ha consapevolezza né pensiero autonomo;
- non conosce il mondo esterno: può elaborare correttamente solo le informazioni che le vengono fornite, senza possibilità
di valutazioni aggiuntive.
Infine, lato utente, al momento nessuna IA può sostituire un percorso psicologico, se non quelle sviluppate con supervisione di
professionisti della salute mentale.
L'uso non controllato comporta rischi di stigma, dipendenza e sicurezza, anche se alcuni di questi aspetti sono ancora oggetto di studio.
- 5. A volte si confonde l'IA con la realtà virtuale. Facciamo chiarezza. Che differenza c'è?
- È vero, capita spesso di confondere IA e realtà virtuale (VR).
La realtà virtuale è una tecnologia che, grazie a un visore, permette di immergersi in un ambiente digitale tridimensionale:
il cervello percepisce di essere "altrove" e può interagire con oggetti e spostarsi in questo spazio digitale.
Negli ultimi decenni la VR è stata sperimentata con successo, ad esempio nel trattamento delle fobie specifiche, attraverso esposizioni
controllate che hanno mostrato risultati molto positivi.
Per intelligenza artificiale, invece, si intendono algoritmi in grado di far "comprendere" a un computer il mondo che ci circonda: analizzarne
dati, testi, immagini o suoni e generare risposte coerenti.
L'IA è quindi un campo molto più ampio, che comprende molte aree e coinvolge diverse discipline, non solo informatica.
- 6. Secondo te, la presenza dell'intelligenza artificiale può influenzare il modo in cui si costruisce e si vive la relazione
tra Psicologo e paziente? Se sì, in quali aspetti pensi possa fare la differenza e come ci dobbiamo regolare?
- Domanda molto complessa. Direi che la risposta dipende molto da dove "mettiamo" l'intelligenza artificiale.
Se, ad esempio, un potenziale paziente la usa da solo, come forma di primo contatto con un supporto esterno, l'impatto sarà diverso
rispetto a un'IA che viene integrata nel percorso terapeutico, magari come strumento che il paziente può consultare tra una seduta
e l'altra.
In alcuni progetti a cui ho lavorato si è sperimentata proprio questa seconda modalità, e mi sembra che qui emerga con più
chiarezza la possibilità di concepire l'IA come una sorta di "terzo" nella relazione.
A oggi, non mi risultano studi che abbiano indagato in modo sistematico e approfondito questo aspetto, ma possiamo fare delle ipotesi partendo
dalle esperienze e da alcune ricerche preliminari.
La presenza dell'IA, infatti, non è neutra: può diventare un alleato che arricchisce la relazione, aiutando a individuare schemi
ricorrenti, a rielaborare materiali complessi o a mantenere viva la continuità del lavoro tra una seduta e l'altra.
In alcuni casi può persino favorire l'accesso alle cure per persone che, per ragioni economiche, linguistiche o geografiche, non
avrebbero altri strumenti.
Allo stesso tempo, però, introduce interrogativi importanti: cosa accade se l'attenzione si sposta troppo sull'IA e meno sul vissuto
autentico della persona? O se al "terzo artificiale" viene attribuita un'autorità che rischia di ridimensionare la centralità
del terapeuta e della relazione umana?
Proprio per questo credo che la questione non sia tanto se l'IA debba entrare o meno nello spazio terapeutico, quanto piuttosto come farlo.
Concludo: in un progetto a cui ho collaborato, i colleghi avevano accesso alle conversazioni che le persone svolgevano con l'IA.
Questo, a mio avviso, dev'essere un aspetto centrale, così come la progettazione di protocolli di sicurezza, che erano stati attentamente
previsti nel progetto.
Il compito degli Psicologi sarà quindi quello di vigilare affinché l'IA resti un supporto e non diventi il fulcro del processo.
In altre parole, l'IA può essere uno strumento prezioso, ma non deve, per quanto ne sappiamo oggi, sostituirsi nella relazione
terapeutica.
Paradossalmente, la sua presenza puà perfino aiutarci a chiarire meglio ciò che rende unico e insostituibile l'incontro tra
due esseri umani: l'empatia, la creatività interpretativa, la capacità di pensare insieme e di dare senso all'esperienza.
- 7. Cosa è l'AI Act e perché è una forma di tutela?
- L'AI Act è la prima legge europea pensata per regolamentare in modo organico l'uso dell'intelligenza artificiale.
È stato approvato dall'Unione Europea proprio per stabilire regole comuni su come i sistemi di IA possono essere progettati, sviluppati
e utilizzati, mettendo al centro la tutela delle persone.
L'idea di fondo è che non tutte le applicazioni dell'IA comportano lo stesso livello di rischio: ci sono usi considerati minimi o
limitati, altri ad alto rischio, come in ambito sanitario, lavorativo o giudiziario, e infine usi considerati inaccettabili, che infatti
vengono vietati.
Si tratta quindi di una forma di tutela perché stabilisce limiti chiari e criteri di trasparenza, sicurezza e rispetto dei diritti
fondamentali.
Significa che le tecnologie dovranno essere più comprensibili, affidabili e controllabili, evitando abusi e garantendo che restino
strumenti al servizio delle persone e non il contrario.
- 8. Come possono gli Psicologi aggiornarsi sull'utilizzo dell'IA?
- Credo che per gli Psicologi aggiornarsi sull'utilizzo dell'intelligenza artificiale significhi prima di tutto non delegare questo tema
ad altri settori, ma sentirlo come parte integrante della professione.
L'IA sta entrando in tanti ambiti della salute mentale e, anche se non sostituirà la relazione terapeutica, è importante
conoscerne potenzialità e limiti.
Ma soprattutto le persone la stanno usando e come sappiamo, anche per il proprio benessere psicologico.
Sono già usciti e continuano a uscire molti articoli scientifici sul tema, e quella rappresenta una buona base di partenza.
Aggiornarsi, però, non vuol dire solo accumulare nozioni tecniche ma anche confrontarsi tra colleghi e con altre figure professionali,
come informatici ed altri esperti, per capire come integrare le tecnologie senza snaturare la centralità della persona.
In fondo, l'IA non deve diventare un fine, ma restare un mezzo secondo me.
Se non seguiamo da vicino questi sviluppi, rischiamo di esserne trascinati e di ritrovarci a percorrere strade decise da altri, magari da
aziende che hanno interessi molto diversi da quelli della cura e della tutela del paziente.
Cosa ne pensi? Lascia un commento
|
|