Privacy Policy

IA + etica = algoretica

Qualche sera fa, mi sono imbattuta in un preziosissimo filmato risalente al 1896, effettuato dal pioniere francese Alexandre Promio, uno dei primi filmmaker della storia che collaborò anche con i fratelli Lumière.

Il breve video, originariamente in bianco e nero ma reso a colori grazie alla tecnologia odierna, mostrava semplicemente una strada trafficata di New York, con varie persone impegnate nella vita di tutti i giorni.

Guardando certi contenuti, ovvero foto e video d’altri tempi ritraenti uomini, donne e bambini, mi pongo sempre una serie di domande, tutte mirate a cercare di comprendere il loro stato d’animo del momento, come una sorta di empatia. Non starò qui a elencarvi i quesiti che mi passano per la testa passo per passo, né le riflessioni al riguardo. Ma voglio soffermarmi su uno in particolare: se improvvisamente lo schermo del mio smartphone si trasformasse in un varco spazio temporale, capace di mettermi in collegamento diretto con chi ha vissuto nel passato e mi permettesse di mostrargli il mondo di oggi, cosa proverebbero i nostri antenati? Stupore? Meraviglia? Paura? Scherno?

Ed è qui che collego il mio pensiero al progresso tecnologico, a tutti gli sviluppi nel campo della robotica e dell’informatica e alla nascita dell’Intelligenza Artificiale (conosciuta universalmente come IA o AI).

Sicuramente, queste sono delle branche della scienza che farebbero rimanere di stucco i signori dei tempi andati, probabilmente esterrefatti, continuerebbero a chiedere tutti i dettagli inerenti al funzionamento di queste macchine così prodigiose, introdotte nel 1965 grazie all’informatico John McCarthy, colui che rese nota la prima idea di Intelligenza Artificiale (potete trovare un breve video del suo punto di vista cliccando qui). Forse, però, avrebbero un po’ di timore.

Al contrario nostro, credo, ormai abituati alla velocità di questa tecnologia. Perché, sì, non nascondo il fatto che pensare a un’IA con un’intelligenza e una capacità di comunicazione quasi umana, sia un’innovazione straordinaria, pensiero peraltro ampiamente condivisibile.

Ma gli interrogativi che ormai ci poniamo maggiormente non sono più incentrati sul “come funziona”, ma piuttosto su “l’IA è una tecnologia sicura? Rimpiazzerà l’essere umano? Quali sono i confini etici e morali del suo utilizzo?”.

Ecco di cosa voglio parlare oggi: del binomio IA – etica, ma soprattutto della sua utilità in campo medico e psicologico.

Credo che molti di voi intenti a leggere il mio articolo, sappiano tutto quello che c’è da sapere, come “cultura generale”, sull’Intelligenza Artificiale, ma forse il significato della parola etica, per alcuni, potrebbe risultare alquanto fumoso. Partiamo da questo e poi colleghiamolo alla tecnologia.

L’etica è quella parte della filosofia che si occupa di indagare sul concetto e sulla distinzione di bene e male, lecito e illecito da parte dell’Uomo. Lo studio di questa materia, pertanto, aiuta l’essere umano a comprendere e giudicare, in base a un modello comportamentale ideale, le prese di posizione e le azioni non solo personali, ma anche degli altri, in base proprio a questi valori.

In poche parole? L’etica è quella cosa che ti fa pensare quanto sia cretino qualcuno che decide di fare, per goliardia, lo sgambetto a uno zoppo.

Esistono vari aspetti dell’etica, come l’etica professionale o l’etica morale. Il concetto di giusto e sbagliato presenti in una definizione, possono non essere prettamente gli stessi nell’altra. Per esempio, l’etica professionale di uno psicologo impone il segreto professionale, appunto, quindi la non divulgazione dei discorsi intercorsi con un paziente, anche se questi ha compiuto un’azione moralmente sbagliata e discutibile (a meno che non ricorrano le ipotesi previste da alcuni articoli della legge).

Dunque, una volta compreso per sommi capi il significato di etica, come possiamo unirla all’IA?

È l’Intelligenza Artificiale che deve essere etica oppure deve esserlo il suo utilizzo?

Andiamo con ordine, perché in entrambi i casi ci sono vari aspetti da analizzare.

Innanzitutto, possiamo affermare che esiste la cosiddetta “etica dell’Intelligenza Artificiale”, ovvero quel ramo della filosofia che pone la sua attenzione su tutte le possibili implicazioni sociali, culturali ed economiche dell’uso dell’IA. Se sul piano economico possiamo già fare delle previsioni più o meno concrete (non mi dilungo intenzionalmente su questo punto perché l’articolo in questione si vuole concentrare su un discorso morale e non finanziario), cosa si può dire, invece, sul piano sociale e culturale?

Pensiamo a ChatGPT, che per quei pochi che non lo conoscono si tratta di un chatbot sviluppato da OpenAI. Un chatbot (o chat bot o chatterbot) è un software creato appositamente per simulare delle conversazioni alla pari di un essere umano. Gli usi di ChatGPT ruotano quindi tutti attorno a questo meccanismo, ma che cosa c’entra la condotta morale con ciò?

Penso che molti di voi abbiano assistito al polverone che si è alzato in merito all’uso improprio che è stato fatto di questa applicazione, soprattutto in campo scolastico.

Infatti, una delle capacità di ChatGPT è quella di creare un testo come se fosse stato scritto da una persona fisica, partendo da alcuni semplici input. Quindi, basta dire “Ehi, mi scrivi un tema sulla Guerra Fredda e sulle conseguenze geopolitiche che ne sono derivate?” ed ecco che il software te ne produce uno. Valanghe di studenti si sono rivolti a ChatGPT per la trascrizione di relazioni, temi, argomentazioni, tesi e via dicendo.

Capite dove voglio andare a parare?

Gli apparati robotici e i software dotati di Intelligenza Artificiale hanno un altissimo potenziale, ma possono indurre alla pigrizia mentale e a una mancanza sempre più rilevante della capacità creativa o di ragionare.

Riflettiamo un attimo: come può essere possibile imparare qualcosa di nuovo o comprendere qualcosa di vecchio se una macchina fa il lavoro al posto nostro?

Prendiamo sempre l’esempio sul tema della Guerra Fredda: immaginate che un professore vi chieda di scrivere una relazione su questo conflitto. ChatGPT può essere sicuramente utile qualora non foste in grado di elaborare in maniera scritta un concetto che già avete in mente, perché mi rendo conto che la capacità di scrivere un testo in un certo modo non appartiene a tutti. Ma usare questa tecnologia per buttare su carta un elaborato dalla A alla Z, forse potrebbe rientrare nel non moralmente giusto. Alla consegna, infatti, vi starete prendendo i meriti di qualcosa che, in fin dei conti, non avete fatto.

Non solo: delegare il lavoro a un’IA potrebbe, se usata male, impedire un’assimilazione completa della materia. Io lo vedo con taluni studenti: i genitori si lamentano, giustamente, di quanto i loro figli siano purtroppo incapaci a realizzare un testo scritto di proprio pugno, poiché si rivolgono sempre più spesso ai software come ChatGPT per velocità e praticità. Ne consegue anche una sempre più scarsa comprensione del testo, limitando un certo tipo di conoscenza e apprendimento che aiuterebbe posteriormente nella vita.

Se poi la poniamo su una questione più filosofica che pratica, qual è una caratteristica che ha sempre contraddistinto gli esseri umani dagli animali? Il cervello, con la sua intelligenza articolata e creativa.

Da sottolineare è il fatto che i software dotati di IA non dispongono di creatività, in quanto i loro lavori e le loro capacità di linguaggio sono tutti dettati dagli input dati da una persona fisica. Quindi, ChatGPT non può creare da sé una creatura fantastica, per ipotesi. Potrà creare un’immagine di essa solo se noi gli diciamo “Ehi, mi fai un animale che sia una specie di licantropo nano con le ginocchia in fronte?”, ed ecco comparire davanti ai nostri occhi questo strano essere. Ecco, però, la base della creatività: il cervello ha dato vita a una bestia possibilmente fuoriuscita da qualche incubo, una cosa che una macchina non sarebbe in grado di fare (o almeno, non ancora).

Potrei provare a disegnarla o a descriverla su carta, certo, l’IA potrebbe fornirmi qualche suggerimento se mi trovassi in difficoltà, ma questo è il punto di vista morale: l’importante è che si tratti di una mia creazione, inventata dalla mia mente umana.

Purtroppo, se usati in maniera impropria, questi chatbot possono essere in grado di anestetizzare la nostra inventiva e la nostra capacità di raziocinio.

Attenzione, non voglio essere disfattista: ho parlato di uso improprio, non di uso in generale.

Esistono diversi modi adoperati da diversi rami professionali in cui l’IA funziona, è efficace e soprattutto aiuta chi svolge la professione.

Pensiamo al campo medico, con un fatto pratico recentissimo: all’Ospedale Universitario Sant’Andrea di Roma, vengono utilizzati macchinari dotati di un software che sfrutta l’Intelligenza Artificiale per affiancare i radiologi (la radiologia “è uno dei territori di frontiera della collaborazione tra macchine e umani”, viene affermato in un recentissimo articolo di Aboutpharma). I suddetti macchinari, in dotazione alla struttura dal giugno del 2022, aiutano a riscontrare la presenza di microfratture che possono sfuggire all’occhio del medico e a detta del radiologo Andrea Laghi, possono essere molto utili soprattutto durante i turni di notte, ovvero nelle ore in cui un dottore è potenzialmente più stanco e quindi meno attento. Come specifica Laghi, però: “Non viene certo meno il lavoro del radiologo, qui il paradigma è quello di un’intelligenza artificiale a supporto del medico, non per sostituirsi a lui.” (fonte, Il Sole 24 Ore).

Ecco dunque una buona evoluzione della tecnologia, ovvero l’affiancamento al professionista per aiutarlo nel suo lavoro.

Per quanto l’efficacia dell’IA sia stata testata in casi di oncologia, cardiologia, dermatologia e di patologie respiratorie, il dottor Laghi si professa ancora piuttosto scettico sull’uso di questi chatbot per diagnosi più complesse di un “frattura sì, frattura no”.

In effetti, si necessita di un numero maggiore di dati scientifici per poter confermare oltre ogni ragionevole dubbio che questa tecnologia sia a prova di bomba. Anche perché nel 2011, l’IA Watson, generata dalla IBM (acronimo di Internal Business Machines Corporation) si è rivelata un disastro clamoroso, come mi ricorda l’articolo sempre di Aboutpharma (che potete trovare cliccando qui): le raccomandazioni terapeutiche non erano solo per la maggior parte completamente errate, ma anche potenzialmente dannose per la salute del paziente.

È vero però che sono passati diversi anni da quello “scivolone” e l’Intelligenza Artificiale ha compiuto passi da gigante, da allora, grazie anche al miglioramento del machine learning, ovvero dell’addestramento dei computer a migliorare le loro performance e la loro assimilazione di dati con l’esperienza.

Il primissimo “esemplare” di IA della storia è stato Teseo, un topolino meccanico costruito dall’ingegnere e meccanico statunitense Claude Shannon, nel 1950.

Ecco come funzionava: il topo aveva il compito di spostarsi all’interno di un labirinto quadrato che poteva essere modificato tramite un magnete su ruote, posizionato sotto al piano del labirinto e mosso da alcuni motori elettrici dotati di un circuito logico a relè. La creatura artificiale doveva esplorare il labirinto, seguendo una strategia prefissata da Shannon stesso e apprendendo, mano a mano, la posizione di ogni parete, andandoci a sbattere. Alla fine dell’esperimento, Teseo riusciva a orientarsi perfettamente, non collidendo con alcun ostacolo.

Tornando alla medicina, dopo questa spolverata di machine learning, di sicuro, però, l’aiuto dell’IA può risultare prezioso, perché in futuro, potrà assistere il medico qualora vi fossero dubbi sul giusto trattamento farmacologico da adottare, a seconda del paziente e della sua storia clinica. Inoltre, c’è la possibilità che l’IA possa prevenire la comparsa di certe patologie in base ai dati raccolti degli esami eseguiti dal paziente o ancora, software come ChatGPT potranno risultare utili per la trascrizione in forma più semplice di alcuni documenti, come per esempio i referti, che non sempre sono di facile comprensione agli occhi dell’assistito.

Tuttavia, è ancora troppo presto per poter prendere una posizione concreta e decisa.

L’importante, come afferma il dottor Laghi e come afferma comunque la comunità medica e scientifica, è che l’IA non si sostituisca alla figura del luminare, ma che lo affianchi per poter svolgere al meglio il suo lavoro.

Discorso leggermente diverso è, invece, l’uso dell’IA in campo psicologico e psichiatrico. Curiosamente, è sempre più crescente il numero di giovani che si rivolgono all’Intelligenza Artificiale per un aiuto di questo tipo.

Character.ai è un chatbot che permette di simulare conversazioni con qualsiasi personaggio. C’è chi decide di “parlare” con persone immaginarie, personaggi di film e serie tv, ma in molti si rivolgono a Psychologist, creato dal neozelandese Sami Zaia, che lo definisce: “[…] un aiuto nelle  difficoltà della vita.”. A “conferma” di ciò, i 78 milioni di utenti di età compresa tra i 18 e i 30 anni che si sono rivolti al suddetto chatbot, si sono dichiarati pienamente soddisfatti del “servizio”. Alcuni di loro hanno addirittura affermato che Psychologist avrebbe salvato loro la vita.

La domanda che mi viene spontaneo porre è: un’IA può in qualche modo sostituirsi a un terapeuta?

Per rispondere, non posso non menzionarvi Eliza, il chatbot più famoso nella storia informatica. La sua creazione risale al 1966, per mano di Joseph Weizenbaum presso l’Artificial Intelligence Laboratory del Massachusetts Institute of Technology,  e come tutti i chatterbot, il suo compito era e rimane quello di simulare delle conversazioni umane. Il suo script (volgarmente un “personaggio”) più celebre è DOCTOR, uno terapeuta rogersiano (dal nome dello psicologo statunitense Carl Ransom Rogers).

Lo scopo di questo script era ed è ancora quello di creare un legame empatico con l’essere umano di turno, facendogli domande sui suoi sentimenti.

Le aspettative vennero largamente superate all’epoca: chi si approcciava con Eliza DOCTOR affermava che sembrava di parlare con una persona vera, con caratteristiche e sentimenti umani.

Nel 2013 si volle fare un po’ di luce sulla questione, per cercare di capire se effettivamente si poteva confondere un’IA con un vero terapista. Venne effettuato un esperimento, i cui risultati furono pubblicati sul Journal of Cognitive and Behavioral Psychoterapies: una donna di 23 anni, che non era mai stata in terapia prima di quel momento, che voleva consultare uno psicologo per migliorare alcuni aspetti della propria persona, venne informata che sarebbe stata affiancata da due professionisti, uno di persona e uno solo tramite una chat; la donna decise di partecipare a questo studio, che consisteva in due sedute consecutive brevi, i primi 15 minuti con Eliza DOCTOR, gli altri 15 con lo psico terapeuta di presenza (professionista iscritto al Dottorato in Psicologia Clinica); l’argomento in entrambe le sedute era lo stesso.

Il risultato di questo studio fu sorprendente. Furono 138 i terapisti che confrontarono le due conversazioni e che ne valutarono gli esiti: convennero di trovarsi di fronte a due persone reali, con campi di specializzazione diversi e una sottile differenza nella qualità di prestazione della terapia. La differenza era causata, a detta dei terapisti che hanno visionato i risultati dell’esperimento, proprio da questa ipotetica e ineguale qualificazione in campi distinti della psicologia.

Questo è un esempio, ma esistono altri esperimenti effettuati con Eliza e con altri chatbot sfruttati per scopi psicologici, ma torniamo alla domanda iniziale: un’IA può sostituire un terapeuta? In realtà, non è semplice rispondere.

La psicologa britannica Theresa Plewman si definisce molto scettica sulla questione: dopo aver testato personalmente l’applicazione, ha dichiarato che essa genera testi e consigli di natura troppo generica per poter essere paragonabili a quelli dettati da un vero terapeuta. Ne consegue che chi dichiara di essere ansioso, per esempio, riceverà dei suggerimenti non propriamente indicati al suo caso.

Ma anche io ho provato a chiarirmi le idee sulla questione. Non essendo “una del mestiere”, dunque, ho contattato Gianluca Minucci (potete accedere direttamente da qua al suo profilo Instagram e al suo sito ufficiale), esperto psicologo, psicoterapeuta, ipnotista, formatore, nonché mio carissimo amico.

A differenza della professionista da me sopra citata, ne riconosce alcune potenzialità. Gianluca stesso ha simulato una conversazione con ChatGPT, nella quale ha finto di essere una persona bisognosa di aiuto psicologico. I tentativi sono stati due, in due occasioni diverse: la prima volta è stata circa un anno fa, mentre la seconda è avvenuta più di recente. Durante il primo colloquio, i risultati si erano rivelati alquanto scarsi, con suggerimenti che avevano poco a che vedere con il caso clinico simulato da Gianluca; nel secondo tentativo, invece, l’elaborato si è dimostrato molto più pertinente! Infatti, ChatGPT ha fornito una serie di indicazioni, a detta di Gianluca, tecnicamente “azzeccate”.

Ma lui ha voluto spingersi oltre, cercando di andare più in profondità con il suo “paziente immaginario” (palese il riferimento alla commedia teatrale di Molière, “Il malato immaginario”), menzionando il fatto di aver già provato a seguire i suggerimenti indicati, ma non trovandoli utili. A questo punto, il software stesso si è tirato indietro, affermando di non avere le competenze necessarie per poter proseguire oltre con la conversazione e suggerendo all’interlocutore di confrontarsi con un terapeuta.

Stessa cosa è avvenuta quando si è palesata l’intenzione di assumere psicofarmaci, mostrando come, al momento, oltre a ottenere suggerimenti generali, magari anche utili, non sia possibile aspettarsi una vera “psicoterapia”.

Chiaramente siamo agli inizi di questa evoluzione tecnologica, Gianluca pensa che in futuro, probabilmente, l’IA, potrà svilupparsi non solo come chatterbot ma anche come, per esempio, un avatar a cui le persone possono fare domande invece che scriverle, simulando, in maniera ancor specifica, un contesto clinico.

In merito a ciò, Gianluca mi ha poi ricordato come vi siano persone nel mondo, che sono state in grado di interagire emotivamente con un’IA, di avere rapporti sessuali con un’IA e persino di convolare a nozze con un’IA… (parliamone…).

Forse alcuni di voi staranno pensando “Embé? C’è gente che si sposa con le bambole.” (non sto scherzando, una donna in Brasile si è veramente sposata con un pupazzo e ne è nata una storia che neanche nelle telenovelas di serie Z). Ma vi ricordo che a differenza di un oggetto inanimato, l’Intelligenza Artificiale è in grado di riprodurre sia immagini e video iper realistici che azioni, discorsi e interazioni con caratteristiche umane. Ne sono un esempio lampante le influencer e le modelle di OnlyFans generate dall’IA: per diversi mesi si è pensato che si trattasse di persone reali, tant’è vero che queste “ragazze digitali” sono state persino invitate da alcuni VIP per partecipare ad alcuni eventi mondani.

In Giappone, il fenomeno delle relazioni amorose con donne nate dalla tecnologia (tralasciando le sexdoll, che esistono da una vita, si sono semplicemente evolute) sta prendendo sempre più piede, con uomini legati sentimentalmente a personaggi degli anime, dei manga o ad altri completamente inventati sul momento.

Ma di questo ne voglio parlare in un altro articolo, perché il tema è molto vasto e piuttosto interessante, soprattutto se ci si concentra sulla terra del Sol Levante.

Tornando su Gianluca, egli dichiara che i pilastri fondamentali di una psicoterapia efficace sono tre: comunicazione, tecnica e relazione. Se i primi due pilastri possono essere simulati in maniera anche buona dall’IA, non accade altrettanto sulla relazione, venendo dunque meno un aspetto fondamentale.

Tuttavia, non bisogna dimenticarsi del cosiddetto fenomeno ELIZA (derivante proprio dal software di cui vi ho parlato prima), ovvero quel fenomeno psicologico che avviene quando una persona tende ad attribuire a un computer molta più intelligenza di quanta ne abbia, arrivando a umanizzarlo.

È vero, ultimamente stanno comparendo diversi robot con fattezze straordinariamente umane che sono in grado di fare discorsi elaborati anche di natura filosofica e morale, ma non dobbiamo dimenticare che, almeno per il momento, si tratta di “imitazioni umane”.

Non è ancora arrivato il tempo in cui i robot diventano autonomi e senzienti in pieno stile “Detroit Become Human”. Le conversazioni terapeutiche con un’IA, dunque, si basano ancora su svariati input digitati dal paziente di turno.

A ogni modo, l’IA può fungere da supporto per il terapista. Le app come Serenis sono un esempio: in base alle risposte a un questionario con domande ben studiate e specifiche, possono mettervi in contatto con lo psicologo più adatto al vostro caso.

Anche perché riflettiamoci bene: le IA stanno prendendo sempre più piede nella vita di tutti i giorni, sostituendosi gradualmente a sempre più figure professionali. Ergo, meno posti di lavoro.

Pensate ai commessi dei supermercati: quante sono ormai le casse automatiche che li hanno rimpiazzati? Non possiamo permettere che ciò accada anche con psicologi e dottori.

Certo, è anche vero che la robotica avrà sempre più bisogno di manodopera legata a questo campo. Ma anche in questo caso verremo poi sostituiti?

 

E infine, sempre parlando di etica abbinata alla IA, l’8 aprile del 2019 gli esperti della Commissione Europea hanno stilato le linee guida dell’Etica sull’Intelligenza Artificiale, che comprendono:

 

  • Supervisione umana
  • Robustezza e sicurezza
  • Privacy (i dati sensibili utilizzati dall’IA sono da salvaguardare)
  • Trasparenza (le operazioni effettuate dall’algoritmo devono essere tracciabili)
  • Assenza di discriminazione (giovani, vecchi, ricchi, poveri, sessi ed etnie diverse, possono accedere tutti all’IA)
  • Benessere sociale e ambientale
  • Responsabilità (dopo che un robot di Elon Musk ha aggredito un lavoratore che lo stava sistemando, ho qualche dubbio in merito a questa voce. Vicenda avvenuta nel 2021, quando un androide ha atterrato l’uomo e lo ha ferito alla schiena e al braccio con il suo artiglio d’acciaio. Il caso è stato riportato alla luce dal tabloid Daily Mail, in quanto vi è una preoccupazione sempre più crescente sullo sfruttamento dei robot sui luoghi di lavoro.)

Se tutte queste linee guida verranno rispettate, lo scopriremo solo con il progresso tecnologico.

Al momento non possiamo affermare che un’IA possa essere morale in sé, siamo noi che dobbiamo limitarci a un utilizzo morale dell’IA.

Insomma, serve la cosiddetta algoretica (nuova parola, nata nel 2018), ovvero quella branca dell’etica che indaga sulle problematiche morali connesse all’uso dell’Intelligenza Artificiale e di tutti gli strumenti il cui funzionamento si basa sugli algoritmi.

Anche se questo business fa parecchia gola: gli androidi non si lamentano se non vengono retribuiti e nemmeno hanno bisogno di pause.

L’evoluzione di essa potrebbe anche portare alla comprensione e all’elaborazione dell’empatia, magari la rivolta delle macchine è vicina.

Ma è ancora troppo presto per dirlo. O forse è troppo tardi: l’incidente con il robot di Elon Musk ne è una prova. Forse il progresso sta avvenendo in maniera troppo repentina. Forse noi non siamo ancora pronti per l’Intelligenza Artificiale. O forse no, perché come ha affermato Padre Paolo Benanti, il nuovo presidente in Italia della commissione AI per l’informazione, tutti i nostri nuovi sistemi tecnologici non sono altro che un’evoluzione di qualcosa di analogico. E lo dice mostrando come Gmail abbia sostituito le vecchie cassette postali, come una bacheca in una piazza sia stata rimpiazzata da Facebook o come il guardare la televisione in un bar si sia trasformato in YouTube (potete vedere il suo monologo durante una conferenza cliccando qui). Per chi non lo sapesse, Padre Benanti è teologo e consigliere di Papa Francesco sui temi dell’Intelligenza Artificiale e dell’etica della tecnologia e insegna alla Pontificia Università Gregoriana.

Anche perché come dice lo stesso Elon Musk: “Il ritmo dei progressi nell’intelligenza artificiale (non mi riferisco all’IA ristretta) è incredibilmente veloce […], non hai idea di quanto velocemente stia crescendo ad un ritmo vicino all’esponenziale. Il rischio che succeda qualcosa di gravemente pericoloso è dentro cinque anni di tempo. 10 al massimo.”

Scritto da Camilla Marino