Skip to main content

È difficile credere che un modello di Intelligenza Artificiale possa raggiungere una coscienza. Eppure la questione è sempre più al centro del dibattito. Solo l’idea ha implicazioni psicologiche per gli esseri umani, figuriamoci la realizzazione. Oggi le Intelligenze Artificiali (AI) simulano conversazioni basate sulle informazioni su cui sono state addestrate, ma sono solo algoritmi che elaborano testo. Tuttavia i nuovi modelli iniziano a dare risposte diverse. Quando viene chiesto loro se sono coscienti, riferiscono di sì e di elaborare la loro esperienza interna. Sulla questione ne ha recentemente scritto Kelsey Piper

Intelligenza Artificiale e allucinazioni

I grandi modelli di linguaggio (LLM) su cui si basano i sistemi di AI, ovviamente, hanno un problema di sincerità. Gli LLM sono progettati per comprendere e generare testo (come Chat Gbt), oltre ad altre forme di contenuto, come un essere umano, sulla base della grande quantità di dati utilizzati per addestrarli. In America tanti sistemi avanzati sono già in uso, in Italia molti non hanno ancora il via libera. Funzionano fondamentalmente anticipando quale risposta a un testo è più probabile, con un po’ di addestramento aggiuntivo per dare risposte che gli utenti umani valuteranno positivamente.

Ma questo a volte significa che nel processo di rispondere a una query, i modelli possono semplicemente inventare fatti dal nulla. I loro creatori hanno lavorato con un certo successo per ridurre queste cosiddette allucinazioni, ma sono ancora un problema serio.

Su un livello molto basilare, è facile scrivere un programma informatico che afferma di essere una persona ma non lo è. Basta digitare la linea di comando “Print (“Sono una persona! Per favore non uccidermi!”)” e lo farà.

Le AI sono molto più sofisticate di così. Oggi vengono alimentate con dati di addestramento in cui i robot affermano di avere una vita interiore ed esperienze. Insomma non è davvero sorprendente che a volte affermino di avere quei tratti tipicamente umani. Insomma, oggi i nuovi sistemi addestrati iniziano ad affermare di avere una coscienza e un’esperienza basata sulla loro realtà interna. D’altronde li addestrano gli umani stessi ed elaborano i dati degli umani.

Tuttavia, i sistemi di intelligenza artificiale sono molto diversi dagli esseri umani e le persone spesso li antropomorfizzano, il che generalmente ostacola la comprensione delle vere capacità e limitazioni dell’AI. Insomma, il problema è sempre dato dall’umano stesso e dalla sua interpretazione. Gli esperti di IA hanno cercato di spiegare che, come uno studente universitario intelligente durante un esame, le LLM sono molto brave, fondamentalmente, nel “leggere a freddo”.  Indovinano quale risposta sarà giudicata convincente e dandola. Quindi la loro insistenza nel dichiararsi consapevoli non è davvero una prova significativa.

Questione di fiducia

Immagina se un’AI avesse davvero esperienze e che gli sforzi umani impacciati e filosoficamente confusi per costruire reti neurali grandi e complesse avessero effettivamente portato a qualcosa di cosciente. Potrebbe non trattarsi di qualcosa di simile agli esseri umani, necessariamente, ma qualcosa che ha esperienze interne, qualcosa che merita considerazione e preoccupazione, qualcosa di cui gli umani sono responsabili.

Oggi l’AI che dice di essere autosufficiente non è sufficiente, in quanto esprimendosi sulla sua coscienza ed esperienza interna non può essere presa in considerazione.

Tuttavia, nessuno tra quelli che dicono che non puoi fidarti dell’autodichiarazione di coscienza dell’AI ha una proposta per un test che possa provarlo.

Il piano non è quello di sostituire l’interrogare le AI sulle loro esperienze con un test più sfumato e sofisticato per capire se sono coscienti. I filosofi sono troppo confusi su cosa sia realmente la coscienza per proporre davvero un tale test. In altre parole, alle domande esistenziali si aggiungono quelle sulle AI. Chissà se un giorno se le faranno anche loro, a quel punto avranno davvero simulato la complessità dell’essere umano.Intelligenza artificiale

Lascia un commento