E'
la quintessenza della modernità, eppure le sue
radici affondano nell'antichità classica. La differenza
fra IA debole e forte e i rischi che vanno affrontati
con normative e standard etici
L'Intelligenza
Artificiale (AI, Artificial Intelligence) è
divenuta una forza motrice nella trasformazione digitale,
influenzando profondamente ogni aspetto della nostra vita
quotidiana. Questa tecnologia affascinante si basa sull'idea
di creare sistemi capaci di apprendere, ragionare e prendere
decisioni in modo autonomo, simulando in questo modo processi
ritenuti finora prerogativa dell’intelligenza umana.
A
guardar bene concetti da tempo espressi nella filosofia
dell’antica Grecia, basti pensare al demiurgo platonico
descritto nel Timeo o al concetto aristotelico di “automa”.
Le idee sulla vita artificiale e sui robot erano già
presenti nella fantasia umana ancor prima che i progressi
tecnologici li rendessero possibili, e furono narrati dagli
antichi poeti Esiodo ed Omero. Anche se i primi dispositivi
semoventi, o automi, si è soliti collocarli in periodo
medievale, i concetti di essere artificiale e di macchina
pensante era da tempo che popolavano le leggende ed i miti
greci: dalla figura artificiale di Pandora a Talos, un particolare
robot di bronzo, che pattugliando di continuo l’isola
di Creta la difendeva scagliando massi contro le navi nemiche.
E’
bene tener presente, tuttavia, che se la filosofia greca
classica ha affrontato alcune idee che possono essere collegate
a questioni correlate all’AI è solo nel XX
secolo che si è avuto un approccio scientifico nei
suoi confronti, questo dovuto all’avanzamento delle
tecnologie informatiche e dei calcolatori. L’intelligenza
artificiale moderna si fonda su principi come l’apprendimento
automatico, le reti neurali artificiali e l’elaborazione
del linguaggio naturale.
Fra
gli eventi chiave nell’evoluzione della IA è
da segnalare sicuramente il contributo di Alan Turing che
nel 1950 pubblica Computing machinery and intelligence
che partendo dalla domanda “le macchine possono pensare?”
propone il famoso test di Turing, un particolare esperimento
di intelligenza artificiale tramite il quale ad una persona
viene chiesto di giudicare se in una conversazione il suo
interlocutore sia un umano o una macchina.
E’
con l’avvento dei computer che l’intelligenza
artificiale assume le caratteristiche odierne. Il termine
venne coniato da John McCurty nel 1956 durante un convegno
al Dartmouth College (Dartmouth Summer Research Project
on Artificial Intelligence) al cospetto dei maggiori
esponenti della nascente disciplina che fino a quel momento
veniva denominata Sistema Intelligente. Il sentiero è
ormai tracciato, un fervente senso di ottimismo intellettuale
accompagna e sostiene le ricerche e le sperimentazioni nel
settore di università ed aziende informatiche. Viene
elaborato il linguaggio di programmazione LISP (List
Processing) e l’anno successivo i ricercatori
informatici Allen Newell, JC Shaw e Herbert Simon mettono
a punto il programma Logic Theorist capace di dimostrare
alcuni problemi matematici, più o meno complessi,
partendo da determinate informazioni.
Il
vero salto di qualità avviene solo a partire dalla
fine degli ani ’60, e con il contributo inaspettato
della biologia, con la progettazione di Mark I Perceptron
da parte di Frank Rosemblatt, il primo computer basato su
reti neurali con sistema aperto e capace di apprendere per
tentativi ed errori.
Tante
le sperimentazioni sul campo, fra queste non possiamo non
ricordare quella di Deep Blue del 10 febbraio 1996,
un particolare tipo di macchina progettata dall’IBM
per sfidare l’allora campione mondiale di scacchi
Garry Kasparov. Dopo le prime partite vinte dal campione
russo la macchina fu capace di migliorarsi facendo tesoro
delle precedenti gare e raggiungendo un livello elevato
di creatività tale da assicurarsi la vittoria finale
che avvenne l’11 maggio del 1997. Ci troviamo difronte
a quello che viene definito apprendimento automatico (machine
learning) ossia la capacità di imparare a svolgere
una determinata azione anche se, in fase di progettazione,
tale azione non rientrava tra quelle possibili. La complessità
dell’apprendimento automatico ha portato a diversi
approcci metodologici, fra i principali apprendimento supervisionato,
apprendimento non supervisionato ed apprendimento rinforzato.
Oggi
si preferisce parlare di AI debole, o anche ristretta, ed
AI forte: l’ipotesi di fondo è quella di chiedersi
se la macchina potrà mai uguagliare o addirittura
superare la mente umana oppure ciò le sarà
precluso. Con la prima definizione si intende un’AI
addestrata ed orientata ad eseguire specifiche attività,
in sintesi si comporta “come se” avesse un cervello
umano. E’ quella di cui maggiormente possiamo avere
esperienza personale, basti pensare a Siri di Apple, Alexa
di Amazon, i veicoli a guida autonoma, chatbot fra i quali
ChatGPT, solo per citarne alcuni. Gli algoritmi che sottendono
a tal tipo di intelligenza permettono alla macchina di agire
come se fosse un oggetto intelligente e non ha alcuna importanza
che lo sia davvero perché lo scopo principale è
quello di operare con successo in alcune funzioni umane
complesse. Si tratta di un comportamento che simula quello
umano senza avere la pretesa di uguagliarlo o di superarlo.
Non si ha neanche la pretesa di definire i processi creati
come processi mentali, in quanto l’attenzione è
incentrata essenzialmente sul problem solving, ossia sulla
capacità di risolvere problemi.
L’AI
forte, invece, si riferisce a sistemi capaci di simulare
in totale autonomia il comportamento umano, che prendendo
spunto da un semplice imput testuale, definito prompt, sia
in grado di agire autonomamente a prescindere dal contesto
di riferimento e dai compiti loro assegnati, che di fronte
ad un problema riesca a trovare soluzioni non specialistiche
ma generaliste. In tale contesto la macchina non è
soltanto uno strumento ma, se programmata adeguatamente,
può divenire essa stessa una mente, con capacità
cognitive non distinguibili da quelle umane. Ipotesi la
cui genesi è rinvenibile nelle idee meccanicistiche
precedentemente espresse nel XVII secolo dal filosofo inglese
Thomas Hobbes che considerava l’intelligenza, ossia
la capacità di ragionare, nient’altro che un
insieme di calcoli della mente umana.
Per
il momento il lato forte dell’AI sembra difficilmente
realizzabile ed è relegato ad un ambito puramente
speculativo, ma le sperimentazioni sono in crescita continua.
Di sicuro l'Intelligenza Artificiale è una forza
trainante della quarta rivoluzione industriale, foriera
di cambiamenti sostanziali nei settori della tecnologia,
della medicina, dell'industria e oltre.
L'Intelligenza
Artificiale, sebbene portatrice di numerosi benefici e avanzamenti,
presenta anche una serie di rischi e sfide che devono essere
affrontati attentamente. Per mitigare questi rischi, è
fondamentale sviluppare e implementare politiche, normative
e standard etici che guidino l'uso responsabile dell'AI.
Inoltre, è cruciale coinvolgere la comunità
scientifica, industriale e la società civile nella
definizione di regole e pratiche che salvaguardino l'equità,
la trasparenza e la sicurezza nell'evoluzione dell'Intelligenza
Artificiale. E’ importante gestire con attenzione
le implicazioni etiche e sociali dell'uso dell'AI per massimizzare
i benefici e mitigare i rischi ad essa associati.
Clemente Porreca
|