FOGLIO LAPIS - FEBBRAIO 2024

 

E' la quintessenza della modernità, eppure le sue radici affondano nell'antichità classica. La differenza fra IA debole e forte e i rischi che vanno affrontati con normative e standard etici

 

L'Intelligenza Artificiale (AI, Artificial Intelligence) è divenuta una forza motrice nella trasformazione digitale, influenzando profondamente ogni aspetto della nostra vita quotidiana. Questa tecnologia affascinante si basa sull'idea di creare sistemi capaci di apprendere, ragionare e prendere decisioni in modo autonomo, simulando in questo modo processi ritenuti finora prerogativa dell’intelligenza umana.

A guardar bene concetti da tempo espressi nella filosofia dell’antica Grecia, basti pensare al demiurgo platonico descritto nel Timeo o al concetto aristotelico di “automa”. Le idee sulla vita artificiale e sui robot erano già presenti nella fantasia umana ancor prima che i progressi tecnologici li rendessero possibili, e furono narrati dagli antichi poeti Esiodo ed Omero. Anche se i primi dispositivi semoventi, o automi, si è soliti collocarli in periodo medievale, i concetti di essere artificiale e di macchina pensante era da tempo che popolavano le leggende ed i miti greci: dalla figura artificiale di Pandora a Talos, un particolare robot di bronzo, che pattugliando di continuo l’isola di Creta la difendeva scagliando massi contro le navi nemiche.

E bene tener presente, tuttavia, che se la filosofia greca classica ha affrontato alcune idee che possono essere collegate a questioni correlate all’AI è solo nel XX secolo che si è avuto un approccio scientifico nei suoi confronti, questo dovuto all’avanzamento delle tecnologie informatiche e dei calcolatori. L’intelligenza artificiale moderna si fonda su principi come l’apprendimento automatico, le reti neurali artificiali e l’elaborazione del linguaggio naturale.

Fra gli eventi chiave nell’evoluzione della IA è da segnalare sicuramente il contributo di Alan Turing che nel 1950 pubblica Computing machinery and intelligence che partendo dalla domanda “le macchine possono pensare?” propone il famoso test di Turing, un particolare esperimento di intelligenza artificiale tramite il quale ad una persona viene chiesto di giudicare se in una conversazione il suo interlocutore sia un umano o una macchina.

E con l’avvento dei computer che l’intelligenza artificiale assume le caratteristiche odierne. Il termine venne coniato da John McCurty nel 1956 durante un convegno al Dartmouth College (Dartmouth Summer Research Project on Artificial Intelligence) al cospetto dei maggiori esponenti della nascente disciplina che fino a quel momento veniva denominata Sistema Intelligente. Il sentiero è ormai tracciato, un fervente senso di ottimismo intellettuale accompagna e sostiene le ricerche e le sperimentazioni nel settore di università ed aziende informatiche. Viene elaborato il linguaggio di programmazione LISP (List Processing) e l’anno successivo i ricercatori informatici Allen Newell, JC Shaw e Herbert Simon mettono a punto il programma Logic Theorist capace di dimostrare alcuni problemi matematici, più o meno complessi, partendo da determinate informazioni.

Il vero salto di qualità avviene solo a partire dalla fine degli ani ’60, e con il contributo inaspettato della biologia, con la progettazione di Mark I Perceptron da parte di Frank Rosemblatt, il primo computer basato su reti neurali con sistema aperto e capace di apprendere per tentativi ed errori.

Tante le sperimentazioni sul campo, fra queste non possiamo non ricordare quella di Deep Blue del 10 febbraio 1996, un particolare tipo di macchina progettata dall’IBM per sfidare l’allora campione mondiale di scacchi Garry Kasparov. Dopo le prime partite vinte dal campione russo la macchina fu capace di migliorarsi facendo tesoro delle precedenti gare e raggiungendo un livello elevato di creatività tale da assicurarsi la vittoria finale che avvenne l’11 maggio del 1997. Ci troviamo difronte a quello che viene definito apprendimento automatico (machine learning) ossia la capacità di imparare a svolgere una determinata azione anche se, in fase di progettazione, tale azione non rientrava tra quelle possibili. La complessità dell’apprendimento automatico ha portato a diversi approcci metodologici, fra i principali apprendimento supervisionato, apprendimento non supervisionato ed apprendimento rinforzato.

Oggi si preferisce parlare di AI debole, o anche ristretta, ed AI forte: l’ipotesi di fondo è quella di chiedersi se la macchina potrà mai uguagliare o addirittura superare la mente umana oppure ciò le sarà precluso. Con la prima definizione si intende un’AI addestrata ed orientata ad eseguire specifiche attività, in sintesi si comporta “come se” avesse un cervello umano. E’ quella di cui maggiormente possiamo avere esperienza personale, basti pensare a Siri di Apple, Alexa di Amazon, i veicoli a guida autonoma, chatbot fra i quali ChatGPT, solo per citarne alcuni. Gli algoritmi che sottendono a tal tipo di intelligenza permettono alla macchina di agire come se fosse un oggetto intelligente e non ha alcuna importanza che lo sia davvero perché lo scopo principale è quello di operare con successo in alcune funzioni umane complesse. Si tratta di un comportamento che simula quello umano senza avere la pretesa di uguagliarlo o di superarlo. Non si ha neanche la pretesa di definire i processi creati come processi mentali, in quanto l’attenzione è incentrata essenzialmente sul problem solving, ossia sulla capacità di risolvere problemi.

L’AI forte, invece, si riferisce a sistemi capaci di simulare in totale autonomia il comportamento umano, che prendendo spunto da un semplice imput testuale, definito prompt, sia in grado di agire autonomamente a prescindere dal contesto di riferimento e dai compiti loro assegnati, che di fronte ad un problema riesca a trovare soluzioni non specialistiche ma generaliste. In tale contesto la macchina non è soltanto uno strumento ma, se programmata adeguatamente, può divenire essa stessa una mente, con capacità cognitive non distinguibili da quelle umane. Ipotesi la cui genesi è rinvenibile nelle idee meccanicistiche precedentemente espresse nel XVII secolo dal filosofo inglese Thomas Hobbes che considerava l’intelligenza, ossia la capacità di ragionare, nient’altro che un insieme di calcoli della mente umana.

Per il momento il lato forte dell’AI sembra difficilmente realizzabile ed è relegato ad un ambito puramente speculativo, ma le sperimentazioni sono in crescita continua. Di sicuro l'Intelligenza Artificiale è una forza trainante della quarta rivoluzione industriale, foriera di cambiamenti sostanziali nei settori della tecnologia, della medicina, dell'industria e oltre.

L'Intelligenza Artificiale, sebbene portatrice di numerosi benefici e avanzamenti, presenta anche una serie di rischi e sfide che devono essere affrontati attentamente. Per mitigare questi rischi, è fondamentale sviluppare e implementare politiche, normative e standard etici che guidino l'uso responsabile dell'AI. Inoltre, è cruciale coinvolgere la comunità scientifica, industriale e la società civile nella definizione di regole e pratiche che salvaguardino l'equità, la trasparenza e la sicurezza nell'evoluzione dell'Intelligenza Artificiale. E’ importante gestire con attenzione le implicazioni etiche e sociali dell'uso dell'AI per massimizzare i benefici e mitigare i rischi ad essa associati.

                                       Clemente Porreca

 

 


                                           

Clicca qui per iscriverti alla nostra newsletter!

 

Torna al Foglio Lapis

 

Mandaci un' E-mail!