<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=336576148106696&amp;ev=PageView&amp;noscript=1">
Intelligenza artificiale

Nello Cristianini: «Sì, le macchine sono intelligenti, anche se non pensano come noi»

di Gianmaria Pitton
Docente di intelligenza artificiale a Bath, nel Regno Unito, ha pubblicato il saggio “La scorciatoia”

Si parla da - relativamente - poco tempo di intelligenza artificiale, ma la si studia da almeno mezzo secolo, anche in Italia. Anzi, «alcune delle cose fatte da noi nei primi tempi hanno avuto un impatto, per esempio il lavoro di padre Roberto Busa, vicentino, che molti ritengono il fondatore della linguistica computazionale, per avere trascritto tutto il lavoro di San Tommaso d’Aquino in un computer della Ibm». A parlare è Nello Cristianini, docente di intelligenza artificiale all’Università di Bath, nel Regno Unito: autore del libro “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”, pubblicato nel 2023 da il Mulino, venerdì 19 gennaio sarà a Vicenza per l’Accademia Olimpica.


L’intelligenza viene spesso considerata una facoltà soltanto umana: è così?
L’intelligenza esiste su questo pianeta da prima del primo essere umano, era presente negli animali di cui troviamo i fossili, che avevano un cervello e i sensi, molti cacciavano e altri fuggivano, certo non è un’esclusiva degli esseri umani. Non è nemmeno un’esclusiva del regno animale, anche le macchine possono essere intelligenti.

Quale potrebbe essere una definizione più generale di intelligenza?
“Saper cosa fare quando non si sa cosa fare”, diceva Jean Piaget, ovvero sapersi comportare in modo sensato anche in condizioni mai viste prima, per cui non esiste una soluzione già pronta. In quei casi si deve essere in grado di comprendere e ragionare, in qualche modo.

Come può l’intelligenza delle macchine essere radicalmente diversa da quella umana?
Le due cose sono separate, possiamo creare un meccanismo che impara dall’ambiente, senza che questo diventi simile a noi, e perfino senza che riusciamo a capire le cose che impara. Non confondiamo l’algoritmo che impara dal mondo, creato da noi, con il modello del mondo, creato da lui. L’intelligenza delle macchine è già diversa dalla nostra.

Qual è la “Scorciatoia” di cui parla il suo libro?
Dopo avere tentato per decenni di implementare nei computer le nostre teorie sul linguaggio o sull’intelligenza, senza risultati, alla fine abbiamo dovuto ripiegare sull’uso di trucchi statistici, che non si basavano su alcuna comprensione teorica della psicologia o della linguistica. Questo ha funzionato: è così che YouTube raccomanda i video, o Google traduce i documenti. Sostituire la teoria con la statistica è stata la prima scorciatoia. Per fare questo però c’era bisogno di moltissimi dati, e così abbiamo imparato a riciclare i dati che sono già esistenti online: questa è stata la seconda scorciatoia. Ce ne sono state anche delle altre, e prese tutte insieme queste idee forniscono la ricetta che seguiamo oggi per creare l’intelligenza artificiale. Comprendendo queste scorciatoie, possiamo poi capire cosa aspettarci e come regolamentare la tecnologia.

Quali sono le principali ricadute dell’intelligenza artificiale sulla vita quotidiana?
Non ci potrebbe essere il web, senza l’IA, perché la usiamo per trovare le notizie, filtrare lo spam, scoprire i tentativi di frode, e così via. E poi abbiamo già veicoli autonomi, macchine fotografiche che si adattano ai contenuti delle foto, traduttori automatici. È possibile oggi leggere i giornali di tutto il mondo, in traduzione, gratis. E poi i nuovi agenti come ChatGPT possono anche riassumere, rispondere alle domande, collegare notizie diverse. I medici possono già usare strumenti di AI per esaminare radiografie. La lista è lunghissima.

Quali sono gli aspetti più preoccupanti?
Quando deleghiamo decisioni a una macchina, dobbiamo preoccuparci del rischio che siano sbagliate: sia in termini di accuratezza, per esempio una diagnosi sbagliata; sia in termini di legalità, per esempio, una decisione discriminatoria. Immaginiamo un software che vaglia il curriculum di un candidato, o esamina la richiesta di un mutuo: questa decisione può cambiare una vita, e deve rispettare i nostri valori di uguaglianza. È giusto tenere gli occhi aperti, e insistere che le leggi regolamentino questo settore. Il primo passo è comprendere questa tecnologia, la cura per l’ansia è la conoscenza.

L’Europa sta lavorando a un regolamento: sarà un documento efficace?
È un ottimo inizio, anche se molto resta da fare. L’idea è di difendere i valori europei, senza danneggiare l’innovazione, e il tutto mentre la tecnologia sta ancora cambiando a ritmo rapido. Ma abbiamo una bozza che stabilisce almeno i principi generali, e questo è progresso. Credo che il resto del mondo seguirà il modello europeo.

Ci sono invece ambiti sui quali si dovrebbe prestare maggiore attenzione?
La legge si occupa proprio di ambiti, non di tecnologie specifiche: è l’applicazione specifica della tecnologia, non la tecnologia stessa, a comportare dei rischi. Lo stesso algoritmo potrebbe essere sicuro in un videogioco, ma rischioso in una banca. Dobbiamo prestare attenzione agli ambiti in cui i diritti fondamentali sono in gioco: libertà, sicurezza, uguaglianza, privacy, lavoro. Ad esempio, decisioni in campo giudiziario, proposte da molti e avversate da altri, andrebbero scrutinate con enorme attenzione.

Cosa si intende con intelligenza artificiale generativa?
Da qualche anno, oltre che prendere decisioni, gli agenti intelligenti possono generare “contenuti”, come testi, immagini e video. Questo ha una serie di conseguenze: il rischio che questi possano essere usati per ingannare; la competizione per quelli che finora erano incaricati di produrre contenuti, come i giornalisti; il fatto che questi metodi vengono addestrati su documenti generati da esseri umani, come dipinti e foto di artisti; e così via. È un nuovo mondo da studiare, e siamo già in ritardo.

Quella dell’IA generativa è una creazione di nuovi contenuti, o solo un assemblaggio di contenuti preesistenti?
Nel caso dei testi si va veramente oltre l’idea del pappagallo che ripete le cose: è stato possibile dare domande di esame universitario a GPT-4, ottenendo punteggi altissimi, senza che GPT avesse mai visto quelle domande in precedenza, durante l’addestramento. Vediamo la capacità di generare risposte nuove, collegando informazioni in modo originale. I modelli generativi di linguaggio sembra che abbiano una loro forma di comprensione del mondo, diversa dalla nostra, ma sufficiente a risolvere dei compiti di tipo “umano”, e siamo solo all’inizio. Per le immagini, invece, non so ancora come rispondere, ma penso che ci stiamo muovendo nella stessa direzione. 

Suggerimenti