Rosso di sera
Fino a che punto si può parlare di intelligenza artificiale? A quali rischi ci espone lo sviluppo di dispositivi e programmi sempre più sofisticati, capaci di prestazioni rispetto alle quali gli esseri umani non sembrano in grado di competere? Affronta il tema Massimo Quintarelli con un intervento su Paradoxa Forum il 1° febbraio 2021.
Macchine coscienti?
Tutti ricordiamo HAL 9000, il computer ‘intelligente’ di 2001: Odissea nello spazio. Ingannava il tempo giocando a scacchi con David, parlava come un assistente vocale e quando scoprì il piano per disattivarlo, decise di uccidere gli astronauti per proseguire nel suo obiettivo segreto. Dieci anni dopo, nel 1979, in Star Trek, il Comandante Kirk si trova ad affrontare V’ger, una nave aliena che si rivela essere la sonda spaziale Voyager 6 che si credeva fosse finita in un buco nero. Intercettata da macchine viventi, viene fatta evolvere fino a sviluppare una propria coscienza e le viene assegnata la missione di imparare tutto ciò che può e di cercare il suo creatore per restituirgli la conoscenza appresa. Questi sono solo due esempi di come l’arte ci abbia proposto una visione dell’evoluzione dell’informatica fino a sviluppare una autodeterminazione e persino una coscienza.
Parimenti, anni or sono si pensava che si potesse generare la vita in laboratorio. È trascorso un secolo dalla pubblicazione di Frankenstein; probabilmente se Hollywood avesse sviluppato quel filone (ricordiamo ad esempio Blade Runner), oggi ci chiederemmo nei convegni se un replicante può sposare un umano e se veramente piange i propri cari. Invece si è sviluppato il filone dei computer ‘intelligenti’ e ci chiediamo se un computer potrà divenire cosciente.
Ma è veramente possibile una simile evoluzione? La risposta semplice: no. Molti amici, vicini alla Singularity University, sono invece più possibilisti: alcuni pensano che potrebbe accadere, che potremo in un futuro inventarci qualcosa, oggi inimmaginabile, che potrebbe rendere le macchine coscienti. Si tratta evidentemente di un approccio fideistico, non essendo possibile un riscontro.
‘Intelligenza Artificiale’
Il termine ‘Intelligenza artificiale’ venne inventato da 7 informatici di primissimo piano nel 1955 quando proposero un progetto estivo all’Università di Dartmouth. Volevano coinvolgere 10 studiosi per due mesi per studiare una ‘intelligenza artificiale’. Affermarono che «ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza può essere descritta in modo così accurato da consentire ad una macchina di simularla». Chiesero ed ottennero un finanziamento di 13.500 dollari.
Molti decenni e miliardi di dollari dopo, è chiaro che nemmeno sappiamo bene cosa sia l’intelligenza umana e quindi, tantomeno, come sia possibile emularla.
Ci si riferisce ad una intelligenza come quella umana, in grado di affrontare una sterminata varietà di situazioni (anche improvvisando) con il nome ‘AGI- Artificial General Intelligence’, o ‘strong intelligence’ in contrapposizione alla ‘narrow’ o ‘weak’ intelligence che sono i software che sappiamo fare (e facciamo) e che ci consentono di affrontare compiti specifici.
È vera ‘intelligenza?’
Una calcolatrice è certamente meglio di una persona nel risolvere calcoli complessi come le radici quadrate, ma non la chiameremmo ‘intelligente’ anche se, per la verità, quando furono introdotte venivano definite ‘intelligenti’. Il computer consente di fare un budget trovando istantaneamente punti di equilibrio tra varie ipotesi, cosa che, senza di esso, richiederebbe settimane. Ma non per questo lo chiameremmo ‘intelligente’.
Lo chiamiamo ‘computer’ perché capiamo che sta facendo dei calcoli secondo un modello deterministico.
L’introduzione dei computer ha consentito di affrontare temi che prima potevano essere svolti solo da persone. I computer hanno una capacità di fare questi compiti in una quantità e con una velocità impareggiabile dalle persone.
Una montagna di libri
Se parliamo di una montagna di libri, capiamo di che si tratta. Non ci metteremmo a discutere se sia un habitat da preservare per la crescita degli stambecchi.
I termini ‘intelligenza artificiale’ richiamano un parallelo inesistente con l’intelligenza umana; sono una analogia utile per semplificare le discussioni, ma non sono accurati. Oggi diciamo che un computer si programma e fa dei calcoli: quasi tutti abbiamo una idea – più o meno precisa – di cosa ciò significa. Diciamo anche che una Intelligenza artificiale ‘impara’ e ‘decide’ ma pochi sanno cosa ciò veramente significa. Non è come fa una persona.
Macchine che ‘imparano’
Oggi l’attenzione si concentra sul ‘Machine Learning’ e lo strumento di maggiore interesse sono le reti neurali, un concetto proposto nel 1943 e che trova una analogia con la fisiologia dei neuroni, almeno come si conoscevano i neuroni a metà del secolo scorso. Oggi sappiamo che anche questa analogia è molto inaccurata. La definizione di Machine Learning risale al 1959: «si dice che un programma apprende dall’esperienza con riferimento a alcune classi di compiti e con misurazione della performance, se le sue performance nel compito, migliorano con l’esperienza». Decisamente assomiglia a ciò che fa un umano, ma anche un criceto o un lombrico.
Rosso di sera, bel tempo si spera
Un computer ‘apprende’ quando distilla dai dati dei modelli statistici usabili per fare delle predizioni. Un esempio serve a chiarire: guardando i tramonti e il meteo del giorno scopriamo che c’è una correlazione tra il rosso del tramonto ed il bel tempo del giorno successivo. Dato che questa correlazione succede quasi sempre, la codifichiamo nell’enunciato «rosso di sera, bel tempo si spera».
Un calcolatore, cui vengano forniti in input una serie di dati circa il colore del tramonto ed il tempo della giornata successiva, è in grado di calcolare questa correlazione e distillarla in un modello statistico usabile per fare predizioni per nuovi giorni: «il tramonto stasera è nero, domani sarà una bella giornata?». Sulla base del modello statistico possiamo predire di no. Probabilmente sarà brutto. «Si spera» è accurato. Non vi è certezza, solo un elevato grado di probabilità, essendo un modello statistico.
Intelligenza artificiale: dal tramonto alla medicina
Un modello come il tramonto è banale, non lo chiameremmo ‘intelligenza’, ma ci è utile come base del ragionamento perché il meccanismo è simile. Come sappiamo bene, ci sono alcuni fattori che determinano i prezzi degli appartamenti: zona, età dell’edificio, metratura, numero di stanze, vicinanza a servizi, ecc. Studiando le correlazioni tra questi parametri ed il prezzo, la statistica ci consente di distillare un modello che consente di predire il valore in euro di un appartamento, note le sue caratteristiche. Prezzo che «si spera» essere accurato.
Un determinato insieme di valori ematici è caratteristico di una leucemia? Fornendo i dati in input ad un sistema di intelligenza artificiale opportunamente ‘addestrato’ su tanti campioni di sangue sano o malato, esso sarà in grado di predire casi di leucemia. Un determinato insieme di pixel di una immagine istologica è caratteristico di un tumore al seno? Un sistema opportunamente addestrato, ovvero che usa un modello statistico distillato dai dati di casi noti, può predirlo.
Un’auto a guida autonoma è, in principio, un sistema molto sofisticato addestrato con innumerevoli sequenze di fotogrammi di guida su strada correlati con livelli di sterzo destra/sinistra ed acceleratore/freno.
Un modo diverso di fare software
Il Machine Learning è quindi un modo di produrre software che non si basa su un programmatore che definisce tutte le regole di comportamento possibile ma un motore statistico che scopre correlazioni, distilla modelli e li usa per fare predizioni. Questo ci consente di fare cose diverse dai programmi ‘tradizionali’, come ad esempio riconoscere gattini su youtube o classificare esami istologici.
Compiti in precedenza non automatizzabili e quindi tradizionalmente associati all’intelligenza umana divengono oggi automatizzabili e quindi effettuabili con una capacità di scalare in volumi e velocità a livelli quasi infinitamente superiori a quanto realizzabile dalle persone.
La fine del lavoro?
Un software di intelligenza artificiale può essere molto più bravo di un umano a fare correlazioni e predizioni e quindi vincere a scacchi, ma non chiedete a quel software quanto faccia 1+1, perché non sarà in grado di calcolarlo.
Una macchina che sappia classificare esami istologici (come le macchine oggi sanno misurare l’emoglobina) non è in grado di intuire che forse c’è stato un problema con i campioni perché sono sporchi. Un’auto che si guida da sola non è in grado di intuire che il cartello con il limite 10Km/h è stato lasciato da un cantiere ormai chiuso o messo lì da un buontempone. Etc.
Si capisce così che non è giustificata l’idea che l’Intelligenza Artificiale causi la fine del lavoro perché una macchina saprà fare qualunque cosa meglio di un essere umano. Tranne il caso di quei pochi tipi di lavoro composti da una ed una sola funzione, altamente ripetitiva, in cui non sorgono mai situazioni nuove da affrontare, queste tecniche consentono di aumentare le capacità lavorative delle persone, le uniche che sono in grado di adattarsi ed improvvisare e che realmente capiscono il senso di ciò che si fa.
Dalla rivoluzione industriale, grazie all’aumento di produttività, il tempo di lavoro è continuato a diminuire mentre l’economia, la salute ed il benessere hanno continuato ad aumentare. L’intelligenza artificiale ci fa fare un passo ulteriore.
La Finlandia – dove la premier ha appena proposto di ridurre l’orario di lavoro a sei ore al giorno – si è data l’obiettivo di spiegare i rudimenti dell’Intelligenza artificiale all’1% della popolazione. Ogni finlandese, così, conoscerà alcune persone che sanno di che si tratta e come può essere utile nel proprio lavoro e nel proprio quotidiano. Si inizierà dalle scuole dell’obbligo fino alla formazione permanente nelle aziende.
Non dobbiamo temere l’Intelligenza Artificiale come non dobbiamo temere Internet o l’automazione. La cosa che dobbiamo temere è la nostra inazione.
- Files:
- quintarelli_01022021.pdf823 K