Su Nature la sfida di un software alla soluzione di un gioco con un numero di combinazioni pari a 10^170.

Un numero che viene definito “troppo enorme e vasto perché possa esserci qualche possibilità per approcci di forza bruta”. Ma, quando si parla di evoluzione, le stesse considerazioni non sembrano valere.

Il 27 Gennaio di quest’anno è stato pubblicato su Nature un articolo in cui viene descritto un sistema di intelligenza artificiale (IA) che è stato in grado di vincere contro un campione europeo in un antichissimo gioco cinese chiamato Go .

Fan Hui, il campione in questione, esperto di questo gioco impostato su una sorta di scacchiera 19×19, ha perso cinque volte su cinque contro il software AlphaGo della Google DeepMind, una compagnia inglese di IA.

Il Go è una sfida tra due partecipanti in cui ciascuno deve eliminare le pedine dell’altro circondandole con le proprie. Dove sta l’importanza di questo successo, che ricorda molto quello analogo degli scacchi nella sfida tra Kasparov e Deep Blue?

Partiamo con capire l’importanza dello studiare la risoluzione dei giochi: a questo link è possibile ascoltare un’intervista radiofonica di Marco Motta a Marco Gori, docente di Fondamenti di informatica all’università di Siena, nella quale vengono chiariti i punti chiave di questa notizia. Secondo Gori i giochi, pur essendo problemi semplici, nella ricerca della loro soluzione “nascondono aspetti che sono l’essenza dell’intelligenza”, per cui Motta chiarisce che essi fungono da cartina al tornasole per i progressi dell’IA. Nel caso del Go, il progresso deriva dal fatto che le configurazioni possibili delle pedine sulla scacchiera sono dell’ordine di 10170 mentre negli scacchi sono “solo” 1050! Di conseguenza, per fare in modo che AlphaGo trovasse il modo di vincere, l’approccio da implementare doveva essere necessariamente euristico, infatti con un numero così enormemente alto di possibilità non basta basarsi sulla potenza di calcolo (cioè su un meccanismo elementare ma velocissimo): il tempo per esplorare tutte le configurazioni è insufficiente se confrontato con l’età dell’Universo e il suo spazio. Ci spiega ancora Gori che allora non si compiono esplorazioni casuali ma strategie che conducano alla soluzione, dove le strategie sono “distanze tra le configurazioni” che con tale programma non sono solo precostituite ma “apprese”. L’apprendimento di cui si parla consiste nel fatto che il computer, per mezzo di cosiddette reti neurali, simula le soluzioni giuste e poi le applica.

Le reti neurali sono così chiamate perché usano schemi artificiali che imitano l’apprendimento animale, cioè imitano il grandissimo numero di connessioni di un sistema neurale.

L’approccio usato è stato definito da uno degli autori del paper, Demis Hassabis, simile all’intuizione.

Questa interpretazione dell’AlphaGo non vi sembra molto familiare?

Certo che sì, infatti ricorda moltissimo il sillogismo usato dai fautori dell’Intelligent Design per sostenere la loro visione dell’evoluzione!

Il sillogismo a cui alludo è quello basato sulla seguente struttura:

1)      Si considera un dato processo/ente biologico estremamente complesso (praticamente tutti lo sono).

2)      La complessità la si può esprimere con il numero di configurazioni che un dato elemento biologico può assumere da un punto di vista teorico.

3)      Se la configurazione dotata di funzionalità è l’unica di quelle date dal precedente numero grandissimo, allora è estremamente improbabile che sia stato un meccanismo di prova-ed-errore, come le mutazioni casuali unite alla selezione naturale, a generarla.

4)      In conclusione, solo una “forza intelligente”, cioè consapevole della propria azione, può aver generato tale processo/ente biologico.

Parecchie volte su questo blog è stato fatto notare che mentre le proposizioni 1), 2) e 3) sono scientificamente condivisibili, la 4) è una conclusione pseudoscientifica, perché un qualcosa di metafisico come un’intelligenza che agisce in modo diretto sulle cose non è verificabile in laboratorio (mentre un’azione indiretta, o se preferite in forma di causa prima, non scientificamente ma filosoficamente è postulabile, si veda qui. Ciò che invece si può verificare in laboratorio è se un dato sistema sia comprensibile pienamente solo con un approccio olistico, per esempio l’apparato digerente è un sistema dotato di una funzione che non può essere più svolta se manca una delle sue parti. Un sistema di questo tipo è certamente complesso ma la sua sola struttura non può darci informazioni circa il meccanismo evolutivo con cui si è originato.

Fatte queste dovute precisazioni, osserviamo tutte le analogie tra l’AlphaGo e il problema dell’evoluzione:

1)      Le configurazioni del Go sono dell’ordine di 10^170 mentre quelle degli amminoacidi di una proteina come l’emoglobina sono 10^190;

2)      AlphaGo non avrebbe potuto mai vincere con un metodo di “forza bruta” di prova-ed-errore, così come una proteina non può formarsi solo con mutazioni casuali e selezione naturale;

3)      Un procedimento  deterministico atto a ridurre le configurazioni da esplorare ha permesso ad AlphaGo di trovare la strategia vincente, così come sicuramente anche l’evoluzione di una proteina si è basata su meccanismi ignoti oppure non ben formalizzati in cui le mutazioni sono deterministicamente regolate.

Le capacità dell’AlphaGo sono descritte in termini di intelligenza ed intuito, ma stavolta le analogie si bloccano se vogliamo restare in ambito scientifico, anche se in passato su CS abbiamo dovuto lavorare tantissimo per poter spiegare a molti l’inefficacia del binomio mutazioni casuali + selezione naturale, per cui fa uno strano effetto vedere come in un contesto che sembra completamente diverso non si fanno troppi problemi a parlare di intuito e di intelligenza.

Tornando all’AlphaGo, infatti, nell’articolo di phys.org si scopre, anche se in maniera molto approssimativa, che il meccanismo deterministico del programma di IA si basava su due step ripetuti ad ogni turno di gioco, uno basato su un “policy network” che riduce le mosse possibili a quelle che più possono condurre alla vittoria, un altro basato sul “value network” che invece stima (simulando) il vincitore per ogni mossa presa in considerazione.

Se facciamo un confronto con la definizione di “intuire” (nel suo uso più comune) che fornisce la Treccani

conoscere per avvertenza immediata ciò che non è per sé manifesto, senza quindi l’aiuto della riflessione o di un processo razionale induttivo o deduttivo

Allora ci rendiamo conto che la faccenda AlphaGo è più prosaica: anche se in un modo altamente ingegnoso, l’AlphaGo resta un software che compie calcoli e quindi fa proprio l’opposto che intuire.

Tornando alla nostra analogia, così come l’opposto dell’intuito non è il provare a caso correggendosi ma il basarsi su un algoritmo deterministico, allora l’alternativa ad una pseudo-teoria come l’ID non è il Neodarwinismo ma un altro meccanismo meno stocastico ma scientificamente testabile. Il progresso scientifico, così come quello tecnologico, dovrà quindi passare per la lunga e non sempre accattivante via della ricerca di base, che però fa un po’ a pugni con i tempi stretti del modo attuale di dipingere la scienza (si veda qui).

Se quindi i progressi dell’IA trasformano alcuni fan della scienza in inconsapevoli creazionisti, è bene far notare come si conclude l’intervista a Marco Gori: secondo il docente “la prossima sfida sono i giochi linguistici, perché non serve solo “intuito” ma anche la sfida linguistica inerente alla natura umana”.

Questa si che è una vera sfida, perché non consiste banalmente, come può sembrare, nel prendere spunto da un’altra pagina della Settimana Enigmistica: il linguaggio è la principale manifestazione del pensiero umano, quindi astratto, quindi capace di creare un legame simbolico tra le cose, tra una cosa e un simbolo e tra un simbolo e un altro simbolo. Uno dei simboli più importanti è proprio quello del sé, ovviamente indispensabile per avere la consapevolezza di sé. Senza la consapevolezza capirete che i termini “intelligenza” e “intuito” hanno tutto un altro sapore. Se gli impulsi e gli elettroni che si muovono in un computer sono riusciti comunque a far vincere cinque partite di un gioco di strategia ad un computer, ma anche solo a permettere di scrivere su internet, di apprendere una notizia, di guardare un’immagine, è perché non è il computer che sta diventando sempre più intelligente, siamo noi che già viviamo in un immenso computer che impariamo sempre più ad usare (stai paradigmatiche permettendo).

Se riusciamo sempre più a far fare quello che volgiamo a fotoni ed elettroni, dobbiamo ringraziare il loro comportamento non casuale, ma disciplinato e disciplinabile. Nutro il massimo rispetto per chi ha accolto con maggiore entusiasmo del mio la notizia dell’AlphaGo, ma dovete sapere che non mi sono ancora ripreso dallo shock di scoprire che in prima approssimazione, trascurando gli attriti dell’aria, il moto di un sassolino lanciato davanti a me è descritto da una parabola. Non vola come una mosca, non compie un ramo di iperbole, non percorre una traiettoria a sua scelta o a scelta di Zeus o a caso, non sta realizzando una funzione, sta percorrendo una parabola. Il mio sassolino privo di intelligenza (almeno di quella artificiale) ha frequentato anche lui il liceo perché conosce la seguente definizione:

si definisce “parabola” illuogo geometrico dei punti del piano equidistanti da una retta detta “direttrice” e da un punto fisso detto “fuoco”.

Utilizzando questo sito, accetti che noi e i nostri partner si possa impostare dei cookie per personalizzare i contenuti come da nostra Cookie Policy