Intelligenza artificiosa e Deficienza artificiale

Debbo spiegare a delle giovani menti cosa sia l’intelligenza artificiale. Per prepararmi uso il mio metodo brevettato (Runthinking), ossia me ne vado a fare due ‘vasche’ al Mandrione. Innesto la guida senza pilota e divago alla ricerca di un filo conduttore.

Dopo dieci minuti, tempo necessario a completare il riscaldamento, inizia a girare la parte più importante (che non è la stessa di quando siamo incazzati), producendo la concentrazione dei neuroni alla ricerca della soluzione al seguente quesito: come spiegare l’intelligenza artificiale ad un cretino? E, soprattutto, come far comprendere che dietro gli slogan (Alexa, per capirci), ci sono pericoli inimmaginabili?

Anzitutto il contesto. Un interlocutore deve essere distinto a seconda dell’età informatica (che differisce moltissimo da quella anagrafica). Può essere intellettualmente un fenomeno ma se non sa un accidente di questioni telematiche coglierà solo la parte negativa. Al contrario, il nativo digitale comprenderà adeguatamente solo la parte positiva, perché quella negativa implicherebbe andare contro la sua natura. Prendete, per il momento, questo sillogismo come un assioma.

Vi reputo tanto intelligenti da non dover perdere tempo a spiegarvi cosa sia l’intelligenza. Perché la questione non è spiegarla a voi, ma ad una macchina. E deve essere proprio una macchina perché se è solo un sistema informatico/telematico la faccenda è ancora più complicata. Questa affermazione resterà indimostrata, lasciata ad una vostra attestazione di fiducia.

All’inizio le menti eccelse del nostro mondo fisico hanno immaginato di “insegnare” ad un “sistema” quali siano le cose da sapere e come debbano essere “organizzate”. Per fare un esempio insegno ad un sistema una verità assoluta: 1+2=3, laddove formalizzando abbiamo A “aggiunto” a B “produce” C. Potrei farvi subito vedere la fallacia teorica di questa semplice prospettazione (1+1=2 non equivale, con tutta evidenza, ad A+B=C).

Questo semplice esempio fa capire come la numerosità delle variabili rende velleitario insegnare tutte le possibilità, affinché un “sistema” possa essere in grado di “replicare” (per quanto possibile) l’atteggiamento del cervello umano in cui si intersecano, in strutture tridimensionali riconfigurabili, qualche triliardo di sinapsi. Posta la rilevata impossibilità di tale impegno si è scelta una strada più semplice.

Il “sistema” apprende “ragionando” su una enorme massa di informazioni (Big Data, tanto per restare nel gergo a la page) con algoritmi di impostazione sfacciatamente statistica.

Per tornare all’esempio di prima, il nostro “sistema”, saccheggiando Internet, la posta elettronica, i nostri movimenti, e tutti i dati ricavabili da una loro formalizzazione informatica trova che A+B può generare tanto C, quanto D, quanto E, quanto …. Qual è la risposta giusta? Nell’ottica di “verità” assoluta, ovviamente, non ci sono molte alternative ma in un mare magnum di sciocchezze (questa compresa) possiamo parlare di assoluti? Evidentemente no.

Il “sistema” allora viene “addestrato” a selezioni ramificate (un po’ come i nostri aminoacidi), in cui associa al problema la soluzione via via più probabile, con pochi o nulli giudizi di “valore”. In sostanza, se da A+B si ricava che per un 40% la risposta ricorrente è D, per un 30% è C e per un 10% è F, la successiva volta, il “ragionamento” scarterà come non rilevante la risposta E, concentrando il focus sull’alternativa D ed E.

Provate ad applicare questa logica ad un motore di ricerca e scoprirete che i risultati sono la media ponderata dei vostri simili. Tutto quello che non rientra in questa ‘similitudine’, comparirà da pagina 30 in poi della lista dei risultati, il che provocherà che quanti hanno “davvero” ragione, scompariranno dal radar, consegnati all’irrilevanza statistica. Tutti finiranno per adeguarsi ad una soluzione “ragionevole” (cioè quella della massa che, per l’occasione, potrebbe financo essere costituita da completi imbecilli).

Avrete già capito gli effetti. L’intelligenza è artificiosa non artificiale, e punterà ad avere risultati perfetti se solo tutti noi iniziamo ad assecondarla. Sciolgo l’assioma: l’apocalittico vuole fuggire, mentre l’integrato è stato catturato sin dalla nascita e non può più farlo perché gli è inconcepibile, come il pesce rosso che voglia contestare il suo “mare” (che, poi, è solo una boccia di vetro con pochi litri di acqua).

Qualcuno aveva detto, in tempi non sospetti, che la statistica è quella scienza in base alla quale i risultati evidenziano ogni soluzione, tranne quella di colui che ha veramente ragione. Anche così facendo restiamo – come si è visto – nel campo di soluzioni “pratiche” utili ma senza “cuore”. Cosa manca? Alla nostra intelligenza artificiale ora non difetta l’intelligenza, difetta il cuore, il sentimento, il buon senso. Tutto quello che ci rende imperfetti e, proprio per questo, ricchi di sorprese.

La corsa è finita. Questa lezione pure. Alla prossima.

P.S.: Di questi tempi pare che LaMDA (Language Model for Dialogue Applications) il programma di sviluppo dell’IA di Google abbia generato un sistema senziente, ma si tratta di fenomeni di “fata morgana”. Anche un pappagallo, dopo un pochino sembra davvero capire cosa dice, ma non è così. Il sistema, più sofisticato, “risponde” a senso e sembra che ciò sia frutto di un “ragionamento”. Ed è sicuramente vero, solo che questo “ragionamento” è la risultante di una repentina capacità di collazione (da un enorme “set” di dati correlati) ma la coscienza del sé è tutta un’altra cosa. Spero.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *