MACHINE LEARNING/ Linguaggio e interpretazione, l’intelligenza artificiale al bivio

Intelligenza artificiale e linguaggio: quali relazioni? Se n’è parlato allo spazio “WHAT? Macchine che imparano” del Meeting di Rimini con ANDREA MORO e GIANPIERO LOTITO

25.08.2017 - La Redazione
what_moro_rondoni_lotito_meeting_rimini_2017
Andrea Moro allo spazio What? (Foto Meeting di Rimini)

I temi dell’apprendimento automatico, lo abbiamo visto questa settimana negli incontri di “WHAT?”, interessano molte discipline. Andrea Moro, professore ordinario di linguistica generale e rettore vicario presso la Scuola Universitaria Superiore Iuss di Pavia, e Gianpiero Lotito, fondatore e Ceo di FacilityLive, sono stati ospiti dello spazio “WHAT?” e ci hanno offerto un ulteriore spunto di riflessione e, forse, un nuovo modo di concepire l’intelligenza delle macchine.

Quali sono le questioni aperte in questo passaggio di epoca nel campo delle relazioni tra linguistica e comprensione? — Nel ‘900 la più grande scoperta in ambito linguistico è stata capire che le regole del linguaggio non sono completamente libere e arbitrarie. Questa questione è centrale in: a) Acquisizione del linguaggio: si può facilmente sperimentare che molte delle regole linguistiche sono implicite nell’uso. Si nota, infatti, che certe regole ben formalizzate a livello linguistico sono usate per generare una frase corretta anche senza averne una piena consapevolezza; b) Previsione di come il linguaggio si danneggia data la conoscenza della struttura del linguaggio, soprattutto quando questo è dovuto a patologie; c) Indagine volta a capire come le regole che condividiamo si traducano nei neuroni. Non è certo che vi sia una struttura e una teoria unificata per descriverla e tradurla in termini di cellule o strategie.

Queste domande sono fondamentali per capire cosa ci aspettiamo da una macchina. Ciò riguarda anche il modo in cui intendiamo i termini “pensare” e “parlare”: come alla domanda “potranno un giorno le macchine pensare?” Alan Turing rispose che un giorno il termine “pensare” avrebbe avuto un’accezione abbastanza ampia da includere l’attività di una macchina, allo stesso modo un giorno la parola “parlare” potrebbe essere ampia abbastanza da poter dire che le macchine parlano.

Come si pone questa riflessione rispetto agli sviluppi dell’intelligenza artificiale? —  Lotito nota che, a suo avviso, l’intelligenza artificiale per come la conosciamo non è l’inizio del futuro, ma l’ultima istanza di un processo iniziato quando furono inventati i computer. In effetti, come pure affermano concordemente tutti gli esperti del settore, i moderni algoritmi di intelligenza artificiale si basano su inferenze statistiche applicate a grandi moli di dati, supportati dalle crescenti prestazioni dell’hardware. In questo modo un comportamento che all’esterno appare intelligente, in realtà si fonda sulla potenza di calcolo e sulla matematica.

Quindi, se il processo è arrivato al suo limite, cosa viene dopo? — La questione centrale è questa: pretendiamo che le macchine interpretino, cioè trovino correlazioni tra dati, e per questo ci affidiamo alle prestazioni degli elaboratori; oltretutto le macchine sono state pensate originariamente per svolgere calcoli, principalmente per scopi militari pensando alle vicende che coinvolgono Alan Turing, quindi si è continuato a basarsi sulla stessa struttura fino ad oggi per fare qualcosa che non ha una correlazione così stretta col calcolo. La rivoluzione che ci aspettiamo sarà culturale e non tecnologica, cioè non coinvolgerà un balzo in avanti delle prestazioni delle macchine: quella che Lotito suggerisce è una cultura della scelta in cui le macchine siano al servizio dell’uomo e non siano invece gli algoritmi a guidarne le scelte. L’obiettivo è dare alla macchina una maniera per comprendere l’informazione, affinché da una descrizione sia possibile, nel caso della ricerca ad esempio, trovare l’elemento desiderato partendo da una interpretazione globale della stessa. Proprio per questo, dice Lotito, è forse più opportuno parlare di intelligenza naturale piuttosto che di intelligenza artificiale. 

Ciò coinvolge la linguistica, il modo in cui ci esprimiamo: quali sono le implicazioni tra una descrizione e i metodi da adottare per estrapolarne le informazioni utili? — Il modo in cui vengono trovate dal cervello umano è certamente ancora non totalmente compreso, riconosce Moro: i principali indirizzi che vengono usati dal cervello umano sono di significato e di suono. Questo, ad esempio, è particolarmente evidente nel fenomeno dei lapsus: le parole che vengono indirizzate sono foneticamente o semanticamente vicine a quelle che sarebbero dovute essere pronunciate. Il modo in cui l’equilibrio tra parallelizzazione, quindi scomposizione di un singolo compito in più fasi ed uso di queste in compiti che ne condividano alcune, e impiego nelle risorse non è ancora chiaro e forse un possibile fattore è l’ambiente.

Al momento si tratta di un problema di metodo e di codifica di regole che, spesso, nel linguaggio sono implicite.

Riccardo Zaccone — Camplus Lingotto; Ing. Informatica Politecnico di Torino

I commenti dei lettori