L’uomo e l’algoritmo

Il tema delle fake news è tornato di grande attualità nei giorni scorsi. La ricerca della verità non è compito facile e richiede di essere liberi. GIORGIO VITTADINI

06.07.2018 - Giorgio Vittadini
Smartphone_cellulare_lapresse
Milano, "divieto di cellulare" per 4 truffatori (LaPresse)

Nei giorni scorsi è girata sulla rete una fotografia contraffatta del ritrovamento dei tre bambini morti in mare nel naufragio del 29 giugno al largo delle coste libiche. L’intento era dimostrare che non fosse vera, ma costruita in studio e che quindi non ci fosse alcun bimbo morto. Come sappiamo quel naufragio e quelle morti invece sono stati confermati e documentati da più parti. Anche senza arrivare a livelli di manipolazione ideologica così odiosi, il tema delle false notizie ci obbliga a guardare più a fondo il problema di come si forma la nostra consapevolezza.

La disinformazione non è certo un fenomeno nuovo. Oggi è solo reso più diffuso dalla enorme quantità di dati e dalla velocità con cui circolano in rete. Il grado di falsità in cui incappiamo è vario e nasconde diverse motivazioni: da quelle economiche (i click che portano traffico e quindi pubblicità) a quelle ideologiche. Frasi e titoli a effetto che pretendono di dare un senso generale a fenomeni complessi, oppure ancora, numeri e dati usati fuori dal contesto, fanno il resto. Il tutto naturalmente puntando sui nostri lati deboli: sappiamo bene quanto, come esseri umani, abbiamo bisogno per natura di vedere confermati anche i nostri pregiudizi. Più che mai in questi tempi incerti chiediamo sicurezza, assertività, scorciatoie nel nostro percorso di ricerca della verità. E siamo sempre meno giustamente dubitosi, riflessivi e assetati di conoscere.

Però cercare la verità non è mai facile. È viva, non sopporta meccanicismi. È come se richiedesse di essere davvero voluta. A illuderci del contrario, inoltre, oggi c’è un accesso diretto all’informazione impensabile in altre epoche. E i big data dell’era digitale sono per questo considerati come il “Sacro graal” della conoscenza. La digitalizzazione ci sta facendo fare un passo avanti potente nell’idea che raccogliendo grandi quantità di dati si potranno fare scoperte straordinarie. Rischiamo però di dimenticarci che interpretare tante informazioni richiede non solo strumenti specifici per “maneggiare” la loro quantità, ma anche criteri che considerino la loro qualità, oltre che approcci interpretativi chiari e palesi.

Paradossalmente tanti dati in questo momento rischiano di significare non “più conoscenza”, ma “più ideologia” perché per conoscere servono criteri e scopi. Cioè vero sapere. Per rendere l’idea della difficoltà di un’indagine, ai miei studenti di statistica dico che è come studiare l’inquinamento di un lago: con le tecniche moderne riusciremmo ad avere miliardi di informazioni sugli inquinanti. Se anche dovessimo scoprire che il loro effetto è nullo, potrebbe accadere che in quel lago muoia qualcuno proprio a causa di un agente inquinante. Perché? Perché la distribuzione degli agenti inquinanti può non essere omogenea e concentrarsi in maniera nociva in pochi punti. La pericolosità degli agenti inquinanti non risulta rilevabile da un algoritmo “meccanico”, che non è in grado di coglierla nella massa enorme dell’acqua del lago.

Tendere a ridurre l’eterogeneità dei fenomeni porta a ragionare troppo per astrazioni. Joseph Ratzinger disse che stiamo sempre più riducendo la ragione a ragione tecnica perché il grande livello di astrazione (separare e distaccarsi) in cui ci stiamo immergendo. Per riuscire a cogliere l’eterogeneità e la casualità dei dati occorre invece un’ipotesi che prenda spunto dall’osservazione della realtà e che poi i dati dovranno andare a descrivere. In ultima analisi, una lettura dei dati che può considerarsi conoscenza utile, che arricchisce l’esperienza nasce da un interesse, non da una neutralità, che in realtà non esiste. Neutro e obiettivo dovrà poi essere il modo in cui si raccolgono i dati che confermano, descrivono o confutano l’ipotesi. I big data chiedono soprattutto qualcuno che li interpreti. Dietro a un algoritmo c’è sempre una lettura implicita, magari non dichiarata, ma che orienta la lettura dei dati. Qualunque algoritmo ha dentro un uomo che lo imposta. Questa impostazione dà i risultati. Non esiste auto-capacità dei dati di esprimersi.

Una volta stabilito questo punto come fattore determinante della ricerca, rimane poi il problema degli strumenti e degli ambiti di divulgazione. Che sono sempre gli essere umani. In questa epoca di pericoloso isolamento, si assiste a una costante erosione della fiducia nei confronti delle tradizionali agenzie di costruzione e diffusione della conoscenza. Scuole, università, media, associazioni: ogni punto tradizionale di rielaborazione del pensiero viene messo in crisi. Eppure proprio di questo si ha più bisogno, perché gli individui non possiamo rimanere soli nel mare delle informazioni da cui siamo assaliti ogni giorno. Apertura, curiosità, capacità critica, approfondimento, riflessione sono attività indispensabili che non possono essere svolte in solitudine perché la ricerca della verità è una relazione tra esperienze che non possono essere ridotte ed espresse solo a parole. Serve un salto in avanti molto più deciso verso l’educazione delle persone e serve ricostruire ambiti di relazione educativa in cui la conoscenza si forma, si condivide, si critica.

Ambiti non in cui essere confortati, ma dove far crescere lo spirito critico, il desiderio di conoscere, capire e quindi crescere. In una parola essere liberi.