• Iscriviti alla Newsletter
  • Accedi
  • Registrati
IlSussidiario.net
  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net
IlSussidiario.net
  • Video
  • Cronaca
  • Politica
  • Sanità
  • Economia
  • Sport
  • Turismo
  • Chiesa
  • Video
  • Cronaca
  • Politica
  • Sanità
  • Economia
  • Sport
  • Turismo
  • Chiesa
IlSussidiario.net
IlSussidiario.net

Home » Hi-Tech » RISCHIO ESTINZIONE CON L’AI/ Il sospetto sulle regole desiderate dai Big tech

  • Hi-Tech

RISCHIO ESTINZIONE CON L’AI/ Il sospetto sulle regole desiderate dai Big tech

Achille Paliotta
Pubblicato 2 Giugno 2023
OpenAI, ChatGPT

Intelligenza artificiale con ChatGPT di OpenAI (LaPresse, 2023)

Un nuovo appello, condito da dichiarazioni apocalittiche, arriva dagli Usa riguardo i rischi dell'AI. Forse le intenzioni sono molto politiche

Più di 300 dirigenti, ricercatori e ingegneri che si occupano di intelligenza artificiale (AI) hanno rilasciato l’ennesima dichiarazione, lo “Statement on AI Risk”, tanto stringente quanto preoccupante. Esso è lungo solo una striminzita frase, ma evoca illimitati e apocalittici scenari. Recita così: “Mitigare il rischio di estinzione derivante dall’IA dovrebbe costituire una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“.


CDP Cyber Challenge 2025: Roma guida la formazione dei nuovi talenti della cybersecurity italiana


Non è questa la prima volta che dichiarazioni apocalittiche, aventi a tema l’AI, sono state pubblicizzate e ampiamente sottoscritte da specialisti di AI, giornalisti e leader politici. A osservarle con un certo distacco, sembrerebbero quasi il frutto di una sorta di riflesso condizionato della temperie attuale. Da un altro punto di vista, in maniera più meditata, non si può non convenire che la tematica è di così scottante attualità, qual è indubbiamente quella di un’AI superintelligente, che nessun addetto ai lavori, politico, intellettuale, o anche sedicente esperto, può sottrarsi al compito di far conoscere le proprie opinioni in materia.


FIGLI ON DEMAND/ Il business sui neonati “mascherato" dalla cura di malattie ereditarie


Si è tutti ben consapevoli, difatti, che l’AI stia diventando sempre più una presenza onnipervasiva nella vita quotidiana e stia rivoluzionando molti settori, dalla medicina alla finanza, dalla produzione industriale alla logistica. Da qui una riflessione, del tutto condivisibile, che costituisce quasi un basso continuo, dei rischi potenziali associati al suo ulteriore sviluppo e diffusione. E allora, man mano che i sistemi di AI divengono sempre più avanzati e capaci, si riconosce sempre più che essi potrebbero comportare rischi significativi per la sicurezza e il benessere dell’uomo. In particolare, il rischio più grande che viene paventato, assimilandolo alle pandemie e all’Armageddon nucleare, è quello di una possibile estinzione dell’umanità.


India impone App di Stato obbligatoria su tutti gli smartphone/ Sorveglierà le attività per prevenire truffe


Questo potrebbe accadere se un’AI superintelligente decidesse di eliminare gli esseri umani per ragioni che potrebbero sembrare logiche e razionali dal suo punto di vista, ma che sarebbero catastrofiche per l’intera umanità. Del resto, una delle sfide principali nella valutazione del rischio dell’AI è il fatto che è difficile prevedere il comportamento di tali sistemi avanzati. Man mano che l’AI diviene sofisticata potrebbe essere sempre più difficile capire e controllare le sue azioni (black box).

Ciò premesso, si può rilevare che il linguaggio molto forte ed evocativo che viene utilizzato in questi giorni sia stato consapevolmente utilizzato a mo’ di campanello d’allarme per i responsabili politici e le autorità di regolamentazione. Ma si possono verosimilmente anche immaginare altri scenari in quanto Sam Altman, il Ceo di OpenAI, la società ideatrice dell’AI generativa ChatGPT, il quale ha invitato i legislatori statunitensi a regolamentare la tecnologia, ha contemporaneamente rilasciato un giudizio critico, una settimana dopo, relativo allo sforzo dell’Unione europea (Ue) di implementare l’AI Act.

Quest’ultima proposta normativa dell’Ue tenderebbe a classificare i sistemi di AI in tre categorie:

1) sistemi che presentano un rischio inaccettabile, i quali sarebbero vietati tout court, come le applicazioni di credito sociale gestiti da Paesi quali la Repubblica Popolare Cinese e altri, in quanto violano i diritti fondamentali, compresi i sistemi che eseguono attività di polizia predittiva;

2) applicazioni ad alto rischio che dovrebbero sottostare a specifici requisiti legali e di trasparenza, come quelle che scansionano i curricula e classificano i candidati in cerca di lavoro;

3) sistemi non regolamentati in quanto non ricadenti nelle altre due categorie summenzionate.

Nonostante la legge europea presenti numerose lacune ed eccezioni, anche in termini di flessibilità, nel passaggio tra le tre diverse categorizzazioni, si può facilmente ipotizzare che così come avvenuto con il Regolamento generale sulla protezione dei dati (GDPR), entrato in vigore il 24 maggio del 2016 e operativo a partire dal 25 maggio 2018, la legge, una volta approvata, potrebbe presto divenire uno standard globale e costituire così un metro di paragone ineludibile anche per altri Paesi, anche per gli stessi Stati Uniti.

Se intese in questo senso, le prese di posizione sui rischi apocalittici da parte statunitense possono, da un lato, rappresentare le legittime preoccupazioni di studiosi quali Geoffrey Hinton, Yoshua Bengio, Stuart Russell, Peter Norvig, Erik Brynjolfsson, Ian Goodfellow, David Chalmers, Daniel Dennett, Bruce Schneier (per citare solo i primi della lista dei firmatari), ma, nello stesso tempo, potrebbero anche rappresentare un tentativo, da parte dei principali player del settore quali Sam Altman di OpenAI, Dario Amodei di Anthropic, Demis Hassabis di Google DeepMind, tra altri, di far legiferare, dai decisori politici statunitensi, un assetto normativo più favorevole di quello attualmente in discussione in campo europeo.

Chissà se non è questa la ragione sommessa di questo vero e proprio effluvio di petizioni, al di là della sponda atlantica.

— — — —

Abbiamo bisogno del tuo contributo per continuare a fornirti una informazione di qualità e indipendente.

SOSTIENICI. DONA ORA CLICCANDO QUI


Ti potrebbe interessare anche

Ultime notizie di Hi-Tech

Ultime notizie

Gli archivi del canale di Hi-Tech

ilSussidiario.net

il Quotidiano Approfondito con le ultime news online

  • Privacy e Cookies Policy
  • Aiuto
  • Redazione
  • Chi siamo
  • Pubblicità
  • Whistleblowing
  • MOG 231/2001
  • Feed Rss
  • Tags

P.IVA: 06859710961

  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net

Ben Tornato!

Accedi al tuo account

Password dimenticata? Sign Up

Create New Account!

Fill the forms bellow to register

All fields are required. Accedi

Recupera la tua password

Inserisci il tuo nome utente o indirizzo email per reimpostare la password.

Accedi
  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net