• Iscriviti alla Newsletter
  • Accedi
  • Registrati
IlSussidiario.net
  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net
IlSussidiario.net
  • Video
  • Cronaca
  • Politica
  • Sanità
  • Economia
  • Sport
  • Turismo
  • Chiesa
  • Video
  • Cronaca
  • Politica
  • Sanità
  • Economia
  • Sport
  • Turismo
  • Chiesa
IlSussidiario.net
IlSussidiario.net

Home » Hi-Tech » “Intelligenza artificiale, umanità rischia estinzione”/ OpenAI “come guerra nucleare”

  • Hi-Tech
  • Scienze
  • Cronaca
  • Esteri

“Intelligenza artificiale, umanità rischia estinzione”/ OpenAI “come guerra nucleare”

Niccolò Magnani
Pubblicato 31 Maggio 2023
Altman, OpenAI

Sam Altman, ad di OpenAI (LaPresse, 2023)

“L'intelligenza artificiale rischia di portare l'umanità all'estinzione: priorità come guerra nucleare": l'allarme delle Big Tech e dell'ad di OpenAI in una lettera che fa già discutere

L’ALLARME DELLE BIG TECH SULL’INTELLIGENZA ARTIFICIALE: “RISCHIAMO L’ESTINZIONE”

“Attenzione, l’intelligenza artificiale potrebbe portare all’estinzione dell’umanità”: a dirlo però non sono le “chiacchiere” da bar o qualche sparuto complottista che ha visto troppi film distopici sul futuro dell’IA (alla italiana, AI all’inglese, ndr). No, l’allarme arriva dagli esperti del settore che in una stringata ma chiarissima dichiarazione lanciano il loro personale “alert” sul futuro dell’intelligenza artificiale.


CDP Cyber Challenge 2025: Roma guida la formazione dei nuovi talenti della cybersecurity italiana


«Mitigare i rischi di estinzione rappresentati dall’Intelligenza artificiale deve essere una priorità globale insieme ad altri rischi di per la società come le pandemie e la guerra nucleare»: questa la dichiarazione pubblicata da “Center for AI Safety” fatta da creator, ingegneri, leader delle Big Tech mondiali e perfino il “padre” di ChatGPT, forse lo strumento al momento più diffuso e noto che sfrutta l’innovazione dell’IA. Esperti di intelligenza artificiale, giornalisti, responsabili politici e il pubblico discutono – si legge nella intro alla lettera firmata già da più di 350 esperti del settore – sempre più di un «ampio spettro di rischi importanti e urgenti derivanti dall’IA».


FIGLI ON DEMAND/ Il business sui neonati “mascherato" dalla cura di malattie ereditarie


INTELLIGENZA ARTIFICIALE, ALLARME DA OPEN AI DOPO MUSK

La “succinta” dichiarazione siglata da tanti responsabili dell’intelligenza artificiale nelle Big Tech mondiali, intende superare l’ostacolo delle polemiche aprendo invece la discussione. «Ha anche lo scopo di creare una conoscenza comune del numero crescente di esperti e personaggi pubblici che prendono sul serio anche alcuni dei rischi più gravi dell’IA avanzata», si legge prima della lettera firmata in questi giorni, tra gli altri, da Demis Hassabis – amministratore delegato di Google DeepMind – Dario Amodei di Anthropic e soprattutto Sam Altman, a.d. del produttore di ChatGPT OpenAI.


India impone App di Stato obbligatoria su tutti gli smartphone/ Sorveglierà le attività per prevenire truffe


Firmatari e preoccupati altrettanto sugli sviluppi attuali dell’intelligenza artificiale anche illustri professori come Yoshua Bengio (informatica all’Università di Montreal), Geoffrey Hinton o anche Yann LeCunn professore della NYU, tre autentici pionieri nel loro campo. La lettera sta creando dibattito e ovviamente non trova tutti sulla stessa linea all’interno del mondo scientifico e informativo: alla BBC ha parlato in questi giorni Arvind Narayanan, informatico dell’Università di Princeton, bocciando in toto le argomentazioni usate dal documento di allarme. «L’attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Anzi, questo distrae l’attenzione dai possibili danni a breve termine dell’IA», sottolinea il docente. Gli ha “risposto” a distanza Dan Hendrycks, presidente del Center for AI Safety, l’organo che ha diffuso il documento poi firmato da molti esperti: «Abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco prima di aver proficue discussioni. Abbiamo usato una sola frase per frase per mostrare che i rischi sono abbastanza gravi da aver bisogno di proposte proporzionate». Prima dell’allarme lanciato tra gli altri anche da Altman di OpenAI, già l’eclettico magnate Elon Musk (anche lui tra i fondatori di OpenAI e ChatGPT) aveva detto la sua sull’allarme dell’IA per il futuro, chiedendo di non produrre sistemi più potenti di Gpt-4: «I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili. Corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare».


Ti potrebbe interessare anche

Ultime notizie di Hi-Tech

Ultime notizie

Gli archivi del canale di Hi-Tech

ilSussidiario.net

il Quotidiano Approfondito con le ultime news online

  • Privacy e Cookies Policy
  • Aiuto
  • Redazione
  • Chi siamo
  • Pubblicità
  • Whistleblowing
  • MOG 231/2001
  • Feed Rss
  • Tags

P.IVA: 06859710961

  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net

Ben Tornato!

Accedi al tuo account

Password dimenticata? Sign Up

Create New Account!

Fill the forms bellow to register

All fields are required. Accedi

Recupera la tua password

Inserisci il tuo nome utente o indirizzo email per reimpostare la password.

Accedi
  • In primo piano
    • Ultime notizie
    • Cronaca
    • Politica
    • Economia e finanza
    • Sanità
    • Cinema e Tv
    • Calcio e altri Sport
  • Sezioni
    • Cultura
    • Energia e Ambiente
    • Esteri
    • Impresa
    • Lavoro
    • Educazione
    • Musica e Concerti
    • Motori
    • Scienze
    • Hi-Tech
    • Sanità, salute & benessere
    • Donna²
    • Milano
    • Roma
    • Oroscopo
    • Turismo e Viaggi
    • Sanremo
    • Meeting di Rimini
    • Sostenibilità e Sussidiarietà
    • Food
    • Chiesa
    • Trasporti e Mobilità
    • Osservatorio sull’informazione statistica
    • Tags
  • Approfondimenti
    • Rubriche
    • Dossier
    • Speciali
  • Riviste
    • Emmeciquadro
  • Firme & Multimedia
    • Autori
    • Intervistati
    • Editoriale
    • Foto
  • Feed Rss
  • Donazione
    • Sostieni ilSussidiario.net