-
Monica Guerritore e Laura Morante al Milazzo Film Festival Attorstudio
-
Lazio: lesione per Zaccagni, rischia un mese di stop
-
Europei pallanuoto: prima sconfitta per il Setterosa, la Grecia vince 15-10
-
Diodato, 'grazie per l'onorificenza Mattarella, faro per la democrazia'
-
Como: Fabregas, soddisfatto ma domani serve un po' piu' di benzina
-
Sci alpinismo: Giulia Murada secoda nella sprint di Cdm sui Pirenei
-
Il Cern verso il futuro super acceleratore da 16 miliardi
-
Sci: cdm di snowboard, Fischnaller e Caffont sul podio a Rogla
-
'La madre di Mamdani citata nei documenti di Epstein'
-
Valanga sulle Alpi svizzere, morto uno scialpinista svedese
-
Lecce: Di Francesco 'Torino arrabbiato, ci inseriremo in loro difficoltà'
-
MotoGp: ecco il team Gresini 2026, Marquez "pronti a nuovi successi"
-
Bologna: Immobile è volato a Parigi, firma con il Paris Fc
-
L'ultimo film di Jarmusch dà il via al Festival del cinema di Belgrado
-
Portman, in The Gallerist a forza di compromessi mi sporco le mani di sangue
-
Tutti i duetti di Sanremo, sul palco da Morgan a Fagnani
-
Vasco Rossi a fumetti con Sergio Bonelli Editore, 'Una favola lunga una vita'
-
Sci: Goggia "soddisfatta della mia gara, sono pronta per Cortina"
-
Protezione civile Gaza, 28 le vittime, anche 7 bambini
-
Onlyfans valuta cessione quota di maggioranza a Architect Capital
-
Champions: Spalletti, 'Osimhen e Icardi hanno il 9 come gruppo sanguigno'
-
Serie A: Milan-Como si giocherà il 18 febbraio
-
Juve: Spalletti, 'ora tante gare, è il mondo che più mi piace'
-
Goggia seconda nel superG di Crans Montana, vince la svizzera Blanc
-
Juve: Spalletti 'troppo normali col Monaco, voglio reazione'
-
Per l'occhialeria produzione 2025 stabile a 5,6 miliardi ma export cala
-
++ Rybakina batte Sabalenka e vince l'Australian Open ++
-
Kiev, 'guasto tecnico provoca pesanti black out in Ucraina'
-
Il Progetto Ghana per il lavoro qualificato approda a Varese
-
Dall'Abi nuova guida contro le truffe, ora sfuttano l'AI
-
L'azzurro Casse il più veloce nella prova della discesa a Crans Montana
-
Teheran, 'forze armate in stato di massima allerta'
-
Consorzio Valpolicella, dazi Usa tagliano le gambe ma rossi veneti resistono
-
Teheran, 'mai cercato armi nucleari, pronti ad accordo equo'
-
Media, presidente Duma minaccia attacchi all'Ucraina nella morsa del gelo
-
Giudice Usa dispone il rilascio di Don Lemon
-
Ad Agnus Dei di Camaiti il premio 'Michel Mitrani' del Festival a Biarritz
-
Lazio: visite mediche per Przyborek, poi la firma
-
Torino: c'è Marianucci, il difensore è atterrato a Caselle
-
Australian Open: a Mertens-Zhang il titolo del doppio femminile
-
Usa, via libera alla vendita di Patriot per 9 miliardi all'Arabia Saudita
-
Venezuela, El Helicoide sarà chiuso e trasformato in uno spazio sociale
-
Venezuela, restituito il passaporto al cardinale Porras
-
ExxonMobil entra nel mercato carburanti in Ecuador
-
Il Nicaragua riorganizza la sua diplomazia, Moncada torna cancelliere
-
Maria Antonietta e Colombre, la felicità è democratica e noi la rapiniamo
-
'Dmitriev domani a Miami per incontrare membri amministrazione Trump'
-
Fonti Mimit, in arrivo 1,6 miliardi del Fondo automotive fino al 2030
-
C'è un interruttore che blocca la produzione di cellule adipose
-
De Zerbi non arretra, a Marsiglia "altri cinque o sei anni"
Scienziati sollecitano i Paesi Onu, 'limiti a usi pericolosi IA'
'Agire entro 2026 o difficile controllo umano significativo'
Oltre 200 personalità di spicco tra cui premi Nobel e ricercatori che lavorano presso giganti dell'Intelligenza artificiale come Anthropic, Google, Microsoft e OpenAI, hanno firmato il documento 'Global Call for AI Red Lines' rivolto ai Paesi presenti all'Assemblea Generale delle Nazioni Unite in cui invitano a stabilire rapidamente, entro il 2026, 'linee rosse' da non oltrepassare per l'IA e gli usi pericolosi. "L'Intelligenza artificiale ha un immenso potenziale per migliorare il benessere umano, ma la sua attuale traiettoria presenta pericoli senza precedenti - si legge nel documento che tra i firmati vede Geoffrey Hinton e Yoshua Bengio, considerati tra i padri dell'IA -. I governi devono agire con decisione prima che si chiuda la finestra per un intervento significativo". Secondo gli autori della lettera, le 'linee rosse' per l'IA sarebbero divieti concordati a livello internazionale su usi considerati troppo rischiosi tra cui l'affidamento all'intelligenza artificiale del comando di arsenali nucleari o di qualsiasi tipo di sistema d'arma autonomo letale. Oppure l'uso dell'IA per la sorveglianza di massa, gli attacchi informatici e i deepfake. I firmatari del messaggio hanno esortato i governi a stabilire limiti all'IA entro la fine del prossimo anno dato il ritmo a cui avanza la tecnologia. "L'Intelligenza artificiale potrebbe presto superare di gran lunga le capacità umane e aumentare rischi come pandemie ingegnerizzate, disinformazione diffusa, manipolazione su larga scala di individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e sistematiche violazioni dei diritti umani", si legge nella lettera. "Se non si interviene, molti esperti compresi quelli in prima linea nello sviluppo, avvertono che diventerà sempre più difficile esercitare un controllo umano significativo nei prossimi anni".
G.Schmid--VB