-
Lazio: visite mediche per Przyborek, poi la firma
-
Torino: c'è Marianucci, il difensore è atterrato a Caselle
-
Australian Open: a Mertens-Zhang il titolo del doppio femminile
-
Usa, via libera alla vendita di Patriot per 9 miliardi all'Arabia Saudita
-
Venezuela, El Helicoide sarà chiuso e trasformato in uno spazio sociale
-
Venezuela, restituito il passaporto al cardinale Porras
-
ExxonMobil entra nel mercato carburanti in Ecuador
-
Il Nicaragua riorganizza la sua diplomazia, Moncada torna cancelliere
-
Maria Antonietta e Colombre, la felicità è democratica e noi la rapiniamo
-
'Dmitriev domani a Miami per incontrare membri amministrazione Trump'
-
Fonti Mimit, in arrivo 1,6 miliardi del Fondo automotive fino al 2030
-
C'è un interruttore che blocca la produzione di cellule adipose
-
De Zerbi non arretra, a Marsiglia "altri cinque o sei anni"
-
Addio a Catherine O'Hara, protagonista in Mamma ho perso l'aereo e Schitt's Screek
-
Fermin Lopez prolunga il contratto con il Barcellona
-
Sindacati, da Woolrich-Basicnet ritiro dei trasferimenti unilaterali
-
Milleproroghe, verso estensione dei bonus donne, giovani e Sud
-
Lepore, c'è la garanzia che il marchio Woolrich sopravviverà
-
Sanità, nel Lazio dal primo febbraio cambia la validità delle ricette
-
Jovanotti, "da oggi sono Commendatore della Repubblica, grande onore"
-
Trovato il freno del principale tumore cerebrale pediatrico
-
Borsa: Milano e l'Europa forti dopo l'indicazione di Warsh alla Fed
-
Putin riceve il capo del Consiglio di sicurezza iraniano Larijani
-
F1: le Ferrari brillano nell'ultimo giorno di test a Barcellona
-
Hit parade, Geolier si conferma in vetta ad album e singoli
-
Spuntano a Liverpool le prime immagini dei 'Beatles' di Mendes
-
Il gas conclude in rialzo (+1,8%) a 39,2 euro al Megawattora
-
Vitagliano, 'le raccomandazioni sono ovunque, anche in tv'
-
Ghost torna al cinema in versione restaurata 4K per San Valentino
-
Satelliti Ue rilevano i maggiori incendi in 20 anni in Patagonia
-
ll Rof si esibisce a Pechino per il 55/o delle relazioni Italia-Cina
-
Il Dipartimento di Giustizia Usa pubblica nuove carte su Epstein
-
Le cellule tumorali diventano più aggressive se sono compresse
-
Voci di mercato, Mateta non convocato dal Crystal Palace
-
Verso Pordenone 2027, presentato il nuovo sito
-
Champions: playoff; si parte con Galatasaray-Juventus martedì 17 febbraio
-
I Trump bloccano la stampa alla prima di 'Melania'
-
Red Bull Ivy 2026, lo spettacolo dell' arrampicata si accende
-
Sindacati, domani sciopero di 4 ore del personale navigante di EasyJet
-
Venezuela, le autorità elettorali sospendono l'iscrizione di nuovi partiti politici
-
Regina (Confindustria), 'Energia e bollette sono tema di sicurezza nazionale'
-
Ex Ilva: Mimit, mandato a negoziato in esclusiva con Flacks, possibili partner
-
Djokovic 'Sinner e Alcaraz livello super, ma si possono battere'
-
I satelliti italiani Cosmo-SlyMed puntati sulla frana di Niscemi
-
Il Chelsea apre alla partenza di Disasi
-
Borsa: Milano (+1%) solida con l'Europa dopo l'avvio di Wall street
-
Wall Street apre in calo, Dj -0,32%, Nasdaq -0,33%
-
In Austria il cancelliere Stocker invoca riforme, anche del servizio militare
-
'Franco Battiato. Un'altra vita', al Maxxi la mostra-evento sul musicista
-
Il petrolio in calo a New York a 64,99 dollari
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
W.Huber--VB