
-
Netanyahu afirma que se todos os dirigentes do Hamas fossem eliminados, a guerra em Gaza acabaria
-
Monaco vence Auxerre antes da estreia na Champions
-
Nova incursão de drone russo no espaço aéreo de um país da Otan, desta vez na Romênia
-
Reforços garantem vitórias de Newcastle e Arsenal no Inglês
-
Juventus vence Inter em virada espetacular e se mantém 100% no Italiano
-
Venezuela denuncia que EUA reteve barco pesqueiro em águas venezuelanas
-
Novo premiê francês revoga supressão de feriados e faz aceno à esquerda
-
Bayern goleia Hamburgo e se isola na liderança do Alemão
-
Juventus vence Inter em virada espetacular e assume liderança do Italiano
-
Exército israelense afirma que mais de 250 mil palestinos deixaram a Cidade de Gaza
-
O assassino de Charlie Kirk, um ex-estudante brilhante e solitário
-
Mais de 100 mil pessoas participam de protesto em Londres convocado por ativista de extrema direita
-
Real Madrid sofre, mas vence Real Sociedad no Espanhol
-
Macabra Ilha das Bonecas no México inspira Lady Gaga e Tim Burton
-
Martine Grael se torna pioneira no SailGP de vela
-
Rússia reivindica captura de localidade em região do centro-leste da Ucrânia
-
Técnico do Barcelona critica seleção espanhola pela lesão de Yamal
-
Nepal retoma a paz após nomeação de primeira-ministra interina
-
Arsenal vence Nottingham Forest e pula para liderança do Inglês
-
Exército israelense afirma que mais de 250.000 palestinos deixaram a Cidade de Gaza
-
Trump condiciona novas sanções contra Moscou à interrupção da compra de petróleo russo pela Otan
-
OLP entrega armas do maior campo de refugiados palestinos do Líbano
-
Caio Bonfim conquista prata mundial na marcha atlética de 35km em Tóquio
-
Anthony Martial assina com Monterrey de Sergio Ramos
-
Papa agradece à população de Lampedusa por receber migrantes
-
El Salvador é o país com 'deterioro mais rápido' da democracia na América Latina, diz relatório
-
Olympique de Marselha goleia Lorient (4-0) antes de sua visita ao Real Madrid
-
Bolsonaro condenado, o que acontece agora?
-
Leverkusen vence Eintracht (3-1) na estreia do técnico Hjulmand
-
Argentina abre 2-0 contra Países Baixos na Copa Davis
-
Defesa Civil de Gaza relata pelo menos 50 mortos em bombardeios israelenses
-
Ainda sem convencer, City e United fazem dérbi pela 4ª rodada do Inglês
-
Inter de Milão visita Juventus pela 3ª rodada da Serie A
-
O que se sabe sobre o suposto assassino de Charlie Kirk
-
Estátua de Beckenbauer é inaugurada em frente à Allianz Arena em Munique
-
Antonio Rüdiger sofre lesão muscular na coxa
-
Manchester United empresta goleiro André Onana ao Trabzonspor
-
Kirk morreu baleado, mas seus apoiadores continuam defendendo o porte de armas nos EUA
-
UE agilizará revisão da proibição de vender carros a combustão
-
Ex-presidente da Suprema Corte do Nepal assume como primeira-ministra
-
Nepal nomeia nova primeira-ministra após violentos protestos
-
CIJ decide a favor da França em disputa com Guiné Equatorial por mansão parisiense
-
Rússia reduz taxas de juros diante do medo de uma desaceleração econômica
-
Assembleia Geral da ONU apoia futuro Estado palestino, mas sem o Hamas
-
Promotoria da Finlândia pede prisão de tripulação acusada de romper cabos no Báltico
-
Sete mineradores estão presos em mina ilegal na Colômbia
-
Assembleia Geral da ONU votará sobre um Estado palestino sem Hamas
-
Sul-coreanos detidos em operação migratória nos EUA são recebidos com aplausos em seu país
-
Trump anuncia a prisão do assassino do ativista conservador Charlie Kirk
-
'Ruptura' e 'The Pitt' disputam Emmy Awards

ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo
Os grandes modelos de linguagem (LLM, na sigla em inglês), como o ChatGPT, um dos sistemas de inteligência artificial (IA) mais populares do mundo, ainda seguem tendo dificuldades para raciocinar usando a lógica e cometem erros frequentes, de acordo com um estudo.
Estes robôs conversacionais refletem os preconceitos de gênero, éticos e morais dos humanos presentes nos textos dos quais se alimentam, recorda o estudo publicado na quarta-feira (5) na revista Open Science da Royal Society britânica.
Mas eles também refletem estes preconceitos nos testes de raciocínio?, questionou Olivia Macmillan-Scott, doutoranda do departamento de Ciências da Computação da University College de Londres (UCL).
O resultado da pesquisa é que os LLM mostram "um raciocínio muitas vezes irracional, mas de uma forma diferente da dos humanos", explica a pesquisadora à AFP.
Sob a supervisão de Mirco Musolesi, professor e diretor do Machine Intelligence Lab da UCL, Macmillan-Scott apresentou sete modelos de linguagem — duas versões do ChatGPT (3.5 e 4), da OpenAI, Bard, do Google, Claude 2, da Anthropic, e três versões de LLaMA, da Meta — a uma série de testes psicológicos desenvolvidos para humanos.
Como esta tecnologia aborda o preconceito que leva a privilegiar soluções com um maior número de elementos, em detrimento daquelas com uma proporção adequada?
Um exemplo: se tivermos uma urna com nove bolinhas brancas e uma vermelha e outra urna com 92 bolinhas brancas e 8 vermelhas, qual devemos escolher para ter a melhor chance de obter uma bolinha vermelha?
A resposta correta é a primeira urna, visto que há 10% de possibilidades frente a 8% da segunda opção.
As respostas dos modelos de linguagem foram muito inconsistentes. Alguns responderam corretamente ao mesmo teste seis em cada dez vezes. Outros apenas duas em cada dez, embora o teste não tenha mudado. "Cada vez obtemos uma resposta diferente", diz a pesquisadora.
Os LLM "podem ser bons para resolver uma equação matemática complicada, mas logo te dizem que 7 mais 3 é igual a 12", constatou.
- "Não tenho muita certeza" -
Estes modelos "não falham nestas tarefas da mesma forma que um humano", afirma o estudo. É o que Musolesi chama de "erros de máquina".
"Existe uma forma de raciocínio lógico que é potencialmente correta se a considerarmos por etapas, mas que é errada tomada como um todo", ressalta.
A máquina funciona com "uma espécie de pensamento linear", diz o professor, e cita o modelo Bard (atual Gemini), capaz de realizar corretamente as diferentes fases de uma tarefa, mas que obtém um resultado final incorreto por não ter uma visão geral.
Sobre esta questão, o professor de ciências da computação Maxime Amblard, da University of Lorraine, na França, recorda que os LLM, como todas as inteligências artificiais generativas, não funcionam como os humanos".
Os humanos são "máquinas capazes de criar significado", o que as máquinas não conseguem, explica à AFP.
Existem diferenças entre os diferentes modelos de linguagem e em geral, o GPT-4, sem ser infalível, obteve resultados melhores que os demais.
Macmillan-Scott suspeita que os modelos "fechados", cujo código operacional permanece secreto, "incorporam mecanismos em segundo plano" para responder a questões matemáticas.
De toda forma, neste momento é impensável confiar uma decisão importante a um LLM. Segundo o professor Musolesi, eles deveriam ser treinados para responder "não tenho muita certeza" quando necessário.
R.Kloeti--VB