Close Menu
  • Home
  • Notícias
  • Política
  • Tecnologia
  • Sobre Nós
Facebook X (Twitter) Instagram
Diário Estranho
  • Home
  • Notícias

    Por que empresas precisam de advogados com visão empreendedora

    maio 20, 2025

    Desafios fiscais nos FIDCs: planejamento tributário sob múltiplas jurisdições

    maio 16, 2025

    Os países que mais utilizam biofertilizantes: o que podemos aprender com eles?

    maio 12, 2025

    O estranho desejo de consumir o que não alimenta: entenda o distúrbio

    maio 12, 2025

    Economia global pós-pandemia: perspectivas e oportunidades para 2025

    maio 10, 2025
  • Política

    Julgamento de Denúncia contra Bolsonaro no STF: Momentos Inusitados e a Tensão no Processo

    maio 12, 2025

    O Desafio do Ovo no Governo Lula: Mudança Climática, Inflação e Vendas para os EUA Impactam a Produção

    abril 8, 2025

    Perseguição Político-Judicial no Brasil: O Grito de Bolsonaro Ecoa em 2025

    março 25, 2025

    Restaurante Desencoraja Discussões sobre Política para Garantir Maior Conforto aos Clientes

    março 7, 2025

    Isolamento e Desafios: Kakay Analisa a Mudança de Lula em Seu Terceiro Mandato e a Viabilidade da Reeleição

    fevereiro 19, 2025
  • Tecnologia

    Explosões Cósmicas Inexplicáveis: O Mistério das LFBots e o Caso de AT2018cow

    maio 12, 2025

    A Inovação Culinária com Inteligência Artificial: Como Chefs Estão Adotando Receitas Criadas por IA

    abril 8, 2025

    Tecnologia e o Cérebro dos Jovens: Como a Revolução Digital Está Moldando Mentes

    março 25, 2025

    SpaceX: Explosão da Starship Interrompe Tráfego Aéreo da Flórida pela Segunda Vez

    março 7, 2025

    9 Funções Secretas do Word que Transformarão Sua Experiência de Edição

    fevereiro 19, 2025
  • Sobre Nós
Diário Estranho
Home»Tecnologia»Entenda o que é a “alucinação” do ChatGPT e por que a inteligência artificial às vezes “enlouquece”
Tecnologia

Entenda o que é a “alucinação” do ChatGPT e por que a inteligência artificial às vezes “enlouquece”

Antomines TokBy Antomines Tokjaneiro 4, 2024Nenhum comentário4 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email

Uma resposta sem sentido, que não tem conexão com a pergunta que foi feita. Os robôs de inteligência artificial (IA) generativa, como o ChatGPT, cometem erros que muitas vezes vão além de simplesmente fornecer uma informação falsa ou sem ser de fonte confiável. É o que os especialistas no setor chamam de “alucinação”.

E, agora, pela primeira vez, pesquisadores mediram a frequência com que isso ocorre. A startup Vectara, fundada por ex-funcionários do Google, esquadrinhou ferramentas de IA e constatou que as alucinações ocorrem com uma frequência que varia entre 3% e 27%.

Simon Hughes, pesquisador da Vectara que liderou o projeto, explicou que sua equipe pediu para esses sistemas realizarem uma tarefa simples e direta, facilmente verificável: resumir artigos de notícias. Mesmo assim, os chatbots persistentemente inventaram informações.

— O fato de o sistema ainda poder apresentar erros é um problema fundamental — disse Amr Awadallah, CEO da Vectara.

As tecnologias da OpenAI, laboratório que criou o ChatGPT, tiveram a taxa mais baixa de alucinação, em torno de 3%. Os sistemas da Meta, proprietária do Facebook e Instagram, ficaram em torno de 5%. O sistema Claude 2, oferecido pela Anthropic, uma concorrente da OpenAI também sediada em São Francisco, ultrapassou os 8%. Um sistema do Google, o Palm chat, teve a taxa mais alta: 27%.

Isso pode não ser um problema para quem usa as interfaces de inteligência artificial como mera diversão. Entretanto, pode gerar uma grande dor de cabeça em usos como informações médicas, dados comerciais sensíveis ou documentos judiciais.

O executivo de tecnologia Helbert Costa, autor do livro “ChatGPT Explicado”, aponta que as IAs generativas não foram desenhadas para serem factuais. Pelo contrário, elas foram estimuladas a ter uma pitada de criatividade para tornar a interação mais real e humanizada. Seu grau de alucinação é grande porque ela é programada para dar respostas independentemente do nível de certeza e, para isso, usa analogias:

— Uma IA que detecta carros, por exemplo… quando exposta a algum tipo de imagem, identifica a mais próxima. Se tiver 27% de semelhança com uma caminhonete, vai dizer que é uma caminhonete — explica. — Da mesma forma funciona para os textos. A IA pega as palavras que estão mais conectadas ao contexto e usa, ainda que a probabilidade seja de 2%.

Segundo André Aizim Kelmanson, sócio da Grana Capital — fintech que lançou há pouco o aplicativo Grana IA, com foco em informações do mercado —, para evitar a alucinação, é necessário um trabalho constante para fazer o modelo entender que ele não precisa ser criativo quando não encontrar a resposta requisitada.

A chance de erro é reduzida em inteligências artificiais treinadas para assuntos específicos, pelo fato de estas serem alimentadas com bancos de dados mais restritos e estarem ligadas a um determinado contexto, como é o caso do Grana IA, que usa o modelo do GPT, da OpenIA, e informações públicas relacionadas a finanças, como fatos relevantes, balanços de empresas e carteiras recomendadas por casas de análises. Ainda assim, diz Kelmanson, é preciso “educar” a máquina:

— Em quase 10 mil horas de treinamento, a gente reduziu as alucinações a praticamente zero. Existem centenas de técnicas para trazer a consistência nos dados. Uma delas envolve dizer “você não pode inventar uma resposta quando não souber”, assim como se ensina uma criança todas as vezes em que ela erra.

O sócio da Grana Capital acrescenta:

— Outro modo se chama cadeia de pensamento. Em vez de fazer só uma pergunta para a inteligência artificial, fazer a pergunta pedindo para ela explicar a resposta. Ela pode dar uma resposta inicialmente errada. Mas, quando começa a explicar, entende que havia se equivocado e se corrige no final.

As técnicas de treinamento da IA são mais difíceis, explica Kelmanson, porque envolvem lógica probabilística — é uma ferramenta diferente do método tradicional de uso de algoritmos em computação.

Bruno Diniz, sócio-fundador da consultoria de inovação Spiralem, alerta que, para o usuário, o importante é usar senso crítico e fazer a busca em diferentes bases:

— O problema é terceirizar totalmente nosso julgamento para ferramentas como essas. Esse é um dos grandes problemas que podemos enfrentar como civilização. A informação pode ter qualquer tipo de viés, ideológico por exemplo, e as pessoas propagarem isso.

Post Views: 14
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Antomines Tok
Antomines Tok
  • Website

Related Posts

Explosões Cósmicas Inexplicáveis: O Mistério das LFBots e o Caso de AT2018cow

maio 12, 2025

A Inovação Culinária com Inteligência Artificial: Como Chefs Estão Adotando Receitas Criadas por IA

abril 8, 2025

Tecnologia e o Cérebro dos Jovens: Como a Revolução Digital Está Moldando Mentes

março 25, 2025
Leave A Reply Cancel Reply

Leia mais

 

 

Entre em contato

Tem alguma história peculiar ou curiosa para compartilhar? Ou talvez uma sugestão de assunto para nosso blog?

Estamos ansiosos para ouvir você!

Envie um e-mail para:

[email protected]

Sobre

Diário Estranho: Seu portal para as notícias mais inusitadas e intrigantes! No Diário Estranho, exploramos o lado menos convencional das notícias, trazendo histórias que fogem do comum e despertam curiosidade. De fenômenos inexplicáveis e mistérios não resolvidos a eventos peculiares e tendências excêntricas, oferecemos uma visão única sobre o mundo ao nosso redor.

  • Home
  • Notícias
  • Política
  • Tecnologia
© 2025 Diário Estranho - [email protected]. - tel.(11)91754-6532

Type above and press Enter to search. Press Esc to cancel.