A inteligência artificial generativa tem sido cada vez mais utilizada por empresas em diversas aplicações. No entanto, um problema recorrente enfrentado por essas soluções é a geração de informações incorretas, também conhecidas como alucinações. Empresas como Microsoft e OpenAI têm enfrentado reclamações de usuários sobre respostas imprecisas ou fabricadas por seus chatbots baseados em IA generativa.
O problema das alucinações ocorre porque os modelos de IA generativa não possuem uma inteligência real e simplesmente preveem palavras, imagens, sons e outros dados com base em um esquema interno. Isso significa que, às vezes, os modelos podem errar e gerar informações falsas. Por exemplo, um chatbot da Microsoft inventou participantes de uma reunião e implicou que assuntos não discutidos realmente foram abordados. Essas alucinações podem ser um obstáculo para empresas que buscam integrar a tecnologia em suas operações.
Uma solução sugerida para resolver o problema das alucinações é o uso da abordagem de retrieval augmented generation (RAG). Essa abordagem consiste em recuperar documentos relevantes para uma determinada pergunta e, em seguida, solicitar ao modelo de IA generativa que gere respostas com base nesse contexto adicional. A RAG foi pioneiramente desenvolvida por Patrick Lewis, cientista de dados e pesquisador na Meta e University College London.
No entanto, é importante ressaltar que a RAG não é capaz de resolver completamente o problema das alucinações. Ela permite verificar a factualidade das informações geradas pelo modelo, evitando um possível plágio ou o uso indevido de documentos. Além disso, a RAG permite que empresas utilizem documentos confidenciais de forma temporária e segura. No entanto, existem limitações na aplicação da RAG em cenários que exigem um raciocínio mais abstrato, como programação e matemática.
Além disso, a implementação da RAG em escala pode ser dispendiosa em termos de hardware e consumo de energia. Isso ocorre porque os documentos recuperados precisam ser armazenados temporariamente na memória do modelo para referência futura. Além disso, é necessário um maior poder computacional para processar o contexto adicional antes de gerar uma resposta. Esses custos adicionais podem ser um ponto de consideração, especialmente para empresas que já enfrentam desafios relacionados à demanda de recursos computacionais da IA.
Embora a RAG seja uma solução promissora para reduzir as alucinações em modelos de IA generativa, é importante destacar que o problema não será completamente solucionado apenas por essa abordagem. Pesquisas adicionais são necessárias para aprimorar as representações de documentos e técnicas de busca, a fim de identificar documentos relevantes em tarefas de geração mais abstratas. A transparência e a precisão nas respostas geradas pela IA generativa continuam sendo desafios em evolução.
Portanto, é fundamental que as empresas estejam cientes das limitações da tecnologia de IA generativa e não confiem exclusivamente na RAG como uma solução definitiva para o problema das alucinações. O desenvolvimento contínuo da área de IA e a busca por abordagens mais robustas e confiáveis são essenciais para garantir que a tecnologia atenda às expectativas dos usuários e possa ser aplicada de forma segura e eficiente em diversos cenários empresariais.
Referências:
Why RAG won’t solve generative AI’s hallucination problem
OpenAI Faces Fresh Legal Woe As Data Activists Target AI ‘Hallucination’
The Worst AI Nightmares Have Nothing To Do With Hallucinations
Cleanlab Introduces the Trustworthy Language Model (TLM) that Addresses the Primary Challenge to Enterprise Adoption of LLMs: Unreliable Outputs and
Hallucinations
Why RAG won’t solve generative AI’s hallucination problem
ChatGPT’s ‘hallucination’ problem hit with another privacy complaint in EU
ChatGPT maker OpenAI faces privacy complaint for its ‘hallucination problem’
Deixe um comentário