Proteção contra Alucinações
Previna e detecte alucinações de IA nas suas tarefas do CrewAI
Visão Geral
A Proteção contra Alucinações é um recurso empresarial que valida o conteúdo gerado por IA para garantir que esteja fundamentado em fatos e não contenha alucinações. Ela analisa as saídas das tarefas em relação ao contexto de referência e fornece feedback detalhado quando é detectado conteúdo potencialmente alucinado.
O que são Alucinações?
Alucinações em IA ocorrem quando modelos de linguagem geram conteúdos que parecem plausíveis, mas estão factualmente incorretos ou não são suportados pelo contexto fornecido. A Proteção contra Alucinações ajuda a prevenir esses problemas por meio de:
- Comparação das saídas com o contexto de referência
- Avaliação da fidelidade ao material de origem
- Fornecimento de feedback detalhado sobre conteúdo problemático
- Suporte a limiares personalizados para rigor da validação
Uso Básico
Configurando a Proteção
Adicionando às Tarefas
Configuração Avançada
Validação com Limiar Personalizado
Para validação mais rigorosa, é possível definir um limiar de fidelidade personalizado (escala de 0-10):
Incluindo Contexto da Resposta de Ferramentas
Se sua tarefa utiliza ferramentas, você pode incluir as respostas das ferramentas para validação mais precisa:
Como Funciona
Processo de Validação
- Análise de Contexto: A proteção compara a saída da tarefa com o contexto de referência fornecido
- Pontuação de Fidelidade: Usa um avaliador interno para atribuir uma pontuação de fidelidade (0-10)
- Determinação do Veredito: Determina se o conteúdo é fiel ou contém alucinações
- Verificação de Limiar: Se um limiar personalizado for definido, valida contra essa pontuação
- Geração de Feedback: Fornece motivos detalhados caso a validação falhe
Lógica de Validação
- Modo Padrão: Utiliza validação baseada em veredito (FIÉL vs ALUCINADO)
- Modo com Limiar: Requer que a pontuação de fidelidade atinja ou supere o limiar especificado
- Tratamento de Erros: Lida com erros de avaliação de forma elegante e fornece feedback informativo
Resultados da Proteção
A proteção retorna resultados estruturados indicando o status da validação:
Propriedades do Resultado
- valid: Booleano indicando se a saída passou na validação
- feedback: Explicação detalhada quando a validação falha, incluindo:
- Pontuação de fidelidade
- Classificação do veredito
- Motivos específicos para a falha
Integração com o Sistema de Tarefas
Validação Automática
Quando uma proteção é adicionada à tarefa, ela valida automaticamente a saída antes da tarefa ser marcada como concluída:
Rastreamento de Eventos
A proteção se integra ao sistema de eventos do CrewAI para fornecer observabilidade:
- Validação Iniciada: Quando a avaliação da proteção começa
- Validação Concluída: Quando a avaliação termina com resultados
- Falha na Validação: Quando ocorrem erros técnicos durante a avaliação
Melhores Práticas
Diretrizes para o Contexto
Forneça Contexto Abrangente
Inclua todas as informações factuais relevantes nas quais a IA deve basear sua saída:
Mantenha o Contexto Relevante
Inclua apenas informações diretamente relacionadas à tarefa para evitar confusão:
Atualize o Contexto Regularmente
Certifique-se de que seu contexto de referência reflita informações atuais e precisas.
Seleção de Limiar
Comece com a Validação Padrão
Inicie sem limiares personalizados para entender a performance inicial.
Ajuste Conforme as Necessidades
- Conteúdo crítico: Use limiar 8-10 para máxima precisão
- Conteúdo geral: Use limiar 6-7 para validação equilibrada
- Conteúdo criativo: Use limiar 4-5 ou validação padrão baseada em veredito
Monitore e Itere
Acompanhe os resultados da validação e ajuste os limiares conforme falsos positivos/negativos.
Considerações de Performance
Impacto no Tempo de Execução
- Sobrecarga de Validação: Cada proteção adiciona ~1-3 segundos por tarefa
- Eficiência do LLM: Escolha modelos eficientes para avaliação (ex: gpt-4o-mini)
Otimização de Custos
- Seleção de Modelo: Utilize modelos menores e eficientes para avaliação da proteção
- Tamanho do Contexto: Mantenha o contexto de referência conciso, mas abrangente
- Cache: Considere armazenar resultados de validação para conteúdos repetidos
Solução de Problemas
Validação Sempre Falha
Validação Sempre Falha
Possíveis Causas:
- Contexto muito restrito ou não relacionado à saída da tarefa
- Limiar configurado alto demais para o tipo de conteúdo
- Contexto de referência desatualizado
Soluções:
- Revise e atualize o contexto para corresponder aos requisitos da tarefa
- Reduza o limiar ou utilize validação padrão baseada em veredito
- Certifique-se de que o contexto esteja atual e correto
Falsos Positivos (Conteúdo Válido Marcado como Inválido)
Falsos Positivos (Conteúdo Válido Marcado como Inválido)
Possíveis Causas:
- Limiar alto demais para tarefas criativas ou interpretativas
- Contexto não cobre todos os aspectos válidos da saída
- Modelo de avaliação excessivamente conservador
Soluções:
- Reduza o limiar ou utilize validação padrão
- Expanda o contexto para incluir um espectro maior do conteúdo aceitável
- Teste com diferentes modelos de avaliação
Erros de Avaliação
Erros de Avaliação
Possíveis Causas:
- Problemas de conexão de rede
- Modelo LLM indisponível ou com limite de uso
- Saída ou contexto da tarefa em formato inadequado
Soluções:
- Verifique a conectividade de rede e o status do serviço LLM
- Implemente lógica de retentativas para falhas transitórias
- Valide o formato da saída da tarefa antes da avaliação da proteção
Precisa de Ajuda?
Entre em contato com nosso suporte para assistência na configuração ou solução de problemas da proteção contra alucinações.