Avaliação Patronus AI
Monitore e avalie o desempenho de agentes CrewAI utilizando a plataforma abrangente de avaliação da Patronus AI para saídas de LLM e comportamentos de agentes.
Avaliação Patronus AI
Visão Geral
Patronus AI oferece capacidades abrangentes de avaliação e monitoramento para agentes CrewAI, permitindo avaliar as saídas dos modelos, comportamentos dos agentes e o desempenho geral do sistema. Essa integração possibilita implementar fluxos de avaliação contínuos que ajudam a manter a qualidade e confiabilidade em ambientes de produção.
Principais Funcionalidades
- Avaliação Automatizada: Avaliação em tempo real das saídas e comportamentos dos agentes
- Critérios Personalizados: Defina critérios de avaliação específicos para seus casos de uso
- Monitoramento de Desempenho: Acompanhe métricas de desempenho dos agentes ao longo do tempo
- Garantia de Qualidade: Assegure consistência na qualidade das saídas em diferentes cenários
- Segurança & Conformidade: Monitore possíveis problemas e violações de políticas
Ferramentas de Avaliação
A Patronus disponibiliza três principais ferramentas de avaliação para diferentes casos de uso:
- PatronusEvalTool: Permite que os agentes selecionem o avaliador e os critérios mais apropriados para a tarefa de avaliação.
- PatronusPredefinedCriteriaEvalTool: Utiliza avaliador e critérios predefinidos, especificados pelo usuário.
- PatronusLocalEvaluatorTool: Utiliza avaliadores customizados definidos pelo usuário.
Instalação
Para utilizar essas ferramentas, é necessário instalar o pacote Patronus:
Você também precisará configurar sua chave de API da Patronus como uma variável de ambiente:
Passos para Começar
Para utilizar as ferramentas de avaliação da Patronus de forma eficaz, siga estes passos:
- Instale o Patronus: Instale o pacote Patronus usando o comando acima.
- Configure a Chave de API: Defina sua chave de API da Patronus como uma variável de ambiente.
- Escolha a Ferramenta Certa: Selecione a ferramenta de avaliação Patronus mais adequada às suas necessidades.
- Configure a Ferramenta: Configure a ferramenta com os parâmetros necessários.
Exemplos
Utilizando PatronusEvalTool
O exemplo a seguir demonstra como usar o PatronusEvalTool
, que permite aos agentes selecionar o avaliador e critérios mais apropriados:
Utilizando PatronusPredefinedCriteriaEvalTool
O exemplo a seguir demonstra como usar o PatronusPredefinedCriteriaEvalTool
, que utiliza avaliador e critérios predefinidos:
Utilizando PatronusLocalEvaluatorTool
O exemplo a seguir demonstra como usar o PatronusLocalEvaluatorTool
, que utiliza avaliadores customizados via função:
Parâmetros
PatronusEvalTool
O PatronusEvalTool
não exige parâmetros durante a inicialização. Ele busca automaticamente os avaliadores e critérios disponíveis a partir da API da Patronus.
PatronusPredefinedCriteriaEvalTool
O PatronusPredefinedCriteriaEvalTool
aceita os seguintes parâmetros durante a inicialização:
- evaluators: Obrigatório. Uma lista de dicionários contendo o avaliador e os critérios a serem utilizados. Por exemplo:
[{"evaluator": "judge", "criteria": "contains-code"}]
.
PatronusLocalEvaluatorTool
O PatronusLocalEvaluatorTool
aceita os seguintes parâmetros durante a inicialização:
- patronus_client: Obrigatório. Instância do cliente Patronus.
- evaluator: Opcional. O nome do avaliador local registrado a ser utilizado. Default é uma string vazia.
- evaluated_model_gold_answer: Opcional. A resposta padrão (“gold answer”) para uso na avaliação. O padrão é uma string vazia.
Uso
Ao utilizar as ferramentas de avaliação Patronus, você fornece a entrada do modelo, a saída e o contexto, e a ferramenta retorna os resultados da avaliação a partir da API da Patronus.
Para o PatronusEvalTool
e o PatronusPredefinedCriteriaEvalTool
, os seguintes parâmetros são obrigatórios ao chamar a ferramenta:
- evaluated_model_input: A descrição da tarefa do agente, em texto simples.
- evaluated_model_output: A saída da tarefa pelo agente.
- evaluated_model_retrieved_context: O contexto do agente.
Para o PatronusLocalEvaluatorTool
, os mesmos parâmetros são necessários, mas o avaliador e a resposta padrão são especificados durante a inicialização.
Conclusão
As ferramentas de avaliação da Patronus fornecem uma forma poderosa de avaliar e pontuar entradas e saídas de modelos utilizando a plataforma Patronus AI. Ao possibilitar que agentes avaliem suas próprias saídas ou as de outros agentes, essas ferramentas ajudam a aprimorar a qualidade e confiabilidade dos fluxos de trabalho do CrewAI.