Integração com Portkey
Como usar Portkey com CrewAI
Introdução
Portkey aprimora o CrewAI com recursos prontos para produção, transformando seus crews de agentes experimentais em sistemas robustos ao fornecer:
- Observabilidade completa de cada etapa do agente, uso de ferramentas e interações
- Confiabilidade incorporada com fallbacks, tentativas automáticas e balanceamento de carga
- Rastreamento e otimização de custos para gerenciar seus gastos com IA
- Acesso a mais de 200 LLMs por meio de uma única integração
- Guardrails para manter o comportamento dos agentes seguro e em conformidade
- Prompts versionados para desempenho consistente dos agentes
Instalação & Configuração
Instale os pacotes necessários
Gere a Chave de API
Crie uma chave de API Portkey com limites de orçamento/taxa opcionais no painel da Portkey. Você também pode adicionar configurações para confiabilidade, cache e outros recursos a essa chave. Mais sobre isso em breve.
Configure o CrewAI com Portkey
A integração é simples – basta atualizar a configuração do LLM no seu setup do CrewAI:
O que são Virtual Keys? Virtual keys no Portkey armazenam com segurança suas chaves de API dos provedores LLM (OpenAI, Anthropic, etc.) em um cofre criptografado. Elas facilitam a rotação de chaves e o gerenciamento de orçamento. Saiba mais sobre virtual keys aqui.
Recursos para Produção
1. Observabilidade Avançada
Portkey oferece observabilidade abrangente para seus agentes CrewAI, ajudando você a entender exatamente o que está acontecendo durante cada execução.
Os traces fornecem uma visão hierárquica da execução do seu crew, mostrando a sequência de chamadas LLM, ativações de ferramentas e transições de estado.
Os traces fornecem uma visão hierárquica da execução do seu crew, mostrando a sequência de chamadas LLM, ativações de ferramentas e transições de estado.
Portkey registra cada interação com LLMs, incluindo:
- Payloads completos das requisições e respostas
- Métricas de latência e uso de tokens
- Cálculos de custo
- Chamadas de ferramentas e execuções de funções
Todos os logs podem ser filtrados por metadados, trace IDs, modelos e mais, tornando mais fácil depurar execuções específicas do crew.
Portkey oferece dashboards integrados que ajudam você a:
- Rastrear custos e uso de tokens em todas as execuções do crew
- Analisar métricas de desempenho, como latência e taxas de sucesso
- Identificar gargalos nos fluxos de trabalho dos agentes
- Comparar diferentes configurações de crew e LLMs
Você pode filtrar e segmentar todas as métricas por metadados personalizados para analisar tipos de crew, grupos de usuários ou casos de uso específicos.
Adicione metadados personalizados à configuração LLM do seu CrewAI para permitir filtragem e segmentação poderosas:
Esses metadados podem ser usados para filtrar logs, traces e métricas no painel do Portkey, permitindo analisar execuções específicas do crew, usuários ou ambientes.
2. Confiabilidade - Mantenha Seus Crews Funcionando Sem Interrupções
Ao executar crews em produção, problemas podem ocorrer – limites de taxa da API, problemas de rede ou indisponibilidade do provedor. Os recursos de confiabilidade do Portkey garantem que seus agentes continuem funcionando mesmo quando problemas surgem.
É simples habilitar fallback na sua configuração CrewAI usando um Config do Portkey:
Essa configuração automaticamente tentará o Claude caso a requisição para o GPT-4o falhe, garantindo que seu crew continue funcionando.
Tentativas Automáticas
Lida automaticamente com falhas temporárias. Se uma chamada LLM falhar, o Portkey fará novas tentativas o número especificado de vezes – perfeito para limites de taxa ou instabilidades de rede.
Timeouts de Requisição
Evite que seus agentes fiquem travados. Defina timeouts para garantir respostas (ou falhas controladas) dentro do tempo necessário.
Roteamento Condicional
Envie diferentes solicitações para diferentes provedores. Direcione raciocínios complexos para o GPT-4, tarefas criativas para Claude e respostas rápidas para Gemini conforme sua necessidade.
Fallbacks
Mantenha-se em funcionamento mesmo se seu provedor principal falhar. Troque automaticamente para provedores de backup para manter a disponibilidade.
Balanceamento de Carga
Distribua solicitações entre várias chaves de API ou provedores. Ótimo para operações de crew em grande escala e para permanecer dentro dos limites de taxa.
3. Prompting no CrewAI
O Prompt Engineering Studio do Portkey ajuda você a criar, gerenciar e otimizar os prompts usados em seus agentes CrewAI. Em vez de codificar prompts ou instruções manualmente, use a API de renderização de prompts do Portkey para buscar e aplicar dinâmicamente seus prompts versionados.
Gerencie prompts na Prompt Library do Portkey
Prompt Playground é um local para comparar, testar e implantar prompts perfeitos para sua aplicação de IA. É onde você experimenta com diferentes modelos, testa variáveis, compara saídas e refina sua estratégia de engenharia de prompts antes de implantar em produção. Ele permite:
- Desenvolver prompts de forma iterativa antes de usá-los em seus agentes
- Testar prompts com diferentes variáveis e modelos
- Comparar saídas entre diferentes versões de prompts
- Colaborar com membros da equipe no desenvolvimento de prompts
Esse ambiente visual facilita a criação de prompts eficazes para cada etapa do fluxo de trabalho dos seus agentes CrewAI.
Prompt Playground é um local para comparar, testar e implantar prompts perfeitos para sua aplicação de IA. É onde você experimenta com diferentes modelos, testa variáveis, compara saídas e refina sua estratégia de engenharia de prompts antes de implantar em produção. Ele permite:
- Desenvolver prompts de forma iterativa antes de usá-los em seus agentes
- Testar prompts com diferentes variáveis e modelos
- Comparar saídas entre diferentes versões de prompts
- Colaborar com membros da equipe no desenvolvimento de prompts
Esse ambiente visual facilita a criação de prompts eficazes para cada etapa do fluxo de trabalho dos seus agentes CrewAI.
A API Prompt Render recupera seus templates de prompt com todos os parâmetros configurados:
Você pode:
- Criar múltiplas versões do mesmo prompt
- Comparar o desempenho entre versões
- Voltar a versões anteriores se necessário
- Especificar qual versão usar em seu código:
Os prompts do Portkey usam modelos estilo Mustache para fácil substituição de variáveis:
Ao renderizar, basta passar as variáveis:
Prompt Engineering Studio
Saiba mais sobre os recursos de gerenciamento de prompts do Portkey
4. Guardrails para Crews Seguros
Guardrails garantem que seus agentes CrewAI operem com segurança e respondam adequadamente em todas as situações.
Por que usar Guardrails?
Os agentes CrewAI podem apresentar falhas de diversos tipos:
- Gerar conteúdo nocivo ou inapropriado
- Vazamento de informações sensíveis como PII
- Alucinar informações incorretas
- Gerar saídas em formatos incorretos
Os guardrails do Portkey fornecem proteções tanto para entradas quanto para saídas.
Implementando Guardrails
Os guardrails do Portkey podem:
- Detectar e redigir PII tanto em entradas quanto em saídas
- Filtrar conteúdo prejudicial ou inapropriado
- Validar formatos de resposta contra schemas
- Verificar alucinações comparando com ground truth
- Aplicar lógica e regras de negócio personalizadas
Saiba Mais Sobre Guardrails
Explore os recursos de guardrails do Portkey para aumentar a segurança dos agentes
5. Rastreamento de Usuário com Metadados
Rastreie usuários individuais através dos seus agentes CrewAI utilizando o sistema de metadados do Portkey.
O que é Metadata no Portkey?
Metadados permitem associar dados personalizados a cada requisição, possibilitando filtragem, segmentação e analytics. O campo especial _user
é projetado especificamente para rastreamento de usuário.
Filtre Analytics por Usuário
Com os metadados configurados, você pode filtrar analytics por usuário e analisar métricas de desempenho individualmente:
Filtre analytics por usuário
Isso permite:
- Rastreamento de custos e orçamento por usuário
- Analytics personalizados por usuário
- Métricas por equipe ou organização
- Monitoramento específico por ambiente (homologação x produção)
Saiba Mais Sobre Metadata
Veja como usar metadados personalizados para aprimorar seus analytics
6. Cache para Crews Eficientes
Implemente caching para tornar seus agentes CrewAI mais eficientes e econômicos:
O caching simples realiza correspondências exatas de prompts de entrada, cacheando requisições idênticas para evitar execuções redundantes do modelo.
O caching simples realiza correspondências exatas de prompts de entrada, cacheando requisições idênticas para evitar execuções redundantes do modelo.
O cache semântico considera a similaridade contextual entre solicitações de entrada, armazenando respostas para entradas semanticamente similares.
7. Interoperabilidade de Modelos
O CrewAI oferece suporte a múltiplos provedores de LLM, e o Portkey amplia essa capacidade fornecendo acesso a mais de 200 LLMs por meio de uma interface unificada. Você pode facilmente alternar entre diferentes modelos sem alterar a lógica central do seu agente:
Portkey oferece acesso a LLMs de provedores como:
- OpenAI (GPT-4o, GPT-4 Turbo, etc.)
- Anthropic (Claude 3.5 Sonnet, Claude 3 Opus, etc.)
- Mistral AI (Mistral Large, Mistral Medium, etc.)
- Google Vertex AI (Gemini 1.5 Pro, etc.)
- Cohere (Command, Command-R, etc.)
- AWS Bedrock (Claude, Titan, etc.)
- Modelos locais/privados
Provedores Suportados
Veja a lista completa de provedores LLM suportados pelo Portkey
Configure Governança Corporativa para o CrewAI
Por que Governança Corporativa? Se você utiliza CrewAI dentro de sua organização, é importante considerar diversos aspectos de governança:
- Gestão de Custos: Controlar e rastrear os gastos com IA entre equipes
- Controle de Acesso: Gerenciar quais equipes podem usar modelos específicos
- Analytics de Uso: Compreender como a IA está sendo utilizada na organização
- Segurança & Compliance: Manutenção de padrões corporativos de segurança
- Confiabilidade: Garantir serviço consistente para todos os usuários
O Portkey adiciona uma camada abrangente de governança para atender a essas necessidades corporativas. Vamos implementar esses controles passo a passo.
Crie uma Virtual Key
Virtual Keys são a maneira segura do Portkey para gerenciar as chaves de API dos provedores de LLM. Elas fornecem controles essenciais como:
- Limites de orçamento para uso da API
- Capacidade de rate limiting
- Armazenamento seguro das chaves de API
Para criar uma virtual key: Vá até Virtual Keys no app Portkey. Salve e copie o ID da virtual key
Salve o ID da sua virtual key – você precisará dele no próximo passo.
Crie um Config Padrão
Os Configs no Portkey definem como suas requisições são roteadas, com recursos como roteamento avançado, fallbacks e tentativas automáticas.
Para criar seu config:
- Vá até Configs no painel Portkey
- Crie um novo config com:
- Salve e anote o nome do Config para o próximo passo
Configure a Chave de API Portkey
Agora crie uma chave de API Portkey e anexe a config criada no Passo 2:
- Vá até API Keys na Portkey e crie uma nova chave de API
- Selecione sua config do
Passo 2
- Gere e salve sua chave de API
Conecte ao CrewAI
Após configurar sua chave de API Portkey com a config anexada, conecte-a aos seus agentes CrewAI:
Recursos Corporativos Agora Disponíveis
Sua integração CrewAI agora conta com:
- Controles de orçamento departamental
- Governança de acesso a modelos
- Rastreamento de uso & atribuição
- Guardrails de segurança
- Recursos de confiabilidade