Personalizando Prompts
Aprofunde-se na personalização de prompts de baixo nível no CrewAI, habilitando casos de uso super customizados e complexos para diferentes modelos e idiomas.
Por Que Personalizar Prompts?
Embora os prompts padrão do CrewAI funcionem bem para muitos cenários, a personalização de baixo nível permite comportamentos de agentes significativamente mais flexíveis e poderosos. Veja por que você pode querer aproveitar esse controle mais profundo:
- Otimizar para LLMs específicas – Diferentes modelos (como GPT-4, Claude ou Llama) funcionam melhor com formatos de prompt adaptados às suas arquiteturas exclusivas.
- Alterar o idioma – Construa agentes que operam exclusivamente em idiomas além do inglês, lidando com nuances com precisão.
- Especializar para domínios complexos – Adapte prompts para setores altamente especializados como saúde, finanças ou jurídico.
- Ajustar tom e estilo – Torne os agentes mais formais, casuais, criativos ou analíticos.
- Suportar casos de uso super customizados – Utilize estruturas e formatações avançadas de prompt para atender requisitos detalhados e específicos do projeto.
Este guia explora como acessar os prompts do CrewAI em um nível mais baixo, oferecendo controle granular sobre como os agentes pensam e interagem.
Entendendo o Sistema de Prompt do CrewAI
Nos bastidores, o CrewAI adota um sistema de prompt modular que pode ser amplamente customizado:
- Templates de agente – Determinam o modo como cada agente aborda o papel que lhe foi atribuído.
- Prompt slices – Controlam comportamentos especializados como tarefas, o uso de ferramentas e a estrutura de saída.
- Tratamento de erros – Definem como os agentes respondem a falhas, exceções ou timeouts.
- Prompts específicos de ferramentas – Definem instruções detalhadas para como as ferramentas são invocadas ou utilizadas.
Confira os templates de prompt originais no repositório do CrewAI para ver como esses elementos são organizados. A partir daí, você pode sobrescrever ou adaptar conforme necessário para desbloquear comportamentos avançados.
Entendendo as Instruções de Sistema Padrão
Questão de Transparência em Produção: O CrewAI injeta automaticamente instruções padrão nos seus prompts que talvez você não conheça. Esta seção explica o que acontece nos bastidores e como obter controle total.
Ao definir um agente com role
, goal
e backstory
, o CrewAI automaticamente adiciona instruções de sistema adicionais que controlam a formatação e o comportamento. Entender essas injeções padrão é essencial para sistemas em produção onde você precisa de total transparência nos prompts.
O Que CrewAI Injeta Automaticamente
Baseado na configuração do seu agente, o CrewAI adiciona diferentes instruções padrão:
Para Agentes Sem Ferramentas
Para Agentes Com Ferramentas
Para Saídas Estruturadas (JSON/Pydantic)
Visualizando o Prompt de Sistema Completo
Para ver exatamente qual prompt está sendo enviado para seu LLM, você pode inspecionar o prompt gerado:
Sobrescrevendo Instruções Padrão
Você tem várias opções para obter controle total sobre os prompts:
Opção 1: Templates Personalizados (Recomendado)
Opção 2: Arquivo de Prompt Personalizado
Crie um arquivo custom_prompts.json
para sobrescrever slices específicas de prompt:
Em seguida, utilize no seu crew:
Opção 3: Desativar Prompts de Sistema para Modelos o1
Depuração com Ferramentas de Observabilidade
Para garantir transparência em produção, integre com plataformas de observabilidade para monitorar todos os prompts e interações com LLM. Isso permite que você veja exatamente quais prompts (incluindo instruções padrão) estão sendo enviados para os seus LLMs.
Veja nossa documentação sobre Observabilidade para guias detalhados de integração com diversas plataformas como Langfuse, MLflow, Weights & Biases e soluções de logging customizadas.
Boas Práticas para Produção
- Sempre inspecione prompts gerados antes de implantar em produção
- Use templates customizados quando precisar de controle total sobre o conteúdo do prompt
- Integre ferramentas de observabilidade para monitoramento contínuo de prompts (veja docs de Observabilidade)
- Teste com diferentes LLMs já que instruções padrão podem se comportar de maneira diferente em cada modelo
- Documente suas customizações de prompt para transparência da equipe
As instruções padrão existem para garantir comportamento consistente nos agentes, mas podem interferir com requisitos de domínio específicos. Use as opções de customização acima para manter controle total sobre o comportamento do seu agente em sistemas de produção.
Melhores Práticas para Gerenciar Arquivos de Prompt
Ao realizar personalização de prompts em baixo nível, siga estas diretrizes para manter tudo organizado e fácil de manter:
- Mantenha arquivos separados – Armazene seus prompts personalizados em arquivos JSON dedicados fora do código principal.
- Controle de versão – Acompanhe as alterações no seu repositório, garantindo documentação clara das mudanças nos prompts ao longo do tempo.
- Organize por modelo ou idioma – Utilize nomes como
prompts_llama.json
ouprompts_es.json
para identificar rapidamente configurações especializadas. - Documente as alterações – Adicione comentários ou mantenha um README detalhando o propósito e o escopo das customizações.
- Minimize alterações – Sobrescreva apenas os slices específicos que realmente precisam de ajuste, mantendo a funcionalidade padrão para o restante.
O Jeito Mais Simples de Personalizar Prompts
Uma abordagem direta é criar um arquivo JSON para os prompts que deseja sobrescrever e então indicar este arquivo no seu Crew:
- Crie um arquivo JSON com os slices de prompt atualizados.
- Referencie este arquivo no parâmetro
prompt_file
do seu Crew.
O CrewAI então mescla suas customizações com os padrões, assim você não precisa redefinir todos os prompts. Veja como:
Exemplo: Customização Básica de Prompt
Crie um arquivo custom_prompts.json
com os prompts que deseja modificar. Certifique-se de listar todos os prompts de nível superior que ele deve conter, não apenas suas alterações:
Integre assim:
Com essas poucas edições, você conquista controle de baixo nível sobre como seus agentes se comunicam e solucionam tarefas.
Otimizando para Modelos Específicos
Modelos diferentes respondem melhor a estruturas de prompt diferentes. Ajustes mais profundos podem aumentar significativamente o desempenho ao alinhar seus prompts às nuances de cada modelo.
Exemplo: Template de Prompt para Llama 3.3
Por exemplo, ao lidar com o Llama 3.3 da Meta, a personalização de baixo nível pode refletir a estrutura recomendada descrita em: https://www.llama.com/docs/model-cards-and-prompt-formats/llama3_1/#prompt-template
Veja um exemplo destacando como você pode ajustar um Agent para usar o Llama 3.3 em código:
Com essa configuração, você exerce controle abrangente e de baixo nível sobre seus fluxos de trabalho baseados em Llama sem precisar de um arquivo JSON separado.
Conclusão
A personalização de prompts em baixo nível no CrewAI abre portas para casos de uso super customizados e complexos. Mantendo arquivos de prompt organizados (ou templates inline diretos), é possível acomodar diferentes modelos, idiomas e domínios especializados. Esse nível de flexibilidade garante que você possa criar exatamente o comportamento de IA que precisa, sabendo que o CrewAI ainda fornece padrões confiáveis quando você não sobrescreve.
Agora você tem a base para customizações avançadas de prompt no CrewAI. Seja adaptando para estruturas específicas de modelo ou restrições de domínio, esta abordagem de baixo nível permite moldar as interações dos agentes de forma altamente especializada.