Conecte-se a qualquer LLM
Guia abrangente sobre como integrar o CrewAI a diversos Large Language Models (LLMs) usando o LiteLLM, incluindo provedores compatíveis e opções de configuração.
Conecte o CrewAI a LLMs
O CrewAI utiliza o LiteLLM para conectar-se a uma grande variedade de Modelos de Linguagem (LLMs). Essa integração proporciona grande versatilidade, permitindo que você utilize modelos de inúmeros provedores por meio de uma interface simples e unificada.
Por padrão, o CrewAI usa o modelo gpt-4o-mini
. Isso é determinado pela variável de ambiente OPENAI_MODEL_NAME
, que tem como padrão “gpt-4o-mini” se não for definida.
Você pode facilmente configurar seus agentes para usar um modelo ou provedor diferente, conforme descrito neste guia.
Provedores Compatíveis
O LiteLLM oferece suporte a uma ampla gama de provedores, incluindo, mas não se limitando a:
- OpenAI
- Anthropic
- Google (Vertex AI, Gemini)
- Azure OpenAI
- AWS (Bedrock, SageMaker)
- Cohere
- VoyageAI
- Hugging Face
- Ollama
- Mistral AI
- Replicate
- Together AI
- AI21
- Cloudflare Workers AI
- DeepInfra
- Groq
- SambaNova
- NVIDIA NIMs
- E muitos outros!
Para uma lista completa e sempre atualizada dos provedores suportados, consulte a documentação de Provedores do LiteLLM.
Alterando a LLM
Para utilizar uma LLM diferente com seus agentes CrewAI, você tem várias opções:
Passe o nome do modelo como uma string ao inicializar o agente:
Passe o nome do modelo como uma string ao inicializar o agente:
Para uma configuração mais detalhada, utilize a classe LLM:
Opções de Configuração
Ao configurar uma LLM para o seu agente, você tem acesso a uma variedade de parâmetros:
Parâmetro | Tipo | Descrição |
---|---|---|
model | str | O nome do modelo a ser utilizado (ex.: “gpt-4”, “claude-2”) |
temperature | float | Controla o grau de aleatoriedade nas respostas (0.0 a 1.0) |
max_tokens | int | Número máximo de tokens a serem gerados |
top_p | float | Controla a diversidade das respostas (0.0 a 1.0) |
frequency_penalty | float | Penaliza novos tokens com base na frequência em que já apareceram no texto |
presence_penalty | float | Penaliza novos tokens com base na presença deles no texto até o momento |
stop | str , List[str] | Sequência(s) que interrompem a geração do texto |
base_url | str | URL base do endpoint da API |
api_key | str | Sua chave de API para autenticação |
Para uma lista completa de parâmetros e suas respectivas descrições, consulte a documentação da classe LLM.
Conectando-se a LLMs Compatíveis com OpenAI
Você pode se conectar a LLMs compatíveis com a OpenAI usando variáveis de ambiente ou definindo atributos específicos na classe LLM:
Utilizando Modelos Locais com Ollama
Para modelos locais como os oferecidos pelo Ollama:
Baixe e instale o Ollama
Puxe o modelo desejado
Por exemplo, execute ollama pull llama3.2
para baixar o modelo.
Configure seu agente
Alterando a URL Base da API
Você pode alterar a URL base da API para qualquer provedor de LLM definindo o parâmetro base_url
:
Isso é particularmente útil ao trabalhar com APIs compatíveis com a OpenAI ou quando você precisa especificar um endpoint diferente para o provedor escolhido.
Conclusão
Ao utilizar o LiteLLM, o CrewAI oferece integração transparente com uma vasta gama de LLMs. Essa flexibilidade permite que você escolha o modelo mais adequado para sua necessidade específica, seja priorizando desempenho, custo-benefício ou implantação local. Lembre-se de consultar a documentação do LiteLLM para obter as informações mais atualizadas sobre modelos suportados e opções de configuração.