Conecte o CrewAI a LLMs
O CrewAI utiliza o LiteLLM para conectar-se a uma grande variedade de Modelos de Linguagem (LLMs). Essa integração proporciona grande versatilidade, permitindo que você utilize modelos de inúmeros provedores por meio de uma interface simples e unificada.Por padrão, o CrewAI usa o modelo
gpt-4o-mini
. Isso é determinado pela variável de ambiente OPENAI_MODEL_NAME
, que tem como padrão “gpt-4o-mini” se não for definida.
Você pode facilmente configurar seus agentes para usar um modelo ou provedor diferente, conforme descrito neste guia.Provedores Compatíveis
O LiteLLM oferece suporte a uma ampla gama de provedores, incluindo, mas não se limitando a:- OpenAI
- Anthropic
- Google (Vertex AI, Gemini)
- Azure OpenAI
- AWS (Bedrock, SageMaker)
- Cohere
- VoyageAI
- Hugging Face
- Ollama
- Mistral AI
- Replicate
- Together AI
- AI21
- Cloudflare Workers AI
- DeepInfra
- Groq
- SambaNova
- NVIDIA NIMs
- E muitos outros!
Alterando a LLM
Para utilizar uma LLM diferente com seus agentes CrewAI, você tem várias opções:Passe o nome do modelo como uma string ao inicializar o agente:
Opções de Configuração
Ao configurar uma LLM para o seu agente, você tem acesso a uma variedade de parâmetros:Parâmetro | Tipo | Descrição |
---|---|---|
model | str | O nome do modelo a ser utilizado (ex.: “gpt-4”, “claude-2”) |
temperature | float | Controla o grau de aleatoriedade nas respostas (0.0 a 1.0) |
max_tokens | int | Número máximo de tokens a serem gerados |
top_p | float | Controla a diversidade das respostas (0.0 a 1.0) |
frequency_penalty | float | Penaliza novos tokens com base na frequência em que já apareceram no texto |
presence_penalty | float | Penaliza novos tokens com base na presença deles no texto até o momento |
stop | str , List[str] | Sequência(s) que interrompem a geração do texto |
base_url | str | URL base do endpoint da API |
api_key | str | Sua chave de API para autenticação |
Conectando-se a LLMs Compatíveis com OpenAI
Você pode se conectar a LLMs compatíveis com a OpenAI usando variáveis de ambiente ou definindo atributos específicos na classe LLM:Utilizando Modelos Locais com Ollama
Para modelos locais como os oferecidos pelo Ollama:1
Baixe e instale o Ollama
2
Puxe o modelo desejado
Por exemplo, execute
ollama pull llama3.2
para baixar o modelo.3
Configure seu agente
Alterando a URL Base da API
Você pode alterar a URL base da API para qualquer provedor de LLM definindo o parâmetrobase_url
:
Code