CrewAI를 LLM에 연결하기
CrewAI는 가장 인기 있는 제공자(OpenAI, Anthropic, Google Gemini, Azure, AWS Bedrock)에 대해 네이티브 SDK 통합을 통해 LLM에 연결하며, 그 외 모든 제공자에 대해서는 LiteLLM을 유연한 폴백으로 사용합니다.기본적으로 CrewAI는
gpt-4o-mini 모델을 사용합니다. 이는 OPENAI_MODEL_NAME 환경 변수에 의해 결정되며, 설정되지 않은 경우 기본값은 “gpt-4o-mini”입니다.
본 가이드에 설명된 대로 다른 모델이나 공급자를 사용하도록 에이전트를 쉽게 설정할 수 있습니다.지원되는 프로바이더
LiteLLM은 다음을 포함하되 이에 국한되지 않는 다양한 프로바이더를 지원합니다:- OpenAI
- Anthropic
- Google (Vertex AI, Gemini)
- Azure OpenAI
- AWS (Bedrock, SageMaker)
- Cohere
- VoyageAI
- Hugging Face
- Ollama
- Mistral AI
- Replicate
- Together AI
- AI21
- Cloudflare Workers AI
- DeepInfra
- Groq
- SambaNova
- Nebius AI Studio
- NVIDIA NIMs
- 그리고 더 많은 프로바이더!
네이티브 통합에서 지원하지 않는 제공자를 사용하려면 LiteLLM을 프로젝트에 의존성으로 추가하세요:네이티브 제공자(OpenAI, Anthropic, Google Gemini, Azure, AWS Bedrock)는 자체 SDK extras를 사용합니다 — 공급자 구성 예시를 참조하세요.
LLM 변경하기
CrewAI agent에서 다른 LLM을 사용하려면 여러 가지 방법이 있습니다:- 문자열 식별자 사용
- LLM 클래스 사용
agent를 초기화할 때 모델 이름을 문자열로 전달하세요:
구성 옵션
에이전트를 위해 LLM을 구성할 때 다양한 매개변수를 사용할 수 있습니다:| 매개변수 | 유형 | 설명 |
|---|---|---|
| model | str | 사용할 모델의 이름 (예: “gpt-4”, “claude-2”) |
| temperature | float | 출력의 무작위성 제어 (0.0 ~ 1.0) |
| max_tokens | int | 생성할 최대 토큰 수 |
| top_p | float | 출력 다양성 제어 (0.0 ~ 1.0) |
| frequency_penalty | float | 지금까지의 텍스트에서 빈도에 따라 새로운 토큰에 패널티 부여 |
| presence_penalty | float | 지금까지의 텍스트에 이미 존재하는지에 따라 새로운 토큰에 패널티 부여 |
| stop | str, List[str] | 생성을 중단할 시퀀스(들) |
| base_url | str | API 엔드포인트의 기본 URL |
| api_key | str | 인증용 API 키 |
OpenAI 호환 LLM에 연결하기
OpenAI 호환 LLM에 연결하려면 환경 변수를 사용하거나 LLM 클래스에서 특정 속성을 설정할 수 있습니다:- 환경 변수 사용하기
- LLM 클래스 속성 사용하기
Ollama와 함께 로컬 모델 사용하기
Ollama에서 제공하는 로컬 모델의 경우:Ollama 다운로드 및 설치
기본 API URL 변경하기
어떤 LLM provider든base_url 파라미터를 설정하여 기본 API URL을 변경할 수 있습니다:
Code
