Arize Phoenix 통합
이 가이드는 OpenInference SDK를 통해 OpenTelemetry를 사용하여 Arize Phoenix를 CrewAI와 통합하는 방법을 보여줍니다. 이 가이드를 완료하면 CrewAI agent를 추적하고 agent를 쉽게 디버그할 수 있습니다.Arize Phoenix란? Arize Phoenix는 AI 애플리케이션을 위한 추적 및 평가 기능을 제공하는 LLM 가시성(observability) 플랫폼입니다.

시작하기
CrewAI를 사용하고 OpenInference를 통해 OpenTelemetry와 Arize Phoenix를 연동하는 간단한 예제를 단계별로 안내합니다. 이 가이드는 Google Colab에서도 확인하실 수 있습니다.1단계: 의존성 설치
2단계: 환경 변수 설정
Phoenix Cloud API 키를 설정하고 OpenTelemetry를 구성하여 추적 정보를 Phoenix로 전송합니다. Phoenix Cloud는 Arize Phoenix의 호스팅 버전이지만, 이 통합을 사용하는 데 필수는 아닙니다. 무료 Serper API 키는 여기에서 받을 수 있습니다.3단계: Phoenix와 함께 OpenTelemetry 초기화하기
OpenInference OpenTelemetry 계측 SDK를 초기화하여 트레이스를 수집하고 Phoenix로 전송합니다.4단계: CrewAI 애플리케이션 생성하기
두 명의 에이전트가 협력하여 AI 발전에 관한 블로그 글을 조사하고 작성하는 CrewAI 애플리케이션을 만들어 보겠습니다.5단계: Phoenix에서 트레이스 보기
에이전트를 실행한 후, Phoenix에서 CrewAI 애플리케이션에 의해 생성된 트레이스를 볼 수 있습니다. 에이전트 상호작용과 LLM 호출의 상세한 단계가 표시되어 AI 에이전트를 디버깅하고 최적화하는 데 도움이 됩니다. Phoenix Cloud 계정에 로그인한 다음project_name
파라미터에서 지정한 프로젝트로 이동하세요. 모든 에이전트 상호작용, 도구 사용 및 LLM 호출이 포함된 트레이스의 타임라인 보기를 확인할 수 있습니다.

버전 호환성 정보
- Python 3.8+
- CrewAI >= 0.86.0
- Arize Phoenix >= 7.0.1
- OpenTelemetry SDK >= 1.31.0
참고 자료
- Phoenix 문서 - Phoenix 플랫폼 개요.
- CrewAI 문서 - CrewAI 프레임워크 개요.
- OpenTelemetry 문서 - OpenTelemetry 가이드
- OpenInference GitHub - OpenInference SDK 소스 코드.