الانتقال إلى المحتوى الرئيسي

نظرة عامة على Langtrace

Langtrace هو أداة مفتوحة المصدر خارجية تساعدك في إعداد المراقبة والتقييمات لنماذج اللغة الكبيرة (LLMs) وأطر عمل LLM وقواعد بيانات المتجهات. على الرغم من أنها ليست مبنية مباشرة في CrewAI، يمكن استخدام Langtrace جنباً إلى جنب مع CrewAI للحصول على رؤية عميقة في التكلفة وزمن الاستجابة وأداء وكلاء CrewAI. يتيح لك هذا التكامل تسجيل المعاملات الفائقة ومراقبة تراجعات الأداء وإنشاء عملية للتحسين المستمر لوكلائك. نظرة عامة على سلسلة مختارة من جلسات تشغيل الوكلاء نظرة عامة على تتبعات الوكلاء نظرة عامة على تتبعات LLM بالتفصيل

تعليمات الإعداد

1

التسجيل في Langtrace

سجّل بزيارة https://langtrace.ai/signup.
2

إنشاء مشروع

عيّن نوع المشروع إلى CrewAI وقم بتوليد مفتاح API.
3

تثبيت Langtrace في مشروع CrewAI

استخدم الأمر التالي:
pip install langtrace-python-sdk
4

استيراد Langtrace

استورد وهيّئ Langtrace في بداية نصك البرمجي، قبل أي استيرادات CrewAI:
from langtrace_python_sdk import langtrace
langtrace.init(api_key='<LANGTRACE_API_KEY>')

# Now import CrewAI modules
from crewai import Agent, Task, Crew

الميزات وتطبيقاتها على CrewAI

  1. تتبع رموز LLM والتكاليف
    • مراقبة استخدام الرموز والتكاليف المرتبطة لكل تفاعل وكيل CrewAI.
  2. رسم بياني للتتبع لخطوات التنفيذ
    • تصور تدفق تنفيذ مهام CrewAI، بما في ذلك زمن الاستجابة والسجلات.
    • مفيد لتحديد الاختناقات في سير عمل الوكلاء.
  3. تنظيم مجموعات البيانات مع التعليق اليدوي
    • إنشاء مجموعات بيانات من مخرجات مهام CrewAI للتدريب أو التقييم المستقبلي.
  4. إدارة إصدارات المطالبات
    • تتبع الإصدارات المختلفة من المطالبات المستخدمة في وكلاء CrewAI.
    • مفيد لاختبار A/B وتحسين أداء الوكلاء.
  5. ساحة المطالبات مع مقارنات النماذج
    • اختبار ومقارنة مطالبات ونماذج مختلفة لوكلاء CrewAI قبل النشر.
  6. الاختبارات والتقييمات
    • إعداد اختبارات آلية لوكلاء ومهام CrewAI.