الانتقال إلى المحتوى الرئيسي

نظرة عامة

يُعد الاختبار جزءًا حيويًا من عملية التطوير، ومن الضروري التأكد من أن طاقمك يعمل كما هو متوقع. مع CrewAI، يمكنك اختبار طاقمك وتقييم أدائه بسهولة باستخدام إمكانيات الاختبار المدمجة.

استخدام ميزة الاختبار

أضفنا أمر CLI crewai test لتسهيل اختبار طاقمك. سيقوم هذا الأمر بتشغيل طاقمك لعدد محدد من التكرارات وتوفير مقاييس أداء مفصلة. المعاملات هي n_iterations و model، وهي اختيارية وتكون قيمها الافتراضية 2 و gpt-4o-mini على التوالي. حاليًا، المزود الوحيد المتاح هو OpenAI.
crewai test
إذا أردت تشغيل المزيد من التكرارات أو استخدام نموذج مختلف، يمكنك تحديد المعاملات هكذا:
crewai test --n_iterations 5 --model gpt-4o
أو باستخدام الصيغة المختصرة:
crewai test -n 5 -m gpt-4o
عند تشغيل أمر crewai test، سيتم تنفيذ الطاقم للعدد المحدد من التكرارات، وستُعرض مقاييس الأداء في نهاية التشغيل. سيظهر جدول الدرجات في النهاية لعرض أداء الطاقم من حيث المقاييس التالية:
المهام/الطاقم/الوكلاءالتشغيل 1التشغيل 2المجموع المتوسطالوكلاءمعلومات إضافية
المهمة 19.09.59.2Professional Insights
Researcher
المهمة 29.010.09.5Company Profile Investigator
المهمة 39.09.09.0Automation Insights
Specialist
المهمة 49.09.09.0Final Report CompilerAutomation Insights Specialist
الطاقم9.009.389.2
زمن التنفيذ (ثانية)126145135
يوضح المثال أعلاه نتائج الاختبار لتشغيلين للطاقم مع مهمتين، مع الدرجة الإجمالية المتوسطة لكل مهمة والطاقم ككل.