Skip to main content

مقدمة

يوفر CrewAI القدرة على بث المخرجات في الوقت الفعلي أثناء تنفيذ الطاقم، مما يتيح لك عرض النتائج فور توليدها بدلاً من انتظار اكتمال العملية بالكامل. هذه الميزة مفيدة بشكل خاص لبناء التطبيقات التفاعلية وتقديم تغذية راجعة للمستخدم ومراقبة العمليات طويلة التشغيل.

كيف يعمل البث

عند تفعيل البث، يلتقط CrewAI استجابات LLM واستدعاءات الأدوات فور حدوثها، ويحزمها في أجزاء منظمة تتضمن سياقاً حول المهمة والوكيل المنفذ. يمكنك التكرار على هذه الأجزاء في الوقت الفعلي والوصول إلى النتيجة النهائية بمجرد اكتمال التنفيذ.

تفعيل البث

لتفعيل البث، عيّن معامل stream إلى True عند إنشاء طاقمك:
Code
from crewai import Agent, Crew, Task

# Create your agents and tasks
researcher = Agent(
    role="Research Analyst",
    goal="Gather comprehensive information on topics",
    backstory="You are an experienced researcher with excellent analytical skills.",
)

task = Task(
    description="Research the latest developments in AI",
    expected_output="A detailed report on recent AI advancements",
    agent=researcher,
)

# Enable streaming
crew = Crew(
    agents=[researcher],
    tasks=[task],
    stream=True  # Enable streaming output
)

البث المتزامن

عند استدعاء kickoff() على طاقم مع تفعيل البث، يُرجع كائن CrewStreamingOutput يمكنك التكرار عليه لاستلام الأجزاء فور وصولها:
Code
# Start streaming execution
streaming = crew.kickoff(inputs={"topic": "artificial intelligence"})

# Iterate over chunks as they arrive
for chunk in streaming:
    print(chunk.content, end="", flush=True)

# Access the final result after streaming completes
result = streaming.result
print(f"\n\nFinal output: {result.raw}")

معلومات جزء البث

يوفر كل جزء سياقاً غنياً حول التنفيذ:
Code
streaming = crew.kickoff(inputs={"topic": "AI"})

for chunk in streaming:
    print(f"Task: {chunk.task_name} (index {chunk.task_index})")
    print(f"Agent: {chunk.agent_role}")
    print(f"Content: {chunk.content}")
    print(f"Type: {chunk.chunk_type}")  # TEXT or TOOL_CALL
    if chunk.tool_call:
        print(f"Tool: {chunk.tool_call.tool_name}")
        print(f"Arguments: {chunk.tool_call.arguments}")

الوصول إلى نتائج البث

يوفر كائن CrewStreamingOutput عدة خصائص مفيدة:
Code
streaming = crew.kickoff(inputs={"topic": "AI"})

# Iterate and collect chunks
for chunk in streaming:
    print(chunk.content, end="", flush=True)

# After iteration completes
print(f"\nCompleted: {streaming.is_completed}")
print(f"Full text: {streaming.get_full_text()}")
print(f"All chunks: {len(streaming.chunks)}")
print(f"Final result: {streaming.result.raw}")

البث غير المتزامن

للتطبيقات غير المتزامنة، يمكنك استخدام إما akickoff() (async أصلي) أو kickoff_async() (قائم على الخيوط) مع التكرار غير المتزامن:

async أصلي مع akickoff()

توفر طريقة akickoff() تنفيذاً غير متزامن أصلياً حقيقياً عبر السلسلة بالكامل:
Code
import asyncio

async def stream_crew():
    crew = Crew(
        agents=[researcher],
        tasks=[task],
        stream=True
    )

    # Start native async streaming
    streaming = await crew.akickoff(inputs={"topic": "AI"})

    # Async iteration over chunks
    async for chunk in streaming:
        print(chunk.content, end="", flush=True)

    # Access final result
    result = streaming.result
    print(f"\n\nFinal output: {result.raw}")

asyncio.run(stream_crew())

async قائم على الخيوط مع kickoff_async()

للتكامل البسيط مع async أو التوافق مع الإصدارات السابقة:
Code
import asyncio

async def stream_crew():
    crew = Crew(
        agents=[researcher],
        tasks=[task],
        stream=True
    )

    # Start thread-based async streaming
    streaming = await crew.kickoff_async(inputs={"topic": "AI"})

    # Async iteration over chunks
    async for chunk in streaming:
        print(chunk.content, end="", flush=True)

    # Access final result
    result = streaming.result
    print(f"\n\nFinal output: {result.raw}")

asyncio.run(stream_crew())
لأحمال العمل عالية التزامن، يُوصى باستخدام akickoff() لأنه يستخدم async أصلي لتنفيذ المهام وعمليات الذاكرة واسترجاع المعرفة. راجع دليل تشغيل الطاقم بشكل غير متزامن لمزيد من التفاصيل.

البث مع kickoff_for_each

عند تنفيذ طاقم لمدخلات متعددة مع kickoff_for_each()، يعمل البث بشكل مختلف حسب ما إذا كنت تستخدم المتزامن أو غير المتزامن:

kickoff_for_each المتزامن

مع kickoff_for_each() المتزامن، تحصل على قائمة كائنات CrewStreamingOutput، واحد لكل مدخل:
Code
crew = Crew(
    agents=[researcher],
    tasks=[task],
    stream=True
)

inputs_list = [
    {"topic": "AI in healthcare"},
    {"topic": "AI in finance"}
]

# Returns list of streaming outputs
streaming_outputs = crew.kickoff_for_each(inputs=inputs_list)

# Iterate over each streaming output
for i, streaming in enumerate(streaming_outputs):
    print(f"\n=== Input {i + 1} ===")
    for chunk in streaming:
        print(chunk.content, end="", flush=True)

    result = streaming.result
    print(f"\n\nResult {i + 1}: {result.raw}")

kickoff_for_each_async غير المتزامن

مع kickoff_for_each_async() غير المتزامن، تحصل على CrewStreamingOutput واحد يُخرج أجزاء من جميع الأطقم فور وصولها بشكل متزامن:
Code
import asyncio

async def stream_multiple_crews():
    crew = Crew(
        agents=[researcher],
        tasks=[task],
        stream=True
    )

    inputs_list = [
        {"topic": "AI in healthcare"},
        {"topic": "AI in finance"}
    ]

    # Returns single streaming output for all crews
    streaming = await crew.kickoff_for_each_async(inputs=inputs_list)

    # Chunks from all crews arrive as they're generated
    async for chunk in streaming:
        print(f"[{chunk.task_name}] {chunk.content}", end="", flush=True)

    # Access all results
    results = streaming.results  # List of CrewOutput objects
    for i, result in enumerate(results):
        print(f"\n\nResult {i + 1}: {result.raw}")

asyncio.run(stream_multiple_crews())

أنواع أجزاء البث

يمكن أن تكون الأجزاء من أنواع مختلفة، يُشار إليها بحقل chunk_type:

أجزاء TEXT

محتوى نصي قياسي من استجابات LLM:
Code
for chunk in streaming:
    if chunk.chunk_type == StreamChunkType.TEXT:
        print(chunk.content, end="", flush=True)

أجزاء TOOL_CALL

معلومات حول استدعاءات الأدوات الجارية:
Code
for chunk in streaming:
    if chunk.chunk_type == StreamChunkType.TOOL_CALL:
        print(f"\nCalling tool: {chunk.tool_call.tool_name}")
        print(f"Arguments: {chunk.tool_call.arguments}")

مثال عملي: بناء واجهة مستخدم مع البث

إليك مثالاً كاملاً يوضح كيفية بناء تطبيق تفاعلي مع البث:
Code
import asyncio
from crewai import Agent, Crew, Task
from crewai.types.streaming import StreamChunkType

async def interactive_research():
    # Create crew with streaming enabled
    researcher = Agent(
        role="Research Analyst",
        goal="Provide detailed analysis on any topic",
        backstory="You are an expert researcher with broad knowledge.",
    )

    task = Task(
        description="Research and analyze: {topic}",
        expected_output="A comprehensive analysis with key insights",
        agent=researcher,
    )

    crew = Crew(
        agents=[researcher],
        tasks=[task],
        stream=True,
        verbose=False
    )

    # Get user input
    topic = input("Enter a topic to research: ")

    print(f"\n{'='*60}")
    print(f"Researching: {topic}")
    print(f"{'='*60}\n")

    # Start streaming execution
    streaming = await crew.kickoff_async(inputs={"topic": topic})

    current_task = ""
    async for chunk in streaming:
        # Show task transitions
        if chunk.task_name != current_task:
            current_task = chunk.task_name
            print(f"\n[{chunk.agent_role}] Working on: {chunk.task_name}")
            print("-" * 60)

        # Display text chunks
        if chunk.chunk_type == StreamChunkType.TEXT:
            print(chunk.content, end="", flush=True)

        # Display tool calls
        elif chunk.chunk_type == StreamChunkType.TOOL_CALL and chunk.tool_call:
            print(f"\n🔧 Using tool: {chunk.tool_call.tool_name}")

    # Show final result
    result = streaming.result
    print(f"\n\n{'='*60}")
    print("Analysis Complete!")
    print(f"{'='*60}")
    print(f"\nToken Usage: {result.token_usage}")

asyncio.run(interactive_research())

حالات الاستخدام

البث ذو قيمة خاصة لـ:
  • التطبيقات التفاعلية: تقديم تغذية راجعة فورية للمستخدمين أثناء عمل الوكلاء
  • المهام طويلة التشغيل: عرض التقدم للبحث والتحليل أو توليد المحتوى
  • التصحيح والمراقبة: مراقبة سلوك الوكلاء واتخاذ القرارات في الوقت الفعلي
  • تجربة المستخدم: تقليل زمن الاستجابة المتصور بعرض نتائج تدريجية
  • لوحات المعلومات الحية: بناء واجهات مراقبة تعرض حالة تنفيذ الطاقم

ملاحظات مهمة

  • يفعّل البث تلقائياً بث LLM لجميع الوكلاء في الطاقم
  • يجب التكرار عبر جميع الأجزاء قبل الوصول إلى خاصية .result
  • لـ kickoff_for_each_async() مع البث، استخدم .results (بصيغة الجمع) للحصول على جميع المخرجات
  • يضيف البث حملاً ضئيلاً ويمكن أن يحسن الأداء المتصور فعلياً
  • يتضمن كل جزء سياقاً كاملاً (المهمة، الوكيل، نوع الجزء) لواجهات مستخدم غنية

معالجة الأخطاء

التعامل مع الأخطاء أثناء تنفيذ البث:
Code
streaming = crew.kickoff(inputs={"topic": "AI"})

try:
    for chunk in streaming:
        print(chunk.content, end="", flush=True)

    result = streaming.result
    print(f"\nSuccess: {result.raw}")

except Exception as e:
    print(f"\nError during streaming: {e}")
    if streaming.is_completed:
        print("Streaming completed but an error occurred")
من خلال الاستفادة من البث، يمكنك بناء تطبيقات أكثر استجابة وتفاعلية مع CrewAI، مما يوفر للمستخدمين رؤية فورية لتنفيذ الوكلاء والنتائج.