الانتقال إلى المحتوى الرئيسي

نظرة عامة

يدعم CrewAI تنفيذات LLM المخصصة من خلال فئة BaseLLM المجردة. يتيح لك ذلك دمج أي مزود LLM لا يحظى بدعم مدمج في LiteLLM، أو تنفيذ آليات مصادقة مخصصة.

بداية سريعة

راجع الملف الإنجليزي الأصلي للحصول على تنفيذ LLM مخصص كامل يوضح طريقة call() المطلوبة والطرق الاختيارية مثل supports_function_calling() وget_context_window_size().

استخدام LLM المخصص

from crewai import Agent, Task, Crew

custom_llm = CustomLLM(
    model="my-custom-model",
    api_key="your-api-key",
    endpoint="https://api.example.com/v1/chat/completions",
    temperature=0.7
)

agent = Agent(
    role="Research Assistant",
    goal="Find and analyze information",
    backstory="You are a research assistant.",
    llm=custom_llm
)

task = Task(
    description="Research the latest developments in AI",
    expected_output="A comprehensive summary",
    agent=agent
)

crew = Crew(agents=[agent], tasks=[task])
result = crew.kickoff()

الطرق المطلوبة

البنّاء: __init__()

مهم: يجب استدعاء super().__init__(model, temperature) مع المعاملات المطلوبة.

الطريقة المجردة: call()

طريقة call() هي قلب تنفيذ LLM. يجب أن تقبل الرسائل وتعيد استجابة نصية وتعالج الأدوات واستدعاء الدوال إذا كانت مدعومة. يغطي هذا الدليل أساسيات تنفيذ LLM مخصصة في CrewAI.