Aprenda a criar implementações personalizadas de LLM no CrewAI.
BaseLLM
. Isso permite integrar qualquer provedor de LLM que não tenha suporte nativo no LiteLLM ou implementar mecanismos de autenticação personalizados.
__init__()
super().__init__(model, temperature)
com os parâmetros necessários:
call()
call()
é o núcleo da sua implementação de LLM. Ele deve:
"\nObservation:"
como stop word para controlar o comportamento do agente. Se o seu LLM suporta stop words:
supports_function_calling()
retorna True
tool_calls
na respostaavailable_functions
está sendo corretamente utilizado