ScrapflyScrapeWebsiteTool

Descrição

A ScrapflyScrapeWebsiteTool foi desenvolvida para aproveitar a API de web scraping da Scrapfly para extrair conteúdo de sites. Esta ferramenta oferece recursos avançados de raspagem com suporte a navegador headless, proxies e recursos de bypass de anti-bot. Permite extrair dados de páginas web em vários formatos, incluindo HTML bruto, markdown e texto simples, sendo ideal para uma ampla variedade de tarefas de raspagem de sites.

Instalação

Para utilizar esta ferramenta, é necessário instalar o Scrapfly SDK:

uv add scrapfly-sdk

Você também precisará obter uma chave de API da Scrapfly registrando-se em scrapfly.io/register.

Passos para Começar

Para usar a ScrapflyScrapeWebsiteTool de forma eficaz, siga estas etapas:

  1. Instale as Dependências: Instale o Scrapfly SDK usando o comando acima.
  2. Obtenha a Chave de API: Cadastre-se na Scrapfly para obter sua chave de API.
  3. Inicialize a Ferramenta: Crie uma instância da ferramenta com sua chave de API.
  4. Configure os Parâmetros de Raspagem: Personalize os parâmetros de raspagem conforme suas necessidades.

Exemplo

O exemplo a seguir demonstra como usar a ScrapflyScrapeWebsiteTool para extrair conteúdo de um site:

Code
from crewai import Agent, Task, Crew
from crewai_tools import ScrapflyScrapeWebsiteTool

# Initialize the tool
scrape_tool = ScrapflyScrapeWebsiteTool(api_key="your_scrapfly_api_key")

# Define an agent that uses the tool
web_scraper_agent = Agent(
    role="Web Scraper",
    goal="Extract information from websites",
    backstory="An expert in web scraping who can extract content from any website.",
    tools=[scrape_tool],
    verbose=True,
)

# Example task to extract content from a website
scrape_task = Task(
    description="Extract the main content from the product page at https://web-scraping.dev/products and summarize the available products.",
    expected_output="A summary of the products available on the website.",
    agent=web_scraper_agent,
)

# Create and run the crew
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
result = crew.kickoff()

Você também pode personalizar os parâmetros de raspagem:

Code
# Example with custom scraping parameters
web_scraper_agent = Agent(
    role="Web Scraper",
    goal="Extract information from websites with custom parameters",
    backstory="An expert in web scraping who can extract content from any website.",
    tools=[scrape_tool],
    verbose=True,
)

# The agent will use the tool with parameters like:
# url="https://web-scraping.dev/products"
# scrape_format="markdown"
# ignore_scrape_failures=True
# scrape_config={
#     "asp": True,  # Bypass scraping blocking solutions, like Cloudflare
#     "render_js": True,  # Enable JavaScript rendering with a cloud headless browser
#     "proxy_pool": "public_residential_pool",  # Select a proxy pool
#     "country": "us",  # Select a proxy location
#     "auto_scroll": True,  # Auto scroll the page
# }

scrape_task = Task(
    description="Extract the main content from the product page at https://web-scraping.dev/products using advanced scraping options including JavaScript rendering and proxy settings.",
    expected_output="A detailed summary of the products with all available information.",
    agent=web_scraper_agent,
)

Parâmetros

A ScrapflyScrapeWebsiteTool aceita os seguintes parâmetros:

Parâmetros de Inicialização

  • api_key: Obrigatório. Sua chave de API da Scrapfly.

Parâmetros de Execução

  • url: Obrigatório. A URL do site a ser raspado.
  • scrape_format: Opcional. O formato em que o conteúdo da página será extraído. As opções são “raw” (HTML), “markdown” ou “text”. O padrão é “markdown”.
  • scrape_config: Opcional. Um dicionário contendo opções adicionais de configuração de raspagem da Scrapfly.
  • ignore_scrape_failures: Opcional. Determina se as falhas de raspagem devem ser ignoradas. Se definido como True, a ferramenta irá retornar None ao invés de lançar uma exceção caso ocorra uma falha na raspagem.

Opções de Configuração Scrapfly

O parâmetro scrape_config permite personalizar o comportamento da raspagem com as seguintes opções:

  • asp: Ativa o bypass de proteção anti-scraping.
  • render_js: Ativa a renderização de JavaScript com um navegador headless na nuvem.
  • proxy_pool: Seleciona um pool de proxies (por exemplo, “public_residential_pool”, “datacenter”).
  • country: Seleciona a localização do proxy (por exemplo, “us”, “uk”).
  • auto_scroll: Rola automaticamente a página para carregar conteúdo lazy-loaded.
  • js: Executa código JavaScript personalizado via o navegador headless.

Para uma lista completa de opções de configuração, consulte a documentação da API Scrapfly.

Uso

Ao usar a ScrapflyScrapeWebsiteTool com um agente, o agente deverá fornecer a URL do site a ser raspado e pode opcionalmente especificar o formato e opções adicionais de configuração:

Code
# Example of using the tool with an agent
web_scraper_agent = Agent(
    role="Web Scraper",
    goal="Extract information from websites",
    backstory="An expert in web scraping who can extract content from any website.",
    tools=[scrape_tool],
    verbose=True,
)

# Create a task for the agent
scrape_task = Task(
    description="Extract the main content from example.com in markdown format.",
    expected_output="The main content of example.com in markdown format.",
    agent=web_scraper_agent,
)

# Run the task
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
result = crew.kickoff()

Para um uso mais avançado com configurações personalizadas:

Code
# Create a task with more specific instructions
advanced_scrape_task = Task(
    description="""
    Extract content from example.com with the following requirements:
    - Convert the content to plain text format
    - Enable JavaScript rendering
    - Use a US-based proxy
    - Handle any scraping failures gracefully
    """,
    expected_output="The extracted content from example.com",
    agent=web_scraper_agent,
)

Tratamento de Erros

Por padrão, a ScrapflyScrapeWebsiteTool irá lançar uma exceção se a raspagem falhar. Os agentes podem ser instruídos a tratar falhas de forma mais flexível especificando o parâmetro ignore_scrape_failures:

Code
# Create a task that instructs the agent to handle errors
error_handling_task = Task(
    description="""
    Extract content from a potentially problematic website and make sure to handle any 
    scraping failures gracefully by setting ignore_scrape_failures to True.
    """,
    expected_output="Either the extracted content or a graceful error message",
    agent=web_scraper_agent,
)

Detalhes de Implementação

A ScrapflyScrapeWebsiteTool utiliza o Scrapfly SDK para interagir com a API Scrapfly:

Code
class ScrapflyScrapeWebsiteTool(BaseTool):
    name: str = "Scrapfly web scraping API tool"
    description: str = (
        "Scrape a webpage url using Scrapfly and return its content as markdown or text"
    )
    
    # Implementation details...
    
    def _run(
        self,
        url: str,
        scrape_format: str = "markdown",
        scrape_config: Optional[Dict[str, Any]] = None,
        ignore_scrape_failures: Optional[bool] = None,
    ):
        from scrapfly import ScrapeApiResponse, ScrapeConfig

        scrape_config = scrape_config if scrape_config is not None else {}
        try:
            response: ScrapeApiResponse = self.scrapfly.scrape(
                ScrapeConfig(url, format=scrape_format, **scrape_config)
            )
            return response.scrape_result["content"]
        except Exception as e:
            if ignore_scrape_failures:
                logger.error(f"Error fetching data from {url}, exception: {e}")
                return None
            else:
                raise e

Conclusão

A ScrapflyScrapeWebsiteTool oferece uma forma poderosa de extrair conteúdo de sites usando as avançadas capacidades de web scraping da Scrapfly. Com recursos como suporte a navegador headless, proxies e bypass de anti-bot, ela consegue lidar com sites complexos e extrair conteúdo em diversos formatos. Esta ferramenta é especialmente útil em tarefas de extração de dados, monitoramento de conteúdo e pesquisa, onde a raspagem confiável de sites é necessária.