Este projeto realiza a extração de dados (web scraping). O script automatiza a navegação, recolhe informações de preços e nomes de produtos, e guarda os resultados em um arquivo CSV, além de capturar uma screenshot da página.
-
Python 3
-
Selenium: Automação do navegador para extração de dados dinâmicos.
-
Webdriver Manager: Gestão automática dos drivers do navegador.
-
Google Chrome: Utilizado em modo headless (sem interface gráfica).
Antes de executar o projeto, instale as dependências necessárias listadas no arquivo requirements.txt:
pip install -r requirements.txt
O script principal (app.py) realiza as seguintes etapas:
-
Configuração: Define opções para o Chrome, como o
modo headless, tamanho da janela (1920x1080) e umUser-Agentpara evitar bloqueios. -
Acesso: Navega até a lista de processadores AMD da KaBuM!, configurada para exibir 100 produtos por página.
-
Extração: Utiliza seletores XPATH para localizar:
-
Nome do produto (
nameCard) -
Preço antigo (
oldPriceCard) -
Preço à vista (
priceCard)
-
-
Armazenamento: Gera um arquivo chamado
precos_produtos.csvcom as informações extraídas. -
Screenshot: Guarda uma imagem da página no momento da extração como
print_produtos.png.
-
O script inclui uma pausa de 10 segundos (
sleep(10)) para garantir que os elementos dinâmicos da página carreguem completamente antes da extração. -
Certifique-se de ter o Google Chrome instalado no seu sistema.