Ferramenta para coleta e análise de dados de e-commerce
Status: A aplicação está em desenvolvimento, mas já é funcional.
⚠️
Antes de começar, verifique os seguintes requisitos:
- Esta aplicação tem como objetivo realizar a raspagem de dados de sites de e-commerce e salvar tais dados em um banco de dados portável, no caso, sqlite3.
- A presente aplicação encontra-se funcional Basta, no respetivo arquivo .json, inserir os links dos produtos, do site que deseja raspar, e poderá salvar o nome do produto, seu preço e o momento em que foi salvo o preço do produto.
- Amazon
- Centauro
- Declathon
- Abra o seu terminal
- Faça o download do repositório com o comando:
git clone https://github.com/OwlGuilherme/CrowCrawler
- Entre na pasta do projeto com o comando:
cd CrowCrawler
- Crie um ambiente virtual e ative o ambiente (opcional):
python -m venv scrapper-env && source scrapper-env/bin/activate
- Instale as dependências do projeto:
pip install -r requirements.txt
- Adicione, nos arquivos .json os links dos produtos, dos respectivos sites que deseja salvar. Caminho para os arquivos "./crowler/crowler/rules/*.json".
- Execute a aplicação
python main.py
Caso queira contribuir com o projeto, ficarei muito grato e, para isso, siga estas etapas:
- Fork este repositório.
- Clone o seu repositório forkado com o comando git clone <link do repositório>.
- Faça suas alterações e confirme-as: git commit -m '<mensagem_commit>'
- Envie para o branch original: git push origin <nome_do_projeto> /
- Crie a solicitação de pull.
- Caso queira me mandar uma mensagem, fique à vontade: [email protected]