Doctoranytime Scraper β Belgium, Greece Doctor Director
Pricing
$15.00/month + usage
Go to Apify Store

Doctoranytime Scraper β Belgium, Greece Doctor Director
Extract 10,000+ doctor & specialist profiles from Doctoranytime.be π§πͺ, Doctoranytime.gr π¬π· and Cyprus π¨πΎ. Name, specialty, address, phone, fees, ratings. B2B healthcare leads.
Pricing
$15.00/month + usage
Rating
0.0
(0)
Developer

Giovanni Bianciardi
Maintained by Community
Actor stats
0
Bookmarked
2
Total users
1
Monthly active users
6 days ago
Last modified
Categories
Share
AI Actor Template - Web Scraper
Template per creare rapidamente actor Apify di web scraping guidati da AI (Claude Code).
Come Funziona
- Compila
PROMPT.mdcon le direttive del tuo scraper (URL target, selettori HTML, paginazione, struttura dati) - Chiedi a Claude Code: "Leggi PROMPT.md e genera l'actor"
- Claude Code legge le direttive, modifica il codice, aggiorna gli schema e genera un actor completo
Quick Start
1. Compila il Prompt
Apri PROMPT.md e compila le sezioni:
| Sezione | Cosa Inserire |
|---|---|
| Informazioni Generali | Nome, descrizione, sito target |
| URL di Partenza | URL della pagina lista/catalogo |
| Struttura HTML Lista | Come sono fatti gli items nella pagina elenco |
| Paginazione | Tipo e formato URL delle pagine |
| Pagina Dettaglio | Struttura HTML della pagina singola |
| Struttura Output | Campi JSON da estrarre |
| Regole Speciali | Headers, rate limiting, anti-bot |
2. Genera l'Actor con AI
# In Claude Code, chiedi:"Leggi PROMPT.md e implementa l'actor di scraping"
Claude Code:
- Legge le direttive da
PROMPT.md - Aggiorna
src/config.pycon nome e costanti - Modifica
src/parsers.pycon i selettori CSS corretti - Aggiorna
.actor/input_schema.jsoncon i parametri input - Aggiorna
.actor/dataset_schema.jsoncon lo schema output - Aggiorna
.actor/actor.jsoncon nome e descrizione
3. Testa Localmente
$apify run
4. Deploy su Apify
apify loginapify push
Struttura del Progetto
.actor/βββ actor.json # Config actor (nome, versione, schema)βββ input_schema.json # Parametri input per Apify Consoleβββ dataset_schema.json # Schema visualizzazione outputβββ output_schema.json # Schema outputsrc/βββ config.py # Configurazione: nome actor, costi, costantiβββ parsers.py # Selettori CSS: listing, detail, paginazioneβββ scraper.py # Logica di scraping (loop pagine + dettaglio)βββ tracking.py # Mixpanel tracking (non modificare)βββ main.py # Entry point actorβββ __main__.py # Runner (non modificare)βββ __init__.py # Package markerPROMPT.md # LE TUE DIRETTIVE (compila questo!)AGENTS.md # Guida per AI agentREADME.md # Questa documentazioneDockerfile # Container imagerequirements.txt # Dipendenze Python
Parametri Input di Default
| Parametro | Tipo | Descrizione | Default |
|---|---|---|---|
start_url | string | URL di partenza per lo scraping | (obbligatorio) |
max_results | integer | Numero massimo risultati (0 = illimitato) | 100 |
include_detail | boolean | Se visitare le pagine di dettaglio | true |
delay_seconds | number | Pausa tra le richieste (secondi) | 0.5 |
proxy_configuration | object | Configurazione proxy | Apify Proxy |
Output di Esempio
{"url": "https://example.com/detail/123","title": "Titolo dell'item","description": "Descrizione completa","price": "β¬ 1.200","images": ["https://example.com/img1.jpg"],"address": "Via Roma 1, Milano","phone": "+39 02 1234567","email": "info@example.com","category": "Categoria","rating": 4.5,"review_count": 23}
Pattern Supportati
Il template supporta i pattern di scraping piu' comuni:
- Lista + Dettaglio: Pagina elenco con link a pagine di dettaglio
- Solo Lista: Tutti i dati visibili nella pagina elenco
- API JSON: Siti che caricano dati via API interna
- Paginazione URL:
?page=1,?page=2, ... - Paginazione Next: Link "pagina successiva"
Tecnologie
- Python 3.13 - Linguaggio
- Apify SDK - Framework actor
- BeautifulSoup4 + lxml - Parsing HTML
- httpx - Client HTTP async
- Sentry - Error tracking
- Mixpanel - Analytics
Consigli
- Testa con
max_results: 10prima di scraping completi - Usa
delay_seconds: 1per siti con rate limiting - Abilita proxy per scraping su larga scala
- Programma esecuzioni periodiche per dati aggiornati