Pricing
Pay per usage
Pricing
Pay per usage
startUrls
arrayRequired
URLs à partir desquelles commencer le crawling. Le robot suivra automatiquement les liens importants (contact, mentions légales, etc.)
maxRequestsPerCrawl
integerOptional
Nombre maximum de pages à visiter au total
Default value of this property is 30
maxDepth
integerOptional
Profondeur maximale de navigation (0 = page d'accueil uniquement, 1 = + liens directs, 2 = + liens de niveau 2)
Default value of this property is 2
maxPagesPerDomain
integerOptional
Nombre maximum de pages à crawler par domaine
Default value of this property is 20
followImportantLinks
booleanOptional
Suivre automatiquement les liens vers les pages contact, mentions légales, équipe, etc.
Default value of this property is true
excludePatterns
arrayOptional
Extensions ou mots à exclure des emails trouvés
Default value of this property is ["jpg","png","pdf","gif","jpeg","svg","ico","webp"]
targetSelectors
arrayOptional
Sélecteurs CSS supplémentaires pour cibler des zones spécifiques (ex: '.company-info', '#team-section')
Default value of this property is []
includeGenericEmails
booleanOptional
Inclure les emails comme info@, contact@, support@ (généralement exclus par défaut)
Default value of this property is false
waitForSelector
stringOptional
Sélecteur CSS à attendre avant d'extraire les emails (utile pour les sites avec du JavaScript)
customUserAgent
stringOptional
User-Agent à utiliser pour les requêtes HTTP
respectRobotsTxt
booleanOptional
Respecter les directives du fichier robots.txt du site
Default value of this property is true
delayBetweenRequests
integerOptional
Délai en millisecondes entre chaque requête pour éviter la surcharge du serveur
Default value of this property is 1000
exportFormat
EnumOptional
Format de sortie des résultats
"json": string"csv": string"txt": string
Default value of this property is "json"