Pricing
Pay per usage
0.0 (0)
Pricing
Pay per usage
1
5
2
Last modified
4 months ago
Pricing
Pay per usage
0.0 (0)
Pricing
Pay per usage
1
5
2
Last modified
4 months ago
startUrlsarrayRequired
URLs à partir desquelles commencer le crawling. Le robot suivra automatiquement les liens importants (contact, mentions légales, etc.)
maxRequestsPerCrawlintegerOptional
Nombre maximum de pages à visiter au total
Default value of this property is 30
maxDepthintegerOptional
Profondeur maximale de navigation (0 = page d'accueil uniquement, 1 = + liens directs, 2 = + liens de niveau 2)
Default value of this property is 2
maxPagesPerDomainintegerOptional
Nombre maximum de pages à crawler par domaine
Default value of this property is 20
followImportantLinksbooleanOptional
Suivre automatiquement les liens vers les pages contact, mentions légales, équipe, etc.
Default value of this property is true
excludePatternsarrayOptional
Extensions ou mots à exclure des emails trouvés
Default value of this property is ["jpg","png","pdf","gif","jpeg","svg","ico","webp"]
targetSelectorsarrayOptional
Sélecteurs CSS supplémentaires pour cibler des zones spécifiques (ex: '.company-info', '#team-section')
Default value of this property is []
includeGenericEmailsbooleanOptional
Inclure les emails comme info@, contact@, support@ (généralement exclus par défaut)
Default value of this property is false
waitForSelectorstringOptional
Sélecteur CSS à attendre avant d'extraire les emails (utile pour les sites avec du JavaScript)
customUserAgentstringOptional
User-Agent à utiliser pour les requêtes HTTP
respectRobotsTxtbooleanOptional
Respecter les directives du fichier robots.txt du site
Default value of this property is true
delayBetweenRequestsintegerOptional
Délai en millisecondes entre chaque requête pour éviter la surcharge du serveur
Default value of this property is 1000
exportFormatEnumOptional
Format de sortie des résultats
"json": string"csv": string"txt": stringDefault value of this property is "json"