Qu’est-ce qu’un crawler ?

Un crawler, ou scraper, est un outil qui permet d'obtenir le contenu (généralement textuel) d'une page web afin d'appliquer des traitements d'analyse. On se place évidemment dans l'optique d'une automatisation, c'est-à-dire d'une collecte à large échelle, sinon un simple copier/coller depuis l'affichage d'une page web fera l'affaire. Mais si vous...