8
votes

Scraper et convertir le site Web en HTML?

Je ne l'ai pas fait dans 3 ou 4 ans, mais un client souhaite dégrader leur site Web dynamique dans HTML statique.

Y a-t-il des outils gratuits pour analyser un domaine et générer des fichiers HTML de travail pour rendre ce rapide et indolore?

Edit: C'est un site Web de ColdFusion, si cela importe.


1 commentaires

Le problème est qu'ils ne paient pas pour que cela soit fait, donc quel que soit le moyen le plus rapide sans écrire de code / ssh, afin que je puisse le faire tout en travaillant sur le travail rémunéré.


3 Réponses :


2
votes

Cela fait longtemps que je l'ai utilisé, mais WebZip était assez bon .

Ce n'est pas gratuit, mais pour 35,00 $, je pense que votre client ne sera pas rompu.

Un rapide Google pour les navigateurs hors ligne est venu avec Ceci et Ce qui a l'air bien.


0 commentaires

9
votes

Essayez d'utiliser htttrack (ou WebhTrack / winhttrack , si vous voulez une interface graphique) d'arpider le site Web. C'est gratuit, rapide et fiable. Il est également beaucoup plus puissant que les téléchargeurs primitifs tels que wget ; htttrack est conçu pour la mise en miroir des sites Web.

Sachez que la conversion d'une page dynamique en statique vous perdra beaucoup de fonctionnalités. Il n'est également pas toujours possible - un site dynamique peut présenter un nombre infini de différentes pages statiques.


3 commentaires

Je n'appelerais pas wget primitif.


@strager: OK Alors, "relativement primitif". Il s'agit d'un ensemble de fonctionnalités beaucoup plus restreints lorsqu'il s'agit de mettre en miroir des sites.


Je ne sais pas si cela peut faire tout ce que HTTrack fait, mais ne sous-estimez pas wget -mirror ! Cela peut faire un lot de choses.



10
votes

getleft est un bon client Windows qui peut faire cela. Il est très configurable et fiable.

wget peut aussi, avec l'option - miroir .


0 commentaires