Je veux télécharger la page Web http://www.codeproject.com/kb /tips/modelviewcontroller.aspx en utilisant wget strong>, donc j'ai simplement utilisé la commande vraiment basique: p>
Ce que j'ai reçu était un fichier avec l'extension Comment puis-je télécharger cette page Web? P> wget http://www.codeproject.com/kb/tips/modelviewcontroller.aspx code> p>
.aspx code>, qui n'a pas pu être affichée correctement dans un navigateur régulier. P>
3 Réponses :
Le fichier affichera réellement correctement, vous pouvez la renommer à un fichier .html et vous pourrez le confirmer. La technologie côté serveur utilisé par le serveur Web ne fait pas d'effet wget p>
EDIT: Mes commentaires ci-dessous C'était faux, merci pour le commentateur de le pointer, les avez supprimés pour les futurs lecteurs p>
C'est incorrect, wget code> peut le faire assez facilement (
-p --convert-liens code>, cette fonctionnalité existe depuis des années). Notez également que Wget peut faire le changement de renommage pour vous (
-E code>). Voir le manuel: gnu.org/software/wget/manual/ wget.html # avancé-usage
@Haz, j'ai fait cette chose de renommage, mais comme je l'ai dit dans le commentaire sur la réponse de @piskvor, le code mettant en évidence et plusieurs images sont perdues et la police terrible.
@ Piskvor, en utilisant l'option -P et --convert-liens (équivalent to -k), tout ce que je reçois est un dossier contenant des fichiers liés à la page téléchargée, mais il existe toujours un fichier d'extension ASPX qui a le même problème , je n'ai pas pu trouver une belle page HTML normale après avoir creusé le dossier.
@Trachy: Eh bien, avez-vous essayé, tu sais, combinant i> les commutateurs? -E -P -P --Convert-links code> (et BTW, il y a plus de bonnes choses dans ce manuel)
@Piskvor, semble avoir manqué l'option -E, désolé pour ça et je suis vraiment apprécié de votre aide!
La permission de la page manuelle WGET (premier Résultat d'une recherche sur le Web sur "Options wget", BTW): Si vous souhaitez également télécharger tous les médias associés (CSS, images, etc.), utilisez -p < / Code>, éventuellement avec
- liens convertis code> (réécrire la page pour la visualisation hors connexion): p>
J'ai essayé votre réponse, il semble que Wget télécharge simplement la page et ajoute le suffixe dans HTML B>, ne pouvait toujours pas afficher correctement la page téléchargée "HTML", bien que mieux que de ne rien faire, plus précisément, en surbrillance et Plusieurs images sont perdues.
@Trachy: Vous n'avez pas mentionné que vous souhaitiez également télécharger les images associées et autres données.
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains example.org \ --no-parent \ www.example.org/tutorials/html/ from this page : http://www.linuxjournal.com/content/downloading-entire-web-site-wget