6
votes

wget Télécharger la page ASPX

Je veux télécharger la page Web http://www.codeproject.com/kb /tips/modelviewcontroller.aspx en utilisant wget , donc j'ai simplement utilisé la commande vraiment basique:

wget http://www.codeproject.com/kb/tips/modelviewcontroller.aspx

Ce que j'ai reçu était un fichier avec l'extension .aspx , qui n'a pas pu être affichée correctement dans un navigateur régulier.

Comment puis-je télécharger cette page Web?


0 commentaires

3 Réponses :


0
votes

Le fichier affichera réellement correctement, vous pouvez la renommer à un fichier .html et vous pourrez le confirmer. La technologie côté serveur utilisé par le serveur Web ne fait pas d'effet wget

EDIT: Mes commentaires ci-dessous C'était faux, merci pour le commentateur de le pointer, les avez supprimés pour les futurs lecteurs


5 commentaires

C'est incorrect, wget peut le faire assez facilement ( -p --convert-liens , cette fonctionnalité existe depuis des années). Notez également que Wget peut faire le changement de renommage pour vous ( -E ). Voir le manuel: gnu.org/software/wget/manual/ wget.html # avancé-usage


@Haz, j'ai fait cette chose de renommage, mais comme je l'ai dit dans le commentaire sur la réponse de @piskvor, le code mettant en évidence et plusieurs images sont perdues et la police terrible.


@ Piskvor, en utilisant l'option -P et --convert-liens (équivalent to -k), tout ce que je reçois est un dossier contenant des fichiers liés à la page téléchargée, mais il existe toujours un fichier d'extension ASPX qui a le même problème , je n'ai pas pu trouver une belle page HTML normale après avoir creusé le dossier.


@Trachy: Eh bien, avez-vous essayé, tu sais, combinant les commutateurs? -E -P -P --Convert-links (et BTW, il y a plus de bonnes choses dans ce manuel)


@Piskvor, semble avoir manqué l'option -E, désolé pour ça et je suis vraiment apprécié de votre aide!



4
votes

La permission de la page manuelle WGET (premier Résultat d'une recherche sur le Web sur "Options wget", BTW): xxx

Si vous souhaitez également télécharger tous les médias associés (CSS, images, etc.), utilisez -p < / Code>, éventuellement avec - liens convertis (réécrire la page pour la visualisation hors connexion): xxx


2 commentaires

J'ai essayé votre réponse, il semble que Wget télécharge simplement la page et ajoute le suffixe dans HTML , ne pouvait toujours pas afficher correctement la page téléchargée "HTML", bien que mieux que de ne rien faire, plus précisément, en surbrillance et Plusieurs images sont perdues.


@Trachy: Vous n'avez pas mentionné que vous souhaitiez également télécharger les images associées et autres données.



0
votes
$ wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains example.org \
     --no-parent \
         www.example.org/tutorials/html/
from this page : http://www.linuxjournal.com/content/downloading-entire-web-site-wget

0 commentaires