Comment puis-je télécharger toutes les pages d'un site web ?
N'importe quelle plateforme convient.
Comment puis-je télécharger toutes les pages d'un site web ?
N'importe quelle plateforme convient.
HTTRACK fonctionne à merveille pour copier le contenu d'un site entier. Cet outil peut même saisir les éléments nécessaires pour faire fonctionner hors ligne un site Web dont le contenu est en code actif. Je suis étonné de voir tout ce qu'il peut reproduire hors ligne.
Ce programme fera tout ce que vous lui demanderez.
Bonne chasse !
Vous pouvez également limiter la vitesse de téléchargement afin de ne pas utiliser trop de bande passante au détriment de tous les autres.
Wget est un outil classique de ligne de commande pour ce type de tâche. Il est fourni avec la plupart des systèmes Unix/Linux, et vous pouvez l'obtenir à l'adresse suivante pour Windows aussi. Sur un Mac, Homebrew est le moyen le plus simple de l'installer ( brew install wget
).
Vous feriez quelque chose comme :
wget -r --no-parent http://site.com/songs/
Pour plus de détails, voir Manuel de Wget et son exemples ou, par exemple, ceux-ci :
+1 pour l'inclusion de --no-parent. utilisez définitivement --mirror au lieu de -r. et vous pourriez vouloir inclure -L/--relative pour ne pas suivre les liens vers d'autres serveurs.
Je ne pense pas avoir utilisé --mirror moi-même, donc je ne l'ai pas mis dans la réponse. (Et c'est no vraiment complètement "auto-explicatif" comme le dit la réponse de Paul...) Si vous voulez expliquer pourquoi c'est mieux que -r, j'apprécierais !
Utilisez wget :
wget -m -p -E -k www.example.com
Les options expliquées :
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
-np, --no-parent Don't ascend to the parent directory when retrieving
recursively. This guarantees that only the files below
a certain hierarchy will be downloaded. Requires a slash
at the end of the directory, e.g. example.com/foo/.
+1 pour avoir fourni les explications pour les options suggérées. (Bien que je ne pense pas que --mirror
est très explicite. Voici un extrait de la page de manuel : " Cette option active la récursion et l'horodatage, définit une profondeur de récursion infinie et conserve les listes des répertoires FTP. Elle est actuellement équivalente à -r -N -l inf --no-remove-listing ")
Si vous ne voulez pas tout télécharger dans un dossier portant le nom du domaine que vous voulez mettre en miroir, créez votre propre dossier et utilisez l'option -nH (qui ignore la partie hôte).
Gestionnaire de téléchargement Internet dispose d'un utilitaire Site Grabber doté de nombreuses options - qui vous permet de télécharger complètement n'importe quel site Web, de la manière dont vous le souhaitez.
Vous pouvez fixer une limite à la taille des pages/fichiers à télécharger.
Vous pouvez définir le nombre de sites de succursales à visiter.
Vous pouvez modifier le comportement des scripts/popups/duplicates.
Vous pouvez spécifier un domaine, et ce n'est que sous ce domaine que toutes les pages/fichiers répondant aux paramètres requis seront téléchargés.
Les liens peuvent être convertis en liens hors ligne pour la navigation.
Vous disposez de modèles qui vous permettent de choisir les paramètres ci-dessus pour vous
Le logiciel n'est cependant pas gratuit - pour voir s'il répond à vos besoins, utilisez la version d'évaluation.
Vous devriez jeter un coup d'œil à ScrapBook une extension pour Firefox. Elle dispose d'un mode de capture approfondie .
SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.
2 votes
Vérifiez serverfault.com/questions/45096/website-backup-and-download sur Server Fault.
0 votes
@tnorthcutt, je suis aussi surpris. Si je ne me trompe pas, ma réponse à Wget était la réponse acceptée, et cela semblait être une chose établie. Je ne me plains pas pour autant - tout d'un coup, le regain d'attention m'a donné plus que la valeur de la prime en termes de réputation :P
0 votes
Avez-vous essayé IDM ? superuser.com/questions/14403/ mon message est enterré. Qu'est-ce qui vous a manqué dans IDM ?
5 votes
@joe : Cela pourrait aider si vous donniez des détails sur les fonctionnalités manquantes...
0 votes
browse-offline.com peut télécharger l'arborescence complète du site web afin que vous puissiez ... le parcourir hors connexion
0 votes
@MenelaosVergis browse-offline.com a disparu.
0 votes
Oui, je n'ai même pas le code pour ça !
0 votes
Juste FYI s'il vous plaît escroquerie !!! ne pas télécharger à partir de websitedownloader.io il demandera un petit montant, qui semblera convaincant mais ne téléchargera qu'une page web, ne fonctionne même pas pour les sites web simples.
0 votes
Essayez Cyotek le meilleur scraper de pages web pour une visualisation hors ligne.