Je veux télécharger un site web entier (avec des sous-sites). Existe-t-il un outil pour cela ?
Réponses
Trop de publicités?Essayez l'exemple 10 de aquí :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
-
–mirror
: activer les options adaptées pour la mise en miroir. -
-p
: télécharger tous les fichiers qui sont nécessaires pour afficher correctement une page page HTML donnée. -
--convert-links
: après le téléchargement, convertissez les liens en document pour une visualisation locale. -
-P ./LOCAL-DIR
sauvegarder tous les fichiers et les répertoires dans le répertoire spécifié.
httrack est l'outil que vous recherchez.
HTTrack vous permet de télécharger un site World Wide Web depuis l'Internet vers un répertoire local, en construisant récursivement tous les répertoires, en récupérant le HTML, les images et autres fichiers du serveur vers votre ordinateur. HTTrack organise la structure relative des liens du site original.
WEBHTTRACK COPIEUR DE SITES WEB est un outil pratique pour télécharger un site web entier sur votre disque dur pour une navigation hors ligne. Lancez le centre logiciel ubuntu et tapez "webhttrack website copier" sans les guillemets dans la boîte de recherche. sélectionnez et téléchargez le depuis le centre logiciel sur votre système. démarrez le webHTTrack depuis le laucher ou le menu démarrer, à partir de là vous pouvez commencer à profiter de cet outil formidable pour vos téléchargements de sites.
Je ne connais pas les sous-domaines, c'est-à-dire les sous-sites, mais wget peut être utilisé pour récupérer un site complet. Jetez un coup d'œil au cette question de superutilisateur . Il est dit que vous pouvez utiliser -D domain1.com,domain2.com
pour télécharger différents domaines en un seul script. Je pense que vous pouvez utiliser cette option pour télécharger des sous-domaines, à savoir -D site1.somesite.com,site2.somesite.com
- Réponses précédentes
- Plus de réponses