1 votes

Sauvegarder une page web entière, avec toutes les images et les css, dans un seul dossier et un seul fichier, avec wget ?

Existe-t-il un moyen d'imiter la fonction "Enregistrer - sous" dans un navigateur avec wget ?

Lorsque j'enregistre une page web dans un navigateur, j'obtiens un dossier contenant les actifs (images, js, css) et le fichier index, qui contient le nom de la page :

Nov 28 reddit: the front page of the internet_files
Nov 28 reddit: the front page of the internet.html

Mais quoi qu'il en soit, lorsque j'utilise wget, j'obtiens quelque chose comme ça :

Nov 28  a.thumbs.redditmedia.com
Nov 28  b.thumbs.redditmedia.com
Nov 28  m.reddit.com
Nov 28  out.reddit.com
Nov 28  reddit.com
Nov 28  www.reddit.com
Nov 28  www.redditstatic.com

J'ai essayé de les utiliser :

wget -E -H -k -K -p https://reddit.com
wget -r -x -mirror https://reddit.com

et j'ai trouvé ça : wget -E -H -k -p -e robots=off https://www.reddit.com

mais tous ont créé plusieurs dossiers ou n'ont pas téléchargé tout ce qui était nécessaire pour afficher la page hors ligne.

Comment dois-je m'y prendre ?

0voto

AmigoJack Points 101

Toi/WGET ne peuvent pas. Il peut télécharger toutes les ressources liées en un seul téléchargement, mais il en résulterait de multiples dossiers en raison de sa nature d'exploration et non d'interprétation (et il n'est pas non plus lié à HTTP).

En outre, votre impression est trop étroite : il existe des navigateurs web qui peuvent sauvegarder des pages dans des fichiers/archives MHT, ce qui est même une norme - cf. https://en.wikipedia.org/wiki/MHTML

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X