4 votes

Sauvegarde récursive de pages web

Est-il possible d'enregistrer récursivement toutes les pages du web qui dépendent d'une page particulière ? Ou dois-je toujours les enregistrer une par une ?

0 votes

Quel système d'exploitation utilisez-vous ?

9voto

wget -m http://www.example.com/

Pour plus d'informations, voir man wget :

-m --mirror Turn on options suitable for mirroring.
            This option turns on recursion and time-stamping,
            sets infinite recursion depth and keeps FTP directory listings.
            It is currently equivalent to -r -N -l inf --no-remove-listing.

1 votes

Je suis un débutant, pouvez-vous m'expliquer ?

0 votes

De la page de manuel : -m --mirror Active les options adaptées à la mise en miroir. Cette option active la récursion et l'horodatage, définit une profondeur de récursion infinie et conserve les listes des répertoires FTP. Elle est actuellement équivalente à -r -N -l inf --no-remove-listing.

1 votes

wget est un programme Linux / Unix pour le téléchargement de pages web.

5voto

Andy Points 3009

Quand j'en ai eu besoin, j'ai trouvé HTTrack pour être efficace, facile à utiliser et assez complet sur les options.

HTTrack est un utilitaire de navigation hors ligne gratuit (GPL, libre/libre) et facile à utiliser.

Il vous permet de télécharger un site World Wide Web depuis Internet vers un répertoire local, en construisant récursivement tous les répertoires, en récupérant les fichiers HTML, les images et les autres fichiers du serveur vers votre ordinateur. HTTrack organise la structure relative des liens du site original. Il suffit d'ouvrir une page du site web "miroir" dans votre navigateur, et vous pouvez parcourir le site de lien en lien, comme si vous le regardiez en ligne. HTTrack peut également mettre à jour un site miroir existant et reprendre les téléchargements interrompus. HTTrack est entièrement configurable et dispose d'un système d'aide intégré.

WinHTTrack est la version Windows 2000/XP/Vista/Seven de HTTrack, et WebHTTrack la version Linux/Unix/BSD.

enter image description here

1voto

matthew Points 31

C'est possible en utilisant un logiciel qui peut explorer la page. J'aime utiliser l'araignée HTML de Free Download Manager qui peut télécharger une page et vous pouvez spécifier combien de niveaux de profondeur vous voulez qu'elle atteigne.

0voto

the0roamer Points 1022

Oui, c'est possible en utilisant des outils conçus à cet effet : Internet Download Manager (IDM) et Offline Explorer. Avec ces outils, vous pouvez même télécharger l'ensemble du site Web pour l'explorer hors ligne ou simplement télécharger une page avec des liens dépendants.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X