Le site www.example.com doit être aspiré pour une lecture hors ligne. Cela signifie que toutes les pages doivent être converties en .html, les images téléchargées et les liens reconstruits en relatif.

wget -k -r -l0 -E -p http://www.example.com se charge de l'action.

Après, on peut venir voir les pages en utilisant l'URL file:///home/USER/.../www.example.com/index.html

Si un fichier robots.txt interdit d'aspirer le site avec Wget, on peut mettre l'option -e robots=off pour passer au dessus de cette interdiction.