Joo en tiedä onko tämä oikea alue mutta laitan sen tänne. Elikkäs minun pitäisi tallentaa tämä http://69.41.171.43 ja sitten http://wow.allakhazam.com tämä. Siis ihan kokonaan: Kaikki kuvat ja jokainen sivu mitä tuosta paikasta irtoaa. Kiitoksia avusta!
Wget toimii myös ainakin joillain sivuilla. Ja löytyy myös linuxeihin, vaikka ilmeisesti Windows-ohjelmaa tässä haettiin.
Saiskos pienen rautalanka väännön mitä httrack varsinaisesti tekee. Tallentaa web sivun + alasivut ja linkit valinnan mukaan? Ja onko suomi kieli mukana vai pitääkö hakea jostain, Mika kuulema kääntänyt.
Itse olen käyttänyt tuota lähinnä kuvien ja videoiden lataamiseen sivustolta eli käyttänyt tuota kohtaa get separated files ja sitten asetuksiin määritellyt n+1 sääntöä miten nuo ladataan. Tärkeimmät ehkä se että pysyy samalla palvelimella, kuinka monta porrasta seuraa linkkejä alaspäin ja että jättää robots.txt-filun huomioimatta. Kyllä tuolla pitäisi onnistua myös koko sivun peilaaminen tuolla Download website(s)-valinnalla, mutta itse en ole tätä koskaan kokeillut...