Neuvokaas joku miten joidenkin sivujen koko sisällön sais imettyyn? Tarkotus olis siis ottaa kyseiseltä sivustolta kaikki tiedot niin että ne sais poltettua CD:lle.
Mitähän tietoa oot ottamas? Tekstiä, kuvia, videoita..... vai haluatko tallentaa jonkun saitin sivunäkymän vai mitä....
joo,no siellä on kuvia ja tekstejä. kyseinen sivusto julkasee viikossa useita artikkeleita ja haluaisin ne kaikki polttaa,,jostain vuodesta -98.eli tietoja on runsaasti.
Oletkos kuullut ikinä hakukoneista...?? Kokeileppa kirjoittaa esim. googleen hakusanaksi wget... EDIT: typo
wgetillä onnnistuin kerran latuuttamaan puolet www.tampere.fi:n sisällöstä, kun vain bussiaikataulut olisivat riittäneet. Ohjelmaan tutustumalla voit tehdä scriptin joka hakee suoritettaessa sivustolta kaikki uudet tiedostot tiettyyn hakemistoon.
joo,nyt kun oppis vielä käyttämään Wgettiä..löytyskö yksinkertaista opasta mistään? mielellään suom kielistä.
HTTrackillä ainaki pitäs saada. Kunhan laitoin. http://www.onlythebestfreeware.com/program.asp?program_id=44
..täältä myös ääni HTTrackille. Hieman voi olla monimutkainen aluksi, mutta ainakin säädettävää riittää myös hieman monimutkaisempiin projekteihin.
Itse joskus käytin sellaista kuin Webreaper. Tosin tuollakin saa helposti imaistua "vähän" ylimääräistä jos vaan heittää urlin paikalleen ja nappasee enteriä.