[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

wget gibt es jetzt fuer Win95



Das in der Unix-Welt bekannte und sehr beliebte Programm Wget (www get) gibt
es jetzt fuer die Windows 95 Konsole. Konsole bedeutet bei Windows 95 Textmodus
also Dosbox. Wget ist ein Web-Roboter, d. h. es surft automatisch durchs www
und holt einem nach bestimmten Kriterien die Seiten auf die heimische Platte.
Diese kann man sich dann offline ansehen. Vielleicht erinnert Ihr euch an ein
aehnliches Feature von Lynx, ueber welches ich vor kurzem berichtet habe. Bei
Lynx ist dieses Feature jedoch nur als Zugabe zu sehen, die laengst nicht
ausgereift ist und in vielen Faellen auch versagt, weil man die Kriterien nicht
genau genug angeben kann, nachdenen entschieden werden soll, ob eine bestimmte
Seite geholt werden soll oder nicht. Ausserdem holt Lynx die Seiten gleich als
Ascii und nicht als Html-Dokumente. Dadurch fehlen die Links in den
Dokumenten. Ferner holt lynx auf diese Weise keine Binaerdateien. So ist es z.
B. nicht moeglich, mit einem Schlag ein ganzes ftp-Unterverzeichnis also *.* zu
holen. Multimediale Erweiterungen einer Html-Seite wie Images und
Sound-Dateien werden von Lynx ebenfalls ignoriert.
 
Da Wget speziell fuers Mirroring also zum Spiegeln eines Servers auf einem
anderen Server entwickelt wurde, kennt es diese Probleme nicht. Es ist
sozusagen ein Kopier-Programm fuer die Protokolle Http und Ftp. Proxy-Variablen
werden ausgewertet, Die Rekursionstiefe laesst sich angeben etc... Man bekommt
die Win32-Version unter http://www.interlog.com/~tcharron/wgetwin.html.
Es gibt mittlerweile zwei Versionen die portiert wurden naemlich 1.4.2 und
1.4.5. Die Hinweise findet man unter obiger Adresse. Es lohnt sich, den
nachfolgenden Auszug aus der Dokumentation zu lesen. Das Programm ist wirklich
klasse. Es laesst sich auch sehr gut mit lynx32 kombinieren, indem man es als
externen Downloader einsetzt. Dadurch kann der Download im Hintergrund
erfolgen, waehrend Lynx32 im Fordergrund verbleibt. Okay statt dessen kann man,
wenn es nur um den Download geht, natuerlich auch eine zweite Lynx-Session
aufmachen.
 
Ich mache mir z. Z. gedanken darueber, ob ich es nicht nach Dos also
auf wattcp portieren sollte.
 
readme.win
----------
After spending some time looking at the various options available for
a Windows machine to copy a few web pages to a local PC, I gave up and
decided to write what I needed in C.  As I started on this, I came across
wget for the unix environment.  Since it was far more feature rich than
what I was planning, I decided to port it over to the Windows platform.
 
WGET is a command line tool to copy remote ftp/http files to the local
machine.  It it non-interactive, and supports recursion.  It has configurable
retry and recursion depth options.
 
Wget was written by Hrvoje Niksic (hniksic_bEi_srce.hr).  I have only ported
this to run under Win95/NT.  Please direct any questions appropriately.
I can be reached at tcharron_bEi_interlog.com.  This Windows version is
available via my homepage at http://www.interlog.com/~tcharron/.
The unix distribution is available at
ftp://sunsite.auc.dk/pub/infosystems/wget/.
 
Wget is distributed under the GNU general public license.  See the
COPYING file for details
 
The original documentation is in the 'old' subdirectory.  Since its in
unix format files, I've summarized some of the options here.
 
The following are valid URLs:
http://host[:port]/path
http://fly.cc.fer.hr/
ftp://ftp.xemacs.org/pub/xemacs/xemacs-19.14.tar.gz
ftp://username:password_bEi_host/dir/file
hostname(:port)/dir/file (HTTP only)
hostname:/dir/file (FTP only)
ftp://user:password_bEi_host/dir/file (to specify user/password)
 
Typically, you would just run 'wget http://www.interlog.com/~tcharron/' to
download a remote page.  Many command line options are supported.  You
don't usually need any, but here are some of them:
 
-h              help
-V              diaplay version
-v              verbose output
-q              quiet mode
-i filename     read url listing from 'filename'
-o logfile      Output log information to 'logfile'
-a logfile      Like -o, but appends output
-t retry        Specify number of retries (0 is infinite)
-f              Follow ftp links from http documents
-c              Continue FTP download from where it left off
-g on/off       globbing -- Enable use of wildcards in URL names
-N              timestamping should be used to determine if document
                needs to be downloaded (UNTESTED)
-r              Enable recursive downloading
-l              Set recursion depth level (default depth is 3)
-H              Enable spanning across hosts when doing recursive downloads
-L              Follow only relative links
-D domain-list  Set domains to be accepted and DNS looked-up
-A acclist      Comma-separated list of extensions to accept/reject
-R rejectlist   (see -A)
-X list         List of directories to exclude from FTP fetching
-P prefix       Sets the directory where everything will be saved to
-p              If set, then all files will nave a '.n' extension
-T value        Timeout value (default 900 seconds)
-Y on/off       Turn proxy on or off (uses http_proxy/ftp_proxy environment
                variables to find proxy servers)
-Q quota[KM]    Set download quota in bytes [or kilobytes or megabytes]
-O filename     All output will be appended to 'filename'
-S              Print headers sent by the http/ftp servers
-s              Save headers sent by the http server before the actual data
-nc             No Clobber.  When using recursive downloads, local files
                that already exist will be read and used as if they
                had been downloaded
-nv             Turn off verbose mode (but not completely quiet)
-nd             Recursive downloads will all be saved to the current dir
-x              Force directory creation (opposite of -nd)
-nh             Disable DNS lookup of almost all hosts
-nH             Disable host-prefixed directories
-k              Convert the non-relative links to relative ones locally