Provided by: manpages-pl_20060617-3_all bug

NAZWA

       wget - Podrcznik GNU Wget

SK/L/LADNIA

       wget [opcja]... [URL]...

OPIS

       GNU Wget jest darmowym programem narzdziowym do pobierania plikow z
       World Wide Web. Obsluguje protokoly HTTP, HTTPS i FTP, a take
       pobieranie poprzez serwery proxy HTTP.

       Wget potrafi poda za odnonikami zawartymi w stronach HMTL i tworzy
       lokalne wersje zdalnych witryn WWW, w pelni odtwarzajc struktur
       katalogow oryginalnego orodka. Jest to czasami nazywane ,,pobieraniem
       rekurencyjnym''. Podczas takiego dzialania Wget respektuje ustalenia
       Standardu Robot Exclusion (/robots.txt). Moliwe jest poinstruowanie
       programu, by w pobieranych plikach HTML przeksztalcal odnoniki tak, aby
       wskazywaly na lokalne kopie, do przegldania bez polczenia.

       Wget zostal zaprojektowany tak, by dziala solidnie rownie przy
       powolnych bd niestabilnych polczeniach. Jeeli pobieranie nie udaje si z
       powodu problemow z sieci, ponawia proby a do cignicia caloci pliku.
       Jeli dany serwer obsluguje tak moliwo, Wget nakae kontynuacj pobierania
       od miejsca, w ktorym przerwano.

OPCJE

       Podstawowe opcje uruchamiania

       -V
       --version
           Wywietla wersj Wget.

       -h
       --help
           Wypisuje komunikat pomocy, opisujcy wszystkie opcje, jakie mona
           przekaza Wget w wierszu polece.

       -b
       --background
           Przechodzi w tlo natychmiast po rozpoczciu pracy.  Jeli nie podano
           pliku wyjciowego za pomoc -o, wyjcie jest przekierowywane do wget-
           log.

       -e polecenie
       --execute polecenie
           Wykonuje polecenie tak, jakby bylo czci .wgetrc.  Polecenie
           wywolane w ten sposob zostanie wykonane po poleceniach z .wgetrc,
           wic bdzie mie nad nimi priorytet.

       Opcje dziennika i pliku wejciowego

       -o dziennik
       --output-file=dziennik
           Rejestruje wszystkie komunikaty w pliku dziennika.  Normalnie s
           zglaszane na standardowym wyjciu bldow.

       -a dziennik
       --append-output=dziennik
           Dodaje komunikaty na kocu pliku dziennika.  Jest to to samo, co -o,
           tyle e dopisuje do dziennika zamiast nadpisywa stary.  Jeli plik
           dziennik nie istnieje, jest tworzony.

       -d
       --debug
           Wlcza wyjcie diagnostyczne, czyli wypisywanie rozmaitych informacji
           wanych dla tworcow Wget, gdy nie dziala on poprawnie.
           Administrator twojego systemu mogl skopilowa Wget bez obslugi trybu
           usuwania bldow, wowczas -d nie bdzie dziala.  Naley zauway, e
           kompilacja z obslug diagnostyki jest zawsze bezpieczna -- Wget
           skompilowany w ten sposob nie bdzie wypisywal adnych informacji
           diagnostycznych dopoki nie zadamy tego opcj -d.

       -q
       --quiet
           Tryb cichy. Wylcza wyjcie Wget.

       -v
       --verbose
           Pelne wyjcie, z wszystkimi dostpnymi danymi.  Jest to opcja
           domylna.

       -nv
       --non-verbose
           Niepelne wyjcie -- wylcza pelne wyjcie, ale nie ucisza calkowicie
           (to robi si opcj -q); komunikaty o bldach i podstawowe informacje
           bd nadal wypisywane.

       -i plik
       --input-file=plik
           Czyta URL-e z pliku wejciowego plik, w zwizku z czym nie trzeba ich
           podawa w wierszu polece.  Jeli URL-e podano zarowno w wierszu
           polece, jak i w pliku wejciowym, to pierwsze zostan pobrane pliki
           wymienione w wierszu polece.  Plik nie musi by dokumentem HTML (ale
           nie przeszkadza, jeli nim jest) -- wystarczy, e URL-e bd po prostu
           kolejno spisane.

           Jednake jeli zostanie podana opcja --force-html, to plik bdzie
           traktowany jak dokument html.  Mog si wowczas pojawi klopoty z
           odnonikami wzgldnymi, ktore mona rozwiza dodajc "<base href="url">"
           do pliku lub podajc --base=url w wierszu polece.

       -F
       --force-html
           Kiedy wejcie jest czytane z pliku, wymusza aby bylo traktowane jako
           HTML.  Pozwala to na pobieranie wzgldnych odnonikow z istniejcych
           plikow HTML znajdujcych si na lokalnym dysku naszego komputera,
           przez dodanie znacznika "<base href="url">" do pliku HTML lub uycie
           opcji --base.

       -B URL
       --base=URL
           Uyte w polczeniu z -F, stosuje URL jako podstaw dla odnonikow
           wzgldnych w pliku podanym przez -i.

       Opcje cigania

       --bind-address=adres
           Podczas tworzenia klienckich polcze TCP/IP, wie z lokalnym
           komputerem, przez "bind()", zadany adres. Adres mona poda jako nazw
           hosta lub adres IP.  Moe si przyda jeli nasza maszyna ma przypisane
           kilka adresow IP.

       -t liczba
       --tries=liczba
           Ustawia liczb ponawiania prob na liczb.  Dla nieskoczonego
           ponawiania podajemy 0 lub inf.

       -O plik
       --output-document=plik
           Dokumenty nie bd zapisywane do odpowiednich plikow, ale wszystkie
           zostan sklejone i zapisane do pliku.  Jeli plik istnieje, to
           zostanie nadpisany.  Jeli jako plik podano -, dokumenty bd zapisane
           na standardowe wyjcie.  Wlczenie tej opcji automatycznie ustawia
           liczb prob na 1.

       -nc
       --no-clobber
           Jeli plik jest pobierany wicej ni raz do tego samego katalogu,
           zachowanie si Wget zaley od kilku opcji, midzy innymi -nc.  W
           pewnych przypadkach istniejcy lokalny plik bdzie nadpisany,
           przebity (ang. clobbered), przy powtorzeniu cigania.  W innych
           przypadkach zostanie zachowany.

           Przy uruchomieniu Wget bez opcji -N, -nc lub -r pobranie tego
           samego pliku do tego samego katalogu spowoduje pozostawienie
           pierwotnego egzemplarza pliku i nadanie drugiemu nazwy plik.1.  Gdy
           plik bdzie cigany kolejny raz, trzeci egzemplarz otrzyma nazw
           file.2, i tak dalej.  Przy podanej opcji -nc, zachowanie takie jest
           wstrzymywane, a Wget odmawia pobrania nowszych kopii pliku.
           Dlatego te, ``"no-clobber"'' jest w rzeczywistoci zl nazw dla tego
           trybu -- nie chroni on przed nadpisywaniem (gdy temu zapobiegaj ju
           numeryczne przyrostki), ale przed zachowywaniem wielu wersji pliku.

           Przy uruchomieniu Wget z -r, ale bez -N czy -nc, ponowne cignicie
           pliku powoduje, e nowa kopia po prostu nadpisuje star.  Dodanie -nc
           zapobiega takiemu zachowaniu, skutkujc zamiast tego zachowaniem
           pierwotnej wersji i ignorowaniem ewentualnych nowe kopii z serwera.

           Przy uruchomieniu Wget z -N, z opcj -r lub bez niej, decyzja, czy
           ciga now wersj pliku czy te nie, zaley od znacznikow czasu (dat
           modyfikacji) i rozmiarow lokalnego i zdalnego pliku.  -nc nie mona
           podawa rownoczenie z -N.

           Zauwa, e jeli podano -nc, pliki z przyrostkami .html lub .htm (fuj)
           bd odczytywane z dysku i przetwarzane tak, jakby zostaly pobrane z
           Sieci.

       -c
       --continue
           Kontynuuje pobieranie czciowo cignitego pliku.  Przydatne, gdy
           chcemy dokoczy ciganie rozpoczte lub w poprzednim przebiegu Wget
           lub przez inny program.  Na przyklad:

                   wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

           Jeli w biecym katalogu istnieje plik ls-lR.Z, Wget przyjmie, e jest
           to pocztkowy fragment zdalnego pliku i zada od serwera kontynuacji
           pobierania od offsetu rownego dlugoci lokalnego pliku.

           Zauwa, e nie ma potrzeby podawania tej opcji jeli chcemy tylko, by
           aktualnie wywolany Wget ponownie probowal ciga plik, w polowie
           ktorego zostalo zerwane polczenie.  Jest to zachowanie domylne.
           Opcja -c wplywa tylko na wznawianie pobra zacztych przed biecym
           wywolaniem Wget i tylko dla tych plikow, ktorych lokalne kopie
           nadal istniej.

           Bez -c, polecenie z poprzedniego przykladu pobralby po prostu
           zdalny plik do ls-lR.Z.1, pozostawiajc w spokoju obcity plik ls-
           lR.Z.

           Poczwszy od Wget 1.7, jeli uyjemy -c dla niepustego pliku, a okae
           si, e serwer nie obsluguje kontynuacji cigania, to program odmowi
           rozpoczcia cigania od zera, ktore prowadziloby do zniszczenia
           istniejcej zawartoci.  Jeli naprawd chcemy ciga od pocztku,
           powinnimy usun taki plik.

           Rownie od wersji 1.7, jeli uyjemy -c dla pliku, ktorego rozmiar
           jest taki sam, jak na serwerze, to Wget odmowi cignicia pliku i
           wypisze komunikat objaniajcy.  Tak samo dzieje si, gdy plik jest
           mniejszy na serwerze ni lokalnie (prawdopodobnie dlatego, e zostal
           zmieniony na serwerze od czasu naszej ostatniej proby cigania) --
           poniewa ,,kontynuacja'' jest bezsensowna, pobieranie nie zachodzi.

           Z drugiej strony, przy stosowaniu -c, kady plik, ktory jest wikszy
           na serwerze ni lokalnie bdzie uwaany za nie w pelni cignity.
           Wowczas pobranych i doczepionych na koniec pliku lokalnego zostanie
           tylko "(length(zdalny) - length(lokalny))" bajtow.  W pewnych
           przypadkach takie zachowanie jest podane -- na przyklad, mona
           skorzysta z wget -c do cignicia tylko nowej porcji danych,
           dopisanej na kocu zbioru danych czy pliku dziennika.

           Jednake, jeli plik na serwerze jest wikszy dlatego, e zostal
           zmieniony, a nie tylko doklejono do niego dane, to w efekcie
           otrzymamy znieksztalcony plik.  Wget w aden sposob nie moe
           sprawdzi, czy lokalny plik jest poprawn czci pocztkow zdalnego.
           Naley na to szczegolnie uwaa stosujc -c w polczeniu z -r, gdy kady
           plik bdzie uwaany za kandydata na "nieukoczone ciganie".

           Inn sytuacja, w ktorej przy korzystaniu z -c uzyskuje si
           znieksztalcony plik, zachodzi, gdy mamy do czynienia z ulomnym
           proxy HTTP, wstawiajcym lacuch ,,transfer interrupted'' do
           lokalnego pliku.  W przyszloci bdzie moe dodana opcja ,,rollback'',
           obslugujca ten przypadek.

           Zauwa, e -c dziala tylko z serwerami FTP i HTTP, ktore obsluguj
           naglowek "Range".

       --progress=typ
           Umoliwia wskazanie typu wskanika postpu. Dozwolonymi rodzajami
           wskanika s ,,dot'' (kropka) i ,,bar'' (pasek).

           Domylnie stosowany jest wskanik ,,bar''.  Rysowany jest wowczas
           pasek postpu zloony ze znakow graficznych ASCII (zwany czasem
           wskanikiem ,,termometrowym''), wskazujcy stan pobierania. Jeeli
           wyjciem programu nie jest TTY, to domylnie zostanie uyty wskanik
           typu ,,dot''.

           W celu przelczenia na wywietlanie kropek naley uy --progress=dot.
           Postpy cigania pokazuj wtedy wypisywane na ekranie kropki, z
           ktorych kada symbolizuje ustalon ilo pobranych danych.

           Przy korzystaniu z tego wskanika, mona take ustali styl. Wykonuje
           si to podajc typ wskanika w postaci dot:styl. W ronych stylach
           pojedynczej kropce przypisuje si rone znaczenie.  W stylu "default"
           kada kropka oznacza 1K, grupa liczy dziesi kropek, a wiersz 50
           kropek.  Styl "binary" jest bardziej ,,komputerowy'' -- 8K dla
           skropki, 16-kropkowe grupy i 48 kropek w wierszu (co daje 384K na
           wiersz). Przy pobieraniu bardzo duych plikow odpowiedni jest styl
           "mega" -- kada kropka symbolizuje pobrane 64K, w grupie jest osiem
           kropek, a w wierszu 48 (wic kady wiersz zawiera 3M).

           Warto zauway, e domylny rodzaj wskanika postpu moemy ustali
           umieszczajc w pliku .wgetrc polecenie "progress". Takie ustawienie
           jest przeslaniane przez opcj podan w wierszu polece.  Wyjtek
           stanowi sytuacja, kiedy wyjciem nie jest TTY -- wowczas typ ,,dot''
           bdzie mial pierwszestwo nad ,,bar''. Da si jednak wymusi wskanik w
           postaci paska, stosujc --progress=bar:force.

       -N
       --timestamping
           Wlcza stosowanie znacznikow czasu (time-stamping).

       -S
       --server-response
           Wypisuje naglowki wysylane przez serwery HTTP i odpowiedzi wysylane
           przez serwery FTP.

       --spider
           Wywolny z t opcj, Wget bdzie zachowywal si jak sieciowy pajk (Web
           spider), to znaczy, e nie bdzie pobieral stron, a jedynie
           sprawdzal, czy tam s.  Mona to wykorzysta to sprawdzenia zakladek
           (bookmarks), na przyklad tak:

                   wget --spider --force-html -i bookmarks.html

           Ta funkcja wymaga jeszcze wiele pracy, by Wget osignl moliwoci
           zblione do prawdziwych pajkow WWW.

       -T seconds
       --timeout=sekundy
           Ustawia limit czasu czytania na podan liczb sekund.  Przy kadym
           odczycie sieciowym sprawdzana jest dla deskryptora pliku ewentualno
           przekroczenia limitu czasu, poniewa bez tego moglo by doj do
           nieprzerwanego czytania (zostawienia zawieszonego polczenia).
           Domylny limit to 900 sekund (pitnacie minut).  Ustawienie limitu na
           0 wylcza sprawdzanie.

           Prosz nie obnia domylnej wartoci limitu czasu t opcj, chyba e z
           peln wiadomoci skutkow.

       --limit-rate=wielko
           Ogranicza prdkoci pobierania do wielko bajtow na sekund.  Wielko t
           mona wyrazi w bajtach, kilobajtach (przyrostkiem k) lub megabajtach
           (przyrostkiem m) na sekund. Na przyklad --limit-rate=20k ograniczy
           prdko cigania do 20KB/s.  Taka rzecz przydaje si, gdy z jakiego
           powodu nie chcemy, eby Wget zajl cal dostpn szeroko pasma.

           Naley zauway, e Wget realizuje to w ten sposob, e po stwierdzeniu,
           i odczyt z sieci zabral mniej czasu, ni wynika to z podanej
           prdkoci, przez odpowiedni czas wstrzymuje si od dzialania
           (zasypia). Kocowym efektem takiej strategii jest spowolnienie
           transferu TCP mniej wicej do podanej prdkoci. Niemniej jednak, na
           osignicie tej rownowagi potrzeba troch czasu, wic nie bdcie
           zaskoczeni, jeli ograniczenie szybkoci nie dziala dla bardzo malych
           plikow. Tak samo, strategia "zasypiania" nie zda egzaminu, jeli
           poda si zbyt male pasmo, dajmy na to mniejsze ni 1,5KB/s.

       -w sekundy
       --wait=sekundy
           Odczekuje zadan liczb sekund pomidzy kolejnymi pobraniami.  Zaleca
           si uywanie tej opcji, gdy zmniejsza obcienie serwera dziki rzadszym
           daniom.  Czas, zamiast w sekundach, mona poda w minutach dodajc
           przyrostek "m", w godzinach - dodajc "h" lub w dniach - dodajc "d".

           Okrelanie duej wartoci tej opcji przydaje si jeli sie lub maszyna
           docelowa s wylczone.  Wowczas Wget moe odczeka wystarczajco dlugo,
           by rozsdnie spodziewa si, e przed ponown prob bld sieci zostal
           naprawiony.

       --waitretry=sekundy
           Opcj t stosujemy jeli nie chcemy, by Wget czekal pomidzy kadym
           pobraniem, a tylko pomidzy ponawianymi probami nieudanych pobra.
           Wget zastosuje odczekiwanie liniowe (linear backoff), czekajc 1
           sekund po pierwszym niepowodzeniu z danym plikiem, nastpnie 2
           sekundy po drugim niepowodzeniu z tym plikiem, a do maksymalnej
           liczby sekund, jak podano.  Zatem, warto 10 faktycznie spowoduje, e
           Wget bdzie odczekiwal lcznie do (1 + 2 + ... + 10) = 55 sekund na
           kady plik.

           Zauwa, e w ogolnosystemowym pliku wgetrc ta opcja jest domylnie
           wlczona.

       --random-wait
           W niektorych z orodkow wykonywana jest analiza plikow dziennikowych
           (tzw. logow), ktora ma na celu zidentyfikowanie programow do
           pobierania, takich jak Wget. Polega ona na wyszukiwaniu
           statystycznie znaczcych podobiestw midzy ronicami czasu, jaki
           uplynl pomidzy kolejnymi daniami.  Ta opcja powoduje, e dla
           zamaskowania przed takimi analizami obecnoci Wgeta czas pomidzy
           daniami bdzie si waha od 0 do 2 * sekundy, gdzie sekundy podano
           opcj  --wait (-w).

           W jednym z ostatnich artykulow w pewnej publikacji powiconej
           rozwijaniu oprogramowania na popularnych platformach klienckich
           podano kod wykonujcy tak analiz na bieco. Autor sugerowal
           blokowanie na poziomie adresu klasy C, co ma gwarantowa, e programy
           pobierajce zostan zablokowane niezalenie od zmiany adresow
           przedzielanych przez DHCP.

           Opcja --random-wait powstala z powodu tej wlanie nierozwanej
           porady, zalecajcej blokowanie wielu postronnych uytkownikow orodka
           z powodu dziala jednego z nich.

       -Y on/off
       --proxy=on/off
           Wlcza/wylcza uywanie proxy. Domylnie uywanie proxy jest wlczone
           jeli jest zdefiniowana odpowiednia zmienna rodowiskowa.

       -Q wielko
       --quota=wielko
           Okrela ograniczenie wielkoci pobieranych danych przy ciganiu
           automatycznym. Limit podawany jest w bajtach (domylnie),
           kilobajtach (z przyrostkiem k) lub megabajtach (z przyrostkiem m).

           Warto pamita, e ograniczenie to nigdy nie dotyczy pobierania
           pojedynczego pliku. Tak wic, jeli podamy wget -Q10k
           ftp://wuarchive.wustl.edu/ls-lR.gz, to zostanie cignity caly plik
           ls-lR.gz. Tak samo dzieje si nawet wowczas, gdy w wierszu polece
           zostanie wyszczegolnionych kilka URL-i. Ograniczenie wielkoci jest
           jednak przestrzegane podczas pobierania rekurencyjnego lub wedlug
           pliku wejciowego. Zatem, mona spokojnie napisa wget -Q2m -i witryny
           -- po przekroczeniu ograniczenia ciganie zostanie przerwane.

           Ustawienie limitu na 0 lub na inf znosi ograniczenie pobierania.

       Opcje katalog'o'ow

       -nd
       --no-directories
           Nie tworzy hierarchii katalogow przy pobieraniu rekurencyjnym.  Po
           wlczeniu tej opcji wszystkie pliki bd zapisywane do biecego
           katalogu bez przebijania (jeli nazwa pojawi si wicej ni raz, nazwy
           plikow otrzymaj rozszerzenie .n).

       -x
       --force-directories
           Przeciwiestwo -nd. Wymusza utworzenie hierarchii katalogow nawet
           jeli nie mialaby by stworzona.  Np. wget -x
           http://fly.srk.fer.hr/robots.txt zapisze cignity plik jako
           fly.srk.fer.hr/robots.txt.

       -nH
       --no-host-directories
           Wylcza tworzenie katalogow z nazw hosta jako przedrostkiem.
           Domylnie, -r http://fly.srk.fer.hr/ spowoduje stworzenie struktury
           katalogow zaczynajcej si od fly.srk.fer.hr/, gdzie trafi cala
           reszta.  Ta opcja wylcza takie zachowanie.

       --cut-dirs=liczba
           Ignoruje podan liczb skladowych katalogu.  Przydatne do
           precyzyjnego sterowania katalogami, w ktorych bd skladowane pliki z
           pobierania rekurencyjnego.

           Wemy, na przyklad, katalog ftp://ftp.xemacs.org/pub/xemacs/.  Jeeli
           pobierzemy go z -r, to lokalnie zostanie zachowany jako
           ftp.xemacs.org/pub/xemacs/.  Mimo e opcja -nH pozwala na usunicie
           czci ftp.xemacs.org/, nadal utkniemy z pub/xemacs.  Tu wlanie z
           pomoc przychodzi --cut-dirs.  Powoduje, e Wget ``nie widzi''
           zadanej liczby skladowych zdalnego katalogu.  Oto kilka przykladow
           pokazujcych, jak dziala opcja --cut-dirs.

                   No options        -> ftp.xemacs.org/pub/xemacs/
                   -nH               -> pub/xemacs/
                   -nH --cut-dirs=1  -> xemacs/
                   -nH --cut-dirs=2  -> .

                   --cut-dirs=1      -> ftp.xemacs.org/xemacs/
                   ...

           Jeli chcemy po prostu pozby si struktury katalogow, to opcja ta
           jest podobna do kombinacji  -nd i -P. Jednak --cut-dirs, w
           przeciwiestwie do -nd, nie pozbywa si podkatalogow -- na przyklad,
           przy -nH --cut-dirs=1, podkatalog beta/ bdzie, zgodnie z
           oczekiwaniami, umieszczony w xemacs/beta.

       -P prefiks
       --directory-prefix=prefiks
           Ustawia przedrostek, prefiks katalogow na prefiks.  Przedrostek
           katalog'ow oznacza katalog, zostan zapisane wszystkie inne pliki i
           katalogi, tzn. wierzcholek drzewa pobierania.  Domylnym
           przedrostkiem jest ., katalog biecy.

       Opcje HTTP

       -E
       --html-extension
           Jeli pobierany jest plik typu text/html a jego URL nie koczy si
           wyraeniem regularnym \.[Hh][Tt][Mm][Ll]?, to opcja ta spowoduje
           dodanie przyrostka .html do lokalnej nazwy pliku.  Przydatne, na
           przyklad, gdy tworzymy kopi lustrzan witryny, ktora uywa stron
           .asp, ale chcemy, by pozyskane strony dawaly si przeglda za pomoc
           wlasnego serwera Apache.  Innym dobrym zastosowaniem jest
           pobieranie wyjcia generowanego przez skrypty CGI.  URL typu
           http://site.com/article.cgi?25 zostanie zachowany jako
           article.cgi?25.html.

           Zauwa, e pliki o zmienionych w ten sposob nazwach bd ponownie
           pobierane za kadym razem gdy bdziemy odwiea kopi lustrzan witryny.
           Dzieje si tak, poniewa Wget nie potrafi stwierdzi, e lokalny plik
           X.html odpowiada zdalnemu URL-owi X (gdy nie wie, e ten URL tworzy
           wyjcie typu text/html).  Chcc unikn ponownego pobierania, trzeba uy
           -k i -K, tak by oryginalna wersja pliku zostala zachowana jako
           X.orig.

       --http-user=uytkownik
       --http-passwd=has/lo
           Okrelaj nazw uytkownika i haslo, ktore Wget przele serwerowi HTTP.
           W zalenoci od rodzaju protokolu wezwanie-odpowied, Wget koduje je
           stosujc albo uwierzytelnianie podstawowe ("basic", niechronione)
           albo w oparciu o skrot ("digest").

           Inn metod podania nazwy i hasla uytkownika jest wyszczegolnienie
           ich w samym URL-u.  Obie te metody ujawniaj haslo kademu, kto
           zechce uruchomi "ps".  eby uchroni hasla przed podpatrzeniem, naley
           przechowywa je w pliku .wgetrc lub .netrc i, za pomoc "chmod",
           zapewni tym plikom ochron przed innymi uytkownikami. Jeeli hasla s
           naprawd wane, w tych plikach te nie trzymajcie ich na stale --
           usucie je z plikow zaraz po rozpoczciu przez Wgeta pobierania.
           Dokladniejsze omowienie kwestii bezpieczestwa w pracy z Wget,

       -C on/off
       --cache=on/off
           Jeli ustawione na off, wylcza buforowanie po stronie serwera.  W
           takim przypadku Wget wysyla zdalnemu serwerowi odpowiedni komend
           (Pragma: no-cache), dziki ktorej plik zostanie pobrany z uslugi
           zdalnej, a nie zwrocona wersja buforowana.  Jest to szczegolnie
           przydatne do pobierania i wymiatania przeterminowanych dokumentow z
           serwerow proxy.

           Domylnie, buforowanie jest dozwolone.

       --cookies=on/off
           Ustawione na off wylcza uywanie ciasteczek (cookies).  Ciasteczka s
           mechanizmem do przechowywania stanu po stronie serwera.  Serwer
           przesyla klientowi ciasteczko stosujc naglowek "Set-Cookie", a
           klient przy poniejszych daniach odpowiada tym samym ciasteczkiem.
           Poniewa ciasteczka umoliwiaj wlacicielom serwera prowadzenie
           rejestrow goci i wymian si tymi informacjami z innymi orodkami,
           niektorzy uwaaj je za pogwalcenie prywatnoci.  Domylnie cookies s
           uywane, jednak ich zapisywanie nie jest domylnie wlczone.

       --load-cookies plik
           Przed pierwszym pobraniem HTTP wczytuje ciasteczka z pliku.  Pliku
           jest plikiem tekstowym w formacie, jaki pierwotnie zastosowano dla
           pliku cookies.txt przegldarki Netscape.

           Na ogol korzysta si z tej opcji przy tworzeniu kopii lustrzanych
           tych orodkow, ktore do skorzystania z czci lub caloci zasobow
           wymagaj zalogowania si. Proces logowania si zwykle polega na tym, e
           po otrzymaniu od nas informacji uwierzytelniajcej i jej
           zweryfikowaniu serwer WWW wysyla ciasteczko HTTP. Nastpnie, gdy
           przegldarka siga do zasobow, odsyla serwerowi otrzymane ciasteczko,
           potwierdzajc w ten sposob nasz tosamo.

           Utworzenie kopii tego rodzaju witryny wymaga wysylania przez Wget
           takich samych ciasteczek, jakie podczas komunikowania si z tym
           orodkiem przesyla nasza przegldarka. Osiga si to za pomoc --load-
           cookies -- wystarczy wskaza programowi lokalizacj pliku
           cookies.txt, a on wyle te same ciasteczka, ktore w tej samej
           sytuacji wyslalaby przygldarka.

           Rone przegldarki trzymaj tekstowe pliki ciasteczek w ronych
           miejscach:

           Netscape 4.x
               Ciasteczka s w ~/.netscape/cookies.txt.

           Mozilla i Netscape 6.x
               Plik ciasteczek Mozilli nazywa si rownie cookies.txt, jest
               poloony gdzie w ~/.mozilla, w katalogu wlaciwym dla profilu
               uytkownika. Pelna cieka zazwyczaj koczy si czym w rodzaju
               ~/.mozilla/default/co-dziwnego/cookies.txt.

           Internet Explorer
               Ciasteczko, jakiego moglby uy Wget, mona utworzy korzystajc z
               menu "Plik" i opcji "Importuj i Eksportuj", "Eksportuj pliki
               cookie".  Zostalo to przetestowane z Internet Explorerem 5 --
               nie ma gwarancji, e bdzie dziala z wczeniejszymi wersjami.

           inne przegldarki
               Jeeli do tworzenia ciasteczek korzystacie z innej przegldarki,
               --load-cookies bdzie dziala tylko wtedy, gdy uda wam si
               zlokalizowa lub utworzy plik ciasteczek w formacie Netscape,
               jakiego oczekuje Wget.

           Jeli nie moecie skorzysta z --load-cookies, jest jeszcze inna
           moliwo. Jeli uywana przez was przegldarka udostpnia ,,menedera
           plikow cookie'', skorzystajcie z niego, eby podgldn ciasteczka,
           jakie zostaly wykorzystane podczas uzyskiwania dostpu do witryny,
           ktorej kopi chcecie utworzy. Zapiszcie nazw i warto ciasteczka, a
           nastpnie rcznie nakacie Wgetowi wyslanie ciasteczka o zadanej
           postaci, obchodzc rownoczenie ,,oficjalny'' kodu odpowiedzialny za
           obslug ciasteczek:

                   wget --cookies=off --header "Cookie: I<nazwa>=I<warto>"

       --save-cookies plik
           Na koniec sesji zapisuje ciasteczka do pliku.  Ciasteczka, dla
           ktorych nie okrelono daty wanoci lub ktore ju wygasly, nie s
           zapisywane.

       --ignore-length
           Niestety, niektore serwery HTTP (dokladniej mowic, programy CGI)
           wysylaj bldne naglowki "Content-Length", co powoduje, e Wget
           glupieje, sdzc, e nie zostala pobrana calo dokumentu.  Syndrom ten
           mona uchwyci, gdy Wget probuje w kolko pobiera ten sam dokument, za
           kadym razem twierdzc, e (inaczej ni zwykle) polczenie zostalo
           zamknite na dokladnie tym samym bajcie.

           Wywolany z t opcj, Wget bdzie ignorowal naglowek "Content-Length",
           tak jakby nie istnial.

       --header=dodatkowy-nag/l'owek
           Okrela dodatkowy-nag/l'owek przesylany serwerom HTTP.  Naglowki musz
           zawiera : poprzedzony co najmniej jednym niepustym znakiem, i nie
           mog zawiera znakow nowej linii.

           Moliwe jest okrelenie wicej ni jednego dodatkowego naglowka przez
           kilkakrotne podanie opcji --header.

                   wget --header='Accept-Charset: iso-8859-2' \
                        --header='Accept-Language: hr'        \
                          http://fly.srk.fer.hr/

           Podanie pustego lacucha jako naglowka kasuje wszystkie uprzednio
           zdefiniowane przez uytkownika naglowki.

       --proxy-user=uytkownik
       --proxy-passwd=has/lo
           Okrelaj nazw uytkownika i haslo, ktore zostan uyte do
           uwierzytelniania na serwerze proxy.  Wget koduje je stosujc
           podstawowy ("basic") schemat uwierzytelniania.

           Odnosz si do tego podobne zagadnienia zwizane z bezpieczestwem, jak
           w przypadku opcji --http-passwd.

       --referer=url
           Zamieszcza naglowek `Referer: url' w daniu HTTP.  Przydatne do
           pobierania dokumentow z takim przetwarzaniem po stronie serwera,
           ktore zaklada, e s one zawsze pobierane przez interaktywne
           przegldarki Sieci i uznawane za poprawne tylko wtedy, gdy Refer
           jest ustawione na jedn ze stron, ktore na nie wskazuj.

       -s
       --save-headers
           Zapisuje naglowki wysylane przez serwer HTTP do pliku, przed wlaciw
           zawartoci, z pust lini jako separatorem.

       -U nazwa-agenta
       --user-agent=nazwa-agenta
           Serwerowi HTTP przedstawia si jako agent o podanej nazwie.

           Protokol HTTP pozwala klientom na podanie, za pomoc pola
           "User-Agent" naglowka, swojej tosamoci.  Umoliwia to rozronianie
           oprogramowania WWW, zwykle do celow statystycznych lub ledzenia
           narusze protokolu. Wget normalnie przedstawia si jako Wget/wersja,
           gdzie wersja jest aktualnym numerem wersji programu.

           Znane s jednak pewne witryny narzucajce polityk przykrawania
           wynikow stosownie do informacji dostarczonej im w polu
           "User-Agent". Mimo i koncepcyjnie nie jest to taki zly pomysl,
           zaczl by naduywany przez serwery odmawiajce informacji klientom
           innym ni  "Mozilla" lub "Internet Explorer". Ta opcja umoliwia
           zmian linii "User-Agent" wysylanej przez Wget. Nie zachcamy do
           uywania tej opcji, chyba e z peln wiadomoci.

       Opcje FTP

       -nr
       --dont-remove-listing
           Zakazuje usuwania tymczasowych plikow .listing generowanych przez
           odczyty FTP.  Normalnie, pliki te zawieraj nieprzetworzone listingi
           katalogow otrzymane z serwerow FTP.  Pozostawienie ich moe si
           przyda do celow diagnostycznych lub latwego sprawdzenia zawartoci
           katalogow zdalnego serwera (np. do sprawdzenia, e tworzona kopia
           lustrzana jest kompletna).

           Zauwa, e, mimo i Wget zapisuje w tym przypadku do pliku o znanej
           nazwie, nie jest to dziura w zabezpieczeniach w sytuacji, gdy
           uytkownik stworzy .listing jako dowizanie symboliczne do
           /etc/passwd czy innego pliku i poprosi superuytkownika ("root") o
           uruchomienie Wget w tym katalogu.  W zalenoci od uytych opcji, Wget
           albo odmowi zapisu do .listing (co spowoduje niepowodzenie operacji
           na maskach, rekurencyjnej czy zalenej od znacznikow czasu), albo
           dowizanie symboliczne zostanie usunite i zastpione faktycznym
           plikiem .listing, albo te listing zostanie zapisany do pliku
           .listing.numer.

           Cho ta sytuacja nie stwarza klopotow, jednak "root" nie powinien
           nigdy uruchamia Wget w katalogu niezaufanego uytkownika.  Uytkownik
           taki moglby na przyklad dowiza index.html do /etc/passwd i poprosi
           "root"a o uruchomienie Wget z opcjami -N lub -r, tak e plik ten
           zostalby nadpisany.

       --retr-symlinks
           Zwykle, gdy podczas rekurencyjnego pobierania katalogow FTP
           napotkane zostanie dowizanie symboliczne, to wskazywany przez nie
           plik nie jest cigany. Zamiast tego w lokalnym systemie plikow
           tworzone jest odpowiadajce mu dowizanie symboliczne. Wskazywany
           przez dowizanie plik nie zostanie cignity, chyba e pobieranie
           rekurencyjne natknie si na osobno i tak czy owak cignie.

           Przy podanej opcji --retr-symlinks, jednake, program poda za
           dowizaniami symbolicznymi i pobiera wskazywane przez nie pliki.
           Obecnie opcja ta nie spowoduje, by Wget podal za dowizaniami do
           katalogow i przetwarzal je rekurencyjnie, ale w przyszloci powinna
           zosta poszerzona tak, by tak si dzialo.

           Zauwa, e przy pobieraniu pliku (nie katalogu) wynikajcym z podania
           go w wierszu polece, a nie jako w nastpstwie rekurencji, opcja ta
           nie dziala.  W tym przypadku Wget zawsze poda za dowizaniami.

       -g on/off
       --glob=on/off
           Wlcza/wylcza obslug masek dla FTP.  Obsluga masek oznacza, e mona
           uywa znakow specjalnych, uog'olniajcych (jokerow), takich jak *, ?,
           [ i ], do pobrania wikszej liczby plikow z tego samego katalogu
           naraz, np.

                   wget ftp://gnjilux.srk.fer.hr/*.msg

           Domylnie obsluga masek bdzie wlczona jeli URL zawiera znaki
           uogolniajce. Tej opcji mona uy do wlczenia bd wylczenia obslugi
           masek na stale.

           Moe zaj potrzeba ujcia URL-a w znaki cudzyslowu, by uchroni go
           przed rozwiniciem przez powlok. Obsluga masek powoduje, e Wget
           oczekuje listingu katalogu, ktorego posta jest zalena od systemu. Z
           tego powodu obecnie dziala tylko z uniksowymi serwerami FTP (i z
           tymi, ktore potrafi emulowa wyjcie uniksowego "ls").

       --passive-ftp
           Powoduje korzystanie z pasywnego schematu pobierania FTP, w ktorym
           klient inicjuje polczenie do przesylania danych. Jest on czasem
           wymagany, by FTP dzialal za zaporami ogniowymi.

       Opcje pobierania rekurencyjnego

       -r
       --recursive
           Wlcza pobieranie rekurencyjne.

       -l g/lboko
       --level=g/lboko
           Podaje maksymalny poziom glbokoci rekurencji.  Domylnie jest to 5.

       --delete-after
           Ta opcja nakazuje Wget usunicie kadego z plikow, jaki pobiera, po
           wykonaniu cigania.  Jest przydatna do pobierania wstpnego
           (prefetching) popularnych stron poprzez proxy, np.:

                   wget -r -nd --delete-after http://whatever.com/~popular/page/

           Opcja -r nakazuje pobieranie rekurencyjne, a -nd nietworzenie
           katalogow.

           Zauwa, e --delete-after usuwa pliki z lokalnego komputera.  Nie
           wydaje polecenia DELE, na przyklad zdalnym orodkom FTP.  Zauwa te,
           e jeli podano --delete-after, to --convert-links jest ignorowane,
           wic przede wszystkim pliki .orig po prostu nie s tworzone.

       -k
       --convert-links
           Po zakoczeniu pobierania konwertuje odnoniki w dokumencie tak, by
           nadawaly si do lokalnego przegldania. Dotyczy to nie tylko
           widzialnych odnonikow hipertekstowych, ale kadej czci dokumentu,
           ktora prowadzi do zewntrznych materialow, jak osadzone obrazki,
           odnoniki do arkuszy stylow, odnoniki hipertekstowe do zawartoci
           innej ni HTML, itp.

           Kady odnonik bdzie zmieniony na jeden z dwu sposobow:

           o   Odnoniki do plikow, ktore zostaly cignite przez Wget zostan
               zmienione tak, by odwolywaly si do pliku, na jaki wskazuj, jako
               odnoniki wzgldne.

               Przyklad: jeli cignity plik /foo/doc.html jest powizany z z
               /bar/img.gif, rownie cignitym, to odnonik w doc.html zostanie
               zmieniony tak, by wskazywal na ../bar/img.gif.  Ten rodzaj
               przeksztalcenia dziala bezproblemowo dla dowolnej kombinacji
               katalogow.

           o   Odnoniki do plikow, ktore nie zostaly cignite przez Wget zostan
               zmienione tak, by zawieraly nazw hosta i ciek bezwzgldn
               miejsca, na ktore wskazuj.

               Przyklad: jeli cignity plik /foo/doc.html jest powizany z z
               /bar/img.gif (lub z ../bar/img.gif), to odnonik w doc.html
               zostanie zmieniony tak, by wskazywal na
               http://hostname/bar/img.gif.

           Z tego powodu, przegldanie lokalne dziala niezawodnie: jeli
           powizany plik byl cignity, to odnonik wskazuje na jego lokaln nazw,
           jeli nie byl -- to na pelny adres internetowy, a nie pojawia si
           popsuty odnonik.  Konwersja pierwotnych odnonikow na odnoniki
           wzgldne zapewnia nam moliwo przesuwania pobranej hierarchii
           katalogow do innego katalogu.

           Zauwa, e dopiero na samym kocu pobierania Wget moe rozpozna, ktore
           odnoniki zostaly cignite.  Z tego powodu, opcja -k wykonuje swoj
           prac po zakoczeniu wszystkich pobra.

       -K
       --backup-converted
           Podczas konwersji pliku zachowuje kopi zapasow pierwotnej wersji z
           przyrostkiem .orig.  Wplywa na zachowanie opcji -N.

       -m
       --mirror
           Wlcza opcje odpowiednie do tworzenia kopii lustrzanych.  Ta opcja
           wlcza rekurencj, stosowanie znacznikow czasu, ustawia
           nieograniczony poziom rekurencji i zachowuje listingi katalogow
           FTP.  Obecnie jest rownowana uyciu -r -N -l inf -nr.

       -nr
       --dont-remove-listing
           Zakazuje usuwania plikow tymczasowych .listing tworzonych przez
           odczyty FTP.  Normalnie, pliki te zawieraj nieprzetworzone listingi
           katalogow otrzymane z serwerow FTP.  Pozostawienie ich daje dostp
           do pelnej listy zdalnych plikow przy prowadzeniu siedziby
           lustrzanej. Przydaje si te do celow diagnostycznych.

       -p
       --page-requisites
           Ta opcja powoduje, e Wget cignie wszystkie pliki niezbdne do
           poprawnego wywietlenia danej strony HTML.  Obejmuje to takie rzeczy
           jak grafik, dwiki i powizane arkusze stylow.

           Przy zwyklym trybie pracy, podczas pobierania pojedynczej strony
           HTML, ewentualne powizane dokumenty, ktore mog by potrzebne do
           poprawnego jej wywietlenia, nie s pobierane. Pomoc moe uycie opcji
           -r z -l, ale poniewa Wget normalnie nie odronia dokumentow
           zewntrznych od wlczonych, na ogol pozostaje si z ,,oskubanymi
           dokumentami'', ktorym brakuje potrzebnych elementow towarzyszcych.

           Na przyklad, powiedzmy, e dokument 1.html zawiera znacznik "<IMG>"
           odnoszcy si do 1.gif i znacznik "<A>" wskazujcy na zewntrzny
           dokument 2.html.  Powiedzmy, e 2.html jest podobny, tyle, e jego
           obrazkiem jest 2.gif a odnonik wskazuje na 3.html.  Zalomy, e
           kontynuujemy takie zalenoci a do jakiej dowolnie duej liczby.

           Jeli wykona si polecenie:

                   wget -r -l 2 http://I<orodek>/1.html

           to zostan pobrane 1.html, 1.gif, 2.html, 2.gif i 3.html.  Jak wida,
           3.html nie posiada towarzyszcego mu elementu, gdy Wget w celu
           okrelenia miejsca, gdzie powinien przerwa rekurencj po prostu
           zlicza liczb skokow (a do 2) od pocztkowego 1.html.  Jednak przy
           takim poleceniu:

                   wget -r -l 2 -p http://I<orodek>/1.html

           zostan cignite wszystkie powysze pliki oraz wymagany przez 3.html
           plik 3.gif.  Podobnie,

                   wget -r -l 1 -p http://I<orodek>/1.html

           spowoduje pobranie 1.html, 1.gif, 2.html i 2.gif.  Mona by sdzi, e:

                   wget -r -l 0 -p http://I<orodek>/1.html

           pobraloby tylko 1.html i 1.gif, ale niestety tak nie jest, gdy -l 0
           jest rownowanikiem -l inf -- czyli nieskoczonej rekurencji.  Do
           pobrania pojedynczej strony HTML (lub ich grupy, wszystkich
           podanych w wierszu polece lub w pliku wejciowym URL-i -i) i
           towarzyszcych jej (lub im) elementow, wystarczy pomin -r i -l:

                   wget -p http://I<orodek>/1.html

           Zauwa, e Wget zachowa si tak, jakby podano opcj -r, ale zostanie
           pobrana tylko pojedyncza strona i jej elementy.  Program nie bdzie
           podal za odnonikami z tej strony do zewntrznych dokumentow.
           Faktycznie, do cigania pojedynczej strony i wszystkich
           towarzyszcych jej elementow (nawet jeli le one na odrbnych
           serwerach WWW) i upewnienia si, e calo lokalnie poprawnie si
           wywietla, autor oprocz -p korzysta z kilku dodatkowych opcji:

                   wget -E -H -k -K -p http://I<orodek>/I<dokument>

           Koczc ten temat, warto wiedzie, e Wget uwaa za odnonik do dokumentu
           zewntrznego kady URL podany w znaczniku "<A>", "<AREA>" lub
           "<LINK>", oprocz "<LINK REL="stylesheet">".

       Opcje rekurencyjnego akceptowania/odrzucania

       -A lista_akc --accept lista_akc
       -R lista_odrz --reject lista_odrz
           Podaje list oddzielonych przecinkami przyrostkow nazw plikow
           (rozszerze plikow) lub wzorcow nazw, jakie maj by akceptowane lub
           odrzucane..

       -D lista_domen
       --domains=lista_domen
           Ustala domeny, do ktorych program moe przechodzi.  lista_domen jest
           list separowan przecinkami. Zauwa, e ta opcja nie wlcza -H.

       --exclude-domains lista_domen
           Podaje domeny, do ktorych program ma nie przechodzi..

       --follow-ftp
           Poda za odnonikami FTP z dokumentow HTTP.  Bez tej opcji Wget bdzie
           ignorowal wszelkie odnoniki do FTP.

       --follow-tags=lista
           Wget ma wewntrzn tablic par: znacznik HTML/atrybut, ktor posluguje
           si przy poszukiwaniu powizanych dokumentow podczas pobierania
           rekurencyjnego.  Jeli jednak chcielibymy, by brany byl pod uwag
           tylko pewien podzbior tych znacznikow, powinnimy uy tej opcji,
           podajc je w postaci listy separowanej przecinkami.

       -G lista
       --ignore-tags=lista
           Jest to przeciwiestwo opcji --follow-tags.  Dziki podaniu listy
           rozdzielonych przecinkami znacznikow HTML mona pomin je podczas
           rekurencyjnego szukania dokumentow do pobrania.

           Niegdy opcja -G, uyta w wierszu polece:

                   wget -Ga,area -H -k -K -r http://I<orodek>/I<dokument>

           byla najlepszym wyborem do cigania pojedynczej strony razem z jej
           elementami.

           Jednak autor tej opcji przeszedl przez stron ze znacznikami typu
           "<LINK REL="home" HREF="/">" i uwiadomil sobie, e -G nie wystarcza.
           Nie mona po prostu nakaza Wget ignorowania "<LINK>", gdy wowczas
           nie bd cigane arkusze stylow.  Obecnie najlepszym sposobem
           pobierania pojedynczej stony razem z jej elementami jest specjalnie
           przeznaczona do tego opcja --page-requisites.

       -H
       --span-hosts
           Wlcza przechodzenie pomidzy hostami przy pobieraniu rekurencyjnym.

       -L
       --relative
           Poda tylko za odnonikami wzgldnymi. Przydatne do pobierania
           konkretnej strony bez adnych odwracajcych uwag dodatkow, nawet z
           tego samego hosta..

       -I lista
       --include-directories=lista
           Okrela list rozdzielonych przecinkami katalogow, do ktorych ma
           przechodzi program podczas pobierania  Elementy listy mog zawiera
           znaki uogolniajce.

       -X lista
       --exclude-directories=lista
           Okrela list rozdzielonych przecinkami katalogow, ktore chcemy
           wykluczy z pobierania  Elementy listy mog zawiera znaki
           uogolniajce.

       -np
       --no-parent
           Powoduje, e Wget przy pobieraniu rekurencyjnym nigdy nie wchodzi do
           katalogu nadrzdnego.  Przydatna opcja, gdy gwarantuje, e cigane bd
           tylko pliki poniej pewnego poziomu.

PRZYK/L/LADY

       Przyklady podzielono na trzy czci, z grubsza wedlug stopnia
       komplikacji.

       Proste zastosowania

       o   Powiedzmy, e chcemy cign jaki URL.  Wystarczy napisa:

                   wget http://fly.srk.fer.hr/

       o   Ale co si stanie, jeli lcze jest powolne, a plik dlugi?  Polczenie
           prawdopodobnie zawiedzie zanim zostanie pobrany caly plik.  W
           takiej sytuacji Wget bdzie usilowal pobra plik dopoki nie cignie
           calego albo nie przekroczy domylnej liczby ponawia (wynoszc 20).
           Mona latwo zmieni liczb prob na 45, by upewni si, e caly plik
           dotrze bezpiecznie:

                   wget --tries=45 http://fly.srk.fer.hr/jpg/flyweb.jpg

       o   A teraz pozostawmy program Wget pracujcy w tle i zapisujcy
           informacje o postpach cigania do pliku dziennika log.  Wpisywanie
           --tries jest mczce, wic uyjemy -t:

                   wget -t 45 -o log http://fly.srk.fer.hr/jpg/flyweb.jpg &

           Znak "&" na kocu linijki zapewnia, e Wget bdzie dziala w tle.
           Ograniczenie liczby ponawia mona zlikwidowa stosujc -t inf.

       o   Sposob uycia FTP jest rownie prosty.  Wget zajmie si nazw
           zgloszeniow (login) i haslem.

                   wget ftp://gnjilux.srk.fer.hr/welcome.msg

       o   Jeli podamy katalog, to program pobierze jego listing, przetworzy
           go i przeksztalci na HTML.  Mona sprobowa:

                   wget ftp://prep.ai.mit.edu/pub/gnu/
                   links index.html

       Zaawansowane zastosowania

       o   Mamy gotowy plik z list URL-i, ktore chcemy pobra? Wystarczy
           skorzysta z przelcznika -i:

                   wget -i I<plik>

           Jeli jako nazw pliku podamy -, to URL-e bd czytane ze standardowego
           wejcia.

       o   ! Create a five levels deep mirror image of the GNU web site, with
           the ! same directory structure the original has, with only one try
           per ! document, saving the log of the activities to gnulog:

           Stworzymy sigajcy piciu poziomow obraz lustrzany witryny WWW GNU (z
           t sam struktur katalogow, jak ma oryginal), stosujc tylko jedn prob
           pobierania dla kadego dokumentu i zapisujc dziennik pracy do
           gnulog:

                   wget -r http://www.gnu.org/ -o gnulog

       o   To samo co powyej, ale z konwersj odnonikow w plikach HTML tak, eby
           wskazywaly na lokalne pliki, by mona bylo przeglda dokumenty off-
           line:

                   wget --convert-links -r http://www.gnu.org/ -o gnulog

       o   Pobranie tylko jednej strony HTML, ale z upewnieniem si, e
           wszystkie elementy niezbdne do jej wywietlenia (np. wstawione
           obrazki i zewntrzne arkusze stylu) rownie zostan pobrane. Zapewnia
           te, e cignita strona wskazuje na pobrane odnoniki. Ponadto odnoniki
           w pobranej stronie powinny wskazywa na pobrane kopie elementow.

                   wget -p --convert-links http://www.server.com/dir/strona.html

           Wybrana strona HTML zostanie zapisana do
           www.server.com/dir/strona.html, a obrazki, arkusze stylu itd. gdzie
           w katalogu www.server.com/, zalenie od tego, gdzie znajdowaly si na
           zdalnym serwerze.

       o   Tak samo, jak wyej, ale bez katalogu www.server.com/. W gruncie
           rzeczy wcale nie chc tych wszystkich przypadkowych katalogow z
           serwera -- chc po prostu zapisa wszystkie pobrane pliki w
           podkatalogu download/ biecego katalogu.

                   wget -p --convert-links -nH -nd -Pdownload \
                        http://www.server.com/dir/strona.html

       o   Pobranie index.html z www.lycos.com, z pokazaniem oryginalnych,
           odebranych od serwera naglowkow:

                   wget -S http://www.lycos.com/

       o   Zapisanie naglowkow serwera w pliku, zapewne do kocowego
           przetwarzenia:

                   wget -s http://www.lycos.com/
                   more index.html

       o   Pobranie pierwszych dwu poziomow wuarchive.wustl.edu, z zapisaniem
           ich do /tmp.

                   wget -r -l2 -P/tmp ftp://wuarchive.wustl.edu/

       o   Chcemy cign wszystkie GIF-y z pewnego katalogu serwera HTTP.
           Probowalimy wget http://www.server.com/dir/*.gif, ale nie
           zadzialalo, bo pobieranie HTTP nie realizuje masek plikow.  W takim
           przypadku stosujemy:

                   wget -r -l1 --no-parent -A.gif http://www.server.com/dir/

           Wicej pisaniny, ale skutek jest taki sam.  -r -l1 oznacza
           pobieranie rekurencyjne, z maksymaln glbokoci 1.  --no-parent
           znaczy, e odwolania do katalogu nadrzdnego maj by ignorowane, a
           -A.gif oznacza ciganie tylko plikow GIF.  Dzialaloby te -A "*.gif".

       o   Zalomy, e bylimy w polowie cigania, gdy nagle przerwano prac Wget.
           Nie chcielibymy teraz nadpisywa ju obecnych plikow ponownie
           ciganymi.  Napisalibymy:

                   wget -nc -r http://www.gnu.org/

       o   Do zakodowania swojej nazwy uytkownika i hasla do HTTP lub FTP
           uywamy odpowiedniej skladni URL-a.

                   wget ftp://hniksic:mojehaslo@unix.server.com/.emacs

           Naley jednak zauway, e w systemach wielodostpnych taki sposob uycia
           jest niezalecany, poniewa ujawnia haslo kademu, kto spojrzy na
           wynik dzialania "ps".

           A moe chcielibymy, eby dokumenty wynikowe byly kierowane na
           standardowe wyjcie, a nie zapisywane do plikow?

                   wget -O - http://jagor.srce.hr/ http://www.srce.hr/

           Mona te lczy te dwie opcje i tworzy potoki do pobierania dokumentow
           ze zdalnych list przebojow:

                   wget -O - http://cool.list.com/ | wget --force-html -i -

       Bardzo zaawansowane zastosowania

       o   Jeli chcemy, by Wget utrzymywal lustrzan kopi strony (lub
           podkatalogow FTP), stosujemy --mirror (-m), co jest skroconym
           zapisem dla -r -l inf -N.  Umieszczamy Wget w pliku crontab, dajc,
           by w kad niedziel ponawial sprawdzanie orodka:

                   crontab
                   0 0 * * 0 wget --mirror http://www.gnu.org/ -o /home/ja/weeklog

       o   Dodatkowo mona zayczy sobie konwersji odnonikow, tak by calo
           nadawala si do przegldania lokalnie. Jednak, po przeczytaniu tego
           podrcznika, wiecie ju, e taka konwersja nie sprawuje si dobrze, gdy
           wykorzystujemy znaczniki czasu, wic chcemy rownie, eby Wget
           utworzyl kopie oryginalnych plikow HTML przed ich przeksztalceniem.
           Odpowiednie Wywolanie wygldaloby tak:

                   wget --mirror --convert-links --backup-converted  \
                        http://www.gnu.org/ -o /home/ja/weeklog

       o   Ale zauwaylicie te, e lokalne przegldanie nie dziala calkiem
           poprawnie, jeli pliki HTML zapisano z innym rozszerzeniem ni .html,
           na przyklad dlatego, e dostarczono je jako index.cgi. Zatem
           chcielibymy, eby Wget wszystkim plikom przekazanym z naglowkiem
           content-type rownym text/html zmienil nazwy na nazwa.html.

                   wget --mirror --convert-links --backup-converted \
                        --html-extension -o /home/ja/weeklog        \
                        http://www.gnu.org/

           Lub te, piszc krocej:

                   wget -m -k -K -E http://www.gnu.org/ -o /home/me/weeklog

PLIKI

       /etc/wgetrc
           Domylne poloenie globalnego pliku startowego.

       .wgetrc
           Prywatny plik startowy uytkownika.

B/L/LDY

       Zachcamy do przesylania zglosze bldow dotyczcych GNU Wget na adres
       <"bug-wget@gnu.org">.

       Przed faktycznym przedloeniem zgloszenia bldu, sprobuj, prosz,
       zastosowa si do kilku prostych wskazowek.

       1.  Sprobuj upewni si, e obserwowane zachowanie jest rzeczywicie bldem.
           Jeli Wget si wywala, jest to bld.  Jeli nie zachowuje si zgodnie z
           dokumentacj, jest to bld.  Jeli co dziala dziwnie, ale nie jeste
           pewien, w jaki sposob powinno, moe to te by bldem.

       2.  Sprobuj, prosz, powtorzy ten bld w moliwie najprostszych warunkach.
           Np. jeli Wget pada podczas cigania wget -rl0 -kKE -t5 -Y0
           http://yoyodyne.com -o /tmp/log, powiniene sprobowa sprawdzi, czy
           to wywalanie si jest powtarzalne i czy pojawia si przy prostszym
           zestawie opcji. Moesz nawet sprobowa zacz pobieranie od strony,
           przy ktorej wystpila awaria i sprawdzi, czy to nie ta strona w jaki
           sposob j powoduje.

           Ponadto, cho co prawda prawdopodobnie bd zainteresowany zawartoci
           twojego pliku .wgetrc, skopiowanie go po prostu do wiadomoci o
           bldzie jest raczej zlym pomyslem.  Zamiast tego, powiniene najpierw
           sprawdzi, czy bld powtarza si przy .wgetrc przesunitym na ubocze.
           Przelij mi odpowiednie fragmenty tego pliku tylko wtedy, gdy okae
           si, e bld zaley od ustawie .wgetrc.

       3.  Uruchom, prosz, Wget z opcj -d i przelij uzyskany protokol (lub
           zwizane z bldem jego czci).  Jeli Wget zostal skompilowany bez
           obslugi debugowania, skompiluj go ponownie.  Duo latwiej jest ledzi
           bldy z udostpnion diagnostyk.

       4.  jeli Wget si wywala, sprobuj uruchomi go w debugerze, np.  "gdb
           `which wget` core" i wpisz "where", by otrzyma stos wywolania
           (backtrace).

ZOBACZ TAKE

       Plik GNU Info dla wget.

AUTOR

       Pierwotnie napisane przez Hrvoje Niksic <hniksic@arsdigita.com>.

COPYRIGHT

       Copyright (C) 1996, 1997, 1998, 2000, 2001 Free Software Foundation,
       Inc.

       Zezwala si na sporzdzanie i rozpowszechnianie niezmienionych kopii tego
       podrcznika, pod warunkiem zachowania na wszystkich kopiach informacji o
       prawach autorskich i niniejszego zezwolenia.

       Zezwala si na kopiowanie, rozpowszechnianie i/lub modyfikowanie tego
       dokumentu na warunkach Licencji Wolnej Dokumentacji GNU (GNU Free
       Documentation License) w wersji 1.1 lub jakiejkolwiek nowszej wersji
       opublikowanej przez Fundacj Wolnego Oprogramowania, przy czym Sekcjami
       niezmiennymi s ,,GNU General Public License'' i ,,GNU Free
       Documentation License'', bez treci przedniej lub tylnej strony okladki.
       Egzemplarz licencji zamieszczono w sekcji zatytulowanej ,,GNU Free
       Documentation License''.

INFORMACJE O T/L/LUMACZENIU

       Powysze tlumaczenie pochodzi z nieistniejcego ju Projektu Tlumaczenia
       Manuali i moe nie by aktualne. W razie zauwaenia ronic midzy powyszym
       opisem a rzeczywistym zachowaniem opisywanego programu lub funkcji,
       prosimy o zapoznanie si z oryginaln (angielsk) wersj strony podrcznika.