Provided by: manpages-pl_4.19.0-7_all bug

NAZWA

       wget - nieinteraktywny program do pobierania z sieci

SKŁADNIA

       wget [opcja]... [URL]...

OPIS

       GNU Wget jest wolnym programem narzędziowym do pobierania plików z sieci. Obsługuje
       protokoły HTTP, HTTPS i FTP, a także pobieranie poprzez serwery proxy HTTP.

       Wget jest nieinteraktywny, co pozwala mu działać w tle, w czasie gdy użytkownik nie jest
       zalogowany. Dzięki temu użytkownik może rozpocząć pobieranie i rozłączyć się z komputerem,
       pozwalając Wgetowi na zakończenie pracy. Większość przeglądarek WWW wymaga ciągłej
       obecności człowieka, co staje się uciążliwe przy pobieraniu dużej ilości danych.

       Wget potrafi podążać za odnośnikami zawartymi w stronach HMTL, XHTML i CSS oraz tworzyć
       lokalne wersje zdalnych witryn, w pełni odtwarzając strukturę katalogów oryginalnej
       strony. Jest to czasami nazywane "pobieraniem rekurencyjnym". Podczas takiego działania
       Wget respektuje ustalenia Standardu Robot Exclusion (/robots.txt). Możliwe jest
       poinstruowanie programu, by w pobieranych plikach przekształcał odnośniki tak, aby
       wskazywały na lokalne kopie, do przeglądania bez połączenia.

       Wget został zaprojektowany tak, by działać solidnie również przy powolnych bądź
       niestabilnych połączeniach. Jeżeli pobieranie nie udaje się z powodu problemów z siecią,
       ponawia próby aż do ściągnięcia całości pliku. Jeśli dany serwer obsługuje taką możliwość,
       Wget nakaże kontynuację pobierania od miejsca, w którym przerwano.

OPCJE

   Składnia opcji
       Wget używa GNU getopt do przetwarzania argumentów wiersza poleceń, więc każda opcja ma
       długi i krótki format. Długie opcje są łatwiejsze do zapamiętania, lecz wpisuje się je
       dłużej. Można dowolnie łączyć oba style zapisu lub podać opcje po argumentach wiersza
       poleceń. Można więc użyć:

               wget -r --tries=10 http://fly.srk.fer.hr/ -o log

       Spacja pomiędzy opcją akceptującą argument i argumentem może być pomięta. Zamiast -o log
       można wpisać -olog.

       Można umieścić kilka opcji, które nie wymagają argumentów razem, tak jak poniżej:

               wget -drc <URL>

       Jest to równoważne zapisowi:

               wget -d -r -c <URL>

       Ponieważ opcje mogą być podane po argumentach, może być konieczne oddzielenie ich za
       pomocą --. Poniższe polecenie spróbuje pobrać URL -x, zapisując niepowodzenie do log:

               wget -o log -- -x

       Opcje, które akceptują listy oddzielone przecinkami, respektują konwencję podania pustej
       listy, która usuwa ich wartosć. Jest to przydatne do wyczyszczenia ustawień .wgetrc np.
       jeśli .wgetrc użytkownika ustawia "exclude_directories" na /cgi-bin, to poniższy przykład
       najpierw zresetuje wartość, a następnie ustawi ją na /~nobody i /~somebody. Można również
       wyczyścić listę w .wgetrc.

        wget -X "" -X /~nobody,/~somebody

       Większość opcji, która nie akceptuje argumentów są opcjami logicznymi tzn. takimi, których
       stan można opisać zmienną zero-jedynkową ("logiczną"). Na przykład --follow-ftp mówi
       Wgetowi, aby podążał za linkami FTP z plików HTML, a --no-glob nakazuje nieprzeprowadzania
       rozwijania masek URL-i FTP. Opcje logiczną są albo pozytywne, albo negatywne (te zaczynają
       się od --no). Wszystkie takie opcje mają kilka własności.

       Jeżeli nie zaznaczono inaczej, to przyjmuje się, że domyślne zachowanie jest przeciwne niż
       to, które zapewnia opcja. Na przykład udokumentowane istnienie --follow-ftp wskazuje, że
       domyślnie nie podąża się za linkami FTP ze stron HTML.

       Działanie opcji pozytywnych można odwrócić dodając --no- do ich nazw; analogicznie w
       przypadku opcji negatywnych (wyłączających) - usuwając przedrostek --no-. Może to wyglądać
       na niepotrzebne -- skoro domyślnym działaniem opcji pozytywnych jest nie robienie czegoś,
       to po co zapewniać metodę jawnego wyłączania ich? Wynika to z działania pliku startowego,
       który może zmienić wartości domyślne. Przykładowo, skorzystanie z wpisu follow_ftp = on w
       pliku .wgetrc powoduje, że Wget domyślnie podąża (follow) za dowiązaniami FTP, natomiast
       opcja --no-follow-ftp jest jedynym sposobem na przywrócenie wartości pierwotnie domyślnych
       z wiersza poleceń.

   Podstawowe opcje uruchamiania
       -V
       --version
           Wyświetla wersję Wgeta.

       -h
       --help
           Wypisuje komunikat pomocy, opisujący wszystkie opcje, jakie można przekazać Wgetowi w
           wierszu poleceń.

       -b
       --background
           Przechodzi w tło natychmiast po rozpoczęciu pracy.  Jeśli nie podano pliku wyjściowego
           za pomocą -o, wyjście jest przekierowywane do wget-log.

       -e polecenie
       --execute polecenie
           Wykonuje polecenie tak, jakby było częścią .wgetrc. Polecenie wywołane w ten sposób
           zostanie wykonane po poleceniach z .wgetrc, więc będzie mieć nad nimi priorytet. Aby
           podać kilka poleceń wgetrc, należy użyć opcji -e wielokrotnie.

   Opcje dziennika i pliku wejściowego
       -o dziennik
       --output-file=dziennik
           Rejestruje wszystkie komunikaty w pliku dziennika.  Normalnie są zgłaszane na
           standardowym wyjściu błędów.

       -a dziennik
       --append-output=dziennik
           Dodaje komunikaty na końcu pliku dziennika.  Jest to to samo, co -o, tyle że dopisuje
           do dziennika zamiast nadpisywać stary. Jeśli plik dziennik nie istnieje, jest
           tworzony.

       -d
       --debug
           Włącza wyjście diagnostyczne, czyli wypisywanie rozmaitych informacji ważnych dla
           twórców Wget, gdy nie działa on poprawnie. Administrator systemu mógł skompilować Wget
           bez obsługi trybu usuwania błędów, wówczas -d nie będzie działać.  Należy zauważyć, że
           kompilacja z obsługą diagnostyki jest zawsze bezpieczna -- Wget skompilowany w ten
           sposób nie będzie wypisywał żadnych informacji diagnostycznych dopóki nie zażąda się
           tego opcją -d.

       -q
       --quiet
           Tryb cichy. Wyłącza wyjście Wget.

       -v
       --verbose
           Pełne wyjście, z wszystkimi dostępnymi danymi. Jest to opcja domyślna.

       -nv
       --non-verbose
           Niepełne wyjście -- wyłącza pełne wyjście, ale nie ucisza całkowicie (to robi się
           opcją -q); komunikaty o błędach i podstawowe informacje będą nadal wypisywane.

       --report-speed=typ
           Wypisuje przepustowość jako typ. Jedyną akceptowaną wartością są bity (bits).

       -i plik
       --input-file=plik
           Odczytuje URL-e z lokalnego lub zewnętrznego pliku. Jeśli jako plik podano -, to URL-e
           są czytane ze standardowego wejścia (aby czytać z pliku nazwanego -, należy użyć
           zapisu ./-).

           Czyta URL-e z pliku wejściowego plik, w związku z czym nie trzeba ich podawać w
           wierszu poleceń.  Jeśli URL-e podano zarówno w wierszu poleceń, jak i w pliku
           wejściowym, to pierwsze zostaną pobrane pliki wymienione w wierszu poleceń.  Jeśli nie
           podano opcji --force-html, to plik powinien składać się z zestawu URL-i - po jednym na
           wiersz.

           Jednakże jeśli zostanie podana opcja --force-html, to plik będzie traktowany jak
           dokument html.  Mogą się wówczas pojawić kłopoty z odnośnikami względnymi, które można
           rozwiązać dodając "<base href="url">" do pliku lub podając --base=url w wierszu
           poleceń.

           Jeśli plik jest plikiem zewnętrznym, to dokument zostanie potraktowany automatycznie
           jako html, jeśli jego Content-Type pasuje do text/html. Co więcej, położenie pliku
           zostanie użyte jako href, jeśli nie podano innego.

       --input-metalink=plik
           Downloads files covered in local Metalink file. Metalink version 3 and 4 are
           supported.

       --keep-badhash
           Keeps downloaded Metalink's files with a bad hash. It appends .badhash to the name of
           Metalink's files which have a checksum mismatch, except without overwriting existing
           files.

       --metalink-over-http
           Issues HTTP HEAD request instead of GET and extracts Metalink metadata from response
           headers. Then it switches to Metalink download.  If no valid Metalink metadata is
           found, it falls back to ordinary HTTP download.  Enables Content-Type:
           application/metalink4+xml files download/processing.

       --metalink-index=number
           Set the Metalink application/metalink4+xml metaurl ordinal NUMBER. From 1 to the total
           number of "application/metalink4+xml" available.  Specify 0 or inf to choose the first
           good one.  Metaurls, such as those from a --metalink-over-http, may have been sorted
           by priority key's value; keep this in mind to choose the right NUMBER.

       --preferred-location
           Set preferred location for Metalink resources. This has effect if multiple resources
           with same priority are available.

       --xattr
           Enable use of file system's extended attributes to save the original URL and the
           Referer HTTP header value if used.

           Be aware that the URL might contain private information like access tokens or
           credentials.

       -F
       --force-html
           Kiedy wejście jest czytane z pliku, wymusza aby było traktowane jako plik HTML.
           Pozwala to na pobieranie względnych odnośników z istniejących plików HTML znajdujących
           się na lokalnym dysku naszego komputera, przez dodanie znacznika "<base href="url">"
           do pliku HTML lub użycie opcji --base.

       -B URL
       --base=URL
           Przekształca linki względne używając URL-i jako punktu odniesienia, przy odczytywaniu
           linków z pliku HTML określonego opcją -i/--input-file (razem z --force-html lub gdy
           plik został pobrany z serwera zewnętrznego, opisującego go jako HTML). Jest to
           odpowiednik obecności znacznika BASE w pliku wejściowym HTML, z wartością URL jako
           wartość atrybutu href.

           Na przykład przy podaniu http://foo/bar/a.html do URL i odczytaniu przez Wgeta
           ../baz/b.html z pliku wejściowego, zostanie on przekształcony do
           http://foo/baz/b.html.

       --config=plik
           Specify the location of a startup file you wish to use instead of the default one(s).
           Use --no-config to disable reading of config files.  If both --config and --no-config
           are given, --no-config is ignored.

       --rejected-log=logfile
           Logs all URL rejections to logfile as comma separated values.  The values include the
           reason of rejection, the URL and the parent URL it was found in.

   Opcje pobierania
       --bind-address=adres
           Podczas tworzenia klienckich połączeń TCP/IP, wiąże z lokalnym komputerem, przez
           "bind()", zadany adres. Adres można podać jako nazwę hosta lub adres IP.  Może się
           przydać jeśli dany komputer ma przypisane kilka adresów IP.

       --bind-dns-address=adres
           [libcares only] This address overrides the route for DNS requests. If you ever need to
           circumvent the standard settings from /etc/resolv.conf, this option together with
           --dns-servers is your friend.  ADDRESS must be specified either as IPv4 or IPv6
           address.  Wget needs to be built with libcares for this option to be available.

       --dns-servers=adres
           [libcares only] The given address(es) override the standard nameserver addresses, e.g.
           as configured in /etc/resolv.conf.  ADDRESSES may be specified either as IPv4 or IPv6
           addresses, comma-separated.  Wget needs to be built with libcares for this option to
           be available.

       -t liczba
       --tries=liczba
           Ustawia liczbę prób na liczbę. 0 lub inf oznacza próbowanie bez końca. Domyślna
           wartość wynosi 20, z wyjątkiem błędów krytycznych, takich jak "connection refused"
           (odrzucono połączenie) lub "not found" (nie znaleziono - 404), gdy nie podejmuje się
           ponownych prób.

       -O plik
       --output-document=plik
           Dokumenty nie będą zapisywane do odpowiednich plików, ale wszystkie zostaną sklejone i
           zapisane do pliku. Jeśli jako plik podano -, dokumenty będą zapisane na standardowe
           wyjście, wyłączając konwersję linków (proszę użyć ./-, aby zapisać do pliku o nazwie
           -).

           Użycie -O nie jest przeznaczone jako "użyj nazwy pliku zamiast tej z URL-a", lecz jest
           to odpowiednik przekierowania powłoki: wget -O plik http://foo jest zaprojektowane do
           działania jak wget -O - http://foo > plik; plik zostanie natychmiast przycięty, i cała
           zawartość pobierania zostanie do niego zapisana.

           Z tego powodu, -N (sprawdzanie znacznika czasowego) nie jest obsługiwane w połączeniu
           z -O: ponieważ plik jest zawsze nowo tworzony, będzie miał on zawsze całkiem nowy
           znacznik czasowy. Przy użyciu tej kombinacji wyświetlane jest ostrzeżenie.

           Podobnie, używanie -r lub -p z -O może nie działać zgodnie z przewidywaniami: Wget nie
           będzie pobierał pierwszego pliku do pliku, a reszty do zwykłych plików; cała zawartość
           pobierania zostanie umieszczona w pliku. Zostało to wyłączone w wersji 1.11, lecz
           powróciło (z ostrzeżeniem) w 1.11.2, ponieważ są przypadki, gdzie takie zachowanie
           może mieć sens.

           A combination with -nc is only accepted if the given output file does not exist.

           Proszę zauważyć, że kombinacja z -k jest dozwolona tylko przy pobieraniu pojedynczego
           dokumentu, ponieważ w takim przypadku, wszystkie relatywne URI zostaną przekształcone
           w URI zewnętrzne. Opcja -k nie ma sensu przy wielu URI, które zostały pobrane do
           pojedynczego pliku, stąd -k może być użyte tylko, jeśli wyjściem jest zwykły plik.

       -nc
       --no-clobber
           Jeśli plik jest pobierany więcej niż raz do tego samego katalogu, zachowanie Wgeta
           zależy od kilku opcji, między innymi -nc.  W pewnych przypadkach istniejący lokalny
           plik będzie nadpisany lub przebity (ang. clobbered), przy powtórzeniu ściągania.  W
           innych przypadkach zostanie zachowany.

           Przy uruchomieniu Wget bez opcji -N, -nc, -r lub -p pobranie tego samego pliku do tego
           samego katalogu spowoduje pozostawienie pierwotnego egzemplarza pliku i nadanie
           drugiemu nazwy plik.1.  Gdy plik będzie ściągany kolejny raz, trzeci egzemplarz
           otrzyma nazwę file.2, i tak dalej (jest tak również z opcją -nd, nawet jeśli działa
           równocześnie -r lub -p).  Przy podanej opcji -nc, zachowanie takie jest wstrzymywane,
           a Wget odmawia pobrania nowszych kopii pliku.  Dlatego też, "no-clobbe" jest w
           rzeczywistości złą nazwą dla tego trybu -- nie chroni on przed nadpisywaniem (gdyż
           temu zapobiegają już numeryczne przyrostki), ale przed zachowywaniem wielu wersji
           pliku.

           Przy uruchomieniu Wget z -r lub -p, ale bez -N, -nd czy -nc, ponowne ściągnięcie pliku
           powoduje, że nowa kopia po prostu nadpisuje starą.  Dodanie -nc zapobiega takiemu
           zachowaniu, skutkując zamiast tego zachowaniem pierwotnej wersji i ignorowaniem
           ewentualnych nowych kopii z serwera.

           Przy uruchomieniu Wget z -N, z opcją -r lub -p albo bez niej, decyzja, czy ściągać
           nową wersję pliku czy też nie, zależy od znaczników czasu (dat modyfikacji) i
           rozmiarów lokalnego i zdalnego pliku.  -nc nie można podawać równocześnie z -N.

           A combination with -O/--output-document is only accepted if the given output file does
           not exist.

           Proszę zauważyć, że jeśli podano -nc, pliki z przyrostkami .html lub .htm będą
           odczytywane z dysku i przetwarzane tak, jakby zostały pobrane z sieci.

       --backups=kopia-zapasowa
           Przed nadpisaniem pliku, istniejący jest zachowywany poprzez dodanie przyrostka .1 (_1
           w VMS) do nazwy pliku. Przy kolejnym przebiegu kolejne kopie zapasowe mają nazwy
           zmieniane na .2, .3 itd., aż do osiągnięcia liczby kopii-zapasowych (gdy ją przekroczą
           są usuwane).

       --no-netrc
           Do not try to obtain credentials from .netrc file. By default .netrc file is searched
           for credentials in case none have been passed on command line and authentication is
           required.

       -c
       --continue
           Kontynuuje pobieranie częściowo ściągniętego pliku.  Przydatne, gdy chcemy dokończyć
           ściąganie rozpoczęte w poprzednim przebiegu Wgeta lub przez inny program. Przykład:

                   wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

           Jeśli w bieżącym katalogu istnieje plik ls-lR.Z, Wget przyjmie, że jest to początkowy
           fragment zdalnego pliku i zażąda od serwera kontynuacji pobierania od przesunięcia
           równego długości lokalnego pliku.

           Proszę zauważyć, że nie ma potrzeby podawania tej opcji jeśli chcemy tylko, by
           aktualnie wywołany Wget ponownie próbował ściągać plik, w połowie którego zostało
           zerwane połączenie.  Jest to zachowanie domyślne.  Opcja -c wpływa tylko na wznawianie
           pobrań zaczętych przed bieżącym wywołaniem Wget i tylko dla tych plików, których
           lokalne kopie nadal istnieją.

           Bez -c, polecenie z poprzedniego przykładu pobrałby po prostu zdalny plik do
           ls-lR.Z.1, zostawiając w spokoju obcięty plik ls-lR.Z.

           If you use -c on a non-empty file, and the server does not support continued
           downloading, Wget will restart the download from scratch and overwrite the existing
           file entirely.

           Począwszy od Wget 1.7, jeśli użyjemy -c dla pliku, którego rozmiar jest taki sam, jak
           na serwerze, to Wget odmówi ściągnięcia pliku i wypisze komunikat objaśniający.  Tak
           samo dzieje się, gdy plik jest mniejszy na serwerze niż lokalnie (prawdopodobnie
           dlatego, że został zmieniony na serwerze od czasu naszej ostatniej próby ściągania) --
           ponieważ "kontynuacja" jest bezsensowna, pobieranie nie zachodzi.

           Z drugiej strony, przy stosowaniu -c, każdy plik, który jest większy na serwerze niż
           lokalnie będzie uważany za nie w pełni ściągnięty.  Wówczas pobranych i doczepionych
           na koniec pliku lokalnego zostanie tylko "(wielkość(zdalny) - wielkośc(lokalny))"
           bajtów.  W pewnych przypadkach takie zachowanie jest pożądane -- na przykład, można
           skorzystać z wget -c do ściągnięcia tylko nowej porcji danych, dopisanej na końcu
           zbioru danych czy pliku dziennika.

           Jednakże, jeśli plik na serwerze jest większy dlatego, że został zmieniony, a nie
           tylko doklejono do niego dane, to w efekcie otrzymamy zniekształcony plik.  Wget w
           żaden sposób nie może sprawdzić, czy lokalny plik jest poprawną częścią początkową
           zdalnego.  Należy na to szczególnie uważać stosując -c w połączeniu z -r, gdyż każdy
           plik będzie uważany za kandydata na "nieukończone ściąganie".

           Inną sytuacja, w której przy korzystaniu z -c uzyskuje się zniekształcony plik,
           zachodzi, gdy mamy do czynienia z ułomnym serwerami pośredniczącymi HTTP, wstawiającym
           łańcuch "transfer interrupted" do lokalnego pliku.  W przyszłości będzie może dodana
           opcja "rollback", obsługująca ten przypadek.

           Proszę zauważyć, że -c działa tylko z serwerami FTP i HTTP, które obsługują nagłówek
           "Range".

       --start-pos=OFFSET
           Start downloading at zero-based position OFFSET.  Offset may be expressed in bytes,
           kilobytes with the `k' suffix, or megabytes with the `m' suffix, etc.

           --start-pos has higher precedence over --continue.  When --start-pos and --continue
           are both specified, wget will emit a warning then proceed as if --continue was absent.

           Server support for continued download is required, otherwise --start-pos cannot help.
           See -c for details.

       --progress=typ
           Umożliwia wskazanie typu wskaźnika postępu. Dozwolonymi rodzajami wskaźnika są "dot"
           (kropka) i "bar" (pasek).

           Domyślnie stosowany jest wskaźnik "bar".  Rysowany jest wówczas pasek postępu złożony
           ze znaków graficznych ASCII (zwany czasem wskaźnikiem "termometrowym"), wskazujący
           stan pobierania. Jeżeli wyjściem programu nie jest TTY, to domyślnie zostanie użyty
           wskaźnik typu "dot".

           Aby przełączyć się na zapis kropkowy należy użyć opcji --progres=dot. Śledzi on
           pobieranie wypisując kropki, a każda oznacza określoną ilość pobranych danych.

           The progress type can also take one or more parameters.  The parameters vary based on
           the type selected.  Parameters to type are passed by appending them to the type
           sperated by a colon (:) like this: --progress=type:parameter1:parameter2.

           When using the dotted retrieval, you may set the style by specifying the type as
           dot:style.  Different styles assign different meaning to one dot.  With the "default"
           style each dot represents 1K, there are ten dots in a cluster and 50 dots in a line.
           The "binary" style has a more "computer"-like orientation---8K dots, 16-dots clusters
           and 48 dots per line (which makes for 384K lines).  The "mega" style is suitable for
           downloading large files---each dot represents 64K retrieved, there are eight dots in a
           cluster, and 48 dots on each line (so each line contains 3M).  If "mega" is not enough
           then you can use the "giga" style---each dot represents 1M retrieved, there are eight
           dots in a cluster, and 32 dots on each line (so each line contains 32M).

           With --progress=bar, there are currently two possible parameters, force and noscroll.

           When the output is not a TTY, the progress bar always falls back to "dot", even if
           --progress=bar was passed to Wget during invocation. This behaviour can be overridden
           and the "bar" output forced by using the "force" parameter as --progress=bar:force.

           By default, the bar style progress bar scroll the name of the file from left to right
           for the file being downloaded if the filename exceeds the maximum length allotted for
           its display.  In certain cases, such as with --progress=bar:force, one may not want
           the scrolling filename in the progress bar.  By passing the "noscroll" parameter, Wget
           can be forced to display as much of the filename as possible without scrolling through
           it.

           Note that you can set the default style using the "progress" command in .wgetrc.  That
           setting may be overridden from the command line.  For example, to force the bar output
           without scrolling, use --progress=bar:force:noscroll.

       --show-progress
           Force wget to display the progress bar in any verbosity.

           By default, wget only displays the progress bar in verbose mode.  One may however,
           want wget to display the progress bar on screen in conjunction with any other
           verbosity modes like --no-verbose or --quiet.  This is often a desired a property when
           invoking wget to download several small/large files.  In such a case, wget could
           simply be invoked with this parameter to get a much cleaner output on the screen.

           This option will also force the progress bar to be printed to stderr when used
           alongside the --output-file option.

       -N
       --timestamping
           Włącza stosowanie znaczników czasu (time-stamping).

       --no-if-modified-since
           Do not send If-Modified-Since header in -N mode. Send preliminary HEAD request
           instead. This has only effect in -N mode.

       --no-use-server-timestamps
           Nie ustawia znacznika czasu pliku lokalnego na podstawie znacznika z serwera.

           Domyślnie, gdy plik jest pobierany, używany jest znacznik czasu pliku zdalnego.
           Pozwala to na użycie opcji --timestamping w kolejnych wywołaniach wgeta. Czasem
           korzystniej jest ustawić znacznik czasu na podstawie rzeczywistego czasu pobierania; w
           tym celu powstała opcja --no-use-server-timestamps.

       -S
       --server-response
           Wypisuje nagłówki wysyłane przez serwery HTTP i odpowiedzi wysyłane przez serwery FTP.

       --spider
           Wywołany z tą opcją, Wget będzie zachowywał się jak sieciowy pająk (Web spider), to
           znaczy, że nie będzie pobierał stron, a jedynie sprawdzał, czy tam są.  Można to
           wykorzystać to sprawdzenia zakładek (bookmarks), na przykład tak:

                   wget --spider --force-html -i bookmarks.html

           Ta funkcja wymaga jeszcze wiele pracy, by Wget osiągnął możliwości zbliżone do
           prawdziwych pająków WWW.

       -T seconds
       --timeout=sekundy
           Ustawia sieciowy czas oczekiwania na sekundy sekund. Jest to odpowiednik jednoczesnego
           podania --dns-timeout, --connect-timeout i --read-timeout.

           Podczas interakcji z siecią, Wget może sprawdzić czas oczekiwania i przerwać operację,
           gdy zabiera zbyt dużo czasu. Zapobiega to takim anomaliom jak zawieszenie odczytu i
           niekończące się łączenie. Jedynym domyślnym czasem oczekiwania jest 900 sekundowe
           oczekiwanie na odczyt. Ustawienie "0", wyłączy go. Nie poleca się zmian domyślnych
           ustawień, chyba że wie się, co się robi.

           Wszystkie opcje związane z czasami oczekiwania akceptują wartości dziesiętne oraz
           ułamki sekundowe, np. 0.1 jest poprawną (choć bezsensowną) wartością czasu
           oczekiwania. Wartości mniejsze od sekundy są przydatne do sprawdzania czasu odpowiedzi
           serwera lub w celu testowania opóźnienia sieciowego.

       --dns-timeout=sekundy
           Ustawia czas translacji adresów DNS na sekundy sekund. Jeśli translacja DNS nie
           zostanie ukończona w podanym czasie, zakończy się błędem. Domyślnie, nie ma ograniczeń
           czasowych innych niż wynikających z implementacji bibliotek systemowych.

       --connect-timeout=sekundy
           Ustawia czas oczekiwania połączenia na sekundy sekund. Połączenia TCP, które
           potrzebują więcej czasu do poprawnego nawiązania, zostaną przerwane. Domyślnie, czas
           oczekiwania połączenia nie jest zdefiniowany, z wyłączeniem rozwiązań
           zaimplementowanych w bibliotekach systemowych.

       --read-timeout=sekundy
           Ustawia czasy oczekiwania odczytu (i zapisu) na sekundy sekund. "Czas" odnosi się tu
           do czasu bezczynności, tzn. jeśli w dowolnej chwili pobierania, dane nie są
           otrzymywane przez więcej niż podana liczba sekund, to odczyt zwraca błąd, a pobieranie
           jest restartowane. Opcja ta nie wpływa bezpośrednio na czas trwania samego pobierania.

           Zdalny serwer może oczywiście przerwać połączenie wcześniej, niż wynika to z wymagań
           tej opcji. Domyślny czas oczekiwania odczytu wynosi 900 sekund.

       --limit-rate=wielkość
           Ogranicza prędkość pobierania do wielkość bajtów na sekundę. Wielkość może być
           wyrażona w bajtach, kilobajtach (z przyrostkiem k lub megabajtach (z przyrostkiem m.
           Na przykład --limit-rate=20k ograniczy prędkość pobierania do 20 KB/s. Jest to
           przydatne, gdy z jakiegoś powodu nie chce się pozwolić Wgetowi na zajęcie całej
           przepustowości łącza.

           Opcja wymaga liczb dziesiętnych, połączonych z reguły z odpowiednim przyrostkiem;
           poprawną wartością jest na przykład --limit-rate=2.5k.

           Proszę zauważyć, że implementację Wgeta jest wstrzymywanie transferu na pewny czas po
           tym, gdy odczyt sieciowy zabiera mniej czasu niż wynikałoby to z żądanej
           przepustowości. Ta strategia skutkuje ostatecznie spowolnieniem transferu TCP do
           wartości przybliżonej do podanej. Osiągnięcie zbalansowanego poziomu może chwilę
           potrwać, dlatego proszę się nie dziwić, że ograniczanie przepustowości nie działa zbyt
           dobrze w przypadku bardzo małych plików.

       -w sekundy
       --wait=sekundy
           Odczekuje zadaną liczbę sekund pomiędzy kolejnymi pobraniami.  Zaleca się używanie tej
           opcji, gdyż zmniejsza obciążenie serwera dzięki rzadszym żądaniom.  Czas, zamiast w
           sekundach, można podać w minutach dodając przyrostek "m", w godzinach - dodając "h"
           lub w dniach - dodając "d".

           Określanie dużej wartości tej opcji przydaje się jeśli sieć lub komputer docelowa są
           wyłączone.  Wówczas Wget może odczekać wystarczająco długo, by rozsądnie spodziewać
           się, że przed ponowną próbą błąd sieci został naprawiony. Na czas oczekiwania
           określony przez tę opcję wpływa --random-wait.

       --waitretry=sekundy
           Opcję tę stosujemy jeśli nie chcemy, by Wget czekał pomiędzy każdym pobraniem, a tylko
           pomiędzy ponawianymi próbami nieudanych pobrań.  Wget zastosuje odczekiwanie liniowe
           (linear backoff), czekając 1 sekundę po pierwszym niepowodzeniu z danym plikiem,
           następnie 2 sekundy po drugim niepowodzeniu z tym plikiem, aż do maksymalnej liczby
           sekund, jaką podano.  Zatem, wartość 10 faktycznie spowoduje, że Wget będzie
           odczekiwał łącznie do (1 + 2 + ... + 10) = 55 sekund na każdy plik.

           Domyślna wartość jaka zostanie przyjęta, wynosi 10 sekund.

       --random-wait
           W niektórych z ośrodków wykonywana jest analiza plików dziennikowych (tzw. logów),
           która ma na celu zidentyfikowanie programów do pobierania, takich jak Wget. Polega ona
           na wyszukiwaniu statystycznie znaczących podobieństw między różnicami czasu, jaki
           upłynął pomiędzy kolejnymi żądaniami.  Ta opcja powoduje, że dla zamaskowania przed
           takimi analizami obecności Wgeta czas pomiędzy żądaniami będzie się wahać od 0,5 do
           1,5 * sekundy, gdzie sekundy podano opcją --wait (-w).

           W artykule z 2001, w pewnej publikacji poświęconej rozwijaniu oprogramowania na
           popularnych platformach klienckich, podano kod wykonujący taką analizę na bieżąco.
           Autor sugerował blokowanie na poziomie adresu klasy C, co ma gwarantować, że programy
           pobierające zostaną zablokowane niezależnie od zmiany adresów przedzielanych przez
           DHCP.

           Opcja --random-wait powstała z powodu tej właśnie nierozważnej porady, zalecającej
           blokowanie wielu postronnych użytkowników ośrodka z powodu działań jednego z nich.

       --no-proxy
           Wyłącza używanie serwerów pośredniczących, nawet jeśli zdefiniowano odpowiednią
           zmienną środowiskową *_proxy.

       -Q wielkość
       --quota=wielkość
           Określa ograniczenie wielkości pobieranych danych przy ściąganiu automatycznym. Limit
           podawany jest w bajtach (domyślnie), kilobajtach (z przyrostkiem k) lub megabajtach (z
           przyrostkiem m).

           Note that quota will never affect downloading a single file.  So if you specify wget
           -Q10k https://example.com/ls-lR.gz, all of the ls-lR.gz will be downloaded.  The same
           goes even when several URLs are specified on the command-line.  The quota is checked
           only at the end of each downloaded file, so it will never result in a partially
           downloaded file. Thus you may safely type wget -Q2m -i sites---download will be
           aborted after the file that exhausts the quota is completely downloaded.

           Ustawienie limitu na 0 lub na inf znosi ograniczenie pobierania.

       --no-dns-cache
           Wyłącza buforowanie translacji DNS. Wget zwykle zapamiętuje przetłumaczone adresy IP z
           DNS, dzięki czemu nie musi odpytywać ponownie serwera DNS w sprawie tego samego
           (zwykle małego) zestawu hostów, z których następuje pobieranie. Bufor istnieje
           wyłącznie w pamięci; nowa kopia Wgeta ponownie odpyta serwery DNS.

           W niektórych przypadkach zostało zgłoszone, że buforowanie nazw hostów nie jest
           pożądane nawet, gdy trwa to tylko tyle, ile działanie Wgeta. Po użyciu tej opcji, Wget
           wysyła nowe żądanie translacji DNS (bardziej precyzyjnie: nowe wywołanie gethostbyname
           lub getaddrinfo) przy każdym zestawianiu nowego połączenia. Proszę zauważyć, że opcja
           ta nie wpływa na buforowanie, które może być wykonywane przez odpowiednią bibliotekę
           lub w zewnętrznej warstwie buforowania, takiej jak NSCD.

           Jeśli przeznaczenie tej opcji nie jest całkowicie jasne, prawdopodobnie nie ma
           potrzeby jej stosowania.

       --restrict-file-names=tryby
           Zmienia znaki, które mają być cytowane w odnośnikach zewnętrznych podczas tworzenia
           lokalnych nazw plików. Znaki, które są ograniczone przez tę opcję, są cytowane - tzn.
           zastępowane przez %HH, gdzie HH jest liczbą szesnastkową odpowiadającą ograniczonemu
           znakowi. Opcję można wykorzystać również do wymuszenia określonej wielkości liter.

           Domyślnie, Wget cytuje znaki, które nie są prawidłowe lub bezpieczne jako część nazwy
           pliku w danym systemie operacyjnym, jak również znaki kontrolne, które zwykle nie są
           wyświetlane. Opcja jest przydatna do zmiany wartości domyślnych, np. ponieważ plik
           został pobrany na partycję nienatywną, aby wyłączyć cytowanie znaków kontrolnych lub
           aby jeszcze bardziej ograniczyć zestaw znaków, do wartości ASCII.

           Tryby są zestawem wartości tekstowych, oddzielonych przecinkiem. Akceptowanymi
           wartościami są: unix, windows, nocontrol, ascii, lowercase i uppercase. Wartości unix
           i windows są wzajemnie sprzeczne (jedna przesłoni drugą), podobnie jak lowercase i
           uppercase. Dwie ostatnie są wartościami specjalnymi, ponieważ nie zmieniają one
           zestawu znaków do cytowania, lecz wymuszają przekształcenie ścieżek plików lokalnych
           na, odpowiednio, małe litery i duże litery.

           Jeśli użyje się trybu unix, to Wget będzie cytował znak / oraz znaki kontrolne z
           przedziałów 0-31 i 128-159. Jest to domyślne zachowanie w systemach uniksowych.

           Przy podaniu trybu windows, Wget cytuje znaki \, |, /, :, ?, ", *, <, > oraz znaki
           kontrolne w przedziałach 0-31 i 128-159. Dodatkowo, w lokalnych nazwach plików, w
           trybie windowsowym Wget oddziela nazwę komputera i port znakiem + zamiast :, oraz
           używa @ zamiast ? do oddzielenia części zapytania w nazwie pliku od reszty. Dlatego,
           URL który w trybie uniksowym zostałby zachowany jako
           www.xemacs.org:4300/search.pl?input=blah, w trybie windowsowym zostanie zapisany jako
           www.xemacs.org+4300/search.pl@input=blah. Jest to domyślny tryb w systemie Windows.

           Tryb nocontrol wyłącza cytowanie znaków kontrolnych. Opcja ta ma sens, gdy pobierane
           są URL-e zawierające znaki UTF-8 w systemie, który może zapisywać i wyświetlać nazwy
           plików w UTF-8 (część możliwych wartości bajtów używanych w sekwencjach UTF-8 mieści
           się w zakresie wartości opisywanych przez Wgeta jako "kontrolne".

           Tryb ascii cytuje wszystkie bajty spoza zakresu znaków ASCII (czyli większe niż 127).
           Przydatne, gdy kodowanie nazw plików nie pasuje do tego używanego lokalnie.

       -4
       --inet4-only
       -6
       --inet6-only
           Wymusza połączenia z adresami IPv4 lub IPv6. Z opcją --inet4-only lub -4, Wget połączy
           się wyłącznie z adresami IPv4, ignorując rekordy AAAA w DNS i odmawiając połączenia z
           adresami IPv6 podanymi w URL-u. Analogicznie, opcja --inet6-only lub -6 spowoduje
           łączenie się wyłącznie z adresami IPv6 i ignorowanie rekordów A i adresów IPv4.

           Nie powinno się zwykle używać żadnej z tych opcji. Domyślnie, Wget obsługujący adresy
           IPv6 będzie używał rodziny adresów określonych przez rekord DNS hosta. Jeśli DNS
           odpowie zarówno adresem IPv4 jak i IPv6, to Wget spróbuje połączyć się z nimi po
           kolei, dopóki mu się to nie uda (zob. też opcja --prefer-family opisana poniżej).

           Opcje te mogą posłużyć do celowego wymuszenia użycia rodzin adresów IPv4 lub IPv6 w
           systemach o podwójnej rodzinie adresów, zwykle w celu pomocy w debugowaniu lub do
           obsługi nieprawidłowej konfiguracji sieci. W tym samym czasie można użyć tylko jednej
           z opcji --inet6-only i --inet4-only. Żadna z nich nie jest dostępna we Wgecie
           skompilowanym bez obsługi IPv6.

       --prefer-family=none/IPv4/IPv6
           Gdy do wyboru będzie kilka adresów, łączy się najpierw z adresami z podanej rodziny.
           Kolejność adresów zwrócona przez DNS domyślnie jest używana bez zmian.

           Zapobiega się w ten sposób fałszywym błędom i próbom łączenia przy dostępnie do
           hostów, które obsługują zarówno adresy IPv6 jak i IPv4 z sieci IPv4. Na przykład
           www.kame.net tłumaczy się na 2001:200:0:8002:203:47ff:fea5:3085 i 203.178.141.194.
           Jeśli preferowaną rodziną adresów jest "IPv4", to one są używane jako pierwsze; jeśli
           preferowaną rodziną jest "IPv6", adresy IPv6 mają pierwszeństwo. Jeśli podaną
           wartością jest "none", to używana jest kolejność adresów zwracana przez DNS.

           W przeciwieństwie do opcji -4 i -6, ta opcja nie wyklucza dostępu do którejś rodziny
           adresów - zmienia jedynie kolejność wykorzystania adresów. Proszę również zauważyć, że
           zmiana kolejności wykonywana za pomocą tej opcji jest stabilna - nie dotyka kolejności
           adresów w tej samej rodzinie. Oznacza to, że względna kolejność adresów IPv4 i adresów
           IPv6, we wszystkich przypadkach pozostaje bez zmian.

       --retry-connrefused
           Uznaje "odrzucenie połączenia" za błąd przejściowy i próbuje ponownie. Zwykle Wget
           poddaje się w przypadku URL-i, przy których nie może się połączyć, ponieważ taki błąd
           uznawany jest za znak całkowitego niedziałania serwera i ponowne próby zwykle nie
           przyniosłyby rezultatu. Opcja jest przeznaczona do tworzenia kopii lustrzanych stron
           na niestabilnych serwerach, które mają tendencję do znikania na krótki czas z sieci.

       --user=użytkownik
       --password=hasło
           Określa użytkownika użytkownik i hasło hasło do pobierania plików za pomocą FTP i
           HTTP. Można przesłonić te parametry za pomocą opcji --ftp-user i --ftp-password w
           przypadku połączeń FTP oraz --http-user i --http-password w przypadku połączeń HTTP.

       --ask-password
           Pyta o hasło po zestawieniu każdego połączenia. Nie można użyć tej opcji z --password,
           ponieważ wzajemnie się wykluczają.

       --use-askpass=polecenie
           Prompt for a user and password using the specified command.  If no command is
           specified then the command in the environment variable WGET_ASKPASS is used.  If
           WGET_ASKPASS is not set then the command in the environment variable SSH_ASKPASS is
           used.

           You can set the default command for use-askpass in the .wgetrc.  That setting may be
           overridden from the command line.

       --no-iri
           Wyłącza obsługę URI ze znakami narodowymi (IRI). Opcja --iri włącza ją. Obsługa IRI
           jest domyślnie włączona.

           Można ustawić domyślną wartość obsługi IRI za pomocą polecenia iri w .wgetrc, które
           może być przesłonięte z wiersza poleceń.

       --local-encoding=kodowanie
           Wymusza użycie kodowania jako domyślnego kodowania systemowego. Wpływa to na sposób, w
           jaki Wget przekształca URL-e podane jako argumenty do kodowania UTF-8, w celu obsługi
           IRI.

           Wget używa funkcji nl_langinfo(), a następnie zmiennej środowiskowej CHARSET w celu
           ustalenia kodowania. Jeśli nie powiedzie się to, używane jest ASCII.

           Można ustawić domyślne kodowanie lokalne za pomocą polecenia local_encoding w .wgetrc,
           które może być przesłonięte z wiersza poleceń.

       --remote-encoding=kodowanie
           Wymusza użycie kodowania jako domyślnego kodowania serwera zdalnego. Wpływa to na
           sposób tłumaczenia URI znajdowanych w plikach, z kodowania zdalnego na UTF-8 podczas
           pobierania rekurencyjnego.Opcja jest przydatna tylko do obsługi IRI, w celu
           interpretacji znaków spoza ASCII.

           W przypadku HTTP, kodowanie zdalne można znaleźć w nagłówku HTTP Content-Type i w
           metaznaczniku  Content-Type http-equiv.

           Można ustawić domyślne kodowanie za pomocą polecenia remoteencoding w .wgetrc, które
           może być przesłonięte z wiersza poleceń.

       --unlink
           Wymusza wykonywanie unlink na plikach, zamiast przebijania plików istniejących. Opcja
           jest przydatna w przypadku pobierania do katalogu zawierającego dowiązania zwykłe
           (twarde).

   Opcje katalogów
       -nd
       --no-directories
           Nie tworzy hierarchii katalogów przy pobieraniu rekurencyjnym.  Po włączeniu tej opcji
           wszystkie pliki będą zapisywane do bieżącego katalogu bez przebijania (jeśli nazwa
           pojawi się więcej niż raz, nazwy plików otrzymają rozszerzenie .n).

       -x
       --force-directories
           Przeciwieństwo -nd. Wymusza utworzenie hierarchii katalogów nawet jeśli nie miałaby
           być stworzona.  Np. wget -x http://fly.srk.fer.hr/robots.txt zapisze ściągnięty plik
           jako fly.srk.fer.hr/robots.txt.

       -nH
       --no-host-directories
           Wyłącza tworzenie katalogów z nazwą hosta jako przedrostkiem. Domyślnie, -r
           http://fly.srk.fer.hr/ spowoduje utworzenie struktury katalogów zaczynającej się od
           fly.srk.fer.hr/, gdzie trafi cała reszta. Ta opcja wyłącza takie zachowanie.

       --protocol-directories
           Używa nazwy protokołu jako części nazwy katalogu plików lokalnych. Na przykład, po
           użyciu tej opcji wget -r http://host zostanie zapisane do katalogu http/host/...
           zamiast do host/....

       --cut-dirs=liczba
           Ignoruje podaną liczbę składowych katalogu.  Przydatne do precyzyjnego sterowania
           katalogami, w których będą składowane pliki z pobierania rekurencyjnego.

           Weźmy, na przykład, katalog ftp://ftp.xemacs.org/pub/xemacs/.  Jeżeli pobierzemy go z
           -r, to lokalnie zostanie zachowany jako ftp.xemacs.org/pub/xemacs/.  Mimo że opcja -nH
           pozwala na usunięcie części ftp.xemacs.org/, nadal utkniemy z pub/xemacs.  Tu właśnie
           z pomocą przychodzi --cut-dirs.  Powoduje, że Wget "nie widzi" zadanej liczby
           składowych zdalnego katalogu.  Oto kilka przykładów pokazujących, jak działa opcja
           --cut-dirs.

                   Brak opcji -> ftp.xemacs.org/pub/xemacs/        -nH ->
           pub/xemacs/        -nH --cut-dirs=1 -> xemacs/        -nH
           --cut-dirs=2 -> .        --cut-dirs=1 -> ftp.xemacs.org/xemacs/
            ...

           Jeśli chcemy po prostu pozbyć się struktury katalogów, to opcja ta jest podobna do
           kombinacji -nd i -P. Jednak --cut-dirs, w przeciwieństwie do -nd, nie pozbywa się
           podkatalogów -- na przykład, przy -nH --cut-dirs=1, podkatalog beta/ będzie, zgodnie z
           oczekiwaniami, umieszczony w xemacs/beta.

       -P prefiks
       --directory-prefix=prefiks
           Ustawia przedrostek katalogów na prefiks. Przedrostek katalogów oznacza katalog,
           zostaną zapisane wszystkie inne pliki i katalogi, tzn. wierzchołek drzewa pobierania.
           Domyślnym przedrostkiem jest ., katalog bieżący.

   Opcje HTTP
       --default-page=nazwa
           Używa nazwy jako domyślnej nazwy pliku, gdy nie jest ona znana (np. w przypadku URL-ów
           kończących się ukośnikiem), zamiast index.html.

       -E
       --adjust-extension
           Jeśli pobierany jest plik typu application/xhtml+xml lub text/html a jego URL nie
           kończy się wyrażeniem regularnym \.[Hh][Tt][Mm][Ll]?, to opcja ta spowoduje dodanie
           przyrostka .html do lokalnej nazwy pliku. Przydatne, na przykład, gdy tworzymy kopię
           lustrzaną witryny, która używa stron .asp, ale chcemy, by pozyskane strony dawały się
           przeglądać za pomocą własnego serwera Apache. Innym dobrym zastosowaniem jest
           pobieranie wyjścia generowanego przez skrypty CGI. URL typu
           http://site.com/article.cgi?25 zostanie zachowany jako article.cgi?25.html.

           Proszę zauważyć, że pliki o zmienionych w ten sposób nazwach będą ponownie pobierane
           za każdym razem gdy będziemy odświeżać kopię lustrzaną witryny. Dzieje się tak,
           ponieważ Wget nie potrafi stwierdzić, że lokalny plik X.html odpowiada zdalnemu
           URL-owi X (gdyż nie wie, że ten URL tworzy wyjście typu text/html lub
           application/xhtml+xml).

           Wget upewni się też (stan na wersję 1.12), że pobierane pliki typu text/css kończą się
           przyrostkiem .css. Zmieniono nazwę tej opcji z --html-extension, aby lepiej oddać to
           nowe zachowanie. Stara nazwa opcji jest wciąż akceptowana, ale jest przestarzała.

           As of version 1.19.2, Wget will also ensure that any downloaded files with a
           "Content-Encoding" of br, compress, deflate or gzip end in the suffix .br, .Z, .zlib
           and .gz respectively.

           W przyszłości, opcja może zostać poszerzona, aby objąć również przyrostki innych typów
           zawartości, w tym takich, które nie są przetwarzane przez Wget.

       --http-user=użytkownik
       --http-password=hasło
           Określa nazwę użytkownika i hasło, które Wget prześle serwerowi HTTP. W zależności od
           rodzaju protokołu wezwanie-odpowiedź, Wget koduje je stosując albo uwierzytelnianie
           podstawowe (basic, niechronione), albo w oparciu o skrót (digest) lub też korzystając
           z metody Windowsa (NTLM).

           Another way to specify username and password is in the URL itself.  Either method
           reveals your password to anyone who bothers to run "ps".  To prevent the passwords
           from being seen, use the --use-askpass or store them in .wgetrc or .netrc, and make
           sure to protect those files from other users with "chmod".  If the passwords are
           really important, do not leave them lying in those files either---edit the files and
           delete them after Wget has started the download.

       --no-http-keep-alive
           Wyłącza funkcję "keep-alive" pobierań HTTP. Wget zwykle prosi serwer o utrzymywanie
           otwartego połączenia, dzięki czemu, jeśli pobiera się więcej niż jeden dokument z tego
           samego serwera, są przesyłane tym samym połączeniem TCP. Oszczędza to czas i redukuje
           obciążenie serwera.

           Opcja jest przydatna, gdy połączenia stałe (keep-alive) nie działają poprawnie, np. z
           powodu błędu serwera lub niemożności obsługi takich połączeń przez skrypty po stronie
           serwera.

       --no-cache
           Disable server-side cache.  In this case, Wget will send the remote server appropriate
           directives (Cache-Control: no-cache and Pragma: no-cache) to get the file from the
           remote service, rather than returning the cached version. This is especially useful
           for retrieving and flushing out-of-date documents on proxy servers.

           Domyślnie, buforowanie jest dozwolone.

       --no-cookies
           Wyłącza używanie ciasteczek (cookies). Ciasteczka są mechanizmem do przechowywania
           stanu po stronie serwera.  Serwer przesyła klientowi ciasteczko stosując nagłówek
           Set-Cookie, a klient przy późniejszych żądaniach odpowiada tym samym ciasteczkiem.
           Ponieważ ciasteczka umożliwiają właścicielom serwera prowadzenie rejestrów gości i
           wymianę się tymi informacjami z innymi ośrodkami, niektórzy uważają je za pogwałcenie
           prywatności.  Domyślnie cookies są używane, jednak ich zapisywanie nie jest domyślnie
           włączone.

       --load-cookies plik
           Przed pierwszym pobraniem HTTP wczytuje ciasteczka z pliku.  Plik jest plikiem
           tekstowym w formacie, jaki pierwotnie zastosowano dla pliku cookies.txt przeglądarki
           Netscape.

           Na ogół korzysta się z tej opcji przy tworzeniu kopii lustrzanych tych ośrodków, które
           do skorzystania z części lub całości zasobów wymagają zalogowania się. Proces
           logowania się zwykle polega na tym, że po otrzymaniu od nas informacji
           uwierzytelniającej i jej zweryfikowaniu serwer WWW wysyła ciasteczko HTTP. Następnie,
           gdy przeglądarka sięga do zasobów, odsyła serwerowi otrzymane ciasteczko,
           potwierdzając w ten sposób naszą tożsamość.

           Utworzenie kopii tego rodzaju witryny wymaga wysyłania przez Wget takich samych
           ciasteczek, jakie podczas komunikowania się z tym ośrodkiem przesyła nasza
           przeglądarka. Osiąga się to za pomocą --load-cookies -- wystarczy wskazać programowi
           lokalizację pliku cookies.txt, a on wyśle te same ciasteczka, które w tej samej
           sytuacji wysłałaby przeglądarka. Poszczególne przeglądarki przechowują tekstowe pliki
           ciasteczek w różnych miejscach:

           "Netscape 4.x."
               Ciasteczka są w ~/.netscape/cookies.txt.

           "Mozilla and Netscape 6.x."
               Plik ciasteczek Mozilli nazywa się również cookies.txt, jest położony gdzieś w
               ~/.mozilla, w katalogu właściwym dla profilu użytkownika. Pełna ścieżka zazwyczaj
               kończy się czymś w rodzaju ~/.mozilla/default/coś-dziwnego/cookies.txt.

           "Internet Explorer."
               Ciasteczko, jakiego mógłby użyć Wget, można utworzyć korzystając z menu "Plik" i
               opcji "Importuj i Eksportuj", "Eksportuj pliki cookie".  Zostało to przetestowane
               z Internet Explorerem 5 -- nie ma gwarancji, że będzie działać z wcześniejszymi
               wersjami.

           "Other browsers."
               Jeżeli do tworzenia ciasteczek korzysta się z innej przeglądarki, --load-cookies
               będzie działać tylko wtedy, gdy uda się je zlokalizować lub utworzyć plik
               ciasteczek w formacie Netscape, jakiego oczekuje Wget.

           Jeśli nie można skorzystać z --load-cookies, jest jeszcze inna możliwość. Jeśli
           używana przeglądarka udostępnia "menedżera plików cookie", można z niego skorzystać,
           żeby podglądnąć ciasteczka, jakie zostały wykorzystane podczas uzyskiwania dostępu do
           witryny, której kopię chce się utworzyć. Proszę zapisać nazwę i wartość ciasteczka, a
           następnie ręcznie nakazać Wgetowi wysłanie ciasteczka o zadanej postaci, obchodząc
           równocześnie "oficjalny" kod odpowiedzialny za obsługę ciasteczek:

                   wget --no-cookies --header "Cookie:
           I<nazwa>=I<wartość>"

       --save-cookies plik
           Zachowuje ciasteczka do pliku przed wyjściem. Nie zostaną zapisane ciasteczka
           przeterminowane lub nieposiadające daty ważności (zwane "ciasteczkami sesyjnymi");
           por. --keep-session-cookies.

       --keep-session-cookies
           Po podaniu, powoduje że --save-cookies zachowuje również ciasteczka sesyjne, które
           zwykle nie są zapisywane, ponieważ są przeznaczone do zachowania w pamięci i usunięcia
           z niej po zamknięciu przeglądarki. Zachowywanie ich może być przydatne na stronach,
           które wymagają logowania lub odwiedzenia strony głównej przed uzyskaniem dostępu do
           innych stron. Po skorzystaniu z tej opcji, różne przebiegi Wgeta mogą być traktowane
           jako jedna sesja przeglądarki, w zależności od strony internetowej.

           Ponieważ format pliku ciasteczek nie przechowuje zwykle ciasteczek sesyjnych, Wget
           oznacza je znacznikiem czasowym przedawnienia równym 0. Opcja --load-cookies
           rozpoznaje je jako ciasteczka sesyjne, lecz może to zmylić inne przeglądarki. Proszę
           zwrócić uwagę, że tak załadowane ciasteczka będą traktowane jak inne ciasteczka sesji,
           co oznacza, że trzeba użyć opcji --keep-session-cookies ponownie, aby zachować je za
           pomocą opcji --save-cookies.

       --ignore-length
           Niestety, niektóre serwery HTTP (dokładniej mówiąc, programy CGI)  wysyłają błędne
           nagłówki Content-Length, co powoduje, że Wget głupieje, sądząc, że nie została pobrana
           całość dokumentu.  Syndrom ten można uchwycić, gdy Wget próbuje w kółko pobierać ten
           sam dokument, za każdym razem twierdząc, że (inaczej niż zwykle) połączenie zostało
           zamknięte na dokładnie tym samym bajcie.

           Wywołany z tą opcją, Wget będzie ignorował nagłówek Content-Length, tak jakby nie
           istniał.

       --header=wiersz-nagłówka
           Wysyła wiersz-nagłówka razem z pozostałą częścią nagłówka w każdym żądaniu HTTP.
           Podany nagłówek jest wysyłany bez zmian, tak więc musi zawierać nazwę i wartość (po
           dwukropku) i nie może zawierać znaku nowego wiersza.

           Możliwe jest określenie więcej niż jednego dodatkowego nagłówka przez kilkakrotne
           podanie opcji --header.

                   wget --header='Accept-Charset: iso-8859-2' \
           --header='Accept-Language: hr' \         http://fly.srk.fer.hr/

           Podanie pustego łańcucha jako nagłówka kasuje wszystkie uprzednio zdefiniowane przez
           użytkownika nagłówki.

           Od Wgeta 1.10, można użyć tej opcji do przesłonięcia nagłówków, które byłyby
           wygenerowane automatycznie. Oto przykład nakazania Wgetowi połączenie z komputerem
           lokalnym, jednak podając foo.bar w nagłówku Host:

                   wget --header="Host: foo.bar" http://localhost/

           W wersjach poniżej 1.10, takie użycie opcji --header powodowało wysyłanie
           zduplikowanych nagłówków.

       --compression=typ
           Choose the type of compression to be used.  Legal values are auto, gzip and none.

           If auto or gzip are specified, Wget asks the server to compress the file using the
           gzip compression format. If the server compresses the file and responds with the
           "Content-Encoding" header field set appropriately, the file will be decompressed
           automatically.

           If none is specified, wget will not ask the server to compress the file and will not
           decompress any server responses. This is the default.

           Compression support is currently experimental. In case it is turned on, please report
           any bugs to "bug-wget@gnu.org".

       --max-redirect=liczba
           Określa maksymalną liczbę przekierowań w celu dotarcia do zasobu. Domyślnie jest to
           20, czyli znaczniej więcej niż z reguły potrzeba. Opcja może się przydać, jeśli
           zajdzie potrzeba pozwolenia na więcej (lub mniej) przekierowań.

       --proxy-user=użytkownik
       --proxy-passwd=hasło
           Określają nazwę użytkownika i hasło, które zostaną użyte do uwierzytelnianiana
           serwerze pośredniczącym. Wget koduje je stosując podstawowy (basic) schemat
           uwierzytelniania.

           Odnoszą się do tego podobne zagadnienia związane z bezpieczeństwem, jak w przypadku
           opcji --http-password.

       --referer=url
           Zamieszcza nagłówek "Referer: url" w żądaniu HTTP.  Przydatne do pobierania dokumentów
           z takim przetwarzaniem po stronie serwera, które zakłada, że są one zawsze pobierane
           przez interaktywne przeglądarki internetowe i uznawane za poprawne tylko wtedy, gdy
           Referer jest ustawione na jedną ze stron, które na nie wskazują.

       --save-headers
           Zapisuje nagłówki wysyłane przez serwer HTTP do pliku, przed właściwą zawartością, z
           pustym wierszem jako separatorem.

       -U nazwa-agenta
       --user-agent=nazwa-agenta
           Serwerowi HTTP przedstawia się jako agent o podanej nazwie.

           Protokół HTTP pozwala klientom na podanie, za pomocą pola User-Agent nagłówka swojej
           tożsamości.  Umożliwia to rozróżnianie oprogramowania WWW, zwykle do celów
           statystycznych lub śledzenia naruszeń protokołu. Wget normalnie przedstawia się jako
           Wget/wersja, gdzie wersja jest aktualnym numerem wersji programu.

           Znane są jednak pewne witryny narzucające politykę przykrawania wyników stosownie do
           informacji dostarczonej im w polu User-Agent. Mimo iż koncepcyjnie nie jest to taki
           zły pomysł, zaczął być nadużywany przez serwery odmawiające informacji klientom innym
           niż (kiedyś) Netscape lub, częściej, Internet Explorer. Ta opcja umożliwia zmianę
           linii User-Agent wysyłanej przez Wget. Nie zachęcamy do używania tej opcji, chyba że z
           pełną świadomością.

           Podanie pustego łańcucha za pomocą --user-agent="" powoduje, że Wget nie będzie
           wysyłał nagłówka User-Agent w żądaniach HTTP.

       --post-data=łańcuch
       --post-file=plik
           Używa metody POST do wszystkich żądań HTTP i wysyła podane dane w ciele żądania.
           --post-data wysyła łańcuch jako dane, podczas gdy --post-file wysyła zawartość pliku.
           W pozostałych aspektach ich działanie jest identyczne. W szczególności obie opcje
           oczekują zawartości w postaci klucz=wartość&klucz2=wartość2, kodowaniem znaków
           specjalnych w postaci procentowej; jedyną różnicą jest, że jedna oczekuje zawartości
           jako parametru wiersza polecenia, a druga akceptuje swą treść z pliku. W
           szczególności, --post-file nie przysyła plików w postaci załączników, muszą być to
           dane w postaci klucz=wartość (z właściwym kodowaniem "procentowym"), jak zaznaczono
           wyżej. Wget nie obsługuje obecnie multipart/form-data przy przesyłaniu danych POST, a
           jedynie application/x-www-form-urlencoded. Proszę użyć jedynie jednej z opcji
           --post-data i --post-file.

           Proszę zauważyć, że wget nie wymaga aby zawartość była w postaci
           "klucz1=wartość1&klucz2=wartość2" ani nie sprawdza tego. Wget przesyła takie dane,
           jakie mu dostarczono. Większość serwerów oczekuje jednak, aby dane POST występowały w
           powyższej postaci przy przetwarzaniu formularzy HTML.

           When sending a POST request using the --post-file option, Wget treats the file as a
           binary file and will send every character in the POST request without stripping
           trailing newline or formfeed characters. Any other control characters in the text will
           also be sent as-is in the POST request.

           Proszę zwrócić uwagę, że Wget musi znać rozmiar danych POST z góry. W związku z tym,
           argumentem do opcji --post-file musi być zwykły plik; przekazanie potoku FIFO lub
           czegoś takiego jak /dev/stdin nie zadziała. Nie jest do końca jasne, jak obejść to
           ograniczenie wpisane w protokół HTTP/1.0. Choć HTTP/1.1 wprowadza transfer
           fragmentaryczny, który nie wymaga wiedzy o długości żądania z góry, to klient nie może
           go używać, dopóki nie wie, że komunikuje się z serwerem HTTP/1.1. Nie może tego
           wiedzieć, dopóki nie otrzyma odpowiedzi, która wymaga pełnego żądania...

           Uwaga: Według stanu na wersję 1.15 przy przekierowaniu Wgeta po sfinalizowaniu żądania
           POST, zachowanie programu będzie zależało od kodu zwróconego przez serwer. Jeśli
           będzie to 301 Moved Permanently, 302 Moved Temporarily lub 307 Temporary Redirect,
           Wget, zgodnie z RFC2616,, będzie kontynuował wysyłanie żądania POST. Jeśli serwer chce
           zmienić metodę żądań klienta przy przekierowaniu powinien wysłać kod 303 See Other.

           Przykład pokazuje, jak zalogować się do serwera używającego POST, a następnie przejść
           do pobierania żądanych stron, dostępnych prawdopodobnie tylko dla użytkowników
           uwierzytelnionych:

                   # Logowanie do serwera. Można to zrobić tylko raz.         wget
           --save-cookies cookies.txt \         --post-data 'user=foo&password=bar'
           \         http://example.com/auth.php         # Teraz przechwytujemy
           stronę lub strony o które nam chodzi.         wget --load-cookies
           cookies.txt \         -p http://example.com/interesting/article.php

           Jeśli serwer używa ciasteczek sesji do śledzenia uwierzytelnienia użytkownika, to
           powyższy przykład nie zadziała, ponieważ --save-cookies nie zachowa ich (podobnie jak
           przeglądarki), a plik cookies.txt będzie pusty. W takim przypadku, oprócz
           --save-cookies należy użyć również --keep-session-cookies.

       --method=metoda-HTTP
           Do skryptów "restowych" (RESTfull, gdzie REST oznacza Representational State Transfer)
           Wget pozwala na wysłanie innych metod HTTP bez konieczności jawnego ustawiania ich
           przy pomocy opcji --header=Header-Line. Wget użyje takiego łańcucha, jaki jest mu
           podany po --method jako metoda HTTP do serwera.

       --body-data=łańcuch-danych
       --body-file=plik-danych
           Opcja musi być ustawiona gdy konieczne jest wysłanie dodatkowych danych do serwera
           przy użyciu metody podanej w --method. --body-data wysyła łańcuch-danych jako dane, a
           --body-file wysyła zawartość pliku-danych. Poza tym obie opcje działają tak samo.

           Obecnie --body-file nie służy do transmisji plików jako całości. Wget nie obsługuje w
           tej chwili "multipart/form-data" do transmisji danych, a jedynie
           "application/x-www-form-urlencoded". W przyszłości może się to zmienić tak, aby wget
           wysyłał --body-file jako cały plik zamiast wysyłania jego zawartości na serwer. Proszę
           zauważyć, że Wget musi znać wpierw zawartość danych BODY, dlatego argument do opcji
           --body-file powinien być zwykłym plikiem. Więcej szczegółów znajduje się w opisie
           opcji --post-file. Powinno się podawać albo opcję --body-data albo --body-file.

           Jeśli Wget zostanie przekierowany po sfinalizowaniu żądania, wznowi bieżącą metodę i
           będzie wysyłał żądanie GET aż do zakończenia przekierowania. Jest tak w przypadku
           wszystkich kodów z wyjątkiem 307 Temporary Redirect, który służy do bezpośredniego
           wskazania, ze metoda nie powinna się zmienić. Inny wyjątek ma miejsce gdy metoda jest
           ustawiona na "POST", ponieważ wówczas przestrzegane są zasady określone przez
           --post-data.

       --content-disposition
           Opcja włącza eksperymentalną (niepełną) obsługę nagłówka Content-Disposition. Może to
           obecnie spowodować dodatkowe kluczenie serwera związane z żądaniami HEAD, znane jest
           również kilka błędów, co powoduje, że opcja ta domyślnie nie jest włączona.

           Opcja jest przydatna niektórym programom CGI pobierającym pliki, które używają
           nagłówków Content-Disposition do opisania nazwy pobieranego pliku.

           When combined with --metalink-over-http and --trust-server-names, a Content-Type:
           application/metalink4+xml file is named using the "Content-Disposition" filename
           field, if available.

       --content-on-error
           Jeśli ta opcja jest włączona, to wget nie będzie pomijał zawartości gdy serwer odpowie
           kodem statusu http wskazującym na błąd.

       --trust-server-names
           If this is set, on a redirect, the local file name will be based on the redirection
           URL. By default the local file name is based on the original URL. When doing recursive
           retrieving this can be helpful because in many web sites redirected URLs correspond to
           an underlying file structure, while link URLs do not.

       --auth-no-challenge
           Jeśli opcja jest podana, Wget będzie wysyłał proste (Basic) informacje
           uwierzytelniające HTTP (nazwa użytkownika i hasło w jawnym tekście) przy wszystkich
           żądaniach, tak jak domyślnie robił to Wget w wersjach 1.10.2 i wcześniejszych.

           Używanie tej opcji nie jest zalecane, jako że została przeznaczona jedynie do
           obsługiwania kilku zapomnianych serwerów, które nigdy nie wysyłają pytań o
           uwierzytelnienie HTTP, lecz akceptują nieżądane informacje uwierzytelniające, oprócz
           uwierzytelnienia opartego na formularzu.

       --retry-on-host-error
           Consider host errors, such as "Temporary failure in name resolution", as non-fatal,
           transient errors.

       --retry-on-http-error=code[,code,...]
           Consider given HTTP response codes as non-fatal, transient errors.  Supply a
           comma-separated list of 3-digit HTTP response codes as argument. Useful to work around
           special circumstances where retries are required, but the server responds with an
           error code normally not retried by Wget. Such errors might be 503 (Service
           Unavailable) and 429 (Too Many Requests). Retries enabled by this option are performed
           subject to the normal retry timing and retry count limitations of Wget.

           Using this option is intended to support special use cases only and is generally not
           recommended, as it can force retries even in cases where the server is actually trying
           to decrease its load. Please use wisely and only if you know what you are doing.

   Opcje (SSL/TLS) HTTPS
       To support encrypted HTTP (HTTPS) downloads, Wget must be compiled with an external SSL
       library. The current default is GnuTLS.  In addition, Wget also supports HSTS (HTTP Strict
       Transport Security).  If Wget is compiled without SSL support, none of these options are
       available.

       --secure-protocol=protokół
           Choose the secure protocol to be used.  Legal values are auto, SSLv2, SSLv3, TLSv1,
           TLSv1_1, TLSv1_2, TLSv1_3 and PFS.  If auto is used, the SSL library is given the
           liberty of choosing the appropriate protocol automatically, which is achieved by
           sending a TLSv1 greeting. This is the default.

           Podanie SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2 lub TLSv1_3 wymusza użycie odpowiedniego
           protokołu. Jest to przydatne przy komunikacji ze starymi i błędnymi implementacjami
           SSL serwera, które nie pozwalają na łatwy wybór poprawnej wersji protokołu przez
           bibliotekę SSL. Na szczęście, takie serwery są rzadkością.

           Specifying PFS enforces the use of the so-called Perfect Forward Security cipher
           suites. In short, PFS adds security by creating a one-time key for each SSL
           connection. It has a bit more CPU impact on client and server.  We use known to be
           secure ciphers (e.g. no MD4) and the TLS protocol. This mode also explicitly excludes
           non-PFS key exchange methods, such as RSA.

       --https-only
           W trybie rekurencyjnym podąża wyłącznie za odnośnikami HTTPS.

       --ciphers
           Set the cipher list string. Typically this string sets the cipher suites and other
           SSL/TLS options that the user wish should be used, in a set order of preference
           (GnuTLS calls it 'priority string'). This string will be fed verbatim to the SSL/TLS
           engine (OpenSSL or GnuTLS) and hence its format and syntax is dependent on that. Wget
           will not process or manipulate it in any way. Refer to the OpenSSL or GnuTLS
           documentation for more information.

       --no-check-certificate
           Nie sprawdza certyfikatu serwera pod kątem dostępnego ośrodka certyfikacji. Nie wymaga
           również tego, aby nazwa hosta URL-a pasowała do nazwy ogólnej w certyfikacie.

           Od wersji 1.10, Wget domyślnie weryfikuje certyfikat serwera w odniesieniu do znanych
           ośrodków certyfikacji, przerywając nawiązanie połączenia SSL (handshaking) i
           pobieranie pliku, jeśli weryfikacja się nie powiedzie. Choć zwiększa się w ten sposób
           bezpieczeństwo pobierań, zrywa to jednak kompatybilność z niektórymi stronami, które
           działały z poprzednimi wersjami Wgeta, szczególnie korzystającymi z podpisanych przez
           siebie, wygasłych lub niepoprawnych z innego powodu certyfikatów. Opcja ta wymusza
           "niebezpieczny" tryb działania, który zmienia błędy weryfikacji certyfikatów w
           ostrzeżenia i pozwala kontynuować.

           If you encounter "certificate verification" errors or ones saying that "common name
           doesn't match requested host name", you can use this option to bypass the verification
           and proceed with the download.  Only use this option if you are otherwise convinced of
           the site's authenticity, or if you really don't care about the validity of its
           certificate. It is almost always a bad idea not to check the certificates when
           transmitting confidential or important data.  For self-signed/internal certificates,
           you should download the certificate and verify against that instead of forcing this
           insecure mode.  If you are really sure of not desiring any certificate verification,
           you can specify --check-certificate=quiet to tell wget to not print any warning about
           invalid certificates, albeit in most cases this is the wrong thing to do.

       --certificate=plik
           Używa certyfikatu klienta z pliku. Jest to konieczne w przypadku serwerów wymagających
           certyfikatów od klientów, którzy się z nimi łączą. Zwykle taki certyfikat nie jest
           wymagany, a ten przełącznik jest opcjonalny.

       --certificate-type=typ
           Określa typ certyfikatu klienta. Poprawnymi wartościami są PEM (zakładany domyślnie) i
           DER, znany również jako ASN1.

       --private-key=plik
           Odczytuje klucz prywatny z pliku. Pozwala to na dostarczenie klucza prywatnego w
           oddzielnym od certyfikatu pliku.

       --private-key-type=typ
           Określa typ klucza prywatnego. Akceptowanymi wartościami są PEM (domyślnie) i DER.

       --ca-certificate=plik
           Używa pliku jako pliku z zestawem ośrodków certyfikacji ("CA") do weryfikacji
           pośredników. Certyfikaty muszą być w formacie PEM.

           Bez tej opcji, Wget szuka certyfikatów CA w lokalizacji systemowej, wybranej podczas
           instalacji OpenSSL.

       --ca-directory=katalog
           Określa katalog zawierający certyfikaty CA w formacie PEM. Każdy plik zawiera
           certyfikat CA, a nazwa pliku jest oparta o wartości skrótu wyliczonego na podstawie
           certyfikatu. Osiąga się to przetwarzając katalog certyfikatów narzędziem rehash
           pochodzącego z OpenSSL. Używanie --ca-directory jest efektywniejsze od
           --ca-certificate w przypadku, gdy zainstalowanych jest wiele certyfikatów, ponieważ
           pozwala Wgetowi pobierać certyfikaty na żądanie.

           Bez tej opcji, Wget szuka certyfikatów CA w lokalizacji systemowej, wybranej podczas
           instalacji OpenSSL.

       --crl-file=plik
           Specifies a CRL file in file.  This is needed for certificates that have been
           revocated by the CAs.

       --pinnedpubkey=file/hashes
           Tells wget to use the specified public key file (or hashes) to verify the peer.  This
           can be a path to a file which contains a single public key in PEM or DER format, or
           any number of base64 encoded sha256 hashes preceded by "sha256//" and separated by ";"

           When negotiating a TLS or SSL connection, the server sends a certificate indicating
           its identity. A public key is extracted from this certificate and if it does not
           exactly match the public key(s) provided to this option, wget will abort the
           connection before sending or receiving any data.

       --random-file=plik
           [OpenSSL and LibreSSL only] Use file as the source of random data for seeding the
           pseudo-random number generator on systems without /dev/urandom.

           W takich systemach biblioteka SSL wymaga zewnętrznego źródła losowości do rozpoczęcia
           pracy. Może być EGD (por. --egd-file poniżej) lub odczyt z zewnętrznego źródła
           podanego przez użytkownika. Jeśli nie poda się tej opcji, Wget poszuka losowych danych
           w $RANDFILE lub, jeśli zmienna nie jest ustawiona, w $HOME/.rnd.

           Pojawienie się błędu "Could not seed OpenSSL PRNG; disabling SSL." oznacza, że należy
           zapewnić losowe dane korzystając z jednej z powyższych metod.

       --egd-file=plik
           [OpenSSL only] Use file as the EGD socket.  EGD stands for Entropy Gathering Daemon, a
           user-space program that collects data from various unpredictable system sources and
           makes it available to other programs that might need it.  Encryption software, such as
           the SSL library, needs sources of non-repeating randomness to seed the random number
           generator used to produce cryptographically strong keys.

           OpenSSL pozwala użytkownikowi podać swoje źródło entropii za pomocą zmiennej
           środowiskowej RAND_FILE. Jeśli pozostanie ona nieustawiona lub podany plik nie tworzy
           wystarczającej losowości, OpenSSL odczyta dane losowe z gniazda EGD podanego za pomocą
           opisywanej opcji.

           Jeśli nie poda się tej opcji (ani nie użyje się równoważnego polecenia
           uruchomieniowego), EGD nigdy nie zostanie użyte. Mechanizm ten nie jest potrzebny w
           nowoczesnych systemach uniksowych, obsługujących /dev/urandom.

       --no-hsts
           Wget supports HSTS (HTTP Strict Transport Security, RFC 6797) by default.  Use
           --no-hsts to make Wget act as a non-HSTS-compliant UA. As a consequence, Wget would
           ignore all the "Strict-Transport-Security" headers, and would not enforce any existing
           HSTS policy.

       --hsts-file=plik
           By default, Wget stores its HSTS database in ~/.wget-hsts.  You can use --hsts-file to
           override this. Wget will use the supplied file as the HSTS database. Such file must
           conform to the correct HSTS database format used by Wget. If Wget cannot parse the
           provided file, the behaviour is unspecified.

           The Wget's HSTS database is a plain text file. Each line contains an HSTS entry (ie. a
           site that has issued a "Strict-Transport-Security" header and that therefore has
           specified a concrete HSTS policy to be applied). Lines starting with a dash ("#") are
           ignored by Wget. Please note that in spite of this convenient human-readability
           hand-hacking the HSTS database is generally not a good idea.

           An HSTS entry line consists of several fields separated by one or more whitespace:

           "<hostname> SP [<port>] SP <include subdomains> SP <created> SP <max-age>"

           The hostname and port fields indicate the hostname and port to which the given HSTS
           policy applies. The port field may be zero, and it will, in most of the cases. That
           means that the port number will not be taken into account when deciding whether such
           HSTS policy should be applied on a given request (only the hostname will be
           evaluated). When port is different to zero, both the target hostname and the port will
           be evaluated and the HSTS policy will only be applied if both of them match. This
           feature has been included for testing/development purposes only.  The Wget testsuite
           (in testenv/) creates HSTS databases with explicit ports with the purpose of ensuring
           Wget's correct behaviour. Applying HSTS policies to ports other than the default ones
           is discouraged by RFC 6797 (see Appendix B "Differences between HSTS Policy and
           Same-Origin Policy"). Thus, this functionality should not be used in production
           environments and port will typically be zero. The last three fields do what they are
           expected to. The field include_subdomains can either be 1 or 0 and it signals whether
           the subdomains of the target domain should be part of the given HSTS policy as well.
           The created and max-age fields hold the timestamp values of when such entry was
           created (first seen by Wget) and the HSTS-defined value 'max-age', which states how
           long should that HSTS policy remain active, measured in seconds elapsed since the
           timestamp stored in created. Once that time has passed, that HSTS policy will no
           longer be valid and will eventually be removed from the database.

           If you supply your own HSTS database via --hsts-file, be aware that Wget may modify
           the provided file if any change occurs between the HSTS policies requested by the
           remote servers and those in the file. When Wget exits, it effectively updates the HSTS
           database by rewriting the database file with the new entries.

           If the supplied file does not exist, Wget will create one. This file will contain the
           new HSTS entries. If no HSTS entries were generated (no "Strict-Transport-Security"
           headers were sent by any of the servers) then no file will be created, not even an
           empty one. This behaviour applies to the default database file (~/.wget-hsts) as well:
           it will not be created until some server enforces an HSTS policy.

           Care is taken not to override possible changes made by other Wget processes at the
           same time over the HSTS database. Before dumping the updated HSTS entries on the file,
           Wget will re-read it and merge the changes.

           Using a custom HSTS database and/or modifying an existing one is discouraged.  For
           more information about the potential security threats arose from such practice, see
           section 14 "Security Considerations" of RFC 6797, specially section 14.9 "Creative
           Manipulation of HSTS Policy Store".

       --warc-file=plik
           Używa pliku jako celu pliku WARC.

       --warc-header=łańcuch
           Używa łańcucha jako rekordu warcinfo.

       --warc-max-size=rozmiar
           Ustawia maksymalny rozmiar plików WARC na rozmiar.

       --warc-cdx
           Zapisuje pliku indeksu CDX.

       --warc-dedup=pliku
           Nie przechowuje rekordów wyszczególnionych w danym pliku CDX.

       --no-warc-compression
           Nie kompresuje plików WARC za pomocą GZIP.

       --no-warc-digests
           Nie oblicza sum SHA1.

       --no-warc-keep-log
           Nie przechowuje pliku dziennika w rekordzie WARC.

       --warc-tempdir=katalog
           Określa położenie plików tymczasowych tworzonych przy zapisie WARC.

   Opcje FTP
       --ftp-user=użytkownik
       --ftp-password=hasło
           Określa nazwę użytkownika i hasło serwera FTP. Bez tej opcji (i równoważnej opcji
           uruchomieniowej) używane jest domyślne hasło -wget@, używane zwykle do anonimowych
           FTP.

           Inną metodę podania nazwy i hasła użytkownika jest wyszczególnienie ich w samym URL-u.
           Obie te metody ujawniają hasło każdemu, kto zechce uruchomić ps.  Żeby uchronić hasła
           przed podpatrzeniem, należy przechowywać je w pliku .wgetrc lub .netrc i, za pomocą
           chmod, zapewnić tym plikom ochronę przed innymi użytkownikami. Jeżeli hasła są
           naprawdę ważne, w tych plikach też nie należy trzymać ich na stałe -- proszę usunąć je
           z plików zaraz po rozpoczęciu pobierania przez Wgeta.

       --no-remove-listing
           Nie usuwa tymczasowych plików .listing generowanych przez odczyty FTP.  Normalnie,
           pliki te zawierają nieprzetworzone listingi katalogów otrzymane z serwerów FTP.
           Pozostawienie ich może się przydać do celów diagnostycznych lub łatwego sprawdzenia
           zawartości katalogów zdalnego serwera (np. do sprawdzenia, że tworzona kopia lustrzana
           jest kompletna).

           Proszę zauważyć, że mimo iż Wget zapisuje w tym przypadku do pliku o znanej nazwie,
           nie jest to dziura w zabezpieczeniach w sytuacji, gdy użytkownik stworzy .listing jako
           dowiązanie symboliczne do /etc/passwd czy innego pliku i poprosi superużytkownika
           (roota) o uruchomienie Wget w tym katalogu.  W zależności od użytych opcji, Wget albo
           odmówi zapisu do .listing (co spowoduje niepowodzenie operacji na maskach,
           rekurencyjnej czy zależnej od znaczników czasu), albo dowiązanie symboliczne zostanie
           usunięte i zastąpione faktycznym plikiem .listing, albo też listing zostanie zapisany
           do pliku .listing.numer.

           Choć ta sytuacja nie stwarza kłopotów, jednak root nie powinien nigdy uruchamiać Wget
           w katalogu niezaufanego użytkownika.  Użytkownik taki mógłby na przykład dowiązać
           index.html do /etc/passwd i poprosić "root"a o uruchomienie Wget z opcjami -N lub -r,
           tak że plik ten zostałby nadpisany.

       --no-glob
           Wyłącza obsługę masek w przypadku FTP.  Obsługa masek oznacza, że można używać znaków
           specjalnych, uogólniających (wieloznaczników), takich jak *, ?, [ i ], do pobrania
           większej liczby plików z tego samego katalogu naraz, np.

                   wget ftp://gnjilux.srk.fer.hr/*.msg

           Domyślnie obsługa masek będzie włączona jeśli URL zawiera znaki uogólniające. Tej
           opcji można użyć do włączenia bądź wyłączenia obsługi masek na stałe.

           Może zajść potrzeba ujęcia URL-a w znaki cudzysłowu, by uchronić go przed rozwinięciem
           przez powłokę. Obsługa masek powoduje, że Wget oczekuje listingu katalogu, którego
           postać jest zależna od systemu. Z tego powodu obecnie działa tylko z uniksowymi
           serwerami FTP (i z tymi, które potrafią emulować wyjście uniksowego ls).

       --no-passive-ftp
           Wyłącza użycie pasywnego trybu transferu FTP. Pasywny FTP nakazuje klientowi łączącemu
           się z serwerem zestawić połączenie, zamiast wykorzystywać inne rozwiązania.

           Jeśli komputer ma bezpośrednie połączenie z Internetem, to zarówno pasywne jak i
           aktywne FTP powinny działać tak samo dobrze. Za większością zapór sieciowych i
           konfiguracji NAT, pasywny FTP ma większą szansę działania. Jednak w niektórych
           rzadkich konfiguracjach zapór, aktywny FTP działa, a pasywny FTP nie. Jeśli zachodzi
           prawdopodobieństwo, że ma miejsce ta sytuacja, proszę użyć opisywanej opcji lub
           ustawić w swym pliku konfiguracyjnym passive_ftp=off.

       --preserve-permissions
           Zachowuje uprawnienia zdalnych plików zamiast uprawnień wynikających z umask.

       --retr-symlinks
           By default, when retrieving FTP directories recursively and a symbolic link is
           encountered, the symbolic link is traversed and the pointed-to files are retrieved.
           Currently, Wget does not traverse symbolic links to directories to download them
           recursively, though this feature may be added in the future.

           When --retr-symlinks=no is specified, the linked-to file is not downloaded.  Instead,
           a matching symbolic link is created on the local filesystem.  The pointed-to file will
           not be retrieved unless this recursive retrieval would have encountered it separately
           and downloaded it anyway.  This option poses a security risk where a malicious FTP
           Server may cause Wget to write to files outside of the intended directories through a
           specially crafted .LISTING file.

           Proszę zauważyć, że przy pobieraniu pliku (nie katalogu) podanego w wierszu poleceń, a
           nie osiągniętego z powodu pobierania rekurencyjnego, opcja nie odnosi skutku. W takich
           przypadkach plik docelowy dowiązania jest zawsze pobierany.

   Opcje FTPS
       --ftps-implicit
           This option tells Wget to use FTPS implicitly. Implicit FTPS consists of initializing
           SSL/TLS from the very beginning of the control connection. This option does not send
           an "AUTH TLS" command: it assumes the server speaks FTPS and directly starts an
           SSL/TLS connection. If the attempt is successful, the session continues just like
           regular FTPS ("PBSZ" and "PROT" are sent, etc.).  Implicit FTPS is no longer a
           requirement for FTPS implementations, and thus many servers may not support it. If
           --ftps-implicit is passed and no explicit port number specified, the default port for
           implicit FTPS, 990, will be used, instead of the default port for the "normal"
           (explicit) FTPS which is the same as that of FTP, 21.

       --no-ftps-resume-ssl
           Do not resume the SSL/TLS session in the data channel. When starting a data
           connection, Wget tries to resume the SSL/TLS session previously started in the control
           connection.  SSL/TLS session resumption avoids performing an entirely new handshake by
           reusing the SSL/TLS parameters of a previous session. Typically, the FTPS servers want
           it that way, so Wget does this by default. Under rare circumstances however, one might
           want to start an entirely new SSL/TLS session in every data connection.  This is what
           --no-ftps-resume-ssl is for.

       --ftps-clear-data-connection
           All the data connections will be in plain text. Only the control connection will be
           under SSL/TLS. Wget will send a "PROT C" command to achieve this, which must be
           approved by the server.

       --ftps-fallback-to-ftp
           Fall back to FTP if FTPS is not supported by the target server. For security reasons,
           this option is not asserted by default. The default behaviour is to exit with an
           error.  If a server does not successfully reply to the initial "AUTH TLS" command, or
           in the case of implicit FTPS, if the initial SSL/TLS connection attempt is rejected,
           it is considered that such server does not support FTPS.

   Opcje pobierania rekurencyjnego
       -r
       --recursive
           Włącza pobieranie rekurencyjne. Domyślny maksymalny poziom wynosi 5.

       -l głębokość
       --level=głębokość
           Set the maximum number of subdirectories that Wget will recurse into to depth.  In
           order to prevent one from accidentally downloading very large websites when using
           recursion this is limited to a depth of 5 by default, i.e., it will traverse at most 5
           directories deep starting from the provided URL. Set -l 0 or -l inf for infinite
           recursion depth.

                   wget -r -l 0 http://I<strona>/1.html

           Ideally, one would expect this to download just 1.html.  but unfortunately this is not
           the case, because -l 0 is equivalent to -l inf---that is, infinite recursion.  To
           download a single HTML page (or a handful of them), specify them all on the command
           line and leave away -r and -l. To download the essential items to view a single HTML
           page, see page requisites.

       --delete-after
           Ta opcja nakazuje Wget usunięcie każdego z plików, jaki pobiera, po wykonaniu
           ściągania.  Jest przydatna do pobierania wstępnego (prefetching) popularnych stron
           poprzez serwer pośredniczący, np.:

                   wget -r -nd --delete-after http://whatever.com/~popular/page/

           Opcja -r nakazuje pobieranie rekurencyjne, a -nd nietworzenie katalogów.

           Proszę zauważyć, że --delete-after usuwa pliki z lokalnego komputera. Nie wydaje
           polecenia DELE, na przykład zdalnym ośrodkom FTP. Także jeśli podano --delete-after,
           to --convert-links jest ignorowane, więc przede wszystkim pliki .orig po prostu nie są
           tworzone.

       -k
       --convert-links
           Po zakończeniu pobierania konwertuje odnośniki w dokumencie tak, by nadawały się do
           lokalnego przeglądania. Dotyczy to nie tylko widzialnych odnośników hipertekstowych,
           ale każdej części dokumentu, która prowadzi do zewnętrznych materiałów, jak osadzone
           obrazki, odnośniki do arkuszy stylów, odnośniki hipertekstowe do zawartości innej niż
           HTML, itp.

           Każdy odnośnik będzie zmieniony na jeden z dwu sposobów:

           •   Odnośniki do plików, które zostały ściągnięte przez Wget zostaną zmienione tak, by
               odwoływały się do pliku, na jaki wskazują, jako odnośniki względne.

               Przykład: jeśli ściągnięty plik /foo/doc.html jest powiązany z z /bar/img.gif,
               również ściągniętym, to odnośnik w doc.html zostanie zmieniony tak, by wskazywał
               na ../bar/img.gif.  Ten rodzaj przekształcenia działa bezproblemowo dla dowolnej
               kombinacji katalogów.

           •   Odnośniki do plików, które nie zostały ściągnięte przez Wget zostaną zmienione
               tak, by zawierały nazwę hosta i ścieżkę bezwzględną miejsca, na które wskazują.

               Przykład: jeśli ściągnięty plik /foo/doc.html jest powiązany z z /bar/img.gif (lub
               z ../bar/img.gif), to odnośnik w doc.html zostanie zmieniony tak, by wskazywał na
               http://hostname/bar/img.gif.

           Z tego powodu, przeglądanie lokalne działa niezawodnie: jeśli powiązany plik był
           ściągnięty, to odnośnik wskazuje na jego lokalną nazwę, jeśli nie był -- to na pełny
           adres internetowy, a nie pojawia się popsuty odnośnik.  Konwersja pierwotnych
           odnośników na odnośniki względne zapewnia nam możliwość przesuwania pobranej
           hierarchii katalogów do innego katalogu.

           Proszę zauważyć, że dopiero na samym końcu pobierania Wget może rozpoznać, które
           odnośniki zostały ściągnięte.  Z tego powodu, opcja -k wykonuje swoją pracę po
           zakończeniu wszystkich pobrań.

       --convert-file-only
           This option converts only the filename part of the URLs, leaving the rest of the URLs
           untouched. This filename part is sometimes referred to as the "basename", although we
           avoid that term here in order not to cause confusion.

           It works particularly well in conjunction with --adjust-extension, although this
           coupling is not enforced. It proves useful to populate Internet caches with files
           downloaded from different hosts.

           Example: if some link points to //foo.com/bar.cgi?xyz with --adjust-extension asserted
           and its local destination is intended to be ./foo.com/bar.cgi?xyz.css, then the link
           would be converted to //foo.com/bar.cgi?xyz.css. Note that only the filename part has
           been modified. The rest of the URL has been left untouched, including the net path
           ("//") which would otherwise be processed by Wget and converted to the effective
           scheme (ie. "http://").

       -K
       --backup-converted
           Podczas konwersji pliku zachowuje kopię zapasową pierwotnej wersji z przyrostkiem
           .orig.  Wpływa na zachowanie opcji -N.

       -m
       --mirror
           Włącza opcje odpowiednie do tworzenia kopii lustrzanych.  Ta opcja włącza rekurencję,
           stosowanie znaczników czasu, ustawia nieograniczony poziom rekurencji i zachowuje
           wypisania zawartości katalogów FTP.  Obecnie jest równoważna użyciu -r -N -l inf
           --no-remove-listing.

       -p
       --page-requisites
           Opcja powoduje, że Wget ściągnie wszystkie pliki niezbędne do poprawnego wyświetlenia
           danej strony HTML.  Obejmuje to takie rzeczy jak grafikę, dźwięki i powiązane arkusze
           stylów.

           Przy zwykłym trybie pracy, podczas pobierania pojedynczej strony HTML, ewentualne
           powiązane dokumenty, które mogą być potrzebne do poprawnego jej wyświetlenia, nie są
           pobierane. Pomóc może użycie opcji -r z -l, ale ponieważ Wget normalnie nie odróżnia
           dokumentów zewnętrznych od włączonych, na ogół pozostaje się z "oskubanymi
           dokumentami", którym brakuje potrzebnych elementów towarzyszących.

           Na przykład, powiedzmy, że dokument 1.html zawiera znacznik <IMG> odnoszący się do
           1.gif i znacznik <A> wskazujący na zewnętrzny dokument 2.html. Powiedzmy, że 2.html
           jest podobny, tyle, że jego obrazkiem jest 2.gif a odnośnik wskazuje na 3.html.
           Załóżmy, że kontynuujemy takie zależności aż do jakiejś dowolnie dużej liczby.

           Jeśli wykona się polecenie:

                   wget -r -l 2 http://I<strona>/1.html

           to zostaną pobrane 1.html, 1.gif, 2.html, 2.gif i 3.html.  Jak widać, 3.html nie
           posiada towarzyszącego mu elementu, gdyż Wget w celu określenia miejsca, gdzie
           powinien przerwać rekurencję po prostu zlicza liczbę skoków (aż do 2) od początkowego
           1.html.  Jednak przy takim poleceniu:

                   wget -r -l 2 -p http://I<strona>/1.html

           zostaną ściągnięte wszystkie powyższe pliki oraz wymagany przez 3.html plik 3.gif.
           Podobnie,

                   wget -r -l 1 -p http://<strona>/1.html

           spowoduje pobranie 1.html, 1.gif, 2.html i 2.gif.  Można by sądzić, że:

                   wget -r -l 0 -p http://I<strona>/1.html

           pobrałoby tylko 1.html i 1.gif, ale niestety tak nie jest, gdyż -l 0 jest
           równoważnikiem -l inf -- czyli nieskończonej rekurencji.  Do pobrania pojedynczej
           strony HTML (lub ich grupy, wszystkich podanych w wierszu poleceń lub w pliku
           wejściowym URL-i -i) i towarzyszących jej (lub im) elementów, wystarczy pominąć -r i
           -l:

                   wget -p http://<strona>/1.html

           Proszę zauważyć, że Wget zachowa się tak, jakby podano opcję -r, ale zostanie pobrana
           tylko pojedyncza strona i jej elementy. Program nie będzie podążał za odnośnikami z
           tej strony do zewnętrznych dokumentów.  Faktycznie, do ściągania pojedynczej strony i
           wszystkich towarzyszących jej elementów (nawet jeśli leżą one na odrębnych serwerach
           WWW) i upewnienia się, że całość lokalnie poprawnie się wyświetla, autor oprócz -p
           korzysta z kilku dodatkowych opcji:

                   wget -E -H -k -K -p http://<strona>/<dokument>

           Kończąc ten temat, warto wiedzieć, że Wget uważa za odnośnik do dokumentu zewnętrznego
           każdy URL podany w znaczniku <A>, <AREA> lub <LINK>, oprócz <LINK REL="stylesheet">.

       --strict-comments
           Włącza ścisłe przetwarzanie komentarzy HTML. Domyślnie, komentarze są przerywane po
           pierwszym wystąpieniu -->.

           Zgodnie ze specyfikacją, komentarze HTML są wyrażone jako deklaracje SGML. Deklaracja
           jest specjalnym znacznikiem, rozpoczynającym się <! i kończącym się >, np. <!DOCTYPE
           ...>, która może zawierać dodatkowe komentarze, między parą ograniczników --.
           Komentarze HTML są "pustymi deklaracjami", bez tekstu niebędącego komentarzem. Stąd
           <!--foo--> jest poprawnym komentarzem, jak również <!--one-- --two-->, lecz
           <!--1--2--> nim nie jest.

           Z drugiej strony, większość piszącym HTML nie odczytuje komentarzy jako cokolwiek
           innego poza tekstem ograniczonym <!-- i -->, co nie jest tym samym. Np. coś takiego:
           <!------------> jest poprawnym komentarzem o ile liczba minusów jest wielokrotnością
           czterech (sic!). Jeśli tak nie jest, to ściśle mówiąc komentarz kończy się dopiero po
           następnym wystąpieniu --, które może nastąpić np. na końcu dokumentu. Z tego powodu,
           wiele popularnych przeglądarek internetowych całkowicie ignoruje specyfikację i
           implementuje coś, czego użytkownicy mogą się spodziewać: komentarze ograniczone <!-- i
           -->.

           Do wersji 1.9 Wget interpretował komentarze w sposób ścisły, co powodowało
           wybrakowanie wielu linków w stronach internetowych wyświetlających się poprawnie w
           przeglądarkach, lecz mających nieszczęście w postaci niezgodnych z normą komentarzy.
           Począwszy od wersji 1.9, Wget dołączył do grona klientów implementujących "naiwne"
           komentarze, zamykając każdy komentarz po pierwszym wystąpieniu -->.

           Jeśli zajdzie potrzeba ścisłego parsowania komentarzy, ta opcja je włączy.

   Opcje rekurencyjnego akceptowania/odrzucania
       -A lista-akc --accept lista-akc
       -R lista-odrz --reject lista-odrz
           Określa oddzieloną przecinkami listę przyrostków lub wzorców nazw plików do,
           odpowiednio, zaakceptowania lub odrzucenia. Proszę pamiętać, że maski (wieloznaczniki)
           tzn. *, ?, [ lub ], które pojawią się jako element  listy-akc lub listy-odrz, zostaną
           potraktowane jako wzorzec, a nie przyrostek. W takim przypadku, aby uniknąć
           rozwinięcia nazwy przez powłokę należy ująć wzorzec w cudzysłowy, jak w przykładach -A
           "*.mp3" lub -A '*.mp3'.

       --accept-regex url-wyr-reg
       --reject-regex url-wyr-reg
           Określa wyrażenie regularne do zaakceptowania lub odrzucenia całego URL-a.

       --regex-type typ-wyr-reg
           Określa typ wyrażenia regularnego. Dozwolonymi wartościami są posix i pcre. Proszę
           zauważyć, że w celu użycia typu pcre wget musi mieć wkompilowaną obsługę libpcre.

       -D lista-domen
       --domains=lista-domen
           Ustala domeny, do których program może przechodzić. Lista-domen jest listą separowaną
           przecinkami. Proszę zauważyć, że ta opcja nie włącza -H.

       --exclude-domains lista-domen
           Podaje domeny, do których program ma nie przechodzić.

       --follow-ftp
           Podąża za odnośnikami FTP z dokumentów HTML.  Bez tej opcji Wget będzie ignorował
           wszelkie odnośniki do FTP.

       --follow-tags=lista
           Wget ma wewnętrzną tablicę par: znacznik HTML/atrybut, którą posługuje się przy
           poszukiwaniu powiązanych dokumentów podczas pobierania rekurencyjnego. Aby brany był
           pod uwagę tylko pewien podzbiór tych znaczników, należy użyć tej opcji, podając je w
           postaci listy separowanej przecinkami.

       --ignore-tags=lista
           Jest to przeciwieństwo opcji --follow-tags.  Dzięki podaniu listy rozdzielonych
           przecinkami znaczników HTML można pominąć je podczas rekurencyjnego szukania
           dokumentów do pobrania.

           Niegdyś, ta opcja była najlepszym wyborem do ściągania pojedynczej strony razem z jej
           elementami, użyta w wierszu poleceń:

                   wget --ignore-tags=a,area -H -k -K -r
           http://<strona>/<dokument>

           Jednak autor tej opcji przeszedł przez stronę ze znacznikami typu <LINK REL="home"
           HREF="/"> i uświadomił sobie, że -G nie wystarcza.  Nie można po prostu nakazać Wget
           ignorowania <LINK>, gdyż wówczas nie będą ściągane arkusze stylów.  Obecnie najlepszym
           sposobem pobierania pojedynczej strony razem z jej elementami jest specjalnie
           przeznaczona do tego opcja --page-requisites.

       --ignore-case
           Ignoruje wielkość znaków przy dopasowywaniu plików i katalogów. Wpływa to na
           zachowanie opcji -R, -A, -I i -X, podobnie jak przy stosowaniu masek przy pobieraniu
           stron FTP. Na przykład, po zastosowaniu tej opcji -A "*.txt" dopasuje plik1.txt, lecz
           również plik.TXT, plik3.TxT itd. Cudzysłowy w przykładzie powodują, że powłoka nie
           rozwija wzorca.

       -H
       --span-hosts
           Włącza przechodzenie pomiędzy hostami przy pobieraniu rekurencyjnym.

       -L
       --relative
           Podąża tylko za odnośnikami względnymi. Przydatne do pobierania konkretnej strony bez
           żadnych odwracających uwagę dodatków, nawet z tego samego hosta.

       -I lista
       --include-directories=lista
           Określa listę rozdzielonych przecinkami katalogów, do których ma przechodzić program
           podczas pobierania. Elementy listy mogą zawierać znaki uogólniające (maski).

       -X lista
       --exclude-directories=lista
           Określa listę rozdzielonych przecinkami katalogów, które chcemy wykluczyć z
           pobierania. Elementy listy mogą zawierać znaki uogólniające (maski).

       -np
       --no-parent
           Powoduje, że Wget przy pobieraniu rekurencyjnym nigdy nie wchodzi do katalogu
           nadrzędnego.  Przydatna opcja, gdyż gwarantuje, że ściągane będą tylko pliki poniżej
           pewnego poziomu.

ŚRODOWISKO

       Wget obsługuje serwery pośredniczące do pobierań przez HTTP i FTP. Standardową metodą
       podawania położenia serwera pośredniczącego w przypadku Wgeta, są poniższe zmienne
       środowiskowe:

       http_proxy
       https_proxy
           Gdy ustawione, zmienne http_proxy i https_proxy powinny zawierać URL-e serwerów
           pośredniczących w, odpowiednio, połączeniach HTTP i HTTPS.

       ftp_proxy
           Zmienna powinna zawierać URL serwera pośredniczącego w połączeniach FTP. Dość często
           spotyka się sytuację, gdy http_proxy i ftp_proxy zawierają ten sam URL.

       no_proxy
           Zmienna powinna zawierać listę rozszerzeń domen (separatorem jest przecinek), do
           których nie będą stosowane serwery pośredniczące. Jeśli na przykład wartość no_proxy
           wynosi .mit.edu, to serwery pośredniczące nie będą stosowane do pobierania dokumentów
           z MIT.

KOD ZAKOŃCZENIA

       W przypadku wystąpienia problemów Wget może zwrócić jeden z poniższych kodów zakończenia.

       0   Nie wystąpiły żadne problemy.

       1   Podstawowy kod błędu.

       2   Błąd przetwarzania danych -- np. przy przetwarzaniu opcji wiersza polecenia, .wgetrc
           lub .netrc...

       3   Błąd wejścia/wyjścia pliku.

       4   Błąd sieci.

       5   Błąd weryfikacji SSL.

       6   Błąd uwierzytelnienia nazwy użytkownika/hasła.

       7   Błędy protokołów.

       8   Serwer zwrócił błędną odpowiedź.

       Oprócz kodów 0 i 1, kody zakończenia o mniejszej wartości liczbowej mają pierwszeństwo w
       sytuacji, gdy wystąpi wiele typów błędów.

       W wersjach Wgeta do 1.12, kody zakończenia były niespójne i niezbyt pomocne. Pobierania
       rekurencyjne zawsze zwracały 0 (powodzenie) bez względu na wystąpienie ewentualnych
       błędów, a nierekurencyjne zwracały zawsze kod zakończenia odpowiadający ostatniej próbie
       pobierania.

PLIKI

       /etc/wgetrc
           Domyślne położenie globalnego pliku startowego.

       .wgetrc
           Plik startowy użytkownika.

BŁĘDY

       You are welcome to submit bug reports via the GNU Wget bug tracker (see
       <https://savannah.gnu.org/bugs/?func=additem&group=wget>) or to our mailing list
       <bug-wget@gnu.org>.

       Visit <https://lists.gnu.org/mailman/listinfo/bug-wget> to get more info (how to
       subscribe, list archives, ...).

       Przed faktycznym przedłożeniem zgłoszenia błędu, proszę spróbować zastosować się do kilku
       prostych wskazówek.

       1.  Proszę upewnić się, że obserwowane zachowanie jest rzeczywiście błędem.  Jeśli Wget
           się wywala, jest to błąd.  Jeśli nie zachowuje się zgodnie z dokumentacją, jest to
           błąd.  Jeśli coś działa dziwnie, ale nie ma pewności jak powinno to wyglądać, również
           może być to błąd, ale proszę dwa razy sprawdzić dokumentację i listy dyskusyjne.

       2.  Proszę spróbować powtórzyć ten błąd w możliwie najprostszych warunkach.  Np. jeśli
           Wget pada podczas ściągania wget -rl0 -kKE -t5 -Y0 http://example.com -o /tmp/log,
           należy spróbować sprawdzić, czy to wywalanie się jest powtarzalne i czy pojawia się
           przy prostszym zestawie opcji. Można nawet spróbować zacząć pobieranie od strony, przy
           której wystąpiła awaria i sprawdzić, czy to nie ta strona w jakiś sposób ją powoduje.

           Ponadto, choć co prawda prawdopodobnie autor będzie zainteresowany zawartością pliku
           .wgetrc użytkownika, zwykłe skopiowanie go do wiadomości o błędzie jest raczej złym
           pomysłem.  Zamiast tego, należy najpierw sprawdzić, czy błąd powtarza się przy .wgetrc
           przeniesionym w inne miejsce. Proszę przesłać odpowiednie fragmenty tego pliku tylko
           wtedy, gdy okaże się, że błąd zależy od ustawień .wgetrc.

       3.  Proszę uruchomić Wget z opcją -d i przesłać uzyskany wynik (lub związane z błędem jego
           części).  Jeśli Wget został skompilowany bez obsługi debugowania, proszę go
           przekompilować.  Dużo łatwiej jest śledzić błędy z udostępnioną diagnostyką.

           Uwaga: proszę upewnić się, że usunęło się wszystkie potencjalnie prywatne dane z
           dziennika debugowania, przed wysłaniem go na adres zgłoszeń błędów. Opcja -d nie
           będzie starała się zbierać danych prywatnych, lecz dziennik będzie zawierał dość
           kompletny zapis komunikacji Wgeta z serwerem, co może obejmować także hasła i część
           pobranych danych. Zgłoszenia błędów są archiwizowane publicznie, tak więc należy
           uznać, że zgłoszenia błędów są również dostępne publicznie.

       4.  Jeśli Wget się wywala, proszę uruchomić go w debuggerze, np.  gdb `which wget` core i
           wpisać where, by otrzymać stos wywołania (backtrace). Może się to nie powieść, jeśli
           administrator systemu wyłączył pliki core, ale zawsze można spróbować.

ZOBACZ TAKŻE

       Nie jest to kompletny podręcznik GNU Wgeta. Więcej informacji, w tym pełniejszy opis
       niektórych opcji oraz wiele poleceń możliwych do zastosowania w plikach .wgetrc i z opcją
       -e znajduje się we wpisie wget w GNU Info.

       Also see wget2(1), the updated version of GNU Wget with even better support for recursive
       downloading and modern protocols like HTTP/2.

AUTOR

       Originally written by Hrvoje Nikšić <hniksic@xemacs.org>.  Currently maintained by Darshit
       Shah <darnir@gnu.org> and Tim Rühsen <tim.ruehsen@gmx.de>.

PRAWA AUTORSKIE

       Copyright (c) 1996--2011, 2015, 2018--2022 Free Software Foundation, Inc.

       Zezwala się na kopiowanie, rozpowszechnianie i/lub modyfikowanie tego dokumentu na
       warunkach Licencji Wolnej Dokumentacji GNU (GNU Free Documentation License) w wersji 1.3
       lub jakiejkolwiek nowszej wersji opublikowanej przez Fundację Wolnego Oprogramowania, przy
       czym Sekcjami niezmiennymi są "GNU General Public License" i "GNU Free Documentation
       License", bez treści przedniej lub tylnej strony okładki.  Egzemplarz licencji
       zamieszczono w sekcji zatytułowanej "GNU Free Documentation License".

TŁUMACZENIE

       Autorami polskiego tłumaczenia niniejszej strony podręcznika są: Wojtek Kotwica
       <wkotwica@post.pl> i Michał Kułach <michal.kulach@gmail.com>

       Niniejsze tłumaczenie jest wolną dokumentacją. Bliższe informacje o warunkach licencji
       można uzyskać zapoznając się z GNU General Public License w wersji 3
       ⟨https://www.gnu.org/licenses/gpl-3.0.html⟩ lub nowszej. Nie przyjmuje się ŻADNEJ
       ODPOWIEDZIALNOŚCI.

       Błędy w tłumaczeniu strony podręcznika prosimy zgłaszać na adres listy dyskusyjnej
       ⟨manpages-pl-list@lists.sourceforge.net⟩.