Polityka w Polsce i na Świecie - wątek ogólny
-
Ostatnio przeglądający 4 użytkowników
-
Popularne tematy
-
Najnowsze posty
-
Przez Kowal_ · Opublikowano
Byłoby gdyby skalper sprzedawał po 6msc od kupna, inaczej podateczek, którego oczywiście nie odprowadza. -
Przez Zachy · Opublikowano
@PiPoLiNiO Technokrata jest jaki jest, troche klikbajtowy, troche zakrecony. Ot taki polski internetowy Benek -
Przez Reddzik · Opublikowano
Czyli zostałem z "ręką w nocniku" jak wszędzie dookoła takie złe wiadomości, a mi się zachciało wymiany na nowe gpu, a wolę poczekać. Eh te zabawy w ulepszanie swojego kompa, wiecznie coś jest nie tak. -
Przez aerial · Opublikowano
Za free to trochę potrwa żeby zagrać, nie zdziwiłbym się gdyby ponad rok zajęło dojście do tej wersji. Co do ceny to drogo, są kraje gdzie wychodzi połowę taniej. Ktoś pokazywał zestawienie po przeliczeniu kursów walut, to polska cena jest chyba druga najdroższa na świecie. Kraje typu Kanada 20% taniej.. Ruskim np, wychodzi połowę ceny. Ja patrzę z ostrożnym optymizmem. Boję się że wolny gameplay będzie, robienie jakichś combosów do zabicia każdego packa szybko się przeje. Jednak każdy hack&slash ewoluował do wersji szybkiej gry, takie coś na dłuższą metę się ludziom podoba. Szkoda też żeby poe1 ucierpiało na przestawieniu się GGG na dwójkę. Mówili że nie ucierpi, a już widać że 1 przeszła na drugi plan, liga będzie miała 7 miesięcy, i pewnie następna będzie biedna. -
Przez Camis · Opublikowano
Trochę przerobiony skrypt, generuje linki i od razu zaczyna je ściągać. Dodatkowo każdy oddzielny temat zapisuje do swojego katalogu i każdą stronę kompresuję 7-zip (mi wygodniej 7-zip bo wszystko mam w tym formacie). Dzięki temu strona nie zajmuje ~8-12mb tylko około ~2-4mb. Strony które nie udało się pobrać zapisuje do oddzielnego pliku failed_file. #!/bin/bash # Plik wejsciowy z linkami input_file="links.txt" # Plik z nieudanymi adresami URL failed_file="failed_links.txt" # Usun istniejacy plik z nieudanymi linkami rm -f "$failed_file" # Przetwarzanie linków while IFS= read -r line; do # Pomijanie linii zaczynajacych sie od # [[ "$line" =~ ^# ]] && continue # Ekstrakcja numeru strony z URL page_number=$(echo "$line" | grep -o 'page/[0-9]*' | cut -d'/' -f2) # Jesli numer strony nie istnieje, ustaw 1 if [ -z "$page_number" ]; then page_number=1 fi # Ekstrakcja tematu z URL (numer i tytul) topic=$(echo "$line" | sed -E 's|https://forum.pclab.pl/topic/([0-9]+-[^/]+)/.*|\1|') # Utwórz folder dla danego tematu mkdir -p "$topic" # Pobieranie strony 1 (bez /page/1, jesli jest tylko jedna strona) if [ "$page_number" -eq 1 ]; then output_file="${topic}/${topic}.html" command="monolith https://forum.pclab.pl/topic/$topic -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi else output_file="${topic}/${topic}.html" command="monolith https://forum.pclab.pl/topic/$topic -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi # Pobieranie stron od 2 do ostatniej for i in $(seq 2 "$page_number"); do output_file="${topic}/${topic}-page-$i.html" command="monolith https://forum.pclab.pl/topic/$topic/page/$i -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic/page/$i" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi done fi done < "$input_file" echo "Proces zakonczony. Nieudane adresy zapisano w $failed_file."
-
-
Aktywni użytkownicy
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się