Skocz do zawartości

Camis

Użytkownik
  • Postów

    4 910
  • Dołączył

  • Wygrane w rankingu

    29

Treść opublikowana przez Camis

  1. Ale prawaki mają spięcie w głowach Gej z obywatelstwem Izraela w małżeństwie z facetem i do tego mają 2 dzieci które urodziła im surogatka
  2. https://www.bankier.pl/wiadomosc/USA-cierpia-na-epidemie-otylosci-a-jej-koszty-sa-ogromne-ida-w-biliony-dolarow-8846826.html Ciekawe czemu Muska nie dali do ministerstwa zdrowia:
  3. Ja skopiowałem tylko swoje treści Mogę zając się sciąganiem kilku tematów, u mnie serwer w domu chodzi 24/7 więc sobie powoli ściąga w tle. Tylko musicie wysłać mi adresy tematów z ostatniej strony. I myślę że na siebie wezmę z maks 10000 postów do ściągnięcia. O tym jako pierwszym pomyślałem, stworzyć prosty HTML z ramką na dole z listingiem stron. Już go mam Sam o to prosiłem, nie wiem tylko jaki czas ustawił Admin, na labie było że tworzy nowy post jak przekroczysz czas 10 minut, bo 9 minut włącznie łączyło posty.
  4. Tomczyk wrzucił fejka, kaczor mówił o Hołowni.
  5. Co do późniejszego przeglądania tych pojedynczych stron to bez problemu można je przerobić skryptem żeby można było je przełączać w przeglądarce. Najważniejsze to zapisać dane tematy a z wyświetlaniem można zająć się później.
  6. Chciałem w politycznym ale bardziej pasuje do memów:
  7. NIEDOPAŁKOW!!! https://wiadomosci.onet.pl/swiat/rosyjski-samolot-w-ogniu-akcja-ratunkowa-na-tureckim-lotnisku/ln5ydyh
  8. Co do wymagani sprawnościowych, to drastycznie je obniżą: KABARET
  9. https://sluzbyiobywatel.pl/praski-handel-narkotykami/
  10. Przy wklejaniu wpisów X do postów też najczęściej się to nie udaje, trzeba wklejać do skutku nawet 5-10 razy i dopiero załapie. Tak więc bardzo to dziwne że ten sam link działa ale dopiero po kilku razach wchodzi.
  11. Potwierdzam, u mnie też nie widać. Tylko tego forum, dyskutuje na kilku i nigdzie nie ma tego problemu.
  12. Przespałeś ostatnie 2 lata?, na Allegro już nie wystawisz jako osoba prywatna, tam zostały tylko firmy.
  13. Mam puste posty: https://forum.ithardware.pl/topic/8012-ukraina-rosyjska-inwazja-2022/page/51/#findComment-62718 https://forum.ithardware.pl/topic/8012-ukraina-rosyjska-inwazja-2022/page/51/#findComment-62823 Z resztą nie tylko ja:
  14. Palad napisał że słaby to go od konforuska wyzwali w komentarzach
  15. Trochę przerobiony skrypt, generuje linki i od razu zaczyna je ściągać. Dodatkowo każdy oddzielny temat zapisuje do swojego katalogu i każdą stronę kompresuję 7-zip (mi wygodniej 7-zip bo wszystko mam w tym formacie). Dzięki temu strona nie zajmuje ~8-12mb tylko około ~2-4mb. Strony które nie udało się pobrać zapisuje do oddzielnego pliku failed_file. #!/bin/bash # Plik wejsciowy z linkami input_file="links.txt" # Plik z nieudanymi adresami URL failed_file="failed_links.txt" # Usun istniejacy plik z nieudanymi linkami rm -f "$failed_file" # Przetwarzanie linków while IFS= read -r line; do # Pomijanie linii zaczynajacych sie od # [[ "$line" =~ ^# ]] && continue # Ekstrakcja numeru strony z URL page_number=$(echo "$line" | grep -o 'page/[0-9]*' | cut -d'/' -f2) # Jesli numer strony nie istnieje, ustaw 1 if [ -z "$page_number" ]; then page_number=1 fi # Ekstrakcja tematu z URL (numer i tytul) topic=$(echo "$line" | sed -E 's|https://forum.pclab.pl/topic/([0-9]+-[^/]+)/.*|\1|') # Utwórz folder dla danego tematu mkdir -p "$topic" # Pobieranie strony 1 (bez /page/1, jesli jest tylko jedna strona) if [ "$page_number" -eq 1 ]; then output_file="${topic}/${topic}.html" command="monolith https://forum.pclab.pl/topic/$topic -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi else output_file="${topic}/${topic}.html" command="monolith https://forum.pclab.pl/topic/$topic -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi # Pobieranie stron od 2 do ostatniej for i in $(seq 2 "$page_number"); do output_file="${topic}/${topic}-page-$i.html" command="monolith https://forum.pclab.pl/topic/$topic/page/$i -t 15 -s -o $output_file" echo "Uruchamianie: $command" if ! eval "$command"; then echo "https://forum.pclab.pl/topic/$topic/page/$i" >> "$failed_file" else 7z a "${output_file}.7z" "$output_file" >/dev/null 2>&1 rm "$output_file" fi done fi done < "$input_file" echo "Proces zakonczony. Nieudane adresy zapisano w $failed_file."
  16. Sorry ale wolałem nie ryzykować powtórki i "zaktualizowałem bazę wirusów" O i przyszedł szur.
  17. A będzie coraz gorzej i będą zmuszeni obniżać poprzeczkę. Demografia robi swoje i już brakuje kilkudziesięciu tysięcy wakatów. Ale pewien jegomość w temacie o demografii twierdził że damy sobie rade z tym bo będą roboty i AI
  18. A tutaj skrypt dla Linuxa, wystarczy w pliku links.txt wkleić linki do tematów których chcemy wygenerować. Tylko trzeba wkleić link do ostatniej strony tematu np: https://forum.pclab.pl/topic/774052-off-polityczny/page/6620/ https://forum.pclab.pl/topic/1340132-transformacja-energetyczna-oze-paliwa-kopalne-co2-ceny-energii-elektromobilność/page/310/ https://forum.pclab.pl/topic/1368500-wojny-i-konflikty-zbrojne-na-świecie/page/35/ #!/bin/bash # Plik wejściowy z linkami input_file="links.txt" # Plik wyjściowy z komendami output_file="monolith_commands.sh" # Usuń istniejący plik wyjściowy, jeśli istnieje rm -f "$output_file" # Przetwarzanie linków while IFS= read -r line; do # Ekstrakcja numeru strony z URL page_number=$(echo "$line" | grep -o 'page/[0-9]*' | cut -d'/' -f2) # Jeśli numer strony nie istnieje, ustaw 1 if [ -z "$page_number" ]; then page_number=1 fi # Ekstrakcja tematu z URL (numer i tytuł) topic=$(echo "$line" | sed -E 's|https://forum.pclab.pl/topic/([0-9]+-[^/]+)/.*|\1|') # Generowanie komendy dla strony 1 (bez /page/1, jeśli jest tylko jedna strona) if [ "$page_number" -eq 1 ]; then echo "monolith https://forum.pclab.pl/topic/$topic -o ${topic}.html" >> "$output_file" else echo "monolith https://forum.pclab.pl/topic/$topic -o ${topic}.html" >> "$output_file" # Generowanie komend dla stron od 2 do ostatniej for i in $(seq 2 "$page_number"); do echo "monolith https://forum.pclab.pl/topic/$topic/page/$i -o ${topic}-page-$i.html" >> "$output_file" done fi done < "$input_file" echo "Komendy monolith zostały zapisane do pliku $output_file"
  19. IQ 2137 pisowców, ciekawe czy będzie narracja o ataku hakierów: https://wiadomosci.onet.pl/kraj/takie-instrukcje-dostali-sms-em-poslowie-pis-wyciekl-przekaz-dnia/g76w5hv
×
×
  • Dodaj nową pozycję...