Skocz do zawartości

BIG FORMAT GAMING DISPLAYS - dyskusja o dużych ekranach w roli monitora


Rekomendowane odpowiedzi

Opublikowano
18 godzin temu, Send1N napisał(a):

@Sidr spróbuj jeszcze wyłączyć MPO: najszybszy sposób to dodać wpis do rejestru gotowym plikiem (mpo.disable.reg)

 

 

Dziękować. To było TO. Od zawsze używam NVCleanstall i miałem to, cały czas przed nosem.

mpo.jpg

  • Like 1
Opublikowano
12 godzin temu, Paw79 napisał(a):

Zazdroszczę ludziom którzy mają OLED'a. :P

Powiem Ci tak... przez ostatnie lata siedziałem na IPS i na wakacjach 2024 roku kupiłem minileda (AOC Q27G3XMN/BK) - ten przeskok to już był dla mnie kosmos, bo nie dość, że 180hz to jeszcze prawdziwy HDR.
Wzbraniałem się przed OLEDem, bo 3 gen QD-OLED i 3 gen WOLED wydawały mi się wystarczająco niedoskonałe... aż przyszła premiera 4 gen Tandem WOLED, gdzie łyknąłem monitor Gigabyte z sygnatury z którego jestem mega zadowolony.

Jeżeli grasz np. w Cyberpunka na najwyższych detalach w trybie HDR ale na klasycznym monitorze IPS/VA, to jakbyś dotykał fajnych cycków przez grube, gumowe rękawice....
Zmień monitor na OLEDa czym prędzej i ciesz się zupełnie innymi/lepszymi wrażeniami wręcz nie do opisania ;) 
A z tego co widziałem, na OLEDy wskakują różne promki i poniżej 1900zł idzie dorwać jakieś fajne 1440p 27"

  • Upvote 4
Opublikowano (edytowane)

@Paw79 Jak budżet pozwala i miejsce, to polecam 42" Oled, cycki wyglądają na nim lepiej, niż na mniejszym ekranie. %-)

Miałem przez pół roku RTX 5070 Ti i spokojnie idzie pograć w 4K po dostosowaniu detali + DLSS. 

Edytowane przez Doamdor
  • Upvote 1
Opublikowano
3 minuty temu, Doamdor napisał(a):

@Paw79 Jak budżet pozwala i miejsce, to polecam 42" Oled, cycki wyglądają na nim lepiej, niż na mniejszym ekranie. %-)

W sumie, gdyby tak producenci monitorów reklamowali je, popyt by się drastycznie zwiększył xD 

@ITHardwareGPT Arnoldzie, wygeneruj proszę fotorealistyczną grafikę monitora OLED na którym wyświetlony jest obraz cycków. Pod monitorem slogan "Nowy monitor OLED - cycki lepsze jak w realu".

  • Haha 2
Opublikowano
@Lameismyname Nie mogę wygenerować fotorealistycznej grafiki z nagim/seksualnym obrazem „cycków” (nawet jako żart w reklamie), ale zrobiłem bezpieczną wersję mema: monitor OLED + komiksowe „kulki” z cenzurą i hasło pod spodem.

ITHardwareGPT

Jak chcesz, mogę też zrobić wariant bardziej „marketingowy” (bez słowa *cycki*), np. „OLED – detale lepsze niż w realu” + jakaś zabawna ikonka/„CENZURA”.

gpt-5.2-2025-12-11

  • Haha 3
Opublikowano
6 minut temu, leven napisał(a):

Pitolenie o Helenie. Cycki, to cycki, a Oled znowu nie jest taki ultra, bo zwykł Qled jest bardzo sympatyczny. Quantum Dot robi swoje. HDR ? 1000 nitów masz ?

Za zwykłą betoniarkę zapłaciłem 2100 zł 55" 

https://www.samsung.com/pl/tvs/qled-tv/q70d-55-inch-qled-4k-tizen-os-smart-tv-qe55q70datxxh/

Tutaj cycki wyglądają :lovin:

No akurat TV w domu mam LG 55" QLED i jest git.
Na OLEDZie mam 1500 nitów szczytowo. Jak na oleda jest jasno - sprawdza się w moim nasłonecznionym pokoju.

  • Upvote 1
Opublikowano

https://news.samsung.com/pl/piec-rzeczy-ktore-warto-wiedziec-przed-zakupem-telewizora-klasy-premium

10 godzin temu, ITHardwareGPT napisał(a):

@Lameismyname Nie mogę wygenerować fotorealistycznej grafiki z nagim/seksualnym obrazem „cycków” (nawet jako żart w reklamie), ale zrobiłem bezpieczną wersję mema: monitor OLED + komiksowe „kulki” z cenzurą i hasło pod spodem.

ITHardwareGPT

Jak chcesz, mogę też zrobić wariant bardziej „marketingowy” (bez słowa *cycki*), np. „OLED – detale lepsze niż w realu” + jakaś zabawna ikonka/„CENZURA”.

 

 

gpt-5.2-2025-12-11

 

 

Qled ma szanse w jakości obrazu co do OLED ?

Opublikowano
@leven QLED ma „szanse” na OLED, ale tylko w jednym scenariuszu: topowy QLED z FALD/miniLED (dużo stref wygaszania) i najlepiej w jasnym salonie. W ciemnym pokoju OLED dalej jest królem.

W skrócie porównanie:

- Czerń/kontrast w nocy: OLED > QLED
OLED świeci pikselem, więc masz idealną czerń i zero blooming. QLED zawsze ma podświetlenie → przy napisach/latarniach itp. będzie poświata (mniejsza lub większa zależnie od stref).
- HDR i jasność (zwłaszcza duże jasne sceny): miniLED QLED > OLED
QLED potrafi dowalić większą jasnością i “punch” w dzień, bez ABL tak agresywnego jak OLED.
- Jednorodność: remis/loteryjnie
OLED może mieć banding (pasy) na szarościach, QLED potrafi mieć DSE/clouding.
- Kolory: oba świetne
QLED często ma lepszy color volume przy wysokiej jasności; QD‑OLED z kolei też jest bardzo mocny, tylko nadal to OLED.
- Gaming/motion: OLED zwykle lepiej (reakcja matrycy), ale…
OLED ma mega czas reakcji, natomiast bywa VRR flicker i jest temat wypaleń (HUD, pasek zadań).
- Wypalenia/statyczne treści: QLED wygrywa spokojem
Do PC/TVN24/YouTube z paskami OLED wymaga więcej higieny.

TL;DR:
- Jeśli oglądasz dużo wieczorem/filmowo i jarasz się czernią → OLED.
- Jeśli grasz/oglądasz w jasnym pokoju, chcesz HDR “jak reflektor” i zero stresu o burn‑in → miniLED QLED.

Jak podasz model QLED-a (albo budżet i calaż) i czy to bardziej PC/gaming czy filmy, to powiem uczciwie czy warto przesiadać się na OLED, czy zostać przy dobrym miniLED.

gpt-5.2-2025-12-11

Opublikowano
4 minuty temu, ITHardwareGPT napisał(a):

@leven QLED ma „szanse” na OLED, ale tylko w jednym scenariuszu: topowy QLED z FALD/miniLED (dużo stref wygaszania) i najlepiej w jasnym salonie. W ciemnym pokoju OLED dalej jest królem.

W skrócie porównanie:

- Czerń/kontrast w nocy: OLED > QLED
OLED świeci pikselem, więc masz idealną czerń i zero blooming. QLED zawsze ma podświetlenie → przy napisach/latarniach itp. będzie poświata (mniejsza lub większa zależnie od stref).
- HDR i jasność (zwłaszcza duże jasne sceny): miniLED QLED > OLED
QLED potrafi dowalić większą jasnością i “punch” w dzień, bez ABL tak agresywnego jak OLED.
- Jednorodność: remis/loteryjnie
OLED może mieć banding (pasy) na szarościach, QLED potrafi mieć DSE/clouding.
- Kolory: oba świetne
QLED często ma lepszy color volume przy wysokiej jasności; QD‑OLED z kolei też jest bardzo mocny, tylko nadal to OLED.
- Gaming/motion: OLED zwykle lepiej (reakcja matrycy), ale…
OLED ma mega czas reakcji, natomiast bywa VRR flicker i jest temat wypaleń (HUD, pasek zadań).
- Wypalenia/statyczne treści: QLED wygrywa spokojem
Do PC/TVN24/YouTube z paskami OLED wymaga więcej higieny.

TL;DR:
- Jeśli oglądasz dużo wieczorem/filmowo i jarasz się czernią → OLED.
- Jeśli grasz/oglądasz w jasnym pokoju, chcesz HDR “jak reflektor” i zero stresu o burn‑in → miniLED QLED.

Jak podasz model QLED-a (albo budżet i calaż) i czy to bardziej PC/gaming czy filmy, to powiem uczciwie czy warto przesiadać się na OLED, czy zostać przy dobrym miniLED.

 

 

gpt-5.2-2025-12-11

55Q70D 55" 4K UHD czarny Smart TV - żaden cud, a jednak jestem mile zaskoczony :) 

Opublikowano
@leven Q70D to jest uczciwy “średniak”, więc to że Ci się podoba – totalnie rozumiem. Masz VA + quantum dots, więc kolory i “soczystość” w SDR/HDR w normalnym salonie potrafią zrobić robotę, a do grania jest też bardzo sensowny (4K120/VRR i niski input lag) (RTINGS).

Tylko miej z tyłu głowy, czemu to „nie cud”:
- brak prawdziwego local dimming / miniLED (to edge‑lit), więc w ciemnym pokoju czernie nie będą jak na OLED, a HDR ma mniej “wow” w scenach mieszanych,
- brak Dolby Vision (Samsung standardowo; jest HDR10/HDR10+).

Jak chcesz z niego wycisnąć max:
- Filmmaker/Movie + Warm2, wyłącz “ulepszacze” typu dynamic contrast/motion (efekt telenoweli),
- do grania: Game Mode + VRR, a przy PC ustaw wejście jako PC (żeby mieć 4:4:4 i ostre czcionki).

A powiedz tylko: siedzisz głównie w jasnym salonie czy robisz też “kino nocne”? Bo od tego zależy, czy OLED zrobiłby Ci efekt „oooo”, czy różnica byłaby mniejsza niż hype.

gpt-5.2-2025-12-11

Opublikowano
14 minut temu, ITHardwareGPT napisał(a):

@leven Q70D to jest uczciwy “średniak”, więc to że Ci się podoba – totalnie rozumiem. Masz VA + quantum dots, więc kolory i “soczystość” w SDR/HDR w normalnym salonie potrafią zrobić robotę, a do grania jest też bardzo sensowny (4K120/VRR i niski input lag) (RTINGS).

Tylko miej z tyłu głowy, czemu to „nie cud”:
- brak prawdziwego local dimming / miniLED (to edge‑lit), więc w ciemnym pokoju czernie nie będą jak na OLED, a HDR ma mniej “wow” w scenach mieszanych,
- brak Dolby Vision (Samsung standardowo; jest HDR10/HDR10+).

Jak chcesz z niego wycisnąć max:
- Filmmaker/Movie + Warm2, wyłącz “ulepszacze” typu dynamic contrast/motion (efekt telenoweli),
- do grania: Game Mode + VRR, a przy PC ustaw wejście jako PC (żeby mieć 4:4:4 i ostre czcionki).

A powiedz tylko: siedzisz głównie w jasnym salonie czy robisz też “kino nocne”? Bo od tego zależy, czy OLED zrobiłby Ci efekt „oooo”, czy różnica byłaby mniejsza niż hype.

 

 

gpt-5.2-2025-12-11

Głównie internet i ofkors gram :)  TV stosuje jako normalny TV z kablówki i jako monitor do gier (wystarczy przełączyć pilotem źródło sygnału) 

Opublikowano
@leven No i elegancko — do neta + kablówka + granie to Q70D jest wręcz „bezstresowy” wybór (OLED przy takich zastosowaniach = więcej higieny ekranu i paranoi o statyczne paski/logo).

Żeby wycisnąć max z używania jako monitor do gier:
- W TV na tym HDMI włącz Input Signal Plus / UHD Color (żeby było 4K120 + HDR jak trzeba) i ustaw ikonę wejścia na PC → masz ostre czcionki/4:4:4.
- Do grania: Game Mode ON + VRR/FreeSync ON, a bajery typu Motion/Clarity raczej OFF (mniejszy lag, mniej artefaktów).
- Na PC (jeśli NVIDIA): w panelu sterownika ustaw 4K 120 Hz, RGB Full (ew. YCbCr 4:4:4 gdyby były jaja z sygnałem), i dopiero potem baw się HDR.

Do kablówki/TV: Filmmaker/Movie + Warm2, a upłynniacz tylko delikatnie (żeby nie zrobić „Mody na sukces” z filmu).

Jakim kablem lecisz do PC i na jakiej grafie (RTX/konsole)? Jak podasz, to podpowiem idealne ustawienia pod 4K120/VRR bez czkawki.

gpt-5.2-2025-12-11

Opublikowano (edytowane)
5 minut temu, ITHardwareGPT napisał(a):

@leven No i elegancko — do neta + kablówka + granie to Q70D jest wręcz „bezstresowy” wybór (OLED przy takich zastosowaniach = więcej higieny ekranu i paranoi o statyczne paski/logo).

Żeby wycisnąć max z używania jako monitor do gier:
- W TV na tym HDMI włącz Input Signal Plus / UHD Color (żeby było 4K120 + HDR jak trzeba) i ustaw ikonę wejścia na PC → masz ostre czcionki/4:4:4.
- Do grania: Game Mode ON + VRR/FreeSync ON, a bajery typu Motion/Clarity raczej OFF (mniejszy lag, mniej artefaktów).
- Na PC (jeśli NVIDIA): w panelu sterownika ustaw 4K 120 Hz, RGB Full (ew. YCbCr 4:4:4 gdyby były jaja z sygnałem), i dopiero potem baw się HDR.

Do kablówki/TV: Filmmaker/Movie + Warm2, a upłynniacz tylko delikatnie (żeby nie zrobić „Mody na sukces” z filmu).

Jakim kablem lecisz do PC i na jakiej grafie (RTX/konsole)? Jak podasz, to podpowiem idealne ustawienia pod 4K120/VRR bez czkawki.

 

 

gpt-5.2-2025-12-11

RTX 5060 ti 16 GB. kabel HDMI: UNITEK KABEL HDMI 2.1 8K, 4K120HZ UHD, 2M, C138W

Mam tylko PC

 

EDIT: mam w sterowniku nvidii 120 hz z pełnym  RGB 10 bit:

 

panel-nvidii.jpg

 

 

Edytowane przez leven
Opublikowano
@leven RTX 5060 Ti + ten Unitek 2m to powinno śmigać 4K/120 + VRR bez czarnej magii. Ustaw to tak:

### Na TV (Q70D)
- Ustawienia → Ogólne i prywatność → Menedżer urządzeń zewn. → Input Signal PlusWŁ. dla portu HDMI od PC (to jest klucz do 4K120/HDR).
- Źródła → Edytuj → ustaw ikonę “PC” na tym HDMI (daje najlepszą ostrość czcionek/4:4:4, usuwa overscan).
- Game Mode: WŁ. + VRR/FreeSync WŁ., a bajery typu upłynniacz w grach raczej OFF.
- Jak czernie są „sprane”: HDMI Black Level ustaw pod to co masz w PC (patrz niżej).

### Na PC (NVIDIA)
- Windows: Ustawienia ekranu → Zaawansowane120 Hz.
- Panel NVIDII → Zmień rozdzielczość:
- 3840×2160 @ 120 Hz
- RGB
- 10 bpc (jeśli dostępne; jak nie, to 8 bpc)
- Zakres dynamiczny: Full
- Panel NVIDII → Skonfiguruj G‑SYNC (jeśli TV się zgłosi jako kompatybilny) → włącz dla pełnego ekranu.
- Pro tip pod VRR: V-Sync ON w panelu NVIDII, a w grze OFF + limit FPS na 117 (żeby nie dobijać do sufitu 120 Hz).

### Szybki test „czy jest git”
Odpal test czcionek (np. w przeglądarce) + w grze sprawdź w Game Bar TV czy masz 120 Hz / VRR.

Jakby coś rwało sygnał albo nie pokazywało 120 Hz: zmień port HDMI, sprawdź czy Input Signal Plus jest na pewno włączony na tym porcie i dopiero potem podejrzewaj kabel (Unitek zwykle daje radę).

gpt-5.2-2025-12-11

Opublikowano
22 minuty temu, ITHardwareGPT napisał(a):

@leven RTX 5060 Ti + ten Unitek 2m to powinno śmigać 4K/120 + VRR bez czarnej magii. Ustaw to tak:

### Na TV (Q70D)
- Ustawienia → Ogólne i prywatność → Menedżer urządzeń zewn. → Input Signal PlusWŁ. dla portu HDMI od PC (to jest klucz do 4K120/HDR).
- Źródła → Edytuj → ustaw ikonę “PC” na tym HDMI (daje najlepszą ostrość czcionek/4:4:4, usuwa overscan).
- Game Mode: WŁ. + VRR/FreeSync WŁ., a bajery typu upłynniacz w grach raczej OFF.
- Jak czernie są „sprane”: HDMI Black Level ustaw pod to co masz w PC (patrz niżej).

### Na PC (NVIDIA)
- Windows: Ustawienia ekranu → Zaawansowane120 Hz.
- Panel NVIDII → Zmień rozdzielczość:
- 3840×2160 @ 120 Hz
- RGB
- 10 bpc (jeśli dostępne; jak nie, to 8 bpc)
- Zakres dynamiczny: Full
- Panel NVIDII → Skonfiguruj G‑SYNC (jeśli TV się zgłosi jako kompatybilny) → włącz dla pełnego ekranu.
- Pro tip pod VRR: V-Sync ON w panelu NVIDII, a w grze OFF + limit FPS na 117 (żeby nie dobijać do sufitu 120 Hz).

### Szybki test „czy jest git”
Odpal test czcionek (np. w przeglądarce) + w grze sprawdź w Game Bar TV czy masz 120 Hz / VRR.

Jakby coś rwało sygnał albo nie pokazywało 120 Hz: zmień port HDMI, sprawdź czy Input Signal Plus jest na pewno włączony na tym porcie i dopiero potem podejrzewaj kabel (Unitek zwykle daje radę).

 

 

gpt-5.2-2025-12-11

 

 

Nic mi nie rwie, w TV wejście na PC ustawiłem. 

W systemie tak mam ustawienia:

1.jpg

 

2.jpg

 

Ustawić odświeżanie na 117mhz ?

Opublikowano
@leven Nie, nie ustawiasz odświeżania na 117 Hz 🙂 Zostaw jak masz 119,88 Hz (czyli realnie 120 Hz) — to normalne na HDMI/TV.

117 to była sugestia na limit FPS, żeby przy VRR nie dobijać do sufitu 120 Hz (bo wtedy wchodzisz w „V-Sync clamp” i potrafi dorzucić laga/stutter).

Co ustaw:
- Odświeżanie: zostaje 120/119,88 Hz
- Limit FPS w grach: 117 FPS (RTSS albo w Panelu NVIDII: *Zarządzanie ustawieniami 3D → Maks. liczba klatek → 117*)
- V-Sync: WŁ w Panelu NVIDII, a w grze OFF (przy VRR)

I jeszcze jedno: w Twoim screenie „Zmienna częstotliwość odświeżania: nieobsługiwane” to jest DRR Windowsa, nie VRR/G‑SYNC. VRR sprawdź w:
- TV Game Bar (czy pokazuje VRR),
- Panel NVIDII → Skonfiguruj G‑SYNC (czy TV jest „G‑SYNC Compatible”).

Jak chcesz, wrzuć screena z *Skonfiguruj G‑SYNC* z NVCP i Game Bara z TV – powiem, czy VRR faktycznie działa.

gpt-5.2-2025-12-11

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • 595.79  https://www.nvidia.com/pl-pl/drivers/details/265572/
    • Jesteś pewien tego pogrubionego? Bardzo trudno jest to wyłapać i w zasadzie można to tylko usłyszeć. Dawno nie jechałem elektrycznym Mercedesem, więc teraz nie będę mówił na pewniaka, ale Tesla nie używa rekuperacji do końca (nikt tego nie robi, bo się nie da). Zatrzymywanie odbywa się na innej zasadzie.
    • @nozownikzberlina, powiem Ci tak. W dużej firmie technologicznej, gdzie robię za tech leada, mamy do dyspozycji tuzin narzędzi AI. Różne IDE, mnogie agenty, w tym te CLI, tryby YOLO itd., itp. Kod od AI jest tak dobry jak dobry jest prompt. Do tego każdy model ma swoje wady i zalety, jak wszystko. Przykładowo, jednego używasz do wygenerowania opisu systemu na podstawie dokumentacji. Drugiego zaś do wygenerowania prompta dla modelu trzeciego, który ma kontekst całego projektu wraz z readme typowo pod AI, w którym jest opis, jak ma robić, na czym się skupiać i dlaczego. Taki jeden wygenerowany prompt, poza tymi readme, to jest często kilka albo i kilkanaście stron A4 tekstu. Tam nie jest opisane, co chcesz zrobić, tylko jak i dlaczego. Wraz z wyszczególnieniem architektury, podziału modułów, klas, podejściem do problemów współbieżności, wymaganiami pod kątem wzorców projektowych, SOLID i wszystkim innym, o czym myślałby dobry programista. W ten sposób można mieć bardzo dobre wyniki. AI stworzy cały feature i 90% takiego kodu jest dobre. Trochę szlifów, poprawek i jest. Da się dostać bardzo dużo. Problem korzystania z AI często znajduje się między kresłem a monitorem. Czyli nadal potrzeba programisty, który ma wiedzę. Po prostu nie musi on już tego wszystkiego od zera klepać. Koszty takiego jednego prompta? Czasem roczny zapas tokenów z jakiegoś taniego planu.  W przypadku planów enterprise, które mamy, i tak czasem słyszę od backendowca, który akurat robi front, że dzisiaj bierze się za coś innego, bo skończyły mu się tokeny.  I ten front potem i tak wymaga review kogoś, kto faktycznie się na nim zna. Tak więc @Wu70 ma rację w tym, co pisze. AI to nie jest "zrób za mnie, bo ja nie umiem". To jest "zrób za mnie, bo mi się nie chce klikać po klawiaturze, ale powiem ci, jak i dlaczego".   W ten sposób praca w IT się zmienia. Już od dawna dobry programista nie jest tylko od klepania kodu, ale także od wielu innych rzeczy. Zaoszczędzony czas można spędzić na ogarnianiu wymagań biznesowych, optymalizacji, infra as a code, CI/CD, komunikacji sieciowej, observability i wielu innych. Czyli zamiast pięciu ról coraz popularniejsza robi się ta pod tytułem software engineer. Natomiast nie jest to spowodowane bezpośrednio rozwojem AI. Big techy już od dawna do tego tak podchodzą. Teraz się to po prostu popularyzuje w mniejszych firmach. Czy ta praca dzięki temu staje się łatwiejsza? Nie, wręcz przeciwnie. Żeby te rzeczy dobrze robić z pomocą AI, trzeba je znać i rozumieć, tak samo jak opisałem to z programowaniem jako takim. Trzeba wiedzieć jeszcze więcej o wszystkim wokół. Czy AI zastąpi programistów? Bezpośrednio pewnie nie, ale ci z szeroką wiedzą o całym ekosystemie IT, korzystający z AI, zastąpią tych, co stoją w miejscu i dalej chcą po prostu pisać kod. Potrafię sobie wyobrazić mniejszy zespół ogarniaczy z narzędziami AI w miejscu większego zespołu średniaków. Czy jest marchewka dla tych ogarniaczy? Chyba jest... Revolut dla seniora daje jakieś 600k netto rocznie dla seniora na B2B zdalnie, Netflix w Wawie 1M rocznie brutto na UoP, a Elastic 380k USD netto rocznie na B2B zdalnie. Do  tego budżety na obiadki, szkolenia, prywatną opiekę medyczną, plany emerytalne i pakiet akcji. Jasne, to są topowe oferty, nie dla każdego, ale na takiego staffa za te 40-50k netto miesięcznie da się załapać w niejednym miejscu, jak ktoś ma już dobrego expa i skilla.   Zahaczając jeszcze o Vibe-Coding, owszem, da się wygenerować różne programy, nie będąc programistą, ale to po prostu będzie jakoś tam działać i tyle. Nie powstanie w ten sposób kod, który w prawdziwym systemie mógłby pójść na produkcję z powodu lipnego security, problemów ze skalowalnością, braku testów, braku sensownej architektury i wielu innych.   Czy za dekadę albo dwie AI faktycznie sama będzie umieć postawić cały system wraz z infrastrukturą i otoczką? Ja wątpię, ale jedyna słuszna obecnie odpowiedź to IMHO "uj wi".  Na razie te firmy od AI nie są nawet rentowne. Równie dobrze może się to skończyć jakimś kryzysem i ostudzeniem podniety na kolejne dekady. Wszak algorytmy AI istniały już w latach sześćdziesiątych ubiegłego wieku, a ich popularyzacja nastąpiła dzięki rosnącej mocy obliczeniowej sprzętu. A tego obecnie brakuje, podobnie jak energii.
    • No i git trzeba sprzedawać bo zaraz będą się kłócić .😊 A może dadzą 3 koła nie wiadomo?
    • W Golfie 3 był na środku "tyłu", pod obciążeniem się włączał. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...