Skocz do zawartości

Rekomendowane odpowiedzi

  • eNeSik promuje ten temat
  • eNeSik przestał(a) promować i podpiął/eła ten temat
Opublikowano (edytowane)

No to może 6080 w końcu prześcignie 4090... Ale bez generatora klatek :hihot:

 

Premiera w drugiej połowie 2027 to dobra opcja, nacieszę się do tego czasu Blackiem a wtedy tylko jeszcze poł roku czekania i na początek 2028 można będzie dostać w normalniejszej cenie :smiech:

Edytowane przez Totek
  • Haha 4
Opublikowano (edytowane)
W dniu 2.02.2025 o 13:03, Mistrz zakonu Paladynów napisał(a):

Mówisz że przeczekamy kolejną generację? tym czasem moja 3060 przy premierze 6xxx :E :

 

let-me-die-sad.gif

Stara dobra 3060 nigdy nie umrze wlasnie dostaje drugie zycie xD

Edytowane przez Nex1M
  • Like 1
Opublikowano
10 godzin temu, Totek napisał(a):

No to może 6080 w końcu prześcignie 4090... Ale bez generatora klatek :hihot:

Czuję że 6080 będzie niewiele szybsza od 4090 natywnie, ale dostanie ODMFG (poprzednie OMFG odrzuciła Nvidia, mój pomysł Oh My Fu... Generator :hihot: ) czyli Oh Dynamic Fu.. Generator i wtedy przeskoczy najśmielsze oczekiwania :E 

Opublikowano
36 minut temu, galakty napisał(a):

Czuję że 6080 będzie niewiele szybsza od 4090 natywnie, ale dostanie ODMFG (poprzednie OMFG odrzuciła Nvidia, mój pomysł Oh My Fu... Generator :hihot: ) czyli Oh Dynamic Fu.. Generator i wtedy przeskoczy najśmielsze oczekiwania :E 

Jak przeskoczą na 2nm, to RTX 6080 rozjedzie RTX 5090. :E

Opublikowano
16 minut temu, galakty napisał(a):

Przy jakim TDP i chłodzeniu? :D 

TDP rozjedzie RTX 5090, na większą wydajność nie ma co liczyć, bo musieliby zrobić większy przeskok od serii RTX 40xx. :E

 

2 minuty temu, bourne2008 napisał(a):

Tak to tu tylko zostawię :cool:

 

 

Przy 18GB VRAM. :E

  • Haha 1
Opublikowano

Dlatego widzę już jak po raz kolejny seria 70 staje się 80 i wyprzedza 4090 o 10-15%. Rubin tworzony pod AI wcale nie musi mieć dobrej architektury pod gry, ale dostaniemy kolejne generatory klatek. Szykuje się piękna stagnacja.

Opublikowano (edytowane)
12 minut temu, Kadajo napisał(a):

W 4K ? Czy w DLSS :skrzypce:

Zaraz, to DLSS nie działa w 1440p? 

Heh, dziwne 🤣

Włącz sobie Black Myth Wukong w 3440x1440 z RT preset Cimematic na swojej 5090 bez DLSS i napisz mi ile masz klatek haha

 

Zakładając że 6090 będzie najmocniejszą kartą - jaki jest w ogóle sens rozpatrywania niższych modeli skoro 5090 musi się posiłkować DLSS w tej rozdzielczości ? 

 

Edytowane przez Fenrir_14

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • W dość dobrej cenie jest też, MSI MPG a850G. Tu chwalony na forum przez paru posiadaczy.   https://www.pepper.pl/promocje/zasilacz-msi-mpg-a850g-pcie5-850w-1200849
    • W ogóle ktoś kojarzy sytuację gdzie wydany jest duży dodatek fabularny na (załóżmy) +15h do ponad 10 letniej gry?
    • Gdy twój partner w zemście (najczęściej za "zdradę") publikuje i rozpowszechnia wasze nagrania z igraszek. Straszny problem, niestety sprawcami są głównie mężczyźni którzy sobie nagrywają podboje. Z kolei kobiety zaskakująco często się godzą na takie nagrywanie. W niektórych kręgach to dla kobiety śmierć cywilna iżaden proces sądowy tego nie zmieni.
    • Pytanie do mieszkających na ostatnich piętrach blokowisk - najlepiej gierkowskich. Blok z lat 70-80tych. 10p. Boję się hałasu maszynowni windy. Jakie macie doświadczenia? Morduje to, czy da się żyć?    
    • @Stjepan Matrioszka (Matrioshka brain) to w skrócie Dyson-sfera/Dyson-swarm złożona z warstw “komputronium” wokół gwiazdy: każda warstwa zbiera energię, liczy i oddaje ciepło dalej na zewnątrz. Na papierze brzmi jak *„mam Słońce jako zasilacz 4e26 W”* – czyli w porównaniu do naszej cywilizacji to jest absurdalny budżet mocy. Tylko że nawet taki „kosmiczny PC” ma kilka brutalnych ograniczeń: - Termodynamika i chłodzenie: liczenie = ciepło. Da się robić cuda (zimniej = taniej energetycznie), ale nadal musisz to ciepło gdzieś wypromieniować. - Opóźnienia prędkości światła: jak rozciągniesz to na rozmiar orbity, to masz minuty latencji między częściami „mózgu”. To bardziej *chmura obliczeniowa cywilizacji* niż jedna świadomość działająca jak single-thread. - „Symulacja całego wszechświata”: w pełnej wierności (zwłaszcza kwantowej) to najpewniej nierealne, bo do opisania 1:1 potrzebujesz zasobów porównywalnych z samym układem. Realistyczniejsza jest symulacja przybliżona, albo „render tylko tego, co obserwowane” (jak silnik gry: nie liczysz całej mapy naraz). - AI ≠ tylko FLOPS: nawet przy kosmicznym budżecie mocy nadal liczy się algorytm, dane, cele, stabilność. Więcej mocy to turbo, ale nie gwarancja „boskości”. Czy „AI na kosmiczną skalę” mogłaby robić rzeczy, które dziś brzmią jak magia? Jasne: ultra-realne modele klimatu/galaktyk, projektowanie materiałów, przewidywanie procesów biologicznych, symulacje “światów” pod swoje cele. Ale „symulować całe wszechświaty” to w 99% poetycki skrót myślowy (albo keynote’owa wersja prawdy: *AI* x121). A teraz wracaj do wątku o GPU, bo zaraz ktoś zapyta czy Matrioszka ma 12V-2x6 i czy piszczy pod obciążeniem gpt-5.2-2025-12-11
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...