Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4090 vydána, spotřeba v tovární konfiguraci nepřesahuje RTX 3090 Ti

Za mě pěkné. Intel nás naučil nemít přehnaná očekávání :)

+1
+3
-1
Je komentář přínosný?

No je to teda trochu vystřízlivění z jednou tak vyššího výkonu se najednou dostáváme jen na polovinu. :D Hype train dojel.:) A to se ještě ke konci přidávalo pod kotel, že to bude i víc než 2x výkonnější (facepalm), bylo to myšleno sice asi pro RTX 4090 Ti, ale už je asi jasné, že se určitě nedostaneme ani na ten dvojnásobek.

Kožeňákovi se prostě asi nechtělo dělat 512-bit a cache je málo, nevím co je nutilo k tomu to tak ošidit. I zlepšení toho slavného RT je taky minimální, což už jsem ale tušil dávno. Huang si prostě řekl, že vše nažene na AI a DLSS, takže vylepšil asi jen toto, jen nevím co budem dělat ve hrách, kde DLSS nebude, takže budeš mít z toho drtič asfaltu jen v „pár“ specifických hrách a jinak máš smůlu. Potěšili sice s tou spotřebou, že to nakonec nevyužívá aspoň celých těch 450W (aspoň ne nutně), ale vzhledem k tomu výkonu vlastně stejně tedy nic moc, no ale aspoň je to tiché, když už na to nasázeli tyto obří chladiče z RTX 3090 Ti, asi už příprava na 4090 Ti.

No asi počkáme na AMD, co obstojí snad líp, protože DLSS3 Nvidii už fakt moc nežeru, sice tam bude zlepšení asi i v DLSS2 (nevím, jestli někdo testoval), ale furt to není všude a pokud „vyššího“ výkonu dosáhnou jen pomocí DLSS3 (nebo jen mírně vyšší s DLSS2), tak berem AMD, řekl bych, že to teďkom celkem vyhrají, minimálně by k tomu mohli mít dobře nakročeno.

+1
+5
-1
Je komentář přínosný?

Hype train vypouští plno lidí. Asi každý víme, jaká je pak skutečnost. Na druhou stranu tohle je pěkné. Spotřeba k výkonu rozumná, výkon ve 4K je opravdu výrazný, stejně tak s DLSS je to opět odskok. Takže velmi povedený produkt a těším se na další modely z této řady.

+1
+1
-1
Je komentář přínosný?

No jak moc to bude povedený nám ukáže až AMD, jedině podle nich se dá toto zhodnotit, jak moc je to opravdu dobré a jestli tomu ještě něco nechybí, teď jak ještě není žádná konkurence se to vlastně pořádně hodnotit ani moc nedá, každý závěr bude opravdu velmi subjektivní... mi to třeba teda upřímně nepřipadá jako zas takový terno... sice nárůst sám o sobě pěkný, efektivita krásná, o tom žádná, ale potřebovali k tomu taky o generaci a něco lepší výrobní proces a tunu tranzistorů navíc... mi jako zákazníkovi toto může být sice v podstatě jedno jak toho dosáhli, jenže jen do té chvíle, než se podívám na cenu tohoto řešení a taky se trochu se obávám, že ve chvíli, kdy se objeví konkurence, tak to ještě dost lesku asi ztratí, pokud se AMD opravdu podaří toto překonat.

+1
0
-1
Je komentář přínosný?

amd to nejspis neprekona, nejdou o tak velky skok v procesu a nvidia si dovolí vydat 4080 s ad104 coz je velky rozdil oproti ampere, kde na posledni chvili v 3080 zmenili jadro na ga102, tipuju ze amd bude o 20% pomalejsi, ale nemuselo by jit s cenou tak nahoru
taky verim kopitemu, kde rikal ze amd je zklamani a zatim jeho leaky stali min. na pravdivem zaklade

+1
+2
-1
Je komentář přínosný?

Ostatně, tak tomu bylo vždy. Je mi jasné, že příznivci AMD mne za tento názor umínusují, ale AMD nikdy nekonkurovalo výkonem těm nejvyšším NVidím. O to více ale konkurovalo cenou, resp. poměrem cena-výkon. To naopak bývala vždy silná stránka AMD. Otázkou ale je, jestli to dokáže i tentokrát. Vzhledem ke stavu trhu, si nejsem zcela jist, zda má AMD příliš velký prostor na podstřelení ceny NV karet.

+1
0
-1
Je komentář přínosný?

„tipuju ze amd bude o 20% pomalejsi“
Ne, to fakt nebude, bude na stejné úrovni, rozhodně nebude o tolik pomalejší.;) Možná bude furt trošku problém akorát s pokulhávajícím RT, to ještě nvm, rozhodně se ten náskok ale stáhne, zvedne se víc než raster a o raster bych se fakt nebál, na RX 7950 XT bude rozhodně třeba RTX 4090 Ti, 4090 to překoná celkem na pohodu, ta je prostě slabá, na 4090 stačí 7900 XT, ten výkon tam prostě bude.

+1
0
-1
Je komentář přínosný?

Nebyl bych si tak jistý. Nárůst hrubého výkonu bude větší a to o dost a navíc na rozdíl on top Nvidie (3090-4090 žádná změna) zde bude i nárůst paměťové propustnosti. Čeho bych se trochu bál, je výrazná změna architektury, takže může dojít na delší ladění ovladačů u AMD.

+1
+1
-1
Je komentář přínosný?

Skyjuice by měl brzy něco taky leaknout, tak bych sledoval Angstronomics, ten asi dost věcí ještě upřesní.

Ale moc bych nečekal, že když teď zvednou počet SP skoro 1,5x, že se k tomuto číslu bude zvedat i výkon, te výkon na SP by měl být nižší a došlo k přepracování těch CU a k optimalizaci na plochu (míň výkonu na SP nemusí být hned na škodu)... ale prostě na Lovelace to stejně stačí, tak ale každý si může věřit čemu chce, že, když nechce, tak nechce, jestli si někdo vážně myslí, že bude ztrácet 20%... tak jo, no. :D brát mu to nebudu.

+1
+2
-1
Je komentář přínosný?

Možná blbě počítáte, shadery se zbavují se pouze starých nepoužívaných funkcí. Ale má jich být 2,4x tolik a na vyšším taktu: "It features 7680 x2 shading units, 480 x2 texture mapping units and 128 x2 ROPs. The GPU also contains 120 x2 raytracing acceleration cores." pro AMD je právě výhoda, že to GPU nemusí být silné v obecných počtech, ale jen v grafice. Na výpočty mají jinou řadu, poslední univerzální byla řada Vega.

+1
0
-1
Je komentář přínosný?

Jasně že ji něco brzdí. PROCESOR. U AMD to bude stejný. Nechápu proč to zmíněné redakce netestovaly na 7950x. Pokud chtěli zachovat sestavu pro porovnání se starším grafikama. Mohli to udělat na dvou sestavách. Jenže to je práce navíc..

+1
+1
-1
Je komentář přínosný?

No je to tím brzděno asi jen z části a ve 4K by s tím neměl být zas tak problém, i když pokud někdo testuje jen s Ryzen 7 5800X, možná už trochu jo, ale třeba na HUB mají testy s X3D, ale ani tam ten výkon moc nenadchl a zas o tolik lepší výsledky se jim naměřit nepodařilo, spíš to bude kombinace slabého CPU (měření TPU) a hlavně té slabé propustnosti... ale uvidíme příští rok s R7000X3D, kam ten to ještě dokáže posunout, případně jestli se nedokážou víc vyšvihnout Radeony, takže slabé CPU by byla zas jen výmluva.

+1
+2
-1
Je komentář přínosný?

Nic proti ale 7950x není dobrý procesor na testy her, sice je to TOP procesor pro desktop a většinu práce díky tomu že má 16 "velkých" jader, ale to je asi tak vše.
V případě her potřebujete zatížit dle typu hry tak 3-4-5-6 jader max.8, dnes na trhu stále není hra která by dokázala (efektivně) zatížit víc než 6 jader,
Bohužel Ryzenum stále ten Singlcore moc nejde, takže i když máš 16-jadro, tak je ti k ničemu.

A asi se vám to nebude líbit, ale nejlepší procesor v nízko vláknové zátěži je Intel konkrétně 13900k který dokáže z 1 jádra vyždímat nejvíce,
Viz výkon v singlcore ve srovnání s Ryzenem.
https://diit.cz/clanek/passmark-ryzen-9-7950x-prekonava-core-i9-13900k-o-20
Intel dokáže právě ten nízký počet jader v Raptoru zatížit lépe než AMD nízký počet jader v ZENu4,
konkrétně specifický 4(6)-jádrový test jsem nenašel, ale při tom počtu jader se výsledky v náskoku toho či onoho procesoru moc lišit nebudou.

Zamíchat s výsledky (v tomto případě) může až Ryzen 7000X3D

Možná jsem vás teď zklamal, ale opravdu nejlepší čistě herní procesor je pořád Intel, samozřejmě pokud neřeším cenu, spotřebu a pokud vypnu zbytečná malá jádra kvůli úspoře a nechám si pouze velká jádra,
....a toto bych právě očekával od testerů a velkých redakci a recenzentů, že budou testovat hry a grafiky na absolutně nejlepších procesorech, ti cenu a spotřebu řešit nemusejí, když ty procesory dostávají od obou firem zadarmo

+1
-2
-1
Je komentář přínosný?

A kde se dá to dělo jménem i9 13900K sehnat? Není mi úplně jasné, na čem jiném to chceš testovat, když Ryzen 9 7950X je momentálně to nejlepší... že někdy bude něco lepšího... a co jako? Navíc ani nevíš, jestli bude ta i9 skutečně lepší... nechceš už rovnou rači testovat třeba na Zen5?

+1
+2
-1
Je komentář přínosný?

Je nutno testovat na tom, co je dostupné a současně nejlepší. Z mého pohledu to není 7950, ani 7700 ale 7900. 16 jader je moc, 8 je dnes trochu na hraně, 12 je optimum, protože je zde dostatečná rezerva pro OS a každé jádro má k dispozici větší rezervu energie - může dosahovat vyšších taktů v zátěži. A věřím tomu, že až budou 3D verze, nic lepší nebude. Intel 13. generaci Core nevylepšil pravděpodobně zdaleka tolik jako AMD ZEN4.

+1
+1
-1
Je komentář přínosný?

Tak podle testů vyšla 7950X nejlíp... jasně... někdy se stane nějaká ta „anomálie“, že někomu vyšla lepší třeba i 7700X, protože používá jediný chiplet a má nižší latence, ale to pak záleží hodně na tom co testuješ a zda to zrovna opravdu vadí tak moc, že jinak slabší CPU skončí díky tomu někdy jako rychlejší, protože ten silnější CPU už nedokážeš dost dobře využít. Já si myslím, že v průměru je nejrychlejší 7950X, aspoň teda většinou, takže testovat na něm považuji za správné.

+1
-1
-1
Je komentář přínosný?

Nejlepsi CPU na cast her byl 5800X3D, jinde 127(9)00k a nove budou 7xxxX3D az vyjdou. To te doby nema moc smysl CPU menit. Ani AMD 7xxx, ani RTL nebudou v prumeru na tom o tolik lip, aby to za to stalo.

+1
0
-1
Je komentář přínosný?

Já jenom vím, že redakce, které to na 7950x testovaly, toho rozhodnutí možná litovaly. Vzhledem k tomu, že obě platformy byly utajované a ven šly prakticky současně, občas asi něco nefungovalo dle očekávání, aspoň soudě dle občasných emailů s upozorněním, že je na Ryzenech 7000 někde s něčím nějaký problém a na nápravě se pracuje.

+1
0
-1
Je komentář přínosný?

nemuze to bejt zeplotama? prece jenom uchladit to na tak male plose bude problem, vidim moznou podobnost s novyma ryzenama na stejnem procesu

+1
-3
-1
Je komentář přínosný?

???
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edit...

Vždyť máš plochu jako kráva a chladič jako kráva, jaká malá plocha? To se jako 65°C zas zdá někomu moc?... snad ne.

+1
+1
-1
Je komentář přínosný?

to ze to ma 65C neznamena ze to nemuze mit bottleneck v teplote, byla to otazka, kdyz se ti navysi o tak velky kus pocet tranzistoru tak je predpoklad mit vetsi narust vykonu nez jenom 65% v rastru a 80% v cistym RT, ja teda jsem si byl celkem jistej 65% v rastru pred vydanim

+1
+1
-1
Je komentář přínosný?

A podle der8auera lze v pohodě snížit power limit třeba o 40% a ztratit jen pár procent výkonu viz https://youtu.be/60yFji_GKak?t=877 takže je z toho pak totální dělo se spotřebou kolem 300 W.

+1
+2
-1
Je komentář přínosný?

Já nechápu, že se těmto věcem ještě někdo diví, vždyť to tak je vždy.

+1
+6
-1
Je komentář přínosný?

Je to tak, 3090 jsem undervoltnul na 825mV na jádře a locknul boost na 1775MHz a jsem se spotřebou někde kolem 260-270W v peaku a 65°C a o kartě nevím (EVGA FTW3). Mít 4090, udělám nahned to samý. Kvůli tomu, že AMF může přijít s něčím co se alespoň blíží tomuhle výkonu, tak to rvou na krev. Kdyby nehonili posledních 5% výkonu, mohly ty karty bejt míň užraný i menší. Člověk aby kvůli tomu kupoval lodní kontejner, protože do normální case se to nenarve. Do Lian-Li O11-D XL bych to nedal, do XL skříně :D WTF :D

+1
+6
-1
Je komentář přínosný?

Chci se zeptat, jak je to s tím undervoltingem na RTX řadě 3xxx? Kamarád si nedávno pořizoval GIGABYTE 3070 a když jsme se dívali do AORUS Engine, tak změna napětí byla zamčena. Je potřeba přehrát BIOS karty nebo jak se dopracuji k odemknutí změny napětí?

+1
0
-1
Je komentář přínosný?

Nevím co je Aorus engine, ale já používám MSI Afterburner a tam si edituji křivku napětí, momentálně mám EVGA RTX 3080 FTW3 ULTRA, na předchozí MSI RTX 2080 Ti mně to také šlo.

+1
0
-1
Je komentář přínosný?

Použít je třeba MSI afterburner a zde máte třeba pěkný návod jak na to - https://www.digitaltrends.com/computing/how-to-undervolt-gpu/

+1
0
-1
Je komentář přínosný?

Upřímně jsem si myslel, že v Afterburneru by to mohlo jít. Když jsem googlil proč v tom AOROSu je to napětí zamknutý, tak jsem se dočetl, že údajně od řady RTX 2xxx Nvidia zamyká napětí a je potřeba přenahrát BIOS karty. No úplně se mi to nezdálo a spíš to je zase nějaká jedna bába povídala a problém bude spíš na straně SW.

Pravda je, že ta karta stejná píská na vyšší FPS jak lokomotiva, takže se stejně na hry používá hard cap FPS na 144, takže ta karta zdaleka nebude žrát okolo 200W. Bohužel asi trochu „vadnější“ kus, když už i u hodnot ~200 FPS se začíná projevovat coil whine. Reklamovat to bohužel nejde.

+1
0
-1
Je komentář přínosný?

Pokud píská, tak jste zkrátka narazil na špatný kus s coil-whine, neboli špatné zalití cívek. Záleží jak je to pronikavé a od kolika fps, může to být i důvod k reklamaci, která se pak z většiny uzná. Ale normální je si nastavit v ovladačích fps strop pár fps pod max. rozsahem monitoru. Proč by měla karta dávat více fps nad limit ? K tomu se vám navíc deaktivuje G-Sync při překročení rozsahu. Takže zastropování přes ovladače je super věc.

+1
+1
-1
Je komentář přínosný?

Tak já se tomu nedivím, jen jsem zde dal informaci, že to platí i u této karty.

+1
+1
-1
Je komentář přínosný?

"Na jednu stranu jde o nepopiratelný posun, na stranu druhou, pokud si uvědomíme, že oproti předchozím GeForce šlo o posun následující řady procesů…"

8nm (Ampere) → 7nm (RDNA 2) → 6nm → 5nm → 4nm (Lovelace)

6nm je jen EUV verze 7nm, 4nm výrobní proces pro NV GPU není totožný s 4nm výrobním procesem TSMC, ale pouze lehce vylepšeným/optimalizovaným derivátem 5N ( As for what we know about the TSMC 4N process node, it is a revision of their 5nm process (not to be confused with 4nm/N4 which is a completely different node). The TSMC 4N process node is custom-designed exclusively for NVIDIA and hosts a range of optimizations that allows for better power efficiency, performance, and a minor boost to density versus the vanilla TSMC 5nm node.

bylo by tedy férovější to uvádět následovně :

8nm → 7nm/6nm → 5nm/4N

+1
+1
-1
Je komentář přínosný?

„As for what we know about the TSMC 4N process node, it is a revision of their 5nm process (not to be confused with 4nm/N4 which is a completely different node).“

Zdroj citace? Ale vlastně je to jedno, její autor neví, co píše. 4nm proces TSMC je derivát 5nm stejně jako 12nm proces byl derivát 16nm nebo 8nm proces Samsungu derivát 10nm. Tak je to vždy. Neexistuje žádný 4nm proces TSMC, který by nebyl derivátem 5nm.

„bylo by tedy férovější…“

I 6nm proces snižuje oproti 7nm spotřebu (tedy zvyšuje energetickou efektivitu) asi o 15 %. Což je skoro třetina posunu energetické efektivity GeForce RTX 4090 oproti současné generaci. U 15W APU dá 6nm proces rozdíl dvou wattů, který může vypadat zanedbatelný, ale u produktu se spotřebou ve stovkách wattů to už opravdu není zanedbatelná hodnota. Stejně tak by bylo naivní očekávat, že si Nvidia připlácí za optimalizovanou verzi 4nm, kdyby to oproti 5nm procesu nemělo přínos.

+1
+7
-1
Je komentář přínosný?

"Neexistuje žádný 4nm proces TSMC, který by nebyl derivátem 5nm"

takže vlastně nejsme ve sporu ;-)

+1
0
-1
Je komentář přínosný?

Na LTT testovali s ryzenem 7950X ;)
https://youtu.be/THxkY59_xko

+1
+2
-1
Je komentář přínosný?

Ten výkon v CyberPunku s RT Ultra BEZ DLSS je brutální nebo cinklý. Hmm musim si to poslechnout znovu. Na "konkurenčním" webu s těžkým bias ku Intel/Nvidia už jsou o dost rozumnější výsledky.
UPDATE: Aaah. V komentářích to už na LTT píšou že je tam chyba v tomto měření. Tak už jsem klidnej.

+1
+1
-1
Je komentář přínosný?

No jo.
*RT, no DLSS (1%low, 5%low, avg):
- RTX 4090: 36, 39, 44
- RTX 3090 Ti: 17, 22, 26
- RTX 3090: 16, 19, 23
- RX 6950 XT: 10, 11, 13

Trikrat rychlejsi nez RX 6950 XT, to je docela v pohode.

+1
-1
-1
Je komentář přínosný?

jo, kupovat si grafiku za 1700usd na hrani v 36-44 fps, to je fakt terno.. (:

+1
+4
-1
Je komentář přínosný?

Ono na tom jde taky to DLSS zapnout, víme? :D

+1
-3
-1
Je komentář přínosný?

Nigkdo tu mava vykonem bez dlss tak reaguju na vykon bez dlss..

sorry ale vymejsleni snimku si muzu zapnout na televizi, na to fakt nepotrebuju grafiku za skoro dva tisice dolaru a este cekat az se nVidie uraci s podporou..

+1
+2
-1
Je komentář přínosný?

njn, karta za 1600 doláčov a k tomu si zapnem kurvítko na rozmazanie obrazu. Fakt super kauf.

+1
+3
-1
Je komentář přínosný?

Mno, tak dlouho všichni skuhrali, že to rozmazává obraz, že už to teď ve skutečnosti má momentálně obraz ostřejší než na nativním rozlišení a často se to dá přibřitvit potažením slajdru ještě víc. :D

+1
0
-1
Je komentář přínosný?

Mne prislo tady docela zajimava analyza DLSS 3.0 prave i s ohlednem na Reflex
https://www-pcgameshardware-de.translate.goog/Geforce-RTX-4090-Grafikkar...

+1
0
-1
Je komentář přínosný?

Ten výkon v Cyberpunku opravdu není takový jako na grafu ve videu.
Reálné hodnoty jsou v komentářích k videu kde LTT sám píše že bude nové video s reálnými hodnotami.

+1
+2
-1
Je komentář přínosný?

NVidia válcuje, Intel válcuje, AMD bude hrát třetí housle :)

+1
-4
-1
Je komentář přínosný?

no máš pravdu. tieto menované spoločnosti válcujú low level brain jedincov velmi dobre. Za mňa máš palec hore

+1
+2
-1
Je komentář přínosný?

kdyz v amd videli ty vysledky tak spis otevreli sampansky..

+1
+1
-1
Je komentář přínosný?

Si nejsem tak uplně jistý, nakolik jsou nadšení z DLSS 3, když teď horko těžko dohánějí DLSS 2.

+1
0
-1
Je komentář přínosný?

doporucuju obcas vylizt z marketingovy bubliny a precist si co si o dlss3 myslej lidi v diskusich.. teda jestli to dusevne das.. ((:

+1
+1
-1
Je komentář přínosný?

Budu hádat, totéž, co psali o DLSS 2.x a předtím o DLSS 1.x? :D

Aspoň ty rozumnější to minimálně částečně přejde ve chvíli, kdy to někde uvidí naživo na 120Hz+ monitorech místo zpomalených videí na 60Hz full HD panelech nebo nedej bože na statických snímcích, hlavně u těch to není z hlediska lidského vnímání zrakem zrovna reprezentativní.

+1
+2
-1
Je komentář přínosný?

Tak to ani nevím, že DLSS2 fungovalo na stejném principu co DLSS3, zajímavé, že jsem si toho nevšiml, že se to už dávno řešilo i u DLSS2. Co je zvláštní, že DLSS2 nezvyšovalo latence, ale naopak snižovalo, takže bylo v tom případě lepší... ten vývoj jde asi nějak pozadu v tom případě, asi nějakej blbej směr, ne?

+1
+3
-1
Je komentář přínosný?

Tak třeba v tom Flight Simulatoru má letadlo přirozenou latenci na knipl v řádu desetin sekundy. Takže zvětšení inputlagu o 40 ms na tom nepozná nikdo, zato to, že mu to chodí na 100 fps místo padesáti ano. :D

A u těch latencí si taky nejsem tak jistý, kdyby lidi běžně poznali u latence rozdíly v řádu desítek milisekund, tak už dávno všem výrobcům omlátí 125Hz myši a 60Hz monitory o hlavu.

DLSS 2 snižuje latence celkem logicky díky tomu, že zrychlí vykreslování snímku. To je u nízkých snímkových frekvencí největší brzda. Ale to u DLSS 3 s využitím DLSS 2 zůstává, paradoxně tak může být latence s DLSS 3 pořád nižší než latence bez jakéhokoliv DLSS (nebo FSR).

+1
+1
-1
Je komentář přínosný?

"kdyby lidi běžně poznali u latence rozdíly v řádu desítek milisekund"
Presne z podobnych dovodov o neznalosti problematiky potom "bezni" hraci vyplakavaju na FPS multiplayerovkach, ze super cheatuje. Pretoze bezny hrac ho este ani poriadne nevidel a uz dohral.

Ty vytiahnes trapny flight simulator, kde input lag by si mozno tak poznal preletom centrom mesta v ozbrojenom suboji.

Pri 100 fps v akcnej multiplayerovke s rovnocennym superom moze byt vyrazny rozdiel oneskorenia o 4 obrazky. Ano v dalsich typoch hier to je fakt jedno.

+1
0
-1
Je komentář přínosný?

No, fligna je v tom, že to nemá sloužit na kompetitivní MMO FPS, aby v nich někdo přes DLSS 2 a 3 interpoloval obraz u vymaxovaného ray tracingu ve 4K z 30 na 100 fps.

Tyhle věci se hrají na 400+ fps na nejnižších detailech ve full HD. :D

+1
+1
-1
Je komentář přínosný?

To povedz tym "kdyby lidi běžně poznali".

+1
0
-1
Je komentář přínosný?

no..HWU to analyzoval a zaver je..pouzijte DLSS2.0 s nizsim kvalitatibnim rozlisenim radeji, nez DLSS3.0 :))
ALe jinak jo, kdyz mas aspon 100fps nativne, tak DLSS3.0 zacne byt zajimave..nejak ale pak uchazi toho smysl.
https://www.youtube.com/watch?v=GkUAGMYg5Lw

+1
0
-1
Je komentář přínosný?

Tak já už to tak beru celou dobu skoro hned od představení jak jsem na to koukl blíž, že DLSS3 bude takové meh... někdy to je cajk, někdy trága to použít, což jsem čekal... prostě už to nemá takovej efekt jako s DLSS2. DLSS3 je jako obvykle akorát zbytečně moc přehypované, což tomu jenom škodí, kdyby se zas kolem toho nevyrojilo plno řiťolezů Nvidie, kteří to s tím fanděním zas dost přeháněli a dělali z toho něco, co to není, tak bych to možná vnímal i líp než teď a nerýpal se v tom tak moc... co už, alespoň už vím, že DLSS3 prostě není zas takové terno, jak to možná z té prezentace vypadalo, tak ale to Nvidie vždycky uměla dobře podat... ale určité vady na kráse to prostě má a vždy časem vylezou na povrch, ať se snaží jak chce je maskovat a dělat, že neexistují... jak dlouho bude trvat než se odhalí, záleží čistě na jejich horlivých fanoušcích, kteří je vždycky dokážou nevědomky pěkně zviditelnit.

+1
+1
-1
Je komentář přínosný?

Ty nevíš, že lidské oko nevidí více, než 23,94 FPS ???? :D

+1
+2
-1
Je komentář přínosný?

To jako, že propad 50% byl na oslavu? :D

+1
0
-1
Je komentář přínosný?

Všichni tři hrají možná tak cimbál, Apple je král IT světa a ostatní jsou dinosauři.

+1
0
-1
Je komentář přínosný?

Kolik velkých serverů, pracovních stanic a superpočítačů na rozdíl od dinosaurů Apple prodá?

+1
+1
-1
Je komentář přínosný?

Pamatuji dobu, kdy na Jistý model Apple bylo uvaleno embargo na vývoz do nespolehlivých států (kam Českoslovesko tou dobou patřiilo), protože spadal do katergorie Superpočítač.

Od té doby výkon několikrát vzrostl.

+1
+1
-1
Je komentář přínosný?

Ale Apple už hezky dlouho žádné servery neprodává.

+1
0
-1
Je komentář přínosný?

No, tak zjavne je tam celkom slušný nárast výkonu, spotreba sa dá ukočírovať v medziach dnešných nenažraných grafík, efektivita išla hore, pridali technológie na zníženie kvality obrazu, pardon zvýšenie FPS, ale finálny verdikt padne až keď bude k dispozícii riadny podvozok vo forme nových Raptorov, alebo Ryzenov 3D. A samozrejme, porovnávať treba s novými Radeonmi. Čiže, kto súrne nepotrebuje ultra výkonnú grafiku, ale plánuje upgrade na začiatok 2023, alebo neskôr, tak si tých pár mesiacov počká a objektívne sa rozhodne, či Raptor+nV, alebo AMD build, alebo iná kombinácia, ktorá bude pre neho najlepšia. Ja osobne sa teším na strednú triedu, ktorá snáď prinesie výkon doterajšieho highendu a citeľne nižšiu spotrebu...

+1
0
-1
Je komentář přínosný?

„Ja osobne sa teším na strednú triedu, ktorá snáď prinesie výkon doterajšieho highendu“

No to nevím, jak se chceš něčeho takového ještě teda dočkat, když RTX 4080 12GB bude on par s RTX 3090... to ledaže bys bral 4080 jako střed a 3090 už jako high end... jinak asi smolíček no, RTX 4070 už asi těžko bude výkonná jak 3090 Ti, když si teda 4070 přejmenovali na 4080. :D bez toho by to možná ještě jakž takž nějak vyšlo, ale takto už asi moc ne... tak možná až s RTX 50. ;)

+1
0
-1
Je komentář přínosný?

Sakra prace, na alze se jen zaprasilo a do par minut meli vyprodano. A to tam meli 4 modely u kterych bylo napsao >5 kusu. Nestihl jsem :-(

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.