Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 3090 vydána: Ani ta však není 2× rychlejší než GeForce RTX 2080

RTX 3090 mi pride uz absurdna. Som stastny, ze to uz ide mimo mna.
Som zvedavy kam dalej to bude pokracovat. A dufam, ze AMD na tuto hru nepristupi.

+1
+2
-1
Je komentář přínosný?

RTX 3090 je zbytečná karta, ale své kupce si najde a takto Nvidia přemýšlí. Bude to karta na kterou konkurence nebude mít odpověď, takže si ji nacení absurdně a budou na tom rejžovat. Klasicky to bylo dříve s 2080Ti. Inteligentní člověk se takové kartě vyhne. Lidi co nevědí co s penězi ji bez problémů koupí a budou mít "namachrované" PC. To je asi celé k této kartě.

Na co přistoupí AMD uvidíme. Ono už jsou určité karty rozdány a musí teď překvapit, což bude asi dost složité. Pokud se jim podaří zatlačit na cenu 3080/3070 modelů, jen dobře pro hráče.

+1
+2
-1
Je komentář přínosný?

Inteligentný človek neposudzuje inteligenciu druhého podľa nákupu.

+1
-2
-1
Je komentář přínosný?

Pokud se zde bavíme o poměru cena/výkon, pak se zde s většinou shodneme, že ta karta má absurdní cenu a nemůže se vyplatit. Takže se to označit takto dá. To už bychom se nemohli vyjádřit k ničemu.

+1
+1
-1
Je komentář přínosný?

Nedá protože co přesně je poměr cena/výkon. Pokud potřebuji více paměti, tak je mi irelevatní jaký poměr cena/výkon mají karty s menší pamětí, doteď 24GB nabízel třeba RTX Titan a ten má extrémně špatný poměr cena/výkon, i 2080Ti má horší poměr cena výkon. Pokud člověk nepotřebuje Quadro kvůli specifickým funkcím nebo certifikacím, což může znamenat třeba i to že co ty karty počítají bude bez certifikace nelegální/nepoužitelné, tak je to levná alternativa a poměr cena/výkon je úžasný.

Ano na hraní ten poměr je velice špatný, ale tyhle karty si kupují lidi kteří těch dalšíích 800 dolarů v peněžence mají a když je tam mít nebudou, tak si toho nevšimnou.

Exkluzivní zboží je v podstatě v každém odvětví a vždy si to své zájemce, kteří nehledí na peníze, najde a že cena celé 3090 je v tomto směru jen dýško či drobné. Podobnou cenu dá člověk za specifickou barvu nebo třeba jiná kola na auto.

+1
-4
-1
Je komentář přínosný?

> Nedá protože co přesně je poměr cena/výkon

vykon u GPU je vypocetni vykon, cena je cena.

> Pokud potřebuji více paměti

Pak budes asi hledat pomer cena / pamet, ne cena / vykon.

> poměr cena/výkon je úžasný

Neni. Pomer cena / pamet muze byt uzasny, cena / vykon je celkem jasne nahovno (proti 3080).

> ale tyhle karty si kupují lidi kteří těch dalšíích 800 dolarů v peněžence mají a když je tam mít nebudou, tak si toho nevšimnou

Takze vlastne souhlasis s tim co napsal Tomason. Jedinej rozdil je ze on neco implikoval o inteligenci vsech kupujicich 3090ky, kdezto ty tady tvrdis ze lidem je 800$ fuk a soucasne tihle lide jsou inteligentni jedinci kteri tu extra pamet zasadne potrebuji. Ja bych naopak rekl ze ty dve skupiny jsou separatni, a ta druha bude podstatne mensi.

> Exkluzivní zboží
> dýško či drobné

Ehm, kdyz je cena "dýško či drobné" tak to dost tezko muze byt soucasne "exkluzivní zboží". Sory ale 3090 neni "exkluzivní zboží", je to obycejnej prodrazenej hi-end. Ano ma svuj smysl v jistych situacich, a kupujici si najde, ale to nic nemeni na situaci. Exkluzivni zbozi bude Titan.

+1
+1
-1
Je komentář přínosný?

Ale notak redakce, já myslím že už těch článků o nesmyslnosti 3090 stačilo - kdo přemýšlí a sleduje fakta již názor má a tomu zbytku stačí Linusovo "8K? - just works".
Já se snad za tu kartu začnu stydět a budu ji bránit, jako dříve RVII. Už aby big Navi byla venku!

+1
0
-1
Je komentář přínosný?

Big navi je prakticky Radeon VII tiež ma 16GB aj rovnaku spotrebu, jediny rozdiel je že dosahuje vykon vyšši o 190-230% a stoji o 200€ viac.
Kapanek vylepšili vykon cca dvojnasobny nič zvlašne skoro ako RadeonVII:)

+1
+1
-1
Je komentář přínosný?

bude mit big navi misto ''poor volta'' ''poor ampere''? (:

+1
0
-1
Je komentář přínosný?

Kde jsou k vidění specifikace a testy?

Nikde jsem oficiální informaci o množství paměti ani výkonu neviděl. Navíc 900 dolarů za kartu která je srovnatelná s 3080 je nějak příliš ne? Dyť ani ten Radeon VII se s 16GB neprodával tak jak se prodávala 2080 s 8GB za stejnou cenu. Jak se bude prodávat, když bude stát o 28% víc?

+1
-2
-1
Je komentář přínosný?

Ad 8k: Bohuzel snad jen v jedne nebo dvou hrach. Jeste se podivej na Gamers Nexus. Minimalne se muzes zasmat u toho jak bere "uplatky" aby konstatoval ze 30FPS average a 11 FPS minimum je vlastne dostacujici...

https://www.youtube.com/watch?v=Xgs-VbqsuKo

+1
+3
-1
Je komentář přínosný?

Ale taky to žene do extrému v tom že to 8k mělo být s DLSS a on ho statečně ignoruje.

+1
-2
-1
Je komentář přínosný?

Popravde pouziti DLSS znamena, ze to neni to dane rozliseni. Muzeme se bavit o tom, jak moc se to blizi kvalite daneho rozliseni, ale dane rozliseni to neni.

+1
+3
-1
Je komentář přínosný?

Ano není, a to je právě to co Steve tak vyzdvihával.Ale NVIDIA jasně ukazuje na grafech DLSS ON a RT on kde je možné, navíc ne v max detailech.

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-...

Že GN netestovali hrané herní tituly a šli jen do AAA her, je jiná věc. v Tech Yes City je třeba fortnite, taky v poho přes 60 a to bez DLSS pokud se nepletu.

Navíc herně OK už je 48 FPS, o tom nás dlouho přesvědčovalo AMD když propagovalo FreeSync kdy 48FPS je minimum kde to musí fungovat na jakémkoli šrotu. Pod 48 označlovali jako "nehratelné", 48 jako hratelné. Myslím že takové video na tenhle marketing Steve neměl :D

+1
-3
-1
Je komentář přínosný?

- obr psal že pro evropu bylo 90 kusů
- lunus dělal i testy produktivity a 3090 nemá podporu v CAD aplikacích jako titan, nvidia mu to i ofiko napsala, že to tam není schválně proto 3090 je o dost pomalejší jak titan rtx v cadu
- linus musel vyměnit svůj 850W plat. zdroj za výkonnější, protože mu to neutáhl s i9kou :)
- gamernexus otestoval 8k hraní se závěrem, že to 8k hraní opravdu není a že je to lež

jinak možná by se dalo poznat jestli je to 3080 vs 3090, když budeš mít tu asus 3090 tak ta má power limit až na 450W tušim, takže pokud budeš mít nohy vedle skříně, tak tě to spálí s přetočenou i9kou :)

Jinak to zatim vypada ze turing bude nakonec jeste dobra karta, kdyz bude stat pulku :)

+1
+6
-1
Je komentář přínosný?

- mě to tahá 750W Seasonic na pohodu, ale mám v sestavě 3900X, ne CPU, které saje po OC jako ta grafika :D
- ano nepodpora CAD aplikací, to mohu potvrdit, jsou vtipné situace, kdy je Radeon RX 5700 XT rychlejší, než 2080 Ti a 3090 :D
- 8K hraní je aktuálně nesmysl

+1
+4
-1
Je komentář přínosný?

To právě Nexus zkoušel a to nadobíčko k té grafice rozhodně nebylo marné: i7-10700K@5.1GHz, 32Gb RAM 3200MHz, ASUS Maximus XII HERO, EVGA 1600W T2. Skoro všechny (až na jednu) testované hry se pohybují 30-37FPS v průměru. https://www.youtube.com/watch?v=Xgs-VbqsuKo . 6:15 8K Gaming, ještě si tam z toho dělají trochu srandu :D

+1
+1
-1
Je komentář přínosný?

Ale třeba v SotTR nezapínal DLSS a odmítá to přitom já to 8k viděl zmiňované právě při použití DLSS. Takže 8k s DLSS je zase někde jinde. Přes 60 FPS to dává v klidu i Fortnite, což je z Tech Yes City recenze.

+1
-3
-1
Je komentář přínosný?

ked zapnes DLSS, tak nejdes na 8K

+1
0
-1
Je komentář přínosný?

Ale samozřejmě že ano, z té grafiky snad neleze 8k obraz?

Samozřejmě že renderování probíhá v nižším rozlišení a AI to dopočítává ale výsledný obraz je 8k a je v lepší kvalitě než kterou by zvládl kterýkoli běžný upscaling filtr.

Nicméně jsou hry které jsou slušně hratelné i na tom 8k aniž by DLSS měly, to že to nejsou AAA tituly v max. detailech... jsou to ale oblíbené tituly.

+1
-2
-1
Je komentář přínosný?

450W(3090)+250W(i9)=700W. Primotopy maj na nizsi vykon cca 600W, takze s takovou sestavou nebude potreba zapinat topeni na zimu. I pokud budeme pocitat, ze i9 pojede kontinualne na tech 100W a G-force na nejakejch 350W tak jeste pricteme DDR, disk a chipset a 500W odpadniho tepla bude takovej standart s cimz se urcite da vytopit mistnost, zvlast kdyz tam je nucenej obeh.

+1
+1
-1
Je komentář přínosný?

Moje RX580 mi pomalu začíná připadat jako chladný úsporný čajíček :-D (samozřejmě nesrovnávám herní výkon, ten je někde jinde).

+1
+4
-1
Je komentář přínosný?

A kolik stupňů má vaše karta v zátěži ? Kvalitní modely 3080 se uchladí do 72st. Vysokou spotřebu má, ale také chladiče jsou na jiné úrovni. Takže ten váš čajíček zase tak chladný být nemusí a to samé se možná dá říct i o hlučnosti.

+1
-2
-1
Je komentář přínosný?

O.o On to ale myslel jako topení. A tam tě moc nezajímá teplota, jako spíš vyzářený výkon. Tvoje úvaha nic nemění na faktu, že 150W karta vytopí místnost míň než 300W pokud v obou případěch teplo opuští topné těleso alespoň přibližně stejným způsobem.

+1
+5
-1
Je komentář přínosný?

Samozřejmě se vyzářené teplo nikam neztratí. Ale psáno bylo o kartě jako o chladném čajíčku. Takže to jen reakce, že může klidně RX 580 topit více a být i více hlučná. O TDP se tady nikdo nepře. Nemusíme slovíčkařit.

+1
-2
-1
Je komentář přínosný?

Ne, RX 580nikdy nebude topit více, jen může mít vyšší teplotu. A to opravdu není slovíčkaření.

+1
+3
-1
Je komentář přínosný?

Od toho je tu Sapphire, aby to moc nehlučelo :)

+1
0
-1
Je komentář přínosný?

Len pri edícii sa to nejako nepodarilo

+1
-1
-1
Je komentář přínosný?

Vzhledem k tomu, že mám povedenou edici Nitro+ je chlazení i hlučnost v rámci možností hodně dobrá. Nicméně na očividný vtip odpovídat a dělat chytrého... Už kvůli takovým jsem dal do závorky tu poznámku, aby to podobní jako vy to pochopili, a nezačínali tu na mne štěkat, jak to mohu výkonově srovnávat. Koukám, že si ale stejně něco najdete, s čím se tu snažit povyšovat nad ostatní, co?

+1
+4
-1
Je komentář přínosný?

A koho zajímý teplota? S vygenerovaným teplem to nijak nesouvisí. čip na 50 stupních při spotřebě 450W bude vydávat stejné teplo jako čip se 100 stupni teploy a spotřebě 450W.

+1
-1
-1
Je komentář přínosný?

Kandidát na hnědé ocenění. Naprosto zbytečný produkt. Víc to honit pořádně ani nepůjde, vzhledem k už tak vysokému TDP a limitech samotnéhé čipu. Myslím, že mi veka, byť již taky notně zastaralá, vydrží ještě nějakej ten rok :)

+1
+3
-1
Je komentář přínosný?

Přitom se ten naprosto zbytečný produkt zase vyprodal. Proč si lidi kupují takové zbytečné věci?

+1
-4
-1
Je komentář přínosný?

Když bych začal balit vodu z kohotku a kohoutky "vypnul", tak se bude taky prodávat... ale tady šlo o přesnej opak, tady ta voda z kohotku byla ve formě pár kapiček a tam se dá celkem snadno předpokládat, že se vyprodají.

Víš co? Zbytečnej komentář :)

+1
+2
-1
Je komentář přínosný?

> Přitom se ten naprosto zbytečný produkt zase vyprodal

A co ma jako implikovat ze se vyprodal ? kdyz z neceho uvedes na globalni trh prumerne 10 kusu na milion lidi, tak to vyprodas, i kdyby to byl vzduch v papirove krabicce.

> Proč si lidi kupují takové zbytečné věci?

Protoze mezi milionem lidi vzdycky najdes tucet, kteri si X koupi, pricemz za X muzes klidne dosadit naprosto cokoliv.

+1
+1
-1
Je komentář přínosný?

Nedávno jsme tady četli lži Bloombergu o nízké výtěžnosti 7nm procesu TSMC pro konzole Sony. Začínám mít pochyby nejen o kvalitách, ale i o výtěžnosti 8nm procesu Samsung...

+1
+4
-1
Je komentář přínosný?

Koukam, ze ctenari (diskuteri) jsou rozumejsi nez autor clanku. Opravdu nevim, proc ta RTX 3090 lezi autorovi tak v zaludku. Chtel by si ji zakoupit a nema na ni?

Od zacatku snad uplne vsichni rikaji, ze RTX 3090 nema pro hrace valny vyznam. To, ze hry nedokazi 24GB VRAM vytizit a spise maji dnes stopku okolo tech 10GB, take vsichni vime.

Proste NVidia vydala kartu, ktera pro hrace nema smysl a nema smysl ani pro profesionalni vyuziti, ale podle toho, jak se po prvni varce karet zaprasilo, je zrejme, ze jsou lide, pro ktere smysl ma. Ja to tem lidem preju a NVidii ten vydelek take.

Ano, ani mne ta karta nerika vubec nic, ale to neznamena, ze to musim na kazdem rohu hejtovat.

Mnohem vic by me zajimal nejaky clanek, jakou teplotu muze dlouhodobe snest pamet na grafice, protoze zatim z toho co jsem cetl, me presla chut i na tu RTX 3080, protoze lajcky se mi 85 stupnu zda opravdu prilis. Rad bych k tomu ale nejake technicke vysvetleni.

+1
-6
-1
Je komentář přínosný?

Tak pokud děláš v Cinema 4D s rendererem který jede přes CUDA (např OTOY), je ti vcelku u zadele že to není QUadro řada. Osobně si myslím, že TEĎ ta karta má význam. Jakmile ale vyjde 3080 s 20GB pamětí, 3090 bude již naprosto k ničemu i pro profesionály kteří nepotřebují Quadro. Pochybuji že budou ochotni platit za 4GB VRAM dalších 600USD, když by za tu cenu měli skoro druhou kartu kterou rozumný renderer hravě využije.

+1
+3
-1
Je komentář přínosný?

A bude 20GB 3080, pokud bude, stát jen 900 dolarů? Co když bude třeba za 1200?

+1
-1
-1
Je komentář přínosný?

lol, tak nejdriv pises ze se rtx3090 vlasne nesmi kritizovat, ale pak napises ze nema smysl ani pro hrace ani pro profesionaly.. ((: no hele, ono se po ni nezaprasilo, ona se u nas vubec nezacla prodavat.. pro Evropu bylo 90 kusu, to si rozeberou sberatele, vyvojari a par lovicu rekordu, co se tim zivi na youtube..

jinak mi nepride, ze by autorovi lezela v zaludku karta, jako spis to ze nVidie dala naky sliby o vykonu rtx3080 a nakonec takovej vykon nema ani rtx3090.. kdyz si vzpomenu na ten shitstorm s fury nebo vegou, ze amd mela v grafech o 5-10% lepsi vykon nez recenze.. a tady litaj desitky procent a nVfans se placaj po zadech ze to vlasne nevadi.. ((:

co chces vysvětlovat na teplote gddr6x? otevru si stranku micronu:
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
prectu ''Op. Temp.0C to +95C'' a mam jasno..

+1
+4
-1
Je komentář přínosný?

Jasne, co uvadi NVidia se ti nelibi a zpochybnujes to (nerikam ze neopravnene) a kdyz ja neverim Micronu tech 95 stupnu pracovni teploty, tak to je spatne, Micron holt neni ten bubak jako NVidia, ze jo.

+1
-3
-1
Je komentář přínosný?

ja neverim nVidii, protoze testy rikaj neco jinyho nez jeji sliby..
ty neveris micronu, protoze nechces..
krapet rozdil.. ;) btw. 95C maj imho gddr6 vsech vyrobcu, takze nevim, co by tom melo bejt k neuvereni.. jesli problemy souvisi s pametma, muze to bejt spatnym pripajenim, navrhem pcb, rusenim.. desitkou jinejch problemu.. proc sis vybral zrovna teplotu? (:

+1
+1
-1
Je komentář přínosný?

Máte 2 subjekty, např. FOO corp., a WESAYSO corp.
FOO corp. je důvěryhodná firma, která nebyla nikdy načapána při manipulaci, lživém marketingu a třeba uplácení odběratelů.
WESAYSP corp. je naproti tomu protřelý hráč, kterému nejsou manipulace a lži cicí, a to ve jménu "účel světí prostředky".

Když FOO corp. uvede k produktu technické detaily, které nijak nevybočují z běžných standardů, budete jí věřit?

Když WESAYSO corp. ohlásí něco, co vypadá až příliš dobře, než aby to byla pravda, budete jí bezmezně věřit?
A když se pak ukáže, že to opět byla fligna a sliby nejsou splněny, budete ji stále tak obhajovat, jako to děláte s nVidií? A navíc řeknete, že té firmě ty příjmy přejete?
Tím jste se sám hodil do stejného pytle "důvěryhodnosti, jako je ta firma.

+1
+3
-1
Je komentář přínosný?

Áno na jednom slajde to bolo bez slova "UP" a stále okolo toho sa točí.
To že autorovi leží NV v žalúdku predvádza dlhú dobu.

+1
-3
-1
Je komentář přínosný?

Pojem UP TO prakticky vždy znamená "výjimečně to tak bude, ale běžně s tím nepočítejte".
nVidia se dlouhodobě snaží vydávat za lepší, než je a v zákulisí dělá prasárny, za které by se ani Babiš nemusel stydět.
Já osobně nemám rád subjekty (ať fyzické, nebo právnické), kterým se nedá věřit. I v osobním životě dávám přednost důvěryhodným kontaktům. A to nVidia prostě není. Slovíčkařit můžete, jak chcete. Podle mě člověk znalý afér a kauz kolem nVidie, dokáže vycítit, jak na tom ta firma je. Samozřejmě tedy pokud daný člověk není sociopat, nebo psychopat. Ten bude takové konání spíš obdivovat.

+1
+1
-1
Je komentář přínosný?

Toto je slajd z představení GeForce RTX 3080 živě streamovaný do celého světa. Můžeš v něm červeně zakroužkovat, kde přesně je to „up to“? Děkuji.

https://diit.cz/sites/default/files/nvidia_geforce_rtx_3080.jpg

+1
+3
-1
Je komentář přínosný?

V článku: "…a 77 % výkonu nad GeForce RTX 2080." A můžeš mi prosím zakroužkovat, kde v grafu vidíš 2080 bez Super?

https://diit.cz/sites/default/files/geforce_rtx_3090_computerbase_02.png

+1
+1
-1
Je komentář přínosný?

Můžeš mi zakroužkovat u které hry je v tomhle grafu, který byl také v té prezentaci taky, jakákoli hra s 2x výkonem?

https://assets.rockpapershotgun.com/images/2020/09/Nvidia-RTX-Ampere-RT-...

2x výkon je jen v VRay a Blenderu, nikoli ve hrách. Takže tvrzení 2x výkonnější platí. Nebo ukázaly recenze že ve Vray a Blenderu není 2x výkonnější?

že si holt někdo koukne na graf a nezná /nechce znát/ kontext, tak se nemůže čertit na marketing ale na sebe.

+1
-3
-1
Je komentář přínosný?

No počkej, ale tohle je relativný výkon "architektury", což mi přijde taky jako bulšit a to z jednoduchého důvodu. Ty současně uvedené karty jsou z kategorie "herní", tedy GeForce, nikoli Quadra. Potom to srovnání absolutně nedává smysl. Ve hrách je to opět zavádějící a to z toho důvodu, že víme, že efektivita karet s čipy Ampere a Turing je skoro shodná. Jak 3080 tak 3090 mají podstatně vyšší spotřebu proti 2080 (mimo OC modely 2080Ti, tedy vše mimo FE), takže absolutní výkon nám nijak nevzroste a ten relativní co prezentují, zdá se, že taky moc nenarostl. Porovnávat totiž karty s xx80 a podobnými čísly z řady 2000 a 3000 je trochu míchání jablek s hruškama, vzhledem k tomu co se odehrálo za "architektonické" změny.

A jinak abych nebyl za "nadávající konzervu", na marketingová žvásty jsem si zvykl, ostatně, pracuju ve vývoji ve firmě a vím, jaká je realita a co se zákazníkovi "podsouvá", stejně jako to, co dělá konkurence a co jim "servíruje", jako se stejně "ohýbají" podmínky výběrka/tendru. A že se tam dějou šílený věci :)

+1
+3
-1
Je komentář přínosný?

Ale NV grafy z keynote ukázaly to co naměřily i recenze, U žádné hry neměli v grafech při srovnání 2080 vs 3080 dvojnásobek výkonu a odpovídaly tomu co všemožní recenzenti naměřili dvojnásobek byl v grafech jen pro VRay nebo Blenderu. Takže tak jak vždy říkám, keynote a ukázané výkonnostní grafy odpovídají tomu co naměří i recenzenti pokud testují stejný scénář /scénu, detaily, konfigurace sestavy/.

+1
-4
-1
Je komentář přínosný?

kazdy den ma presviedca ze dojde u mna ku navratu z 1080Ti ku oblubenemu AMD ;)

+1
+3
-1
Je komentář přínosný?

Doufejme, že k tomu po vydání Navi 2x bude důvod.

+1
+1
-1
Je komentář přínosný?

to je rozumné, koupil sis poslední dobrou/rozumnou NV kartu a nyní taková snad bude Big Navi, protože ani AMD od dob tvé 1080Ti nic smysluplného neměla (v hiendu) a to co předvádí Nvidia by se skutečně dalo popsat slovy CEO Nvidie jako "BFGPU", akorát bych v F-word nahradil "-ing" "-ed"

+1
0
-1
Je komentář přínosný?

Na zimu bude dobrá, s nějakým kvalitním intel CPU by to v zátěži mohlo dát i tu kilowattku.

+1
+1
-1
Je komentář přínosný?

Tomu Linusovi, co ma na youtube technologickej kanal, to prej nedal Gold 850W zdroj a musel tam tu kilowattu nahodit. :-D

+1
+1
-1
Je komentář přínosný?

Hm, čím dál víc se mi zdá pravděpodobná ta teorie, že AMD bude mít celkem silné karty a tak nvidia udělala 3080 s výkonem tak vysoko, že 3090 už nešla ani moc posunout. No každopádně tenhle souboj jde zatím mimo mojí peněženku, protože za kartu nedám ani 20k natož 40k, 5700xt za 10k chodí na FHD krásně, takže jsem v klidu a tenhle souboj sleduji jako divák, ještě bych potřeboval popcorn :)

+1
+6
-1
Je komentář přínosný?

Na FullHD bude 5700XT více než stačit ještě dlouho.

+1
+2
-1
Je komentář přínosný?

To přece není možné, když vycházel stejně výkonný Radeon VII tak dost lidí říkalo jak 8GB paměti nestačí ani na FHD, a to bylo před rokem a půl, teď už asi nebude stačit ani 10 :)

+1
-5
-1
Je komentář přínosný?

'' tak dost lidí říkalo ''

jo? tak zkus nalinkovat aspon tri.. (:

+1
+4
-1
Je komentář přínosný?

Chjo, zase vy? Běžte prosím do háje zelenýho. Vůbec netušítě, o čem se tu bavíme.

EDIT: Kdyby tak šlo si vypnout komentáře vybraných diskutérů - já bych si vypnul vás, vy mě a byli bychom oba o nepodstatný kousek spokojenější.

+1
+3
-1
Je komentář přínosný?

Co přesně netuším? Já jen komentuju že někteří lidé tady tvrdili že 8GB nestačí na FHD před 1,5 rokem. Co teprve nyní.

Samozřejmě že 5700XT bude na FHD ještě dlouho dostačovat výkonu má dost a pokud nechybí RT, tak není co řešit. Mám to podobné s 2070S, ale 3080 uvažuji kvůli lepší spotřebě. 2070S s 60FPS limitem v některých hrách běží blízko maximu, 3080 by se flákala.

+1
-3
-1
Je komentář přínosný?

Filtr do, myslím, greasemonkey. Jeden ze zdejších čtenářů je autorem. Netuším,jestli ještě funguje :)
http://jsfiddle.net/br5hz7nw/

+1
+1
-1
Je komentář přínosný?

No jo jenomže to by zmizela 1/3 příspěvků a celá diskuze by byla dosti "chudá" (ochuzená??) a nekonzistentní. :D

+1
+1
-1
Je komentář přínosný?

"AMD bude mít celkem silné karty a tak nvidia udělala 3080 s výkonem tak vysoko, že 3090 už nešla ani moc posunout"

Nebo se podívej na výkon RTX2080Ti a srovnej to RTX Titan. Tehdy mělo AMD taky celkem silné karty a NV to musela nahonit? Rozdíly mezi 3080 a 3090 jsou typické k tomu co jsme tady léta viděli u 80Ti vs Titan, když stály na stejném čipu. Titan = 80Ti + cca 5%

+1
-3
-1
Je komentář přínosný?

Já si malinko rýpnu - těch 77% navíc je proti 2080 Super, což je přeci jen mírně výkonnější karta, než starší 2080. Nic to nemění na závěru - 3090 není 2x výkonnější.

Abych to dotáhl - Super je v UHD o 5% výkonnější, což dává 3090 o 85% nad RTX 2080.

+1
0
-1
Je komentář přínosný?

Ehmm... .a kde je v testu ta RTX2080 ? To je článek jak z Blesku.

+1
-1
-1
Je komentář přínosný?

To je tady móda :)

+1
-2
-1
Je komentář přínosný?

tech 5% rozdilu super/fe fakt nVidii nezachrani, kdyz tam chybi 23%.. dvakrat vetsi vykon nema ani 3080 ani 3090.. ale chapu, tonouci nV-fan se stebla chyta.. (:

+1
+3
-1
Je komentář přínosný?

Je-li RTX 2080S o 5% výkonnější než 2080, pak je správný výpočet o trošku složitější ((1.77/(1-0.05)) * 100), což znamená že 3090 je by an eye o 86% výkonnější, než 2080. Nicméně i to je pořád dost vzdálené dvojnásobku...

+1
+2
-1
Je komentář přínosný?

Dvojnásobku to vzdálené jen, ale proč by to měl být dvojnásobek.

NV přece jasně ukazovala výkony, například:
https://assets.rockpapershotgun.com/images/2020/09/Nvidia-RTX-Ampere-RT-...

krom těch programů tam 2x výkon být neměl

+1
-5
-1
Je komentář přínosný?

'' proč by to měl být dvojnásobek ''

protoze to tvrdil ceo firmy a jeste promital na slajdu.. protoze to bylo klicovy sdeleni o ty karte.. protoze to cpali jako hlavni informaci, kterou od nVidie prevzala spousta webu..

NVIDIA says the RTX 3080 is twice as fast as the 2080, while the 3070 is faster than the RTX 2080 Ti.
https://www.engadget.com/nvidia-rtx-3080-gpu-ampere-163044861.html

twice as fast as the RTX 2080 Super for the same price
https://www.pugetsystems.com/guides/1889

NVIDIA claims the RTX 3080 is twice as fast as the previous RTX 2080
https://www.windowscentral.com/buy-nvidia-rtx-30-series-gpus

Nvidia claim that the RTX 3080 is twice as fast as the outgoing RTX 2080
https://www.rockpapershotgun.com/2020/09/17/nvidia-geforce-rtx-3080-rele...

essentially twice as fast as their predecessors
https://www.stuff.tv/in/features/nvidia-rtx-30-series-gpus-5-things-you-...

3080 will be twice as fast as the RTX 2080, according to Nvidia
https://screenrant.com/nvidia-geforce-rtx-3080-vs-rtx-3070/

+1
+4
-1
Je komentář přínosný?

Ach jo. Pořád dokola

ten samý ceo ukazoval slidy kde každý viděl že to ve hrách není 2x vyšší výkon, 2x vyšší výkon je v blenderu, vray...

další graf který ukazoval ten ceo tvrdil up to

další slide -závěřečná rekapitulace. ten samý ceo říká 2x výkon. a má pravdu, ta karta je 2x výkonnější třeba v blenderu.

Pokud budeš mít auto co má max. rychlost 150 a pak auto s max rychlostí 300km/h tak je taky 2x rychlejší, ale když s tím nebudeš jezdit na okruhu a máš to jen na ježdění po městě na nákupy kde to uvidí max 50km/h neznamená že to auto neumí jet 300 a že není 2x rychlejší, to že to reálně nemáš jak využít s tím nic nezmění.

+1
-4
-1
Je komentář přínosný?

jasne, kdyz bude Jensen v deviti slajdech lhat, ale v desatym ne, tak to nevadi, protoze jednou rikal pravdu.. fakt super argumentace, bozi.. ((:

+1
+1
-1
Je komentář přínosný?

---------- ---------- ---------- ---------- ---------- ---------- ----------
nvidia RTX 3090 je ako intel i9 10900K - o par % vykonnejsi nezmysel s nezmyselnymi prevadzkovymi parametrami az na krv a/alebo absudrnym pomerom cena/vykon

nvidia a intel, mozu si ruky podat
---------- ---------- ---------- ---------- ---------- ---------- ----------

+1
+3
-1
Je komentář přínosný?

Paradoxně leckomu v testu 3090 vyšla efektivnější než 3080, spotřeba šla nahoru jen o 5% ale výkon v UHD i o 11% v průměru, takže performance/watt vyšla u 3090 lépe než 3080

+1
-2
-1
Je komentář přínosný?

souhlas, mě takové jednání firem už z principu odpuzuje, ale vypadá to, že někteří právě toto naopak obdivují. Asi to souvisí s nízkým seběvědomím nebo tak něco, protože tito lidé pak ostatní rádi nazývají "sockami" a používají argument "když na to nemáš tak to nekritizuj", i když jsou často oni sami co na to nemají a ti co říkají, že to má nesmyslný poměr cena/výkon, tak na to často mají.

Když jim říkám, že jsem utratil mnohem víc za minery, auto, dovolenou atd. než je cena nejepší edice 3090, tak mě to nevěří, protože nechápou, že 50K se dá utratit lépe než za herní grafiku a tedy že karta s dobrým poměrem cena/výkon je klidně i pro bohaté, stejně tak může být karta za 50K "drahá" i pro člověka co má vlastní barák (splacený) a vydělává 100K+

Je to jistý znak primitivismu - viz třeba nejnovější Iphone si kromě managerů co jim to proplatí firma nebo skutečných boháčů kupují především socky co si na to berou spotřebitelské úvěry. V jejich očích je toto a značkové hadry něco, co mají na sobě když někam přijdou a telefon je to stejné - v hospodě si to položí na stůl aby to všichni viděli. No a drahé grafiky co si vzpomínám, tak si kupovali študáci, co na to dřeli několik měsíců a brali to jako vyvrcholení svého úsilí, že si pak nějakou takovou zbytečnost koupili, většinou pro to, aby o tom mohli pak mluvit a chlubit se - což mě zase spíše prozrazuje, že takový jedinec se spíše stydí za svůj život, insolvenci atd. a tyhle "drahé" věci mají okolí přesvědčit, že jsou naopak strašně úspěšní

+1
+1
-1
Je komentář přínosný?

"RTX 3090 redakce naměřila(v ocekávaném rozlišení čili 4K/3840×2160) 11 % výkonu nad GeForce RTX 3080"

+

"a 77 % výkonu nad GeForce RTX 2080, čili 2× vyššího výkonu vůči 3080 kupodivu nedosahuje ani GeForce RTX 3090"

+

"Doposud nejasný je důvod vysoké spotřeby při přehrávání HDR videa, která byla vyšší již na GeForce RTX 3080. S GeForce RTX 3090 dosahuje prakticky dvojnásobku toho, co hardware minulé generace(Turing, Navi) a blíží se 100 wattům"

= čili naprosto zbytečná karta, radši se měla NVIDIA na ní úplně vysrat a nebo uvést plně aktivní RTX II Titan který by přinesl prvky z profesionálního světa(za tu cenu něco podstatné navíc což ocení ty kterým se hodí takováhle kapacita VRAM), mně osobně Ampere příde jako jen uměle na/vy-hoňená generace na TDP, nic víc, ďekuji neprosím.

+1
0
-1
Je komentář přínosný?

Pošli CVčko do NV a raději i do Intelu, bez tebe ty firmy evidentně dělají jen zbytečné věci a nesmysly a víš co by bylo lepší. Sakra ty pro ně máš hodnotu miliard dolarů.

+1
0
-1
Je komentář přínosný?

Sice nemohu osobně ampere nebo turing srovnat (a myslím že tady nikdo takovej taky nebude, vzhledem k tomu kolik se reálně prodalo karet s GA čipy), ale zatím to na mně působí jako to, co prováděl intel poslední roky. Čili zvedneme spotřebu, přidáme nějaké to "+" k výrobnímu procesu a trochu pošoupeme s prvky v rámci čipu, aby to vypadalo, že jsme udělali nějakou změnu. Reálně pak vypadne z firmy produkt, co je lepší jen o to zvýšené TDP.

A nějak takovou pachuť mi vyvolává celá "generace" ampere. Nechci tvrdit, že to bude neúspěšný produkt, byť by to bylo na snadě, Turing mi ostatně jako moc obchodně úspěšný nepřijde, třeba vůči Pascalu nebo Maxwellu. Místo klasických chvalozpěvů a ovací i někteří zelení začali střízlivět a přemýšlet na smyslem onoho DXR a "nálože" výkonu navíc. Slavné DXR už tu tedy je, takže nic nového a i když se konal větší výkonový posun oproti Turingu, přifoukla se nám adekvátně spotřeba.

Karta není "neskutečně" drahá jako nám předvedla nV s turingem, ale nastalo přešlapování. Otázkou je, proč? Opravdu nV nevytáhla králíka z klobouku a jen přeleštila Turinga, nebo je to "mizerným" procesem Samsungu, tedy to, na co doplatilo Fiji, které bylo neskutečně limitované kmitočtem a TDP (resp. jeho optimum bylo mimo to, co dovoloval proces).

Ať je to tak či tak, poslední zelené tři roky nejsou nijak zajímavé. Nic extra, o čem by se dali psát chvalozpěvy, ale jen obyčejná nuda a šeď, byť na první pohled vypadá Ampere o něco lépe než turing.

+1
0
-1
Je komentář přínosný?

U Intelu se ale spotřeba zvedala neúměrně výkonu. U NV se zvedá spotřeba méně než výkon. 2080 mělo TDP 215W, 3080 má 320 - 49% spotřeby navíc, ale výkonu má více než o 49%

Ani AMD s tím nebude lépe, pokud vydají Navi co bude mít Výkon cca jako 3080 a má to mít o 50% lepší efektivitu než RDNA1, tak cílíme na spotřebu 300W a tipnul bych si že to tak AMD i nastaví. 300 vs 320 je méně než 10%. 7nm vs 8nm, o 14% menší výrobní proces, dobrý výsledek.

+1
-2
-1
Je komentář přínosný?

No, jestli se chceš rejpat v desetinkách, tak to něco malinko přidalo, ale to právě i u toho intelu... v MT tasku nebo něčím, co využilo nějaké inovace v instrukcích, jinak to byla plichta. Proto si to dovolím přirovnat k intelu. Ten rozdíl není tak drastickej a o tom to právě je.

U navi by rozdíl měl být znatelnější, ale zatím se o tom ví prd, mimo marketing (který myslím tvrdil +50%?). Na hodnocení navi je ještě moooc brzo :)

+1
+1
-1
Je komentář přínosný?

Ano 2x výkon současné 5700XT teoreticky znamená 450W spotřeby, takže těch 50% lepší efektivita big navi to udrží na 300W. Bohužel nemáme výrobní procesy které by zvládly zdvojnásobit výkon a udržet spotřebu. Takže pokud ty pokroky ve výkonu budou blízké násobkům, poroste i spotřeba, pokud někdo nepřijde na nějaký zázrak při návrhu samotného čipu.

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.