Ja teda slysel neco jineho, prvni karta na GP104 ma byt 64bit, ma obsahovat 0,5GB GDDR5 + 7,5GB DDR3 a stale nema podporovat plne DX12 (asynchronni shadery) nebo je to snad nejaky hoax? (nemyslim si, ale uvidime) :-)
+1
-1
-1
Je komentář přínosný?
Ja teda slysel neco jineho,
RedMaX https://diit.cz/profil/redmarx
14. 4. 2016 - 18:04https://diit.cz/clanek/geforce-s-gp104/diskuseJa teda slysel neco jineho, prvni karta na GP104 ma byt 64bit, ma obsahovat 0,5GB GDDR5 + 7,5GB DDR3 a stale nema podporovat plne DX12 (asynchronni shadery) nebo je to snad nejaky hoax? (nemyslim si, ale uvidime) :-)https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875610
+
zajímavé je že karty s "nesmyslnou" pamětí jako GTX970 patří vůbec k nejprodávanějším na trhu. O podpoře nějakých asynchronních shaderů (podporované imho jsou) zřejmě majitelé nVidia karet neslyšel, jinak by si je přece nekupovalo více než 70% hráčů...
o asynchronních shaderech jsem slšel poprvé teprve nedávno, světe divse, má GTX980 najednou nepřestala fungovat či neztratila výkon... Nestalo se totiž lautr nic, když jsem se dozvěděl že asynchronní shadery musuí nVidia řešit softwarově a je to dost omezené... Však o co jde, doku má karta výkon je zcela jedno jaké široké pásmo paměti používájí nebo zda něco řeší na úrovni HW nebo SW:.. Možná si někdo potřebuje mastit ego tím co všechno jeho HW podporuje, nebo jak je technikcy řešená... drtivá většina lidí ale vybírá jednoduše podle toho zda na tom běží to co chce.
+1
-6
-1
Je komentář přínosný?
zajímavé je že karty s
JirkaK https://diit.cz/profil/jiri-kocman
14. 4. 2016 - 20:45https://diit.cz/clanek/geforce-s-gp104/diskusezajímavé je že karty s "nesmyslnou" pamětí jako GTX970 patří vůbec k nejprodávanějším na trhu. O podpoře nějakých asynchronních shaderů (podporované imho jsou) zřejmě majitelé nVidia karet neslyšel, jinak by si je přece nekupovalo více než 70% hráčů...
o asynchronních shaderech jsem slšel poprvé teprve nedávno, světe divse, má GTX980 najednou nepřestala fungovat či neztratila výkon... Nestalo se totiž lautr nic, když jsem se dozvěděl že asynchronní shadery musuí nVidia řešit softwarově a je to dost omezené... Však o co jde, doku má karta výkon je zcela jedno jaké široké pásmo paměti používájí nebo zda něco řeší na úrovni HW nebo SW:.. Možná si někdo potřebuje mastit ego tím co všechno jeho HW podporuje, nebo jak je technikcy řešená... drtivá většina lidí ale vybírá jednoduše podle toho zda na tom běží to co chce.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875632
+
niesi sam, kto pocul o asynchronnych shaderoch nedavno...aj nvidia medzi nich patri :)
..a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007 :)
+1
+4
-1
Je komentář přínosný?
niesi sam, kto pocul o
skaven https://diit.cz/profil/skaven321
15. 4. 2016 - 07:31https://diit.cz/clanek/geforce-s-gp104/diskuseniesi sam, kto pocul o asynchronnych shaderoch nedavno...aj nvidia medzi nich patri :)
..a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007 :)
https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875666
+
"a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007"
Ale no tak. 2007 by som posunul do roku 2015. A ani u tzv. DX12 hier nemá táto karta výkon pod úrovňou hrateľnosti. Netvrdím, že AMD karty si nepočínajú v DX12 lepšie, ale tie konkurenčné nestrádajú tak, že ich je treba vymeniť. Kým k tomu príde, bude potrebné vymeniť aj príslušné grafiky od AMD.
+1
0
-1
Je komentář přínosný?
"a jasne ze gtx980 neprestala
Marek Moravčík https://diit.cz/profil/mareknr
15. 4. 2016 - 08:20https://diit.cz/clanek/geforce-s-gp104/diskuse"a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007"
Ale no tak. 2007 by som posunul do roku 2015. A ani u tzv. DX12 hier nemá táto karta výkon pod úrovňou hrateľnosti. Netvrdím, že AMD karty si nepočínajú v DX12 lepšie, ale tie konkurenčné nestrádajú tak, že ich je treba vymeniť. Kým k tomu príde, bude potrebné vymeniť aj príslušné grafiky od AMD. https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875670
+
jasne ze nie, ale velke mnozstvo vlastnikov GTX980Ti maju velke ego, tj kupili si najsilnejsiu kartu na trhu. viem si predstavit, co to s nimi robi, ked im vykon v DX12 klesa na uroven vykonu R9 390 (X)
+1
+4
-1
Je komentář přínosný?
jasne ze nie, ale velke
skaven https://diit.cz/profil/skaven321
15. 4. 2016 - 09:17https://diit.cz/clanek/geforce-s-gp104/diskusejasne ze nie, ale velke mnozstvo vlastnikov GTX980Ti maju velke ego, tj kupili si najsilnejsiu kartu na trhu. viem si predstavit, co to s nimi robi, ked im vykon v DX12 klesa na uroven vykonu R9 390 (X)https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875685
+
Ale běží na tom i aktuální hry. Například Rise of the Tomb Raider... dx11 vs dx12... žádný rozdíl v kvalitě obrazu, výkon taktéž stejný... je zcela ukradené který režim zapnu. Oboje vypadá a běží stejně. Poklepávat se po ramenou jak skvěle to běží v DX12 když v DX11 je to indentické fakt nepotřebuji :)
Výhradně DX12 tituly tady ještě dlouhou dobu nebudou, rozhodně ne ty které mne zajímají, už jen proto že je to W10 only záležitost... a v době, kdy to bude aktuální už budu mít nového Pascala nebo Polaris, ale vzhledem k tomu že AMD nejdříve začne plečkoidními kartami, tak performance Pascal bude jedinou možnou volbou - aneb chci kartu jednočipovou s vyšším výkonem než než mají současné OC verze 980Ti
+1
-3
-1
Je komentář přínosný?
kupodivu na tom běží
JirkaK https://diit.cz/profil/jiri-kocman
15. 4. 2016 - 09:12https://diit.cz/clanek/geforce-s-gp104/diskusekupodivu na tom běží simulátor z roku 2016 ;)
Ale běží na tom i aktuální hry. Například Rise of the Tomb Raider... dx11 vs dx12... žádný rozdíl v kvalitě obrazu, výkon taktéž stejný... je zcela ukradené který režim zapnu. Oboje vypadá a běží stejně. Poklepávat se po ramenou jak skvěle to běží v DX12 když v DX11 je to indentické fakt nepotřebuji :)
Výhradně DX12 tituly tady ještě dlouhou dobu nebudou, rozhodně ne ty které mne zajímají, už jen proto že je to W10 only záležitost... a v době, kdy to bude aktuální už budu mít nového Pascala nebo Polaris, ale vzhledem k tomu že AMD nejdříve začne plečkoidními kartami, tak performance Pascal bude jedinou možnou volbou - aneb chci kartu jednočipovou s vyšším výkonem než než mají současné OC verze 980Tihttps://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875680
+
18. 4. 2016 - 21:44https://diit.cz/clanek/geforce-s-gp104/diskuseA potom sa zobudis s pocuranym pyzamom :Dhttps://diit.cz/clanek/geforce-s-gp104/diskuse#comment-876457
+
Jsem vazne zvedavy na GP104 vs. Polaris 10. Pokud se potvrdi pocty SU na 2048 a 2560, tak to asi bude docela zajimave. V aktualni generaci zhruba vychazi, ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu.
Bude zalezet na tom kdo a jak mlzil/leakoval. nVidia umi historicky GPU s vyssi dosazitelnu frekvenci, jenze se proslycha, ze Pascal je spis vylepseni Maxwellu, nez neco zasadne noveho. U AMD je to obracene, frekvence maji vetsinou o dost nizsi, ale pro jistotu ma byt Polaris nejvetsi prepracovani architektury od GCN 1.0.
+1
+2
-1
Je komentář přínosný?
Jsem vazne zvedavy na GP104
JoHnY3 https://diit.cz/profil/johny3
14. 4. 2016 - 19:47https://diit.cz/clanek/geforce-s-gp104/diskuseJsem vazne zvedavy na GP104 vs. Polaris 10. Pokud se potvrdi pocty SU na 2048 a 2560, tak to asi bude docela zajimave. V aktualni generaci zhruba vychazi, ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu.
Bude zalezet na tom kdo a jak mlzil/leakoval. nVidia umi historicky GPU s vyssi dosazitelnu frekvenci, jenze se proslycha, ze Pascal je spis vylepseni Maxwellu, nez neco zasadne noveho. U AMD je to obracene, frekvence maji vetsinou o dost nizsi, ale pro jistotu ma byt Polaris nejvetsi prepracovani architektury od GCN 1.0.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875628
+
To vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.
+1
-7
-1
Je komentář přínosný?
To vychází podobně jako u
JirkaK https://diit.cz/profil/jiri-kocman
14. 4. 2016 - 20:39https://diit.cz/clanek/geforce-s-gp104/diskuseTo vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875631
+
A jak to souvisí s tím že pro stejný výkon na jádře potřebuje procesor AMD asi i víc než čtvrtinu taktovací frekvence oproti Intelu?
O frekvencích AMD a nVidia GPU jsem tady nenapsal ani písmeno
Mimochodem ty frekvence u nVidie nejspu všechny referenční... srovnávat nereferenční takty není ideální, každý výrobce to točí jinak, každý uživatel to točí jina... a hlavně chová se to pak kus od kusu
+1
-2
-1
Je komentář přínosný?
A jak to souvisí s tím že pro
JirkaK https://diit.cz/profil/jiri-kocman
14. 4. 2016 - 21:36https://diit.cz/clanek/geforce-s-gp104/diskuseA jak to souvisí s tím že pro stejný výkon na jádře potřebuje procesor AMD asi i víc než čtvrtinu taktovací frekvence oproti Intelu?
O frekvencích AMD a nVidia GPU jsem tady nenapsal ani písmeno
Mimochodem ty frekvence u nVidie nejspu všechny referenční... srovnávat nereferenční takty není ideální, každý výrobce to točí jinak, každý uživatel to točí jina... a hlavně chová se to pak kus od kusuhttps://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875640
+
Jsou referenční všechny krom 980 OC, protože nic jiného proti Fury Nvidia postaveného nemá. I referenčně taktovaná 980 je pořád taktovaná o >20 % výš než Fury.
+1
+2
-1
Je komentář přínosný?
Jsou referenční všechny krom
no-X https://diit.cz/autor/no-x
14. 4. 2016 - 21:40https://diit.cz/clanek/geforce-s-gp104/diskuseJsou referenční všechny krom 980 OC, protože nic jiného proti Fury Nvidia postaveného nemá. I referenčně taktovaná 980 je pořád taktovaná o >20 % výš než Fury.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875641
+
To jsou ale frekvence boostu, ne core.. frekvence boostu je nic neříkající protože u každého to bude boostit trošku jinak.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
"protože nic jiného proti Fury Nvidia postaveného nemá"
GTX980Ti ? Je to jediná karta která stojí při pořizování nové mašiny za zmínku, proč kupovat něco slabšího? Pokud vím tak AMD nemá kartu která by GTX980Ti nebo případně TitanX předčila.
+1
-3
-1
Je komentář přínosný?
To jsou ale frekvence boostu,
JirkaK https://diit.cz/profil/jiri-kocman
14. 4. 2016 - 21:46https://diit.cz/clanek/geforce-s-gp104/diskuseTo jsou ale frekvence boostu, ne core.. frekvence boostu je nic neříkající protože u každého to bude boostit trošku jinak.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
"protože nic jiného proti Fury Nvidia postaveného nemá"
GTX980Ti ? Je to jediná karta která stojí při pořizování nové mašiny za zmínku, proč kupovat něco slabšího? Pokud vím tak AMD nemá kartu která by GTX980Ti nebo případně TitanX předčila.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875644
+
Nerozumím. Uvedené takty Radeonů jsou maxima, na kterých karta běží, reálně jsou u většiny jmenovaných karet nižší. Uvedené takty GeForce jsou cosi jako průměry maxima, reálně mohou být ještě vyšší. Nic se nemění na faktu, že Nvidia dosahuje výsledného výkonu v průměru o desítky procent vyššími takty než AMD, takže srovnání s frekvencemi procesorů AMD a Intelu nedává smysl.
+1
+5
-1
Je komentář přínosný?
„To jsou ale frekvence boostu
no-X https://diit.cz/autor/no-x
14. 4. 2016 - 21:55https://diit.cz/clanek/geforce-s-gp104/diskuse„To jsou ale frekvence boostu, ne core..“
Nerozumím. Uvedené takty Radeonů jsou maxima, na kterých karta běží, reálně jsou u většiny jmenovaných karet nižší. Uvedené takty GeForce jsou cosi jako průměry maxima, reálně mohou být ještě vyšší. Nic se nemění na faktu, že Nvidia dosahuje výsledného výkonu v průměru o desítky procent vyššími takty než AMD, takže srovnání s frekvencemi procesorů AMD a Intelu nedává smysl.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875645
+
Já nesrovnával takt grafik a procesorů. To srovnání jste si tam musel domyslet.
+1
-2
-1
Je komentář přínosný?
Já nesrovnával takt grafik a
JirkaK https://diit.cz/profil/jiri-kocman
15. 4. 2016 - 09:19https://diit.cz/clanek/geforce-s-gp104/diskuseJá nesrovnával takt grafik a procesorů. To srovnání jste si tam musel domyslet.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875689
+
To vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
------------------------------
taky nechapu proc nekomu vadi porovnani GPU AMD vs NV kdyz sam u clanku o GPU porovnava CPU AMD vs Intel :)
+1
+7
-1
Je komentář přínosný?
To vychází podobně jako u
Tom https://diit.cz/profil/tomas-recht
14. 4. 2016 - 21:56https://diit.cz/clanek/geforce-s-gp104/diskuseTo vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
------------------------------
taky nechapu proc nekomu vadi porovnani GPU AMD vs NV kdyz sam u clanku o GPU porovnava CPU AMD vs Intel :)
https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875646
+
"ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu."
stejně.. spíše hůře.. je na tom AMD i u CPU Na 3 Hz Intelu potřebuje nejméně 4 Hz.
Byla to poznámka na komentář o poměru 4:3, ne na článek
+1
+2
-1
Je komentář přínosný?
"ze pri stejne frekvenci
JirkaK https://diit.cz/profil/jiri-kocman
15. 4. 2016 - 09:18https://diit.cz/clanek/geforce-s-gp104/diskuse"ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu."
stejně.. spíše hůře.. je na tom AMD i u CPU Na 3 Hz Intelu potřebuje nejméně 4 Hz.
Byla to poznámka na komentář o poměru 4:3, ne na článekhttps://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875686
+
Takhle zjednodusene to fakt neni dobre porovnavat.
GPU skaluji relativne linearne s frekvenci, poctem CU a vykonem samotnych CU. CPU na druhou stranu skaluji linearne jen s frekvenci, pocet jader neskaluje linearni ani nahodou a zvysovani IPC je diky mnohem slozitejsim vnitrnostem vyrazne slozitejsi.
+1
-1
-1
Je komentář přínosný?
Takhle zjednodusene to fakt
JoHnY3 https://diit.cz/profil/johny3
15. 4. 2016 - 03:58https://diit.cz/clanek/geforce-s-gp104/diskuseTakhle zjednodusene to fakt neni dobre porovnavat.
GPU skaluji relativne linearne s frekvenci, poctem CU a vykonem samotnych CU. CPU na druhou stranu skaluji linearne jen s frekvenci, pocet jader neskaluje linearni ani nahodou a zvysovani IPC je diky mnohem slozitejsim vnitrnostem vyrazne slozitejsi.https://diit.cz/clanek/geforce-s-gp104/diskuse#comment-875662
+
Ja teda slysel neco jineho, prvni karta na GP104 ma byt 64bit, ma obsahovat 0,5GB GDDR5 + 7,5GB DDR3 a stale nema podporovat plne DX12 (asynchronni shadery) nebo je to snad nejaky hoax? (nemyslim si, ale uvidime) :-)
zajímavé je že karty s "nesmyslnou" pamětí jako GTX970 patří vůbec k nejprodávanějším na trhu. O podpoře nějakých asynchronních shaderů (podporované imho jsou) zřejmě majitelé nVidia karet neslyšel, jinak by si je přece nekupovalo více než 70% hráčů...
o asynchronních shaderech jsem slšel poprvé teprve nedávno, světe divse, má GTX980 najednou nepřestala fungovat či neztratila výkon... Nestalo se totiž lautr nic, když jsem se dozvěděl že asynchronní shadery musuí nVidia řešit softwarově a je to dost omezené... Však o co jde, doku má karta výkon je zcela jedno jaké široké pásmo paměti používájí nebo zda něco řeší na úrovni HW nebo SW:.. Možná si někdo potřebuje mastit ego tím co všechno jeho HW podporuje, nebo jak je technikcy řešená... drtivá většina lidí ale vybírá jednoduše podle toho zda na tom běží to co chce.
niesi sam, kto pocul o asynchronnych shaderoch nedavno...aj nvidia medzi nich patri :)
..a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007 :)
"a jasne ze gtx980 neprestala fungovat, ked podla teba hras len hru(letecky simulator) vyrobenu v 2007"
Ale no tak. 2007 by som posunul do roku 2015. A ani u tzv. DX12 hier nemá táto karta výkon pod úrovňou hrateľnosti. Netvrdím, že AMD karty si nepočínajú v DX12 lepšie, ale tie konkurenčné nestrádajú tak, že ich je treba vymeniť. Kým k tomu príde, bude potrebné vymeniť aj príslušné grafiky od AMD.
jasne ze nie, ale velke mnozstvo vlastnikov GTX980Ti maju velke ego, tj kupili si najsilnejsiu kartu na trhu. viem si predstavit, co to s nimi robi, ked im vykon v DX12 klesa na uroven vykonu R9 390 (X)
kupodivu na tom běží simulátor z roku 2016 ;)
Ale běží na tom i aktuální hry. Například Rise of the Tomb Raider... dx11 vs dx12... žádný rozdíl v kvalitě obrazu, výkon taktéž stejný... je zcela ukradené který režim zapnu. Oboje vypadá a běží stejně. Poklepávat se po ramenou jak skvěle to běží v DX12 když v DX11 je to indentické fakt nepotřebuji :)
Výhradně DX12 tituly tady ještě dlouhou dobu nebudou, rozhodně ne ty které mne zajímají, už jen proto že je to W10 only záležitost... a v době, kdy to bude aktuální už budu mít nového Pascala nebo Polaris, ale vzhledem k tomu že AMD nejdříve začne plečkoidními kartami, tak performance Pascal bude jedinou možnou volbou - aneb chci kartu jednočipovou s vyšším výkonem než než mají současné OC verze 980Ti
Všichni uvidíte jak nvidia všem vytře zrak a totálně rozdrtí veškerou konkurenci :)
A potom sa zobudis s pocuranym pyzamom :D
Jsem vazne zvedavy na GP104 vs. Polaris 10. Pokud se potvrdi pocty SU na 2048 a 2560, tak to asi bude docela zajimave. V aktualni generaci zhruba vychazi, ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu.
Bude zalezet na tom kdo a jak mlzil/leakoval. nVidia umi historicky GPU s vyssi dosazitelnu frekvenci, jenze se proslycha, ze Pascal je spis vylepseni Maxwellu, nez neco zasadne noveho. U AMD je to obracene, frekvence maji vetsinou o dost nizsi, ale pro jistotu ma byt Polaris nejvetsi prepracovani architektury od GCN 1.0.
To vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.
Zrovna s frekvencemi to nemá smysl srovnávat. Grafické čipy Nvidie běží na vyšších taktech než produkty od AMD.
Fury X: 1050 MHz / GTX 980 Ti: 1075 MHz
Fury: 1000 MHz / GTX 980 OC: ~1300 MHz
R9 390X: 1050 MHz / GTX 980: 1216 MHz
R9 390: 1000 MHz / GTX 970: 1178 MHz
R9 380: 970 MHz / GTX 960: 1178 MHz
A jak to souvisí s tím že pro stejný výkon na jádře potřebuje procesor AMD asi i víc než čtvrtinu taktovací frekvence oproti Intelu?
O frekvencích AMD a nVidia GPU jsem tady nenapsal ani písmeno
Mimochodem ty frekvence u nVidie nejspu všechny referenční... srovnávat nereferenční takty není ideální, každý výrobce to točí jinak, každý uživatel to točí jina... a hlavně chová se to pak kus od kusu
Jsou referenční všechny krom 980 OC, protože nic jiného proti Fury Nvidia postaveného nemá. I referenčně taktovaná 980 je pořád taktovaná o >20 % výš než Fury.
To jsou ale frekvence boostu, ne core.. frekvence boostu je nic neříkající protože u každého to bude boostit trošku jinak.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
"protože nic jiného proti Fury Nvidia postaveného nemá"
GTX980Ti ? Je to jediná karta která stojí při pořizování nové mašiny za zmínku, proč kupovat něco slabšího? Pokud vím tak AMD nemá kartu která by GTX980Ti nebo případně TitanX předčila.
„To jsou ale frekvence boostu, ne core..“
Nerozumím. Uvedené takty Radeonů jsou maxima, na kterých karta běží, reálně jsou u většiny jmenovaných karet nižší. Uvedené takty GeForce jsou cosi jako průměry maxima, reálně mohou být ještě vyšší. Nic se nemění na faktu, že Nvidia dosahuje výsledného výkonu v průměru o desítky procent vyššími takty než AMD, takže srovnání s frekvencemi procesorů AMD a Intelu nedává smysl.
Já nesrovnával takt grafik a procesorů. To srovnání jste si tam musel domyslet.
To vychází podobně jako u procesorů, kde AMD potřebuje 4Hz frekvence na 3Hz frekvence Intelu.
Ale pořád nechápu proč reagujete na srovnání frekvence AMD a Intel CPU porovnáním frekvencí nVidia a AMD
------------------------------
taky nechapu proc nekomu vadi porovnani GPU AMD vs NV kdyz sam u clanku o GPU porovnava CPU AMD vs Intel :)
"ze pri stejne frekvenci potrebuje AMD 4 jednotky GCN 1.2 na vyrovnani 3 jednotek Maxwellu."
stejně.. spíše hůře.. je na tom AMD i u CPU Na 3 Hz Intelu potřebuje nejméně 4 Hz.
Byla to poznámka na komentář o poměru 4:3, ne na článek
Takhle zjednodusene to fakt neni dobre porovnavat.
GPU skaluji relativne linearne s frekvenci, poctem CU a vykonem samotnych CU. CPU na druhou stranu skaluji linearne jen s frekvenci, pocet jader neskaluje linearni ani nahodou a zvysovani IPC je diky mnohem slozitejsim vnitrnostem vyrazne slozitejsi.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.