Podle mě jsou obě možnosti stále otevřené, buď vyjdou RTX 6000 v roce 2029 nebo vyjdou už příští rok s kapacitou pamětí 6 a 8 GB, takže tradičně na hovno.
+1
-2
-1
Je komentář přínosný?
Podle mě jsou obě možnosti
RedMaX https://diit.cz/profil/redmarx
9. 2. 2026 - 10:03https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusePodle mě jsou obě možnosti stále otevřené, buď vyjdou RTX 6000 v roce 2029 nebo vyjdou už příští rok s kapacitou pamětí 6 a 8 GB, takže tradičně na hovno.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528797
+
rtx 6000 bylo možno pořídit už v roce 2025.
Pouze ty herní rtx 60xx se odkládají.
PS:
nVidia dělá tento chaos v označování "profi" karet už nějakou generaci.
Nám nezbývá než vymezit o jaké části výrobků se budeme bavit.
+1
+1
-1
Je komentář přínosný?
rtx 6000 bylo možno pořídit
melkor https://diit.cz/profil/valter-mayer
9. 2. 2026 - 11:13https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusertx 6000 bylo možno pořídit už v roce 2025.
Pouze ty herní rtx 60xx se odkládají.
PS:
nVidia dělá tento chaos v označování "profi" karet už nějakou generaci.
Nám nezbývá než vymezit o jaké části výrobků se budeme bavit.
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528807
+
Ano odkládá, a není vůbec jisté, jestli na začátek nebo konec toho roku :¨)
S tím, že s velkým časovým odstupem pak dorazí karty "pro lidi" jako jsou 6060 a 6070.
Cokoli na tím bude opravdu velmi drahé.
+1
+5
-1
Je komentář přínosný?
"""Odkládá se GeForce RTX
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 10:27https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse"""Odkládá se GeForce RTX 6000 na rok 2028?"""
Ano odkládá, a není vůbec jisté, jestli na začátek nebo konec toho roku :¨)
S tím, že s velkým časovým odstupem pak dorazí karty "pro lidi" jako jsou 6060 a 6070.
Cokoli na tím bude opravdu velmi drahé. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528803
+
Tam hrozí ještě to, že tyhle karty budou na PCIe6 a NVidia tradičně vychcaně nahodí, kde to bude možné, menší počet linek a teda taková karta ve starém PC bude mít degradaci výkonu, takže kupovat novou desku a procesor, prostě na hovno.
+1
-2
-1
Je komentář přínosný?
Tam hrozí ještě to, že tyhle
RedMaX https://diit.cz/profil/redmarx
9. 2. 2026 - 10:43https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTam hrozí ještě to, že tyhle karty budou na PCIe6 a NVidia tradičně vychcaně nahodí, kde to bude možné, menší počet linek a teda taková karta ve starém PC bude mít degradaci výkonu, takže kupovat novou desku a procesor, prostě na hovno.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528804
+
Tak je jasné, že ty nižší karty budou osmilinkové..
Ale pokud se nepletu i 8linková karta v PCIE5 desce = plná karta na PCIE4, třeba AdaLovelace.
Kde je problém?
Tím že někdo přijde s rychlejší sběrnicí neznamená, že ta stávající zpomalí :)
Ta zůstane tak jak je.
A plná PCIE4 je asi ok ne?
+1
+1
-1
Je komentář přínosný?
Tak je jasné, že ty nižší
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 13:05https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak je jasné, že ty nižší karty budou osmilinkové..
Ale pokud se nepletu i 8linková karta v PCIE5 desce = plná karta na PCIE4, třeba AdaLovelace.
Kde je problém?
Tím že někdo přijde s rychlejší sběrnicí neznamená, že ta stávající zpomalí :)
Ta zůstane tak jak je.
A plná PCIE4 je asi ok ne? https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528832
+
v sucasnosti ziaden problem, len nevieme aky skvely bude dalsi Unreal engine, a ake prostriedky zozerie, okrem travy pri ceste
+1
-1
-1
Je komentář přínosný?
v sucasnosti ziaden problem,
skaven https://diit.cz/profil/skaven321
9. 2. 2026 - 13:39https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusev sucasnosti ziaden problem, len nevieme aky skvely bude dalsi Unreal engine, a ake prostriedky zozerie, okrem travy pri ceste
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528839
+
Nesváděj to na UE, zahrej si ArcRaiders, kromě toho že změníš názor na UE, je to i velmi povedené po stránce herní.
+1
0
-1
Je komentář přínosný?
Nesváděj to na UE, zahrej si
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 14:35https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNesváděj to na UE, zahrej si ArcRaiders, kromě toho že změníš názor na UE, je to i velmi povedené po stránce herní.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528847
+
UE má hodně vysoké nároky, katastrofální optimalizaci a pracuj se s ním blbě. Nic lepšího nemáme, to je jediný důvod, proč o tom všichni mlčí.
Arc Raiders je jednoduchá hra.
+1
0
-1
Je komentář přínosný?
UE má hodně vysoké nároky,
Blank https://diit.cz/profil/adam-marcinek
9. 2. 2026 - 21:53https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseUE má hodně vysoké nároky, katastrofální optimalizaci a pracuj se s ním blbě. Nic lepšího nemáme, to je jediný důvod, proč o tom všichni mlčí.
Arc Raiders je jednoduchá hra. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528863
+
1) Ano nic lepšího nemáme, doslova. Já jako "spotřebitel" vidím "Clair Obscur: Expedition 33", "SplitFiction", "Grounded2" a čumim s otevřenou tlamou.. Pokud máš s UE5 problém ty jako (asi) vývojář, tak to je myslím tvůj problém.
2) Arc je jednoduchá hra. Jak kdysi pravila reklama jednoho Německého výrobce.. "Geniálně jednoduché, jednoduše Geniální !!" A to je přesně ArcRaiders.
3) Napiš si svůj engine jak v devadesátkách a jeď bomby. Za 10let vykouzlíš desetinu UE5.
+1
0
-1
Je komentář přínosný?
1) Ano nic lepšího nemáme,
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 22:21https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse1) Ano nic lepšího nemáme, doslova. Já jako "spotřebitel" vidím "Clair Obscur: Expedition 33", "SplitFiction", "Grounded2" a čumim s otevřenou tlamou.. Pokud máš s UE5 problém ty jako (asi) vývojář, tak to je myslím tvůj problém.
2) Arc je jednoduchá hra. Jak kdysi pravila reklama jednoho Německého výrobce.. "Geniálně jednoduché, jednoduše Geniální !!" A to je přesně ArcRaiders.
3) Napiš si svůj engine jak v devadesátkách a jeď bomby. Za 10let vykouzlíš desetinu UE5.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528864
+
Grounded 2 bych z toho seznamu vyškrtnul.
To, co předvádí a jak to předvádí, by dalo i Unity.
+1
0
-1
Je komentář přínosný?
Grounded 2 bych z toho
melkor https://diit.cz/profil/valter-mayer
10. 2. 2026 - 08:40https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseGrounded 2 bych z toho seznamu vyškrtnul.
To, co předvádí a jak to předvádí, by dalo i Unity.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528883
+
Jakože kartu vyrobenou v roce 2028 dáš do PCIE3 desky?
No tak to už je prekérka..
Ale to je jako bys dnešní RTX4060 cpal do desky s PéČtyřkou.
Nevím, pokud si budeš držet PCIE3 desku za 3roky, ale tam dej "plnotučnou" kartu z bazaru.
+1
+1
-1
Je komentář přínosný?
Jakože kartu vyrobenou v roce
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 08:53https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJakože kartu vyrobenou v roce 2028 dáš do PCIE3 desky?
No tak to už je prekérka..
Ale to je jako bys dnešní RTX4060 cpal do desky s PéČtyřkou.
Nevím, pokud si budeš držet PCIE3 desku za 3roky, ale tam dej "plnotučnou" kartu z bazaru.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528887
+
Procesory běžící na deskách s PCIe3 v pohodě utáhnou mainstream RTX 5000 a velmi pravděpodobně dají na pohodu i RTX 6000, jediný problém bude právě v počtu linek, které omezí výkon.
+1
0
-1
Je komentář přínosný?
Procesory běžící na deskách s
RedMaX https://diit.cz/profil/redmarx
10. 2. 2026 - 09:25https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseProcesory běžící na deskách s PCIe3 v pohodě utáhnou mainstream RTX 5000 a velmi pravděpodobně dají na pohodu i RTX 6000, jediný problém bude právě v počtu linek, které omezí výkon.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528891
+
Jo jasně, je změřeno, že pokud ti nedojde VRAM, stačí ti i PCIEgen2..
Ale nejslabší karty budou mít 8linek určitě.
+1
0
-1
Je komentář přínosný?
Jo jasně, je změřeno, že
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 12:35https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJo jasně, je změřeno, že pokud ti nedojde VRAM, stačí ti i PCIEgen2..
Ale nejslabší karty budou mít 8linek určitě.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528914
+
Jen do té doby, než někoho napadne ušetřit pár centů a dát tam jen 4.
+1
0
-1
Je komentář přínosný?
>> Ale nejslabší karty budou
melkor https://diit.cz/profil/valter-mayer
10. 2. 2026 - 22:21https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse>> Ale nejslabší karty budou mít 8linek určitě.
Jen do té doby, než někoho napadne ušetřit pár centů a dát tam jen 4.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528939
+
Není nad to si platit spekulativní premium články, které jsou navíc úplně mimo mísu, opravdu velmi užitečné informace v ceně zlata, kdy Nvidie možná vydá nějaké nové předražené grafiky, z toho si normálně nadělám do kalhot, potřebuju je HNED TEĎ!!!!
+1
0
-1
Je komentář přínosný?
Není nad to si platit
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 11:38https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse„Web The Information přišel s (placeným) článkem“
Není nad to si platit spekulativní premium články, které jsou navíc úplně mimo mísu, opravdu velmi užitečné informace v ceně zlata, kdy Nvidie možná vydá nějaké nové předražené grafiky, z toho si normálně nadělám do kalhot, potřebuju je HNED TEĎ!!!!https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528814
+
No s cenou zlata bych se moc neoháněl, za tu spekulace opravdu nestojí.
Nicméně když to vezmu obloukem, jsem docela zvědav o čem budou podobné weby sázet ty 2-3 "zprávy" týdně, když reálně karta vyleze za 500-700dní??
To bude docela šichta uspekulovat o čem ty karty asi budou :)))
A budou mít 30 nebo 40% výkonu navíc? Co myslíš?
+1
-2
-1
Je komentář přínosný?
No s cenou zlata bych se moc
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 13:08https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNo s cenou zlata bych se moc neoháněl, za tu spekulace opravdu nestojí.
Nicméně když to vezmu obloukem, jsem docela zvědav o čem budou podobné weby sázet ty 2-3 "zprávy" týdně, když reálně karta vyleze za 500-700dní??
To bude docela šichta uspekulovat o čem ty karty asi budou :)))
A budou mít 30 nebo 40% výkonu navíc? Co myslíš?https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528833
+
30-40 možná akorát 6090 nad 5090, jinak bych množné číslo raději nepoužíval. To zas bude o 10% výkonnější, o 10% úspornější a o 30% dražší, dokud nebude mít AMD high end, na co to tak zvedat, to zas bude rozdíl mezi 6080 a 6090 takových 70-80% třeba.
+1
+1
-1
Je komentář přínosný?
30-40 možná akorát 6090 nad
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 14:30https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse30-40 možná akorát 6090 nad 5090, jinak bych množné číslo raději nepoužíval. To zas bude o 10% výkonnější, o 10% úspornější a o 30% dražší, dokud nebude mít AMD high end, na co to tak zvedat, to zas bude rozdíl mezi 6080 a 6090 takových 70-80% třeba.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528846
+
Tak srovnávej totožné řady, takže opravdu xx90 s xx90...
1) Máme 2nm, to je posun, při nechutné spotřebě u 6090 ten výkon naroste klidně zase o 30-45% proti 5090.
2) O 30% dražší než teď 5090 to bude rozhodně, na eBay i víc.
3) AMD bude mít zase co má dnes, vyšší mainstream (ne že by to na cokoli nestačilo), takže NV bude brát v potaz konkurenci u těch řad do xx70 a xx80/90 si pojede sólo.
Výkonem a i cenama.
Nicméně dávno již lze vysledovat, že NV nikam ten hrubý výkon tlačit nehodlá.. Kromě přírůstku pár procent/rok za ohromnou cenu totiž už není kam.
+1
0
-1
Je komentář přínosný?
Tak srovnávej totožné řady,
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 14:41https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak srovnávej totožné řady, takže opravdu xx90 s xx90...
1) Máme 2nm, to je posun, při nechutné spotřebě u 6090 ten výkon naroste klidně zase o 30-45% proti 5090.
2) O 30% dražší než teď 5090 to bude rozhodně, na eBay i víc.
3) AMD bude mít zase co má dnes, vyšší mainstream (ne že by to na cokoli nestačilo), takže NV bude brát v potaz konkurenci u těch řad do xx70 a xx80/90 si pojede sólo.
Výkonem a i cenama.
Nicméně dávno již lze vysledovat, že NV nikam ten hrubý výkon tlačit nehodlá.. Kromě přírůstku pár procent/rok za ohromnou cenu totiž už není kam.
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528848
+
Ano a kolik to bude mít spotřebu 1 kW? Při totožné spotřebě tam bude prd rozdíl, ten nový proces oproti tomu starýmu už není nijak kulervoucí, aby to dělalo nějaké divy, oba jsou špičkové a už to není moc kam posouvat a už 5090 je totální monstrum, ani ten čip nemůžeš pořád zvětšovat do nekonečna, vše má své limity, to by muselo nastat nějaké velké překvapení, aby to dokázalo podstatně navýšit výkon bez toho, aniž by to žralo i trávu u cesty, nestálo jak pozlacený hajzl a zároveň to furt byl takovej trhač asfaltu, už se to žene do extrému, aby se dal za každou cenu prezentovat nějaký pokrok.
Klasický high end máš xx80, to už je prostě strop a takové rozumné maximum, co si ještě dokážu představit v běžném herním PC, xx90 jsou totální hovada, co si na hry asi jen tak někdo nepořídí, hlavně to není moc user friendly, fakt si nedokážu představit provozovat takovej teplomet, to musí být slušný vysavač.
+1
+1
-1
Je komentář přínosný?
Ano a kolik to bude mít 1 kW?
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 15:17https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseAno a kolik to bude mít spotřebu 1 kW? Při totožné spotřebě tam bude prd rozdíl, ten nový proces oproti tomu starýmu už není nijak kulervoucí, aby to dělalo nějaké divy, oba jsou špičkové a už to není moc kam posouvat a už 5090 je totální monstrum, ani ten čip nemůžeš pořád zvětšovat do nekonečna, vše má své limity, to by muselo nastat nějaké velké překvapení, aby to dokázalo podstatně navýšit výkon bez toho, aniž by to žralo i trávu u cesty, nestálo jak pozlacený hajzl a zároveň to furt byl takovej trhač asfaltu, už se to žene do extrému, aby se dal za každou cenu prezentovat nějaký pokrok.
Klasický high end máš xx80, to už je prostě strop a takové rozumné maximum, co si ještě dokážu představit v běžném herním PC, xx90 jsou totální hovada, co si na hry asi jen tak někdo nepořídí, hlavně to není moc user friendly, fakt si nedokážu představit provozovat takovej teplomet, to musí být slušný vysavač.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528849
+
Při stejné spotřebě jako 5090 to na novém procesu udělá cca 30-35% větší výkon. Aby to nebyla taková nuda, naloží tomu něco navíc (650W), ale ne zase moc, protože AMD je daleko (není důvod to rvát).
Prostě ber to tak, po hardwarové stránce už není kam co zvětšovat, vylepšovat. Je to je o ovladačích fičurách.
Každý to pobere v různou dobu, ale přijdou na to časem všichni.
To, co začalo před 30roky s 3Dfx a Rivou je definitivně u konce.
I ty hry vypadají tak, že 15let staré animáky z Pixaru mohou jít na párek.
Nevím co k tomu ještě dodat :)
+1
+1
-1
Je komentář přínosný?
“””Ano a kolik to bude mít
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 16:08https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse“””Ano a kolik to bude mít spotřebu 1 kW”””
Při stejné spotřebě jako 5090 to na novém procesu udělá cca 30-35% větší výkon. Aby to nebyla taková nuda, naloží tomu něco navíc (650W), ale ne zase moc, protože AMD je daleko (není důvod to rvát).
Prostě ber to tak, po hardwarové stránce už není kam co zvětšovat, vylepšovat. Je to je o ovladačích fičurách.
Každý to pobere v různou dobu, ale přijdou na to časem všichni.
To, co začalo před 30roky s 3Dfx a Rivou je definitivně u konce.
I ty hry vypadají tak, že 15let staré animáky z Pixaru mohou jít na párek.
Nevím co k tomu ještě dodat :)https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528851
+
Jenže co z toho udělá jen to, že se opět akorát zvýší parametry a co z toho udělá jen výrobní proces, už to není obrovský rozdíl jak když se přecházelo ze Samsungu na TSMC, proto si osobně úplně nemyslím, že to udělá tak velký rozdíl jako třeba ta 4090, kdes měl prostě velký rozdíl v efektivitě a 3090 ještě nebyla zas až takové monstrum, i 5090 pořád nejspíš přidala víc než kolik bude schopna 6090, pořád bylo celkem dost prostoru pro zvětšení specifikací a spotřeby, ale už i toto nebylo zas takové terno a 6090 už zas bude o něco blíž tomu limitu, už 5090 je taková 4090 na steroidech a už tam nemáš moc kompromisů, 5090 je taková 4090 Ti a 6090 už asi bude jenom něco jako 4090 Ti Super, už rozdíl mezi 5090 a 4090 činil jen nějakých 30%, nevím kde by se to znovu vzalo u 6090, podle mě je i těch 30% pořád dost optimistických.
+1
0
-1
Je komentář přínosný?
Jenže co z toho udělá jen to,
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 18:38https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJenže co z toho udělá jen to, že se opět akorát zvýší parametry a co z toho udělá jen výrobní proces, už to není obrovský rozdíl jak když se přecházelo ze Samsungu na TSMC, proto si osobně úplně nemyslím, že to udělá tak velký rozdíl jako třeba ta 4090, kdes měl prostě velký rozdíl v efektivitě a 3090 ještě nebyla zas až takové monstrum, i 5090 pořád nejspíš přidala víc než kolik bude schopna 6090, pořád bylo celkem dost prostoru pro zvětšení specifikací a spotřeby, ale už i toto nebylo zas takové terno a 6090 už zas bude o něco blíž tomu limitu, už 5090 je taková 4090 na steroidech a už tam nemáš moc kompromisů, 5090 je taková 4090 Ti a 6090 už asi bude jenom něco jako 4090 Ti Super, už rozdíl mezi 5090 a 4090 činil jen nějakých 30%, nevím kde by se to znovu vzalo u 6090, podle mě je i těch 30% pořád dost optimistických.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528854
+
No tak to se bavíme o scénáři, kdy by pouze přidávali jádra (CUDA,RT,..) a přešli na pokročilejší proces. Jako doufal bych, že za 4 (potažmo 6 let, když bereme řadu 4000) by mohli upgradnout i architekturu. Pak tu máme ještě možnost nědělat gigantický monolity, ale čiplety, ale někde jsem zachytil infromaci, že by se to mohlo týkat až řady přespříští (7000?).
+1
0
-1
Je komentář přínosný?
No tak to se bavíme o scénáři
ST33L https://diit.cz/profil/filip-holan
9. 2. 2026 - 18:59https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNo tak to se bavíme o scénáři, kdy by pouze přidávali jádra (CUDA,RT,..) a přešli na pokročilejší proces. Jako doufal bych, že za 4 (potažmo 6 let, když bereme řadu 4000) by mohli upgradnout i architekturu. Pak tu máme ještě možnost nědělat gigantický monolity, ale čiplety, ale někde jsem zachytil infromaci, že by se to mohlo týkat až řady přespříští (7000?).https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528856
+
Na architekturu už se dlouho moc nešáhlo tak, aby to nějak citelně pomohlo, spíš už se to akorát nafukuje, to je ten problém, jenže víc výpočetních jednotek znamená větší spotřeba, anebo bys to sice mohl hrát na efektivitu, jenže pořád ti kvůli tomu cena poleze do závratných výšin a to by se teprve nadávalo, sice by spotřeba mohla teoreticky klesat, jenže pokud by stagnoval výkon a akorát rostla cena, asi by to stejně nebylo příliš populární řešení.
A o chipletách už se taky spekuluje nějakou dobu, problém je, že by to furt neřešilo vysokou spotřebu, akorát by to mohlo snižovat cenu, jenže zprovoznit to pro herní účely bude asi docela oříšek
+1
0
-1
Je komentář přínosný?
Na architekturu už se dlouho
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 20:14https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNa architekturu už se dlouho moc nešáhlo tak, aby to nějak citelně pomohlo, spíš už se to akorát nafukuje, to je ten problém, jenže víc výpočetních jednotek znamená větší spotřeba, anebo bys to sice mohl hrát na efektivitu, jenže pořád ti kvůli tomu cena poleze do závratných výšin a to by se teprve nadávalo, sice by spotřeba mohla teoreticky klesat, jenže pokud by stagnoval výkon a akorát rostla cena, asi by to stejně nebylo příliš populární řešení.
A o chipletách už se taky spekuluje nějakou dobu, problém je, že by to furt neřešilo vysokou spotřebu, akorát by to mohlo snižovat cenu, jenže zprovoznit to pro herní účely bude asi docela oříšekhttps://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528859
+
Čiplety už tady zkoušel 7900XTX a jak dopadl. Chipletový design je enormně drahý, složitý a velmi, velmi neefektivní. tím že máš víc "dlaždiček" spotřebováváš mraky křemíku, energie a i financí.
Ale díky větším latencím masivně klesá efektivita.
Je to taková vzdálená obdoba "duálních" karet jako HD6990 nebo ATI Rage Fury MAXX?.
nV myslím měla taky dualitu, ale rychle to nechala být.
+1
0
-1
Je komentář přínosný?
Čiplety už tady zkoušel
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 22:32https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseČiplety už tady zkoušel 7900XTX a jak dopadl. Chipletový design je enormně drahý, složitý a velmi, velmi neefektivní. tím že máš víc "dlaždiček" spotřebováváš mraky křemíku, energie a i financí.
Ale díky větším latencím masivně klesá efektivita.
Je to taková vzdálená obdoba "duálních" karet jako HD6990 nebo ATI Rage Fury MAXX?.
nV myslím měla taky dualitu, ale rychle to nechala být. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528866
+
Tak chiplety se jim určitě vyplatí, když to používají u CPU a i výpočetních GPU, teoreticky by se tím jednoduše dělaly ta herní monstra, protože už by se ti nemusel podařit vyrobit 1 obří čipy, ale stačily by 2 či 3 menší, akorát pro herní účely to je trochu složitější, právě ty latence jsou asi největší problém, ono to je vlastně stejný jak v případě CPU, tam taky dokud nedaly jádra do jednoho chipletu a nesjednotili cache, tak to ve hrách stejně dost pokulhávalo oproti jednotnému monolitu a něco podobného pak řešíš i u těch herních chipletových GPU.
Chiplety u RDNA3 jsou ještě dost vzdálené od toho konceptu, který se od toho čekal, počítalo se s tím, že tam budou 2 výpočetní chiplety, asi něco jako 2x N32 jako 1 čip, nakonec z toho sešlo, asi bude dost těžký to udělat tak, aby to pak ve hrách netrpělo na nějaký microstuttering kvůli pomalým přenosům mezi těmi chiplety a prostě na nestabilní výkon.
Obecně chiplety jsou fajn, pokud potřebuješ maximalizovat výpočetní výkon za co nejnižší cenu a nezáleží ti na těch latencích, ale používat to pro herní HW je prostě horší a takové zbytečně komplikované, Ryzeny už fungují dobře, protože v jednom chipletu už máš 8 jader s jednotnou L3 a navrch ještě ta V-Cache, otázka je, jestli se něco takového dá replikovat v případě GPU, to asi ukáže až čas.
+1
0
-1
Je komentář přínosný?
Tak chiplety se jim určitě
Mike123 https://diit.cz/profil/hrhkguapuh
9. 2. 2026 - 23:16https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak chiplety se jim určitě vyplatí, když to používají u CPU a i výpočetních GPU, teoreticky by se tím jednoduše dělaly ta herní monstra, protože už by se ti nemusel podařit vyrobit 1 obří čipy, ale stačily by 2 či 3 menší, akorát pro herní účely to je trochu složitější, právě ty latence jsou asi největší problém, ono to je vlastně stejný jak v případě CPU, tam taky dokud nedaly jádra do jednoho chipletu a nesjednotili cache, tak to ve hrách stejně dost pokulhávalo oproti jednotnému monolitu a něco podobného pak řešíš i u těch herních chipletových GPU.
Chiplety u RDNA3 jsou ještě dost vzdálené od toho konceptu, který se od toho čekal, počítalo se s tím, že tam budou 2 výpočetní chiplety, asi něco jako 2x N32 jako 1 čip, nakonec z toho sešlo, asi bude dost těžký to udělat tak, aby to pak ve hrách netrpělo na nějaký microstuttering kvůli pomalým přenosům mezi těmi chiplety a prostě na nestabilní výkon.
Obecně chiplety jsou fajn, pokud potřebuješ maximalizovat výpočetní výkon za co nejnižší cenu a nezáleží ti na těch latencích, ale používat to pro herní HW je prostě horší a takové zbytečně komplikované, Ryzeny už fungují dobře, protože v jednom chipletu už máš 8 jader s jednotnou L3 a navrch ještě ta V-Cache, otázka je, jestli se něco takového dá replikovat v případě GPU, to asi ukáže až čas.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528868
+
Tak AMD už nějakou tu dobu používá u grafik Infinity Cache, takže se to replikovat dá, tedy minimálně ta společná cache.
+1
0
-1
Je komentář přínosný?
Tak AMD už nějakou tu dobu
Satryx https://diit.cz/profil/ap4w9fgw9f
10. 2. 2026 - 07:24https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak AMD už nějakou tu dobu používá u grafik Infinity Cache, takže se to replikovat dá, tedy minimálně ta společná cache.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528875
+
čiplety na CPU se ti vyplatí pokud nehraješ, a přesně naopak pokud ano.
Ty by sis čistě na hraní koupil 2x CCD procesor?
Velmi snadný test lze udělat na třeba vs R5-3600X vs R7-3700X..
Ten rozdíl je minimální, přesto že hodně her využije i víc jader než 6.
+1
0
-1
Je komentář přínosný?
čiplety na CPU se ti vyplatí
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 08:27https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusečiplety na CPU se ti vyplatí pokud nehraješ, a přesně naopak pokud ano.
Ty by sis čistě na hraní koupil 2x CCD procesor?
Velmi snadný test lze udělat na třeba vs R5-3600X vs R7-3700X..
Ten rozdíl je minimální, přesto že hodně her využije i víc jader než 6.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528881
+
Toto pořeší to nové propojení křemík-křemík. Následně by latence mezi více CPU čiplety měly být minimální.
+1
0
-1
Je komentář přínosný?
Toto pořeší to nové propojení
Jon Snih https://diit.cz/profil/kornflejk
10. 2. 2026 - 08:58https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseToto pořeší to nové propojení křemík-křemík. Následně by latence mezi více CPU čiplety měly být minimální.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528888
+
"""Následně by latence mezi více CPU čiplety měly být minimální."""
Beru tě za slovo.
+1
0
-1
Je komentář přínosný?
"""Následně by latence mezi
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 10:55https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse"""Následně by latence mezi více CPU čiplety měly být minimální."""
Beru tě za slovo.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528903
+
No právě proto říkám, že to chiplety dost brzdily do příchodu Zen3, byly přeci jen po 4 jádrech a na hry už bylo ideální aspoň těch 6, těch to sice mělo klidně i víc, ale jelikož už byly na jiném, tak ti ta jádra už stejně moc nepomohla a prakticky to bylo furt jen jako 4jádro, stačilo to srovnat s tehdejšími Intely, 4ádra třeba byla srovnatelnáy, ale na 6jádra to už ztrácelo, u Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.
+1
0
-1
Je komentář přínosný?
No právě proto říkám, že to
Mike123 https://diit.cz/profil/hrhkguapuh
10. 2. 2026 - 09:30https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNo právě proto říkám, že to chiplety dost brzdily do příchodu Zen3, byly přeci jen po 4 jádrech a na hry už bylo ideální aspoň těch 6, těch to sice mělo klidně i víc, ale jelikož už byly na jiném, tak ti ta jádra už stejně moc nepomohla a prakticky to bylo furt jen jako 4jádro, stačilo to srovnat s tehdejšími Intely, 4ádra třeba byla srovnatelnáy, ale na 6jádra to už ztrácelo, u Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528892
+
""""Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.""""
no... Odpověděl sis sám. Chiplety prostě mají větší latence při komunikaci "uvnitř" chipu, takže monolit je vždy mnohem efektivnější.
Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?
+1
0
-1
Je komentář přínosný?
""""Intelu byl dost citelný
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 10:58https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse""""Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.""""
no... Odpověděl sis sám. Chiplety prostě mají větší latence při komunikaci "uvnitř" chipu, takže monolit je vždy mnohem efektivnější.
Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528904
+
Tak nejspíš ze stejného důvodu proč už to nepoužívá ani AMD, alespoň prozatím, dokud se to nějak nevyřeší, ono se to taky ani nikdy nepoužívalo na ty výpočetní části, rozdělila se jen paměť.
+1
0
-1
Je komentář přínosný?
Tak nejspíš ze stejného
Mike123 https://diit.cz/profil/hrhkguapuh
10. 2. 2026 - 11:30https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak nejspíš ze stejného důvodu proč už to nepoužívá ani AMD, alespoň prozatím, dokud se to nějak nevyřeší, ono se to taky ani nikdy nepoužívalo na ty výpočetní části, rozdělila se jen paměť.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528908
+
Pokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
A Radeony 7800XT/7900XT/XTX, to je co? To má chiplety.
Patrně myslíš že to AMD nepoužívá u RX9xxx.
ANO, a možná i proto 9070XT občas sundá tu mnohem větší XTX i v rastru.
Protože RX9xxx prostě funguje jak má.
+1
0
-1
Je komentář přínosný?
Pokud vím, AMD používá na
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 11:38https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusePokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
A Radeony 7800XT/7900XT/XTX, to je co? To má chiplety.
Patrně myslíš že to AMD nepoužívá u RX9xxx.
ANO, a možná i proto 9070XT občas sundá tu mnohem větší XTX i v rastru.
Protože RX9xxx prostě funguje jak má.
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528909
+
Jenže nejsou 2 výpočetní GCD chiplety, není to kompletní chipletových design, v podstatě to je furt tradiční GPU, nic zas tak zvláštního, kdyby použili to co používají pro ty výpočetní GPU, kde máš i ty výpočetní chiplety, a snažili by se z toho udělat herní GPU, nejspíš by to byl pořádný průser a kdo ví jakej bazmek by z toho vzešel, latence mezi chiplety jsou velmi vysoké (na herní GPU), to by se hrám rozhodně moc nezamlouvalo.
A nevím co máš s CCX, už je to dávno pouze po 1 v 1 chipletu, čili to už nemůže dělat problém a 1 chiplet nebo ten blok má po 8 jádrech. Předtím to bylo spíš 4+4, protože jsi sice měl 8 jader, ale bylo to právě ve 2 blocích, což bylo pro hry prostě brzdou.
//Teď koukám, že jsem to napsal blbě, 1 chiplet byl vždy s 8 jádry, ale bylo to spíš (4+4)+(4+4), pokud tam byly ty 2, tak jsem to myslel, teď už to máš prostě 8+8.
+1
0
-1
Je komentář přínosný?
Jenže nejsou 2 výpočetní GCD
Mike123 https://diit.cz/profil/hrhkguapuh
10. 2. 2026 - 15:14https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJenže nejsou 2 výpočetní GCD chiplety, není to kompletní chipletových design, v podstatě to je furt tradiční GPU, nic zas tak zvláštního, kdyby použili to co používají pro ty výpočetní GPU, kde máš i ty výpočetní chiplety, a snažili by se z toho udělat herní GPU, nejspíš by to byl pořádný průser a kdo ví jakej bazmek by z toho vzešel, latence mezi chiplety jsou velmi vysoké (na herní GPU), to by se hrám rozhodně moc nezamlouvalo.
A nevím co máš s CCX, už je to dávno pouze po 1 v 1 chipletu, čili to už nemůže dělat problém a 1 chiplet nebo ten blok má po 8 jádrech. Předtím to bylo spíš 4+4, protože jsi sice měl 8 jader, ale bylo to právě ve 2 blocích, což bylo pro hry prostě brzdou.
//Teď koukám, že jsem to napsal blbě, 1 chiplet byl vždy s 8 jádry, ale bylo to spíš (4+4)+(4+4), pokud tam byly ty 2, tak jsem to myslel, teď už to máš prostě 8+8.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528920
+
Ano já mluvím obecně o 2xCCX CPU. Kdysi bylo i to na hry běžné, protože chyběly jádra (2700x, 3700x).
Dnes si můžeš pořídit 9950x a taky to bude ve hrách pomalé, respektive vůčí 1xCCX osmijádru to nic nepřinese.
I když pravda, dneska už to asi umí všechny vlákna hry vynutit z jediné dlaždice a nedochází k propadu výkonu z důvodu pomalé komunkace mezi CCX jako tomu bylo u třeba 2700x
+1
0
-1
Je komentář přínosný?
Ano já mluvím obecně o 2xCCX
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 17:06https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseAno já mluvím obecně o 2xCCX CPU. Kdysi bylo i to na hry běžné, protože chyběly jádra (2700x, 3700x).
Dnes si můžeš pořídit 9950x a taky to bude ve hrách pomalé, respektive vůčí 1xCCX osmijádru to nic nepřinese.
I když pravda, dneska už to asi umí všechny vlákna hry vynutit z jediné dlaždice a nedochází k propadu výkonu z důvodu pomalé komunkace mezi CCX jako tomu bylo u třeba 2700x https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528926
+
Tak dokud si to nespojili, tak se na Intel prostě moc nechytaly, aspoň na tu vyšší třídu, kde to Intelu prostě líp škálovalo, to až od Zen3 se to změnilo a od té doby se to taky otočilo a teď už náskok jen zvyšují, zatímco se Intel plácá na místě a není schopný vydat po Alder Lake žádnou novou pořádnou architekturu, která by to herně zas trochu nakopla a poslala znovu aspoň na úroveň špičkových Ryzenů. Hlavně předtím byl Ryzen i dost citlivější na RAM, snad ještě víc než Intel a musel jsi kupovat dost rychlé, abys neztrácel ještě víc, to nebylo moc dobrý, když jsi ještě i tak pozadu, i v tomto už ale dávno proběhla pěkná otočka o 360, hlavně v případě V-Cache.
+1
0
-1
Je komentář přínosný?
Tak dokud si to nespojili,
Mike123 https://diit.cz/profil/hrhkguapuh
10. 2. 2026 - 19:23https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak dokud si to nespojili, tak se na Intel prostě moc nechytaly, aspoň na tu vyšší třídu, kde to Intelu prostě líp škálovalo, to až od Zen3 se to změnilo a od té doby se to taky otočilo a teď už náskok jen zvyšují, zatímco se Intel plácá na místě a není schopný vydat po Alder Lake žádnou novou pořádnou architekturu, která by to herně zas trochu nakopla a poslala znovu aspoň na úroveň špičkových Ryzenů. Hlavně předtím byl Ryzen i dost citlivější na RAM, snad ještě víc než Intel a musel jsi kupovat dost rychlé, abys neztrácel ještě víc, to nebylo moc dobrý, když jsi ještě i tak pozadu, i v tomto už ale dávno proběhla pěkná otočka o 360, hlavně v případě V-Cache.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528929
+
>> Pokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
Nevíš.
2 CCX byly u Zen, Zen+, Zen2 a pak u mobilních (zatím) s mixem velkých a condensed jader.
Zen3, Zen4, Zen5, které nemixují jádra mají v čipletu jedno CCX. Pokud mají 12/16 jader .. tak mají 2 CCD.
Měl bys méně psát a více číst.
Ať se zas neblamuješ jako s 386SX/386DX a 486SX/486DX.
Nebo teď s CCX.
+1
0
-1
Je komentář přínosný?
>> Pokud vím, AMD používá na
melkor https://diit.cz/profil/valter-mayer
10. 2. 2026 - 22:29https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse>> Pokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
Nevíš.
2 CCX byly u Zen, Zen+, Zen2 a pak u mobilních (zatím) s mixem velkých a condensed jader.
Zen3, Zen4, Zen5, které nemixují jádra mají v čipletu jedno CCX. Pokud mají 12/16 jader .. tak mají 2 CCD.
Měl bys méně psát a více číst.
Ať se zas neblamuješ jako s 386SX/386DX a 486SX/486DX.
Nebo teď s CCX.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528941
+
To už by se konečně mělo změnit se Zen6, má už přinést 12 jader v jednom tom bloku, takže konečně bude mít nějakej smysl mít aspoň i to 12jádro, v kombinaci s tím jak to zvedne ST by jsme se mohli dostat na celkem zajímavý výkon ve hrách, ale asi to bude dražší a samozřejmě to pak ještě chce ideálně počkat na V-Cache.
Spíš je ale otázka, zda k tomu budou dost výkonné GPU, abys to vůbec využil, spíš toto asi bude problém, že se ti to bude flákat, asi nebudeš hrát s 5080 na fullHD aby sis mohl koupit nějaký Zen6X3D a „smysluplně“ ho využít a 6080 tě už asi taky moc nevytrhne podle všeho. xx90 už záměrně ani nezmiňuji, protože GPU za 2k$ si na hry stejně prakticky nikdo nekoupí, jestli vůbec v nejbližší době bude, už se zmiňuje, že bude akorát nějaká 5090 Ti, takže to už může být taky jen nějakých 10% výkonu, čili nic moc přelomového zatím asi není na obzoru a asi ani dlouho nebude a na current gen zatím bohatě stačí snad i 7800X3D, řekl bych, že CPU výkon už začíná být dost popředu.
+1
0
-1
Je komentář přínosný?
To už by se konečně mělo
Mike123 https://diit.cz/profil/hrhkguapuh
10. 2. 2026 - 23:03https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTo už by se konečně mělo změnit se Zen6, má už přinést 12 jader v jednom tom bloku, takže konečně bude mít nějakej smysl mít aspoň i to 12jádro, v kombinaci s tím jak to zvedne ST by jsme se mohli dostat na celkem zajímavý výkon ve hrách, ale asi to bude dražší a samozřejmě to pak ještě chce ideálně počkat na V-Cache.
Spíš je ale otázka, zda k tomu budou dost výkonné GPU, abys to vůbec využil, spíš toto asi bude problém, že se ti to bude flákat, asi nebudeš hrát s 5080 na fullHD aby sis mohl koupit nějaký Zen6X3D a „smysluplně“ ho využít a 6080 tě už asi taky moc nevytrhne podle všeho. xx90 už záměrně ani nezmiňuji, protože GPU za 2k$ si na hry stejně prakticky nikdo nekoupí, jestli vůbec v nejbližší době bude, už se zmiňuje, že bude akorát nějaká 5090 Ti, takže to už může být taky jen nějakých 10% výkonu, čili nic moc přelomového zatím asi není na obzoru a asi ani dlouho nebude a na current gen zatím bohatě stačí snad i 7800X3D, řekl bych, že CPU výkon už začíná být dost popředu.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528942
+
Nikdo netvrdí, že CPU nejsou už dnes dost výkonné na cokoli..
Možná pár divočáků co hraje na 350fps.
A to, že se CPU fláká není na škodu, grafika je rovnoměrně zásobovaná a to je správně.
Mám jedno PC, kde je slabý CPU a není to vždy příjemné, dělá to občas slušné dropy.
Ale původní debata byla o čipletech na grafice respektive o jejich (ne)efektivitě vůči monolitu.
+1
0
-1
Je komentář přínosný?
Nikdo netvrdí, že CPU nejsou
FrankHorigan https://diit.cz/profil/dave-1
11. 2. 2026 - 09:57https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNikdo netvrdí, že CPU nejsou už dnes dost výkonné na cokoli..
Možná pár divočáků co hraje na 350fps.
A to, že se CPU fláká není na škodu, grafika je rovnoměrně zásobovaná a to je správně.
Mám jedno PC, kde je slabý CPU a není to vždy příjemné, dělá to občas slušné dropy.
Ale původní debata byla o čipletech na grafice respektive o jejich (ne)efektivitě vůči monolitu.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528968
+
Tak někdo právě kvůli vysokým FPS tyhle procesory využije a věc druhá - není lepší mít rychlý procesor + rychlé RAM kvůli 1% a 0,1% low ve hrách?
Jinak třeba se stane zázrak a AMD doručí něco o výkonu mezi 6080 a 6090 třeba mezi 40 a 50k :) Pokud by to bylo výkonnostně nedaleko od 6090 ale cenově ano, tak je to jasná volba (alespoň pro mě :D)
+1
0
-1
Je komentář přínosný?
Tak někdo právě kvůli vysokým
ST33L https://diit.cz/profil/filip-holan
11. 2. 2026 - 11:29https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak někdo právě kvůli vysokým FPS tyhle procesory využije a věc druhá - není lepší mít rychlý procesor + rychlé RAM kvůli 1% a 0,1% low ve hrách?
Jinak třeba se stane zázrak a AMD doručí něco o výkonu mezi 6080 a 6090 třeba mezi 40 a 50k :) Pokud by to bylo výkonnostně nedaleko od 6090 ale cenově ano, tak je to jasná volba (alespoň pro mě :D)https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528989
+
Nějak nevidím ten problém, pořád platí, že musíš hrát na fullHD, aby to udělalo nějaký rozdíl a abys to využil, musel bys mít aspoň něco kolem 5090, ale pochybuju, že něco takového vydají, budem rádi, když 6080 konečně dorovná aspoň 4090.
+1
0
-1
Je komentář přínosný?
https://www.techpowerup.com
Mike123 https://diit.cz/profil/hrhkguapuh
11. 2. 2026 - 16:04https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusehttps://www.techpowerup.com/review/amd-ryzen-7-9850x3d/21.html
Nějak nevidím ten problém, pořád platí, že musíš hrát na fullHD, aby to udělalo nějaký rozdíl a abys to využil, musel bys mít aspoň něco kolem 5090, ale pochybuju, že něco takového vydají, budem rádi, když 6080 konečně dorovná aspoň 4090. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1529013
+
Upřímně jsem zvědav, jak se k tomu nV i AMDpostaví.
+1
0
-1
Je komentář přínosný?
Upřímně jsem zvědav, jak se k
ST33L https://diit.cz/profil/filip-holan
11. 2. 2026 - 16:33https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseUpřímně jsem zvědav, jak se k tomu nV i AMDpostaví. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1529015
+
11. 2. 2026 - 09:46https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJop, tedy díky za info..https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528966
+
>> Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?
Předvedli, že jim to zas tak moc dobře nefunguje.
+1
0
-1
Je komentář přínosný?
>> Nebo proč myslíš že Nvidia
melkor https://diit.cz/profil/valter-mayer
10. 2. 2026 - 22:23https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse>> Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?
Předvedli, že jim to zas tak moc dobře nefunguje.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528940
+
No nefunguje, proto je 5090 monolit.
O tom se tu celou dobu bavíme mlho, že chiplet není vždy úplně žůžový..
(Arrow / RDNA3)
+1
0
-1
Je komentář přínosný?
No nefunguje, proto je 5090
FrankHorigan https://diit.cz/profil/dave-1
11. 2. 2026 - 12:32https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNo nefunguje, proto je 5090 monolit.
O tom se tu celou dobu bavíme mlho, že chiplet není vždy úplně žůžový..
(Arrow / RDNA3)https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528995
+
Popravdě nevím co tím vlastně chtěl vyjádřit.
No je to jak to říkáš, a říkám i já.
HW vývoj je prakticky u konce, nebo za stávajících okolností alespoň ve slepé ulici.
Ale ptám se, JE to problém???
Za předpokladu, že řeším HE jen jako nástroj a to, co na tom HW dělám je teprve to, co mně baví, tak nevidím žádný problém :)
+1
0
-1
Je komentář přínosný?
Popravdě nevím co tím vlastně
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 22:26https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusePopravdě nevím co tím vlastně chtěl vyjádřit.
No je to jak to říkáš, a říkám i já.
HW vývoj je prakticky u konce, nebo za stávajících okolností alespoň ve slepé ulici.
Ale ptám se, JE to problém???
Za předpokladu, že řeším HE jen jako nástroj a to, co na tom HW dělám je teprve to, co mně baví, tak nevidím žádný problém :) https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528865
+
Podle DigiTimes bude NVidia své GPU vyrábět částečně u Intelu. Takže zpřesňuji vydání nových grafik na 2035. :-)
+1
-1
-1
Je komentář přínosný?
Podle DigiTimes bude NVidia
RedMaX https://diit.cz/profil/redmarx
9. 2. 2026 - 12:53https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusePodle DigiTimes bude NVidia své GPU vyrábět částečně u Intelu. Takže zpřesňuji vydání nových grafik na 2035. :-)https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528829
+
No já myslím že ještě budeš za Intel rád...
Poslední proces mají z roku 2021 a se jim podaří rozjet cokoli, budou zasekaní jako TSMC, která je v podstatě na roky vyprodaná komplet.
+1
-2
-1
Je komentář přínosný?
No já myslím že ještě budeš
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 13:10https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNo já myslím že ještě budeš za Intel rád...
Poslední proces mají z roku 2021 a se jim podaří rozjet cokoli, budou zasekaní jako TSMC, která je v podstatě na roky vyprodaná komplet.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528834
+
Pišeš to ako žart, ale skusenosti s Intelom už tak vtipne to nie je :D
Najvtipnejšie je na tom že Nvidia sa stal najvačši odberatel kremika u TSMC, ale pre hračov prd :D
+1
-3
-1
Je komentář přínosný?
Pišeš to ako žart, ale
snajprik https://diit.cz/profil/snajprik-snajprik
9. 2. 2026 - 13:25https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusePišeš to ako žart, ale skusenosti s Intelom už tak vtipne to nie je :D
Najvtipnejšie je na tom že Nvidia sa stal najvačši odberatel kremika u TSMC, ale pre hračov prd :Dhttps://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528837
+
Heh nazov mal znieť vyserie sa Nvidia na hračov? :D
+1
+2
-1
Je komentář přínosný?
Heh nazov mal znieť vyserie
snajprik https://diit.cz/profil/snajprik-snajprik
9. 2. 2026 - 13:24https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseHeh nazov mal znieť vyserie sa Nvidia na hračov? :Dhttps://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528836
+
Nvidia nikdy s hráčema nekamarádila, nikdy nestála u jejich přízeň. Prostě tam kdysi byly prachy.
Dneska jsou 10x!!! větší prachy jinde, takže se dá předpokládat, že tenhle pidi rybníček už je udržují z principu, aby si to “zadarmo” neobsadila konkurence
+1
0
-1
Je komentář přínosný?
Nvidia nikdy s hráčema
FrankHorigan https://diit.cz/profil/dave-1
9. 2. 2026 - 16:12https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNvidia nikdy s hráčema nekamarádila, nikdy nestála u jejich přízeň. Prostě tam kdysi byly prachy.
Dneska jsou 10x!!! větší prachy jinde, takže se dá předpokládat, že tenhle pidi rybníček už je udržují z principu, aby si to “zadarmo” neobsadila konkurencehttps://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528852
+
9. 2. 2026 - 21:18https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJj, už se vyjádřila. https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528862
+
NVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. Přestala se o ně zajímat až ve chvíli, kdy se stala spekulativní firmou, kde už o vývoj vlastně ani nejde a jde tu především o cenu akcií, která se dá navyšovat pomocí marketingu. Takže NVidia naskakuje na různá populární témata, která jí to zvýšení tu spekulaci umožní. Nejdřív to byl bitcoin, teď je to AI. Příště to bude něco dalšího.
+1
0
-1
Je komentář přínosný?
NVidia by bez hráčů vůbec
RedMaX https://diit.cz/profil/redmarx
10. 2. 2026 - 07:44https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseNVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. Přestala se o ně zajímat až ve chvíli, kdy se stala spekulativní firmou, kde už o vývoj vlastně ani nejde a jde tu především o cenu akcií, která se dá navyšovat pomocí marketingu. Takže NVidia naskakuje na různá populární témata, která jí to zvýšení tu spekulaci umožní. Nejdřív to byl bitcoin, teď je to AI. Příště to bude něco dalšího.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528877
+
"""NVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. """
No nene, fakt.? Já to vím, ale dnes je dnes a ty mluvíš jen v minulém čase.
Pořád to bereš jako rockovou kapelu se kterou jsi vyrůstal a která by ti měla být za něco vděčná.
Nv prostě vyrostla na hráčích, ale dnes je má 10x výnosnější job.
Hráče zásobuje jen tak akorát... :) Aby se AMD moc nedostala ke korytu.
+1
0
-1
Je komentář přínosný?
"""NVidia by bez hráčů vůbec
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 08:29https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse"""NVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. """
No nene, fakt.? Já to vím, ale dnes je dnes a ty mluvíš jen v minulém čase.
Pořád to bereš jako rockovou kapelu se kterou jsi vyrůstal a která by ti měla být za něco vděčná.
Nv prostě vyrostla na hráčích, ale dnes je má 10x výnosnější job.
Hráče zásobuje jen tak akorát... :) Aby se AMD moc nedostala ke korytu.
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528882
+
Jaký stabilní job má NVidia?
Za stabilní nepovažuju bitcoin, který byl chvíli in a teď už po něm neštěkne pes. AI je tu chvíli, NVidia na něm teď jede, ale uvidíme, jestli to nebude jako s bitcoinem.
+1
0
-1
Je komentář přínosný?
Jaký stabilní job má NVidia?
RedMaX https://diit.cz/profil/redmarx
10. 2. 2026 - 09:21https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseJaký stabilní job má NVidia?
Za stabilní nepovažuju bitcoin, který byl chvíli in a teď už po něm neštěkne pes. AI je tu chvíli, NVidia na něm teď jede, ale uvidíme, jestli to nebude jako s bitcoinem.https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528890
+
Tak AI přeci.. :)
Nebo myslíš že ty H100 a další desky za statisíce co je kupují pánové Bezos a Cukíberg po statisících je co? Si myslíš, že teď do toho ti dva cpou biliony a za dva roky po tom neštěkne pes?
Údajně je příjem Nvidie z klasických grafik pod 10%.
Kdyby nejednou AI jakoby zmizela a Meta+Amazon+MS+Alphabet by asi zkrachovaly,...
Myslíš, Že by se Nvidia pokorně smrskla na desetinu dnešní hodnoty a koženka by obcházel ComicCony s GeForckou v ruce a pochleboval nerdům aby si to od něj koupili??
Neblázni šefe. Tohle už se nikdy nestane. Nvidia GeForcky prodává prostě ze setrvačnosti aby neuvolňovala prostor někomu jinému. jinak je to pro ně okrajový produkt.
+1
0
-1
Je komentář přínosný?
Tak AI přeci.. :)
FrankHorigan https://diit.cz/profil/dave-1
10. 2. 2026 - 11:07https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuseTak AI přeci.. :)
Nebo myslíš že ty H100 a další desky za statisíce co je kupují pánové Bezos a Cukíberg po statisících je co? Si myslíš, že teď do toho ti dva cpou biliony a za dva roky po tom neštěkne pes?
Údajně je příjem Nvidie z klasických grafik pod 10%.
Kdyby nejednou AI jakoby zmizela a Meta+Amazon+MS+Alphabet by asi zkrachovaly,...
Myslíš, Že by se Nvidia pokorně smrskla na desetinu dnešní hodnoty a koženka by obcházel ComicCony s GeForckou v ruce a pochleboval nerdům aby si to od něj koupili??
Neblázni šefe. Tohle už se nikdy nestane. Nvidia GeForcky prodává prostě ze setrvačnosti aby neuvolňovala prostor někomu jinému. jinak je to pro ně okrajový produkt.
https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskuse#comment-1528905
+
Diskuse k Odkládá se GeForce RTX 6000 na rok 2028?https://diit.cz/clanek/odklada-se-geforce-rtx-6000-na-rok-2028/diskusehttps://diit.cz/sites/default/files/diit-logo.png
Podle mě jsou obě možnosti stále otevřené, buď vyjdou RTX 6000 v roce 2029 nebo vyjdou už příští rok s kapacitou pamětí 6 a 8 GB, takže tradičně na hovno.
rtx 6000 bylo možno pořídit už v roce 2025.
Pouze ty herní rtx 60xx se odkládají.
PS:
nVidia dělá tento chaos v označování "profi" karet už nějakou generaci.
Nám nezbývá než vymezit o jaké části výrobků se budeme bavit.
"""Odkládá se GeForce RTX 6000 na rok 2028?"""
Ano odkládá, a není vůbec jisté, jestli na začátek nebo konec toho roku :¨)
S tím, že s velkým časovým odstupem pak dorazí karty "pro lidi" jako jsou 6060 a 6070.
Cokoli na tím bude opravdu velmi drahé.
Tam hrozí ještě to, že tyhle karty budou na PCIe6 a NVidia tradičně vychcaně nahodí, kde to bude možné, menší počet linek a teda taková karta ve starém PC bude mít degradaci výkonu, takže kupovat novou desku a procesor, prostě na hovno.
Tak je jasné, že ty nižší karty budou osmilinkové..
Ale pokud se nepletu i 8linková karta v PCIE5 desce = plná karta na PCIE4, třeba AdaLovelace.
Kde je problém?
Tím že někdo přijde s rychlejší sběrnicí neznamená, že ta stávající zpomalí :)
Ta zůstane tak jak je.
A plná PCIE4 je asi ok ne?
v sucasnosti ziaden problem, len nevieme aky skvely bude dalsi Unreal engine, a ake prostriedky zozerie, okrem travy pri ceste
Nesváděj to na UE, zahrej si ArcRaiders, kromě toho že změníš názor na UE, je to i velmi povedené po stránce herní.
UE má hodně vysoké nároky, katastrofální optimalizaci a pracuj se s ním blbě. Nic lepšího nemáme, to je jediný důvod, proč o tom všichni mlčí.
Arc Raiders je jednoduchá hra.
1) Ano nic lepšího nemáme, doslova. Já jako "spotřebitel" vidím "Clair Obscur: Expedition 33", "SplitFiction", "Grounded2" a čumim s otevřenou tlamou.. Pokud máš s UE5 problém ty jako (asi) vývojář, tak to je myslím tvůj problém.
2) Arc je jednoduchá hra. Jak kdysi pravila reklama jednoho Německého výrobce.. "Geniálně jednoduché, jednoduše Geniální !!" A to je přesně ArcRaiders.
3) Napiš si svůj engine jak v devadesátkách a jeď bomby. Za 10let vykouzlíš desetinu UE5.
Grounded 2 bych z toho seznamu vyškrtnul.
To, co předvádí a jak to předvádí, by dalo i Unity.
Mluvím o PCIe3.
Jakože kartu vyrobenou v roce 2028 dáš do PCIE3 desky?
No tak to už je prekérka..
Ale to je jako bys dnešní RTX4060 cpal do desky s PéČtyřkou.
Nevím, pokud si budeš držet PCIE3 desku za 3roky, ale tam dej "plnotučnou" kartu z bazaru.
Procesory běžící na deskách s PCIe3 v pohodě utáhnou mainstream RTX 5000 a velmi pravděpodobně dají na pohodu i RTX 6000, jediný problém bude právě v počtu linek, které omezí výkon.
Jo jasně, je změřeno, že pokud ti nedojde VRAM, stačí ti i PCIEgen2..
Ale nejslabší karty budou mít 8linek určitě.
>> Ale nejslabší karty budou mít 8linek určitě.
Jen do té doby, než někoho napadne ušetřit pár centů a dát tam jen 4.
„Web The Information přišel s (placeným) článkem“
Není nad to si platit spekulativní premium články, které jsou navíc úplně mimo mísu, opravdu velmi užitečné informace v ceně zlata, kdy Nvidie možná vydá nějaké nové předražené grafiky, z toho si normálně nadělám do kalhot, potřebuju je HNED TEĎ!!!!
No s cenou zlata bych se moc neoháněl, za tu spekulace opravdu nestojí.
Nicméně když to vezmu obloukem, jsem docela zvědav o čem budou podobné weby sázet ty 2-3 "zprávy" týdně, když reálně karta vyleze za 500-700dní??
To bude docela šichta uspekulovat o čem ty karty asi budou :)))
A budou mít 30 nebo 40% výkonu navíc? Co myslíš?
30-40 možná akorát 6090 nad 5090, jinak bych množné číslo raději nepoužíval. To zas bude o 10% výkonnější, o 10% úspornější a o 30% dražší, dokud nebude mít AMD high end, na co to tak zvedat, to zas bude rozdíl mezi 6080 a 6090 takových 70-80% třeba.
Tak srovnávej totožné řady, takže opravdu xx90 s xx90...
1) Máme 2nm, to je posun, při nechutné spotřebě u 6090 ten výkon naroste klidně zase o 30-45% proti 5090.
2) O 30% dražší než teď 5090 to bude rozhodně, na eBay i víc.
3) AMD bude mít zase co má dnes, vyšší mainstream (ne že by to na cokoli nestačilo), takže NV bude brát v potaz konkurenci u těch řad do xx70 a xx80/90 si pojede sólo.
Výkonem a i cenama.
Nicméně dávno již lze vysledovat, že NV nikam ten hrubý výkon tlačit nehodlá.. Kromě přírůstku pár procent/rok za ohromnou cenu totiž už není kam.
Ano a kolik to bude mít spotřebu 1 kW? Při totožné spotřebě tam bude prd rozdíl, ten nový proces oproti tomu starýmu už není nijak kulervoucí, aby to dělalo nějaké divy, oba jsou špičkové a už to není moc kam posouvat a už 5090 je totální monstrum, ani ten čip nemůžeš pořád zvětšovat do nekonečna, vše má své limity, to by muselo nastat nějaké velké překvapení, aby to dokázalo podstatně navýšit výkon bez toho, aniž by to žralo i trávu u cesty, nestálo jak pozlacený hajzl a zároveň to furt byl takovej trhač asfaltu, už se to žene do extrému, aby se dal za každou cenu prezentovat nějaký pokrok.
Klasický high end máš xx80, to už je prostě strop a takové rozumné maximum, co si ještě dokážu představit v běžném herním PC, xx90 jsou totální hovada, co si na hry asi jen tak někdo nepořídí, hlavně to není moc user friendly, fakt si nedokážu představit provozovat takovej teplomet, to musí být slušný vysavač.
“””Ano a kolik to bude mít spotřebu 1 kW”””
Při stejné spotřebě jako 5090 to na novém procesu udělá cca 30-35% větší výkon. Aby to nebyla taková nuda, naloží tomu něco navíc (650W), ale ne zase moc, protože AMD je daleko (není důvod to rvát).
Prostě ber to tak, po hardwarové stránce už není kam co zvětšovat, vylepšovat. Je to je o ovladačích fičurách.
Každý to pobere v různou dobu, ale přijdou na to časem všichni.
To, co začalo před 30roky s 3Dfx a Rivou je definitivně u konce.
I ty hry vypadají tak, že 15let staré animáky z Pixaru mohou jít na párek.
Nevím co k tomu ještě dodat :)
Jenže co z toho udělá jen to, že se opět akorát zvýší parametry a co z toho udělá jen výrobní proces, už to není obrovský rozdíl jak když se přecházelo ze Samsungu na TSMC, proto si osobně úplně nemyslím, že to udělá tak velký rozdíl jako třeba ta 4090, kdes měl prostě velký rozdíl v efektivitě a 3090 ještě nebyla zas až takové monstrum, i 5090 pořád nejspíš přidala víc než kolik bude schopna 6090, pořád bylo celkem dost prostoru pro zvětšení specifikací a spotřeby, ale už i toto nebylo zas takové terno a 6090 už zas bude o něco blíž tomu limitu, už 5090 je taková 4090 na steroidech a už tam nemáš moc kompromisů, 5090 je taková 4090 Ti a 6090 už asi bude jenom něco jako 4090 Ti Super, už rozdíl mezi 5090 a 4090 činil jen nějakých 30%, nevím kde by se to znovu vzalo u 6090, podle mě je i těch 30% pořád dost optimistických.
No tak to se bavíme o scénáři, kdy by pouze přidávali jádra (CUDA,RT,..) a přešli na pokročilejší proces. Jako doufal bych, že za 4 (potažmo 6 let, když bereme řadu 4000) by mohli upgradnout i architekturu. Pak tu máme ještě možnost nědělat gigantický monolity, ale čiplety, ale někde jsem zachytil infromaci, že by se to mohlo týkat až řady přespříští (7000?).
Na architekturu už se dlouho moc nešáhlo tak, aby to nějak citelně pomohlo, spíš už se to akorát nafukuje, to je ten problém, jenže víc výpočetních jednotek znamená větší spotřeba, anebo bys to sice mohl hrát na efektivitu, jenže pořád ti kvůli tomu cena poleze do závratných výšin a to by se teprve nadávalo, sice by spotřeba mohla teoreticky klesat, jenže pokud by stagnoval výkon a akorát rostla cena, asi by to stejně nebylo příliš populární řešení.
A o chipletách už se taky spekuluje nějakou dobu, problém je, že by to furt neřešilo vysokou spotřebu, akorát by to mohlo snižovat cenu, jenže zprovoznit to pro herní účely bude asi docela oříšek
Čiplety už tady zkoušel 7900XTX a jak dopadl. Chipletový design je enormně drahý, složitý a velmi, velmi neefektivní. tím že máš víc "dlaždiček" spotřebováváš mraky křemíku, energie a i financí.
Ale díky větším latencím masivně klesá efektivita.
Je to taková vzdálená obdoba "duálních" karet jako HD6990 nebo ATI Rage Fury MAXX?.
nV myslím měla taky dualitu, ale rychle to nechala být.
Tak chiplety se jim určitě vyplatí, když to používají u CPU a i výpočetních GPU, teoreticky by se tím jednoduše dělaly ta herní monstra, protože už by se ti nemusel podařit vyrobit 1 obří čipy, ale stačily by 2 či 3 menší, akorát pro herní účely to je trochu složitější, právě ty latence jsou asi největší problém, ono to je vlastně stejný jak v případě CPU, tam taky dokud nedaly jádra do jednoho chipletu a nesjednotili cache, tak to ve hrách stejně dost pokulhávalo oproti jednotnému monolitu a něco podobného pak řešíš i u těch herních chipletových GPU.
Chiplety u RDNA3 jsou ještě dost vzdálené od toho konceptu, který se od toho čekal, počítalo se s tím, že tam budou 2 výpočetní chiplety, asi něco jako 2x N32 jako 1 čip, nakonec z toho sešlo, asi bude dost těžký to udělat tak, aby to pak ve hrách netrpělo na nějaký microstuttering kvůli pomalým přenosům mezi těmi chiplety a prostě na nestabilní výkon.
Obecně chiplety jsou fajn, pokud potřebuješ maximalizovat výpočetní výkon za co nejnižší cenu a nezáleží ti na těch latencích, ale používat to pro herní HW je prostě horší a takové zbytečně komplikované, Ryzeny už fungují dobře, protože v jednom chipletu už máš 8 jader s jednotnou L3 a navrch ještě ta V-Cache, otázka je, jestli se něco takového dá replikovat v případě GPU, to asi ukáže až čas.
Tak AMD už nějakou tu dobu používá u grafik Infinity Cache, takže se to replikovat dá, tedy minimálně ta společná cache.
čiplety na CPU se ti vyplatí pokud nehraješ, a přesně naopak pokud ano.
Ty by sis čistě na hraní koupil 2x CCD procesor?
Velmi snadný test lze udělat na třeba vs R5-3600X vs R7-3700X..
Ten rozdíl je minimální, přesto že hodně her využije i víc jader než 6.
Toto pořeší to nové propojení křemík-křemík. Následně by latence mezi více CPU čiplety měly být minimální.
"""Následně by latence mezi více CPU čiplety měly být minimální."""
Beru tě za slovo.
No právě proto říkám, že to chiplety dost brzdily do příchodu Zen3, byly přeci jen po 4 jádrech a na hry už bylo ideální aspoň těch 6, těch to sice mělo klidně i víc, ale jelikož už byly na jiném, tak ti ta jádra už stejně moc nepomohla a prakticky to bylo furt jen jako 4jádro, stačilo to srovnat s tehdejšími Intely, 4ádra třeba byla srovnatelnáy, ale na 6jádra to už ztrácelo, u Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.
""""Intelu byl dost citelný nárůst výkonu, na který se už Ryzen nechytal, ty latence to prostě dost degradovaly a moc dobře ten výkon neškáloval.""""
no... Odpověděl sis sám. Chiplety prostě mají větší latence při komunikaci "uvnitř" chipu, takže monolit je vždy mnohem efektivnější.
Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?
Tak nejspíš ze stejného důvodu proč už to nepoužívá ani AMD, alespoň prozatím, dokud se to nějak nevyřeší, ono se to taky ani nikdy nepoužívalo na ty výpočetní části, rozdělila se jen paměť.
Pokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
A Radeony 7800XT/7900XT/XTX, to je co? To má chiplety.
Patrně myslíš že to AMD nepoužívá u RX9xxx.
ANO, a možná i proto 9070XT občas sundá tu mnohem větší XTX i v rastru.
Protože RX9xxx prostě funguje jak má.
Jenže nejsou 2 výpočetní GCD chiplety, není to kompletní chipletových design, v podstatě to je furt tradiční GPU, nic zas tak zvláštního, kdyby použili to co používají pro ty výpočetní GPU, kde máš i ty výpočetní chiplety, a snažili by se z toho udělat herní GPU, nejspíš by to byl pořádný průser a kdo ví jakej bazmek by z toho vzešel, latence mezi chiplety jsou velmi vysoké (na herní GPU), to by se hrám rozhodně moc nezamlouvalo.
A nevím co máš s CCX, už je to dávno pouze po 1 v 1 chipletu, čili to už nemůže dělat problém a 1 chiplet nebo ten blok má po 8 jádrech. Předtím to bylo spíš 4+4, protože jsi sice měl 8 jader, ale bylo to právě ve 2 blocích, což bylo pro hry prostě brzdou.
//Teď koukám, že jsem to napsal blbě, 1 chiplet byl vždy s 8 jádry, ale bylo to spíš (4+4)+(4+4), pokud tam byly ty 2, tak jsem to myslel, teď už to máš prostě 8+8.
Ano já mluvím obecně o 2xCCX CPU. Kdysi bylo i to na hry běžné, protože chyběly jádra (2700x, 3700x).
Dnes si můžeš pořídit 9950x a taky to bude ve hrách pomalé, respektive vůčí 1xCCX osmijádru to nic nepřinese.
I když pravda, dneska už to asi umí všechny vlákna hry vynutit z jediné dlaždice a nedochází k propadu výkonu z důvodu pomalé komunkace mezi CCX jako tomu bylo u třeba 2700x
Tak dokud si to nespojili, tak se na Intel prostě moc nechytaly, aspoň na tu vyšší třídu, kde to Intelu prostě líp škálovalo, to až od Zen3 se to změnilo a od té doby se to taky otočilo a teď už náskok jen zvyšují, zatímco se Intel plácá na místě a není schopný vydat po Alder Lake žádnou novou pořádnou architekturu, která by to herně zas trochu nakopla a poslala znovu aspoň na úroveň špičkových Ryzenů. Hlavně předtím byl Ryzen i dost citlivější na RAM, snad ještě víc než Intel a musel jsi kupovat dost rychlé, abys neztrácel ještě víc, to nebylo moc dobrý, když jsi ještě i tak pozadu, i v tomto už ale dávno proběhla pěkná otočka o 360, hlavně v případě V-Cache.
>> Pokud vím, AMD používá na procesorech 2xCCX, to jsou ty CPU co nechceš na hry.
Nevíš.
2 CCX byly u Zen, Zen+, Zen2 a pak u mobilních (zatím) s mixem velkých a condensed jader.
Zen3, Zen4, Zen5, které nemixují jádra mají v čipletu jedno CCX. Pokud mají 12/16 jader .. tak mají 2 CCD.
Měl bys méně psát a více číst.
Ať se zas neblamuješ jako s 386SX/386DX a 486SX/486DX.
Nebo teď s CCX.
To už by se konečně mělo změnit se Zen6, má už přinést 12 jader v jednom tom bloku, takže konečně bude mít nějakej smysl mít aspoň i to 12jádro, v kombinaci s tím jak to zvedne ST by jsme se mohli dostat na celkem zajímavý výkon ve hrách, ale asi to bude dražší a samozřejmě to pak ještě chce ideálně počkat na V-Cache.
Spíš je ale otázka, zda k tomu budou dost výkonné GPU, abys to vůbec využil, spíš toto asi bude problém, že se ti to bude flákat, asi nebudeš hrát s 5080 na fullHD aby sis mohl koupit nějaký Zen6X3D a „smysluplně“ ho využít a 6080 tě už asi taky moc nevytrhne podle všeho. xx90 už záměrně ani nezmiňuji, protože GPU za 2k$ si na hry stejně prakticky nikdo nekoupí, jestli vůbec v nejbližší době bude, už se zmiňuje, že bude akorát nějaká 5090 Ti, takže to už může být taky jen nějakých 10% výkonu, čili nic moc přelomového zatím asi není na obzoru a asi ani dlouho nebude a na current gen zatím bohatě stačí snad i 7800X3D, řekl bych, že CPU výkon už začíná být dost popředu.
Nikdo netvrdí, že CPU nejsou už dnes dost výkonné na cokoli..
Možná pár divočáků co hraje na 350fps.
A to, že se CPU fláká není na škodu, grafika je rovnoměrně zásobovaná a to je správně.
Mám jedno PC, kde je slabý CPU a není to vždy příjemné, dělá to občas slušné dropy.
Ale původní debata byla o čipletech na grafice respektive o jejich (ne)efektivitě vůči monolitu.
Tak někdo právě kvůli vysokým FPS tyhle procesory využije a věc druhá - není lepší mít rychlý procesor + rychlé RAM kvůli 1% a 0,1% low ve hrách?
Jinak třeba se stane zázrak a AMD doručí něco o výkonu mezi 6080 a 6090 třeba mezi 40 a 50k :) Pokud by to bylo výkonnostně nedaleko od 6090 ale cenově ano, tak je to jasná volba (alespoň pro mě :D)
https://www.techpowerup.com/review/amd-ryzen-7-9850x3d/21.html
Nějak nevidím ten problém, pořád platí, že musíš hrát na fullHD, aby to udělalo nějaký rozdíl a abys to využil, musel bys mít aspoň něco kolem 5090, ale pochybuju, že něco takového vydají, budem rádi, když 6080 konečně dorovná aspoň 4090.
Upřímně jsem zvědav, jak se k tomu nV i AMDpostaví.
Jop, tedy díky za info..
>> Nebo proč myslíš že Nvidia i u 5090 udělala monolit..?? Protože chiplet neumí?
Předvedli, že jim to zas tak moc dobře nefunguje.
No nefunguje, proto je 5090 monolit.
O tom se tu celou dobu bavíme mlho, že chiplet není vždy úplně žůžový..
(Arrow / RDNA3)
Popravdě nevím co tím vlastně chtěl vyjádřit.
No je to jak to říkáš, a říkám i já.
HW vývoj je prakticky u konce, nebo za stávajících okolností alespoň ve slepé ulici.
Ale ptám se, JE to problém???
Za předpokladu, že řeším HE jen jako nástroj a to, co na tom HW dělám je teprve to, co mně baví, tak nevidím žádný problém :)
Podle DigiTimes bude NVidia své GPU vyrábět částečně u Intelu. Takže zpřesňuji vydání nových grafik na 2035. :-)
No já myslím že ještě budeš za Intel rád...
Poslední proces mají z roku 2021 a se jim podaří rozjet cokoli, budou zasekaní jako TSMC, která je v podstatě na roky vyprodaná komplet.
Pišeš to ako žart, ale skusenosti s Intelom už tak vtipne to nie je :D
Najvtipnejšie je na tom že Nvidia sa stal najvačši odberatel kremika u TSMC, ale pre hračov prd :D
Heh nazov mal znieť vyserie sa Nvidia na hračov? :D
Nvidia nikdy s hráčema nekamarádila, nikdy nestála u jejich přízeň. Prostě tam kdysi byly prachy.
Dneska jsou 10x!!! větší prachy jinde, takže se dá předpokládat, že tenhle pidi rybníček už je udržují z principu, aby si to “zadarmo” neobsadila konkurence
Jj, už se vyjádřila.
NVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. Přestala se o ně zajímat až ve chvíli, kdy se stala spekulativní firmou, kde už o vývoj vlastně ani nejde a jde tu především o cenu akcií, která se dá navyšovat pomocí marketingu. Takže NVidia naskakuje na různá populární témata, která jí to zvýšení tu spekulaci umožní. Nejdřív to byl bitcoin, teď je to AI. Příště to bude něco dalšího.
"""NVidia by bez hráčů vůbec nebyla a na hráčích vyrostla. """
No nene, fakt.? Já to vím, ale dnes je dnes a ty mluvíš jen v minulém čase.
Pořád to bereš jako rockovou kapelu se kterou jsi vyrůstal a která by ti měla být za něco vděčná.
Nv prostě vyrostla na hráčích, ale dnes je má 10x výnosnější job.
Hráče zásobuje jen tak akorát... :) Aby se AMD moc nedostala ke korytu.
Jaký stabilní job má NVidia?
Za stabilní nepovažuju bitcoin, který byl chvíli in a teď už po něm neštěkne pes. AI je tu chvíli, NVidia na něm teď jede, ale uvidíme, jestli to nebude jako s bitcoinem.
Tak AI přeci.. :)
Nebo myslíš že ty H100 a další desky za statisíce co je kupují pánové Bezos a Cukíberg po statisících je co? Si myslíš, že teď do toho ti dva cpou biliony a za dva roky po tom neštěkne pes?
Údajně je příjem Nvidie z klasických grafik pod 10%.
Kdyby nejednou AI jakoby zmizela a Meta+Amazon+MS+Alphabet by asi zkrachovaly,...
Myslíš, Že by se Nvidia pokorně smrskla na desetinu dnešní hodnoty a koženka by obcházel ComicCony s GeForckou v ruce a pochleboval nerdům aby si to od něj koupili??
Neblázni šefe. Tohle už se nikdy nestane. Nvidia GeForcky prodává prostě ze setrvačnosti aby neuvolňovala prostor někomu jinému. jinak je to pro ně okrajový produkt.
.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.