Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k RDNA2 je Multi GHz architektura, tovární takty mohou překonat 2,5 GHz

Při čtení článku jsem si vzpomněl na dobu dávno minulou, kdy počítače měli ještě tlačítko turbo.

Přijde mi, že AMD u svých Grafik zrovna jedno takové tlačítko zmáčkla. :D

+1
0
-1
Je komentář přínosný?

Takhle ale Turbo nefungovalo :-) To jen přepínalo mezi nominální frekvencí CPU a sníženou kompatibilní pro 8088. Popisek toho tlačítka byl vždy nesmyslný, protože o žádné zvýšení výkonu se nekonalo, naopak, bylo určené ke snížení výkonu v případě potřeby (když starší SW běžel na novějších CPU příliš rychle). Kdyby tam nebylo, počítač by prostě běžel na své udané rychlosti. Spíš se mělo jmenovat něco jako Compatibility on/off, ale to by asi neznělo tak cool.

Dokonce některé počítače měly logiku ovládání otočenou, a když bylo Turbo zapnuto, tak paradoxně počítač běžel v pomalém módu.

+1
+7
-1
Je komentář přínosný?

Pamatuju si oboje na starších to přepínalo na pomalejší frekvenci (4,
77Mhz), kvůli kompatibilitě. ale na novějších to vážně přepínalo mezi nižší a vyšší hodnotou frekvence, která s kompatibilitou neměla nic společného (třeba já tam měl základ na 486 25Mhz a "turbo" 50Mhz (nepamatuji si, že by to někdy někdo přepl na tu pomalejší frekvenci). No a u některých to po zmáčknutí (kvůli nějaké chybě) spolehlivě vedlo k restartu počítače :0). Takt přepínala deska na základě zapojení toho přepínače a fungovalo to minimálně ještě u prvních pentií (pamatuju si že mi vadilo že nemuzu nastavit zobrazení víc jak 99Mhz). Časem lidi stejně zjistili že to nikdo nepotřebuje...

+1
0
-1
Je komentář přínosný?

Šlo tam nastavit i 1111 :-D
Ale taky si vzpomínám, že to bylo ještě u Pentia 120. Jelikož 120 tam nastavit nešlo, měl jsem tam „HI“ a „LO“.

+1
0
-1
Je komentář přínosný?

Díky za doplnění, touhle částí jsem si nebyl jistý, v té době jsem byl dost malý a počítačům jsem tenkrát ještě moc nerozuměl. :-) Nicméně prapůvodní určení je jasné, degradovat výkon PC AT na XT kvůli problémům s rychlostí některých programů. Název "Turbo" je tedy dosti zavádějící.

Proč vlastně měly pozdější PC možnost přepínat mezi frekvencemi, když už to nebylo z důvodu "XT" režimu? Nevím o tom, že bych to kdy viděl nekoho používat...

+1
0
-1
Je komentář přínosný?

Tak staré PC měla těch nepotřebných "fičur" více, například si pamatuji na zámek na klíč kterým se dal PC "zamčít" taky si nepamatuju že by to kdy někdo používal. :0) Ono je třeba si uvědomit že to pochází z dob, kdy pc byla celkem drahá záležitost a nebralo se často jako dnešní spotřebák..
Na druhou stranu dneska se dávají do PC i větší blbosti například jsem nikdy nepochopil naco mít barevně podsvícené paměti či grafiku :0)

+1
+1
-1
Je komentář přínosný?

Tlacitko turbo casto bylo jen tlacitko napojene na LCD na kterem bylo pomoci jumperu nastavene jake cislo ma ukazovat kdyz je tlacitko zapnute a jake ve vypnutem stavu :-)

+1
-14
-1
Je komentář přínosný?

Koukam spusta minuskujicich znalcu :D

+1
-9
-1
Je komentář přínosný?

"Tlacitko turbo casto bylo jen tlacitko napojene na LCD na kterem bylo pomoci jumperu nastavene jake cislo ma ukazovat kdyz je tlacitko zapnute a jake ve vypnutem stavu :-)"

Znalci musí upozornit, když neznalec píše hovadiny. Je to služba pro veřejnost. Nevím zda stavba několika set PC v 90. letech, kdy se toto tlačítku vyskytovalo nejčastěji, mne kvalifikuje do pozice znalce, ale s klidem mohu prohlásit, že LCD modul se zapojoval do základní desky, která na základě polohy "Turba" přepínala frevence na kterých běželo CPU. Nebylo důvodu jen naswitchovat zobrazovanou hodnotu a do desky to nezapojit. Samozřejmně se dělaly blbosti, že místo hodnot se nastavil např. monogram majitele nebo zaměstnance, nebo u vícesegmentových pak nápis STO místo hodnoty 100 atp.

+1
+9
-1
Je komentář přínosný?

Sam potrzujes ze to LCD byl nesmysl s nulovou hodnotou :D

+1
-6
-1
Je komentář přínosný?

NE! A ty ukazujes, ze neumis ani cist, takze znovu:

"která na základě polohy "Turba" přepínala frevence na kterých běželo CPU"

je v primem rozporu s tim, ze by to jen menilo cisilka ;)

+1
+5
-1
Je komentář přínosný?

Cist umim, ale nekdo tu nemysli. Rikam ze tlacitko ovlivnovalo primo hodnotu na LCD podle toho co bylo predem pomoci jumperu nastaveno ze se ma zobrazovat, tedy stav, ktery neodpovidal skutecnosti. A mozna mohla deska na to stisknuti reagovat, ale taky nemusela. Kazdopadne ten LCD tam byl jen pro efekt a nemel zadny vyznam. Ano mohla se vyskytovat vyjimka, kde to ukazovalo realitu, to nepopiram.

Ostatne ani stavove diody na klavesnici jako NumLock, CapsLock atd prekvapive realitu taky neukazuji.

+1
-3
-1
Je komentář přínosný?

Hádáte se hezky, akorát že to nebyl LCD, ale LED displej a to v naprosté většině případů, abych nevyloučil možnost, že nějaké LCD existovalo... já se s tím ale nesetkal.

+1
+1
-1
Je komentář přínosný?

Ja vim ... . Byla ruzna provedeni, asi jsem mel pouzit jen slovo displaj.

Ostatne ja nerikam ze tu jini nemaji pravdu, jen rikam, ze to neplatilo vzdy jak se tu mnozi snazi tvrdit.

+1
0
-1
Je komentář přínosný?

stejne si zo seba ukazal penisaka..

+1
0
-1
Je komentář přínosný?

Ono to tvrzení je svým způsobem pravda, ale chtělo to napsat takhle:

V pozdějších dobách, pokud byl novější počítač ve staré bedně, tlačítko Turbo nebylo připojené a (pochopitelně) nemělo žádný efekt.
I tak si ale člověk mohl něco nastavit na LCD na bedně, protože hodnota na LCD se nastavovala úplně nezávisle (tj. nezobrazoval se tam nějaký údaj získaný z desky, ale prostě to, co uživatel nastavil přímo na tom LCD).

+1
+2
-1
Je komentář přínosný?

Jedno z tehle tlačítek by se mi mělo válet ve skříni. Myslím že z nějakého socket 7 desktopu. Jedinné konektory byly molex a dvoupin pro desku. Na tistaku displeje byly dvě sady jumperu kterymi se nastavovat zobrazovány text. Tlačítko mělo dvě řady kontaktu. Jedna rada spinala dvoupin pro desku a druhá přepínala mezi sadami jumperu pro displej.

+1
0
-1
Je komentář přínosný?

"the motherboard has a turbo SW pin that I've connected from the case"

Paráda, hezky jste si sám vyvrátil vlastní tvrzení. ;)

+1
+5
-1
Je komentář přínosný?

Funguje i nezapojene do desky :-) Tj. nachazelo se i v sestavach kde to nebylo kam zapojit. Tam kde to slo ale se jednalo jen o signalo stisknuti ti. neprenasel se zadny jiny stav jako treba hodnota. Casto ani neslouzilo ke zmene frekvence, ale treba k vypnuti koprocesoru.

+1
-6
-1
Je komentář přínosný?

Jumbik vzpomínal na dobu, kdy počítače měly tlačítko turbo.
Tím se dalo přepnout do stavu, kdy procesor běžel na 4,77 MHz jako IBM PC XT.
Věřím tomu, že někteří admini toto tlačítko raději od mainboardu odpojili, aby si uživatel nezpomalil počítač. Nicméně to jsou vcelku specifické případy, které netřeba připomínat, poněvadž k Jumbikově myšlence to nemá žádný vztah..

+1
+5
-1
Je komentář přínosný?

Puvodni myslenka tlacitka turba je jasna, ale nelze tvrdit ze obecne platilo prepnuti do uvadeneho stavu.

Co se tyce turba na VGA, jak uz tu bylo poznameno maji nektere HW grafiky prepinac biosu. Taktez je dost bezne ze obsluzny sw ke grafickym kartam ma nekolik vykonostnich profilu + moznost custom nastaveni. Docela rozdil od tupeho tlacitka u ktereho sedalo hadat co vlastne provede bez precteni dokumentace k danemu HW.

+1
-3
-1
Je komentář přínosný?

Pletete si dojmy a pojmy.

Da se naprosto s prehledem tvrdit, ze "obecne platilo pravidlo prepnuti".
Naopak se neda tvrdit, ze "VZDY platilo pravidlo..."

+1
0
-1
Je komentář přínosný?

VZDY ... tu je nekdo verici jinak si to nedokazu vysvetlit. Vzdy je 100% a platnost tak lze napadnout i jedinym pripadem

V prvnim prispevku jsem pouzil slovo CASTO, to neni ani vzdy, ani vetsinou jen konstatovani, ze se nejaka vec vyskytuje v nemalem mnozstvi, ale bez blizsiho urceni.

+1
0
-1
Je komentář přínosný?

S frekvenční krizí křemíku se frekvence CPU a GPU přibližují - je to přirozené a očekávatelné. V době kdy měl Intel 3,8GHz P4 byly frekvence GPU hluboko pod 1GHz. Od té doby CPU trochu poskočily a GPU udělaly obrovský skok.

Od 5nm CPU už žádný frekvenční růst nečekám - možná na pár sekund skočí přes 5GHz, ale dlouhodobé frekvence budou možná i horší než na 7nm.

+1
0
-1
Je komentář přínosný?

"Od 5nm CPU už žádný frekvenční růst nečekám - možná na pár sekund skočí přes 5GHz" ....... asi pisana chyba nie? zrejme si myslel si ze pri 5/4/3/2 nm (napr. do 2025-27) na par sekund skoci pres 6 GHz

...ponivac dnes na 28/56 sekund skoci jedno jadro na 5,2-5,3 GHz

+1
0
-1
Je komentář přínosný?

Tak pokud by GPU dokázala na chvilku skočit na 5 GHz a stabilně běžet na 4, to by byl pořádný fofr!

+1
+4
-1
Je komentář přínosný?

U 5nm už bude větší problém s odvodem tepla z výrazně menší plochy, takže 6 GHz nečekám ani omylem. Už u 7nm se tohle projevilo (vyšší teploty než starší nm) a u 5nm je hustota tranzistorů o víc jak polovinu vyšší než u 7nm.

+1
+3
-1
Je komentář přínosný?

Školy nemám, ale problém odvodu tepla z malé plochy by šlo přece jednoduše vyřešit tak, že by se ty 5nm tranzitory udělaly větší, no ne?

+1
0
-1
Je komentář přínosný?

a na čo je potom drahšia technológia na menších nano?

+1
0
-1
Je komentář přínosný?

Aby výrobci čipů měli nějaké příjmy, ne? :-)

+1
+3
-1
Je komentář přínosný?

Právě v tom výrobci často chybují - snaží se používat menší nanometr místo většího nanometru. A přitom bych jim i poradil, kdyby se mě zeptali. Třeba to tu čtou?

+1
0
-1
Je komentář přínosný?

Zdá se, že po Intelu bude mrazení i v táborů nVidie.
Tenhle posun v taktech může být docela nepříjemná konkurenční výhoda.
Počkal bych si na všechny provozní údaje, ale vypadá to na změnu hry.

+1
+16
-1
Je komentář přínosný?

Ja bych NVIDII nedal 7nm od TSMC minimalne jeste 2 roky, nejen proto ze ji NVIDIA pekne osirala ale tez proto ze AMD ted bere od TSMC vsechno co vyrobi, hned to proda a okamzite ji vyplati, ...ukazkove vycistila procesorovej segment a ted ma tu moznost vycistit i graficky...

+1
+7
-1
Je komentář přínosný?

To by bylo kruté a místy vtipné.

+1
+4
-1
Je komentář přínosný?

Souhlas, AMD je pro TSMC rozhodně solidnější a především dlouhodobější partner. Na místě TSMC bych jim kapacity nedal, už jen proto, jak rozhlašovali že je 7nm proces nahouby...

+1
+7
-1
Je komentář přínosný?

Už som sa raz niekoho pýtal nech mi povie čo presne povedal? Zatiaľ tu vidím len opakovanie rovnakej blbosti.

+1
-5
-1
Je komentář přínosný?

Huang povedal, že 7nm proces TSMC neprináša výhody oproti 12nm procesu TSMC...možno mal na mysli hlavne finančné výhody (cena za veľkosť čipu), ale globálne týmto tvrdením padlo zlé svetlo na 7nm proces TSMC.

+1
+4
-1
Je komentář přínosný?

oni všetci vlastne "varia z vody"

1. Upcoming Event
Oct 27, 2020 • 2:00 pm PDT
Q3 2020 AMD Earnings Call
https://ir.amd.com/

2.
Zen 3: 8. října, RDNA2: 28. října
10. 9. 2020
https://diit.cz/clanek/zen-3-8-rijna-rdna2-28-rijna

3. Ak AMD prezentovalo 7 dní pred ohlásením výsledkov za kvartál viac poztívnych správ, bol ekonomický výsledok zlý, Ak správy neboli žiadne, bol výsledok veľmi dobrý

4. Pri odhadoch rastu AMD si skoro nikto ("okrem Obra" a jemu podobných) nevie predstaviť, že by tie výsledky mohli byť zlé. A teda uvedenie RDNA2 musí byť dobrou správou.. Je len otázka ako dobrou? A tie články sú odhadom, ako dobrá správa to bude, aby nezapadla do tieňa hospodárskych výsledkov AMD.

AMD Earnings: What to Look For
Updated Oct 21, 2020
Analysts expect adjusted EPS(obrat na účastinu resp. germanizmom akciu) for Q3 FY 2020 to rise 94.1% YOY (medziročne),

Revenue, on the other hand, will grow an estimated 42.4%, faster than the YOY growth rates posted in each of the first two quarters of the year.

For full-year 2020, revenue is expected to rise 32.3%,
the fastest pace in at least five years, as adjusted EPS rises 73.0%.

Obrat
Q3 2020 2,6 mld USD
Q3 2019 1,8 mld USD
Q3 2018 1,7mld USD
https://www.investopedia.com/amd-q3-2020-earnings-5083352?utm_campaign=q...

+1
-1
-1
Je komentář přínosný?

Trochu v oblasti GPU tápu... lze RDNA2 považovat za killer řešení AMD ve směru nVidia; podobně jako byl Zen ve směru Intel?
Já vím, uvidíme za pár dní, ale jen pro jistotu :-)

+1
0
-1
Je komentář přínosný?

to se opravdu ukáže až 28.10. :-)

Indicie (i z tábora zelených trollů) jsou ale poměrně vypovídající. Huangovci ruší ohlášené i plánované karty, melting zelených fandobezmozků v diskusích dosahuje závratných objemů. Oni minimálně tuší...

+1
+10
-1
Je komentář přínosný?

Ono to vypadá, že AMD leje benzín do ohně pomalu, aby to zazdila celou cisternou a navrch naloží Ekrazitu. ;).

+1
+16
-1
Je komentář přínosný?

Pokud nebude zádrhel jinde je posun v taktech rozhodně zásadní vlastnost.
Vlastně je to celé dost legrační.
1. AMD vypálilo Intelu rybník, tím, že ho donutili soupeřit v počtu jader kde Intel nemohl soupeřit protože jeho na monolitech založená technologie byla v tomhle nepoužitelná.
Během pár let si tím Intel namazali na chleba.

2. AMD vypustí GPU, které posune frekvenci o 800 - 1000 Mhz což je naprosto změna hry. Pokud navíc udrží ostatní provozní vlastnosti v dobrých hodnotách může to mít značný vliv na celý trh.
Vyšší frekvence, menší sběrnice (zjednodušuje konstrukci karty a tím snižuje cenu), zároveň jde snížením frekvence dostat GPU na hodně nízkou spotřebu.
Ale jak říkám zatím je to o ostatních provozních parametrech. Počkáme si na 28. Pokud to dopadne dobře. Gigantické GPU od nVide budou mít problém.

AMD prostě vtipně změnila paradigmata u obou skupin obvodů. To je výborný technologický tah.

+1
+13
-1
Je komentář přínosný?

A to se ještě proslýchá že AMD už kutí čipletovou architekturu i pro GPU. To by byl teprve masakr!

+1
+4
-1
Je komentář přínosný?

AMD už má zkušenost s Infinity Fabric (IF) pro GPU. V Mac Pro je "dvojkarta" Radeon Pro Vega II - 2 karty na jednom PCB, 2 PCIe sběrnice a IF můstek mezi GPU čipy. Aby nejen pro aplikace, ale i pro drivery se to tvářilo jako jedna GPU (tj. ne žádný ojeb typu SLI nebo CrossFire, který vyžadoval spolupráci od aplikace nebo nějaký preset od výrobce driveru pro vybrané aplikace). V tom Mac Pro ty 2 GPU jsou spojené můstkem, uvnitř kterého je ta IF sběrnice. Ale je předpoklad, že v další generaci budou ty GPU jako čiplety propojené IF uvnitř jednoho pouzdra čipu - jako to máme u AMD CPU.

+1
+3
-1
Je komentář přínosný?

Diky za info, to si pohledam jeste detailnejsi clanky.

Respektive o tom Radeonu Duo jsem uz cetl, ale nevedel jsem, ze pro system se to tvarilo jako jedna grafika, jeden cip.

+1
+1
-1
Je komentář přínosný?

RDNA II konkretne Navi 21 je proste ukazkove reseni:

-jeden konkretni cip delen dle vyteze na konkretni segmenty dle CU
-sjednocena 256-bitova sbernice - jeden zakladni navrh PCB delen dle součastek
-uzita lacinejsi a tudiz lip dostupna graficka pamet typu GDDR6

+dalsimi benefity jsou:

>RDNA II umoznuje dosahovat vysokych taktů(uz PS5 ukazala nastin moznosti)
>vyroba u TSMC na konkretne navrzene 7nm verzi pro AMD pujde hladce

RTX 3080 nema jednoduse sanci, je nejen tezce nedostupna ale navic uz ted archaicka kuli nedostatecnym 10GB VRAM, RTX 3090 ohledne 24GB VRAM pak naprosta stupidita, vykon se oproti RTX 3080 lisi jenom o 9% ale jeji cena je 2x, naprosty nesmysl, 20GB verze RTX 3080 prijde tezce po funusu, muzu rict ze listopad a prosinec bude mit AMD zcela pro sebe, Comet Lake je propadak, Rocket Lake ve hvezdach, soucasna RTX 3080 jiz nesmysl, 3090 silene nacenena, navic obe nedostupne, lakavejsi RTX 3070 je v prdeli, Zen III a RDNA II maji dvere trhu otevrene dokoran a lidi je privitaj, v lednu pak prijde Navi 22 cili user primary mainstream v podobe RX 6600 a AMD nebude mit vubec konkurenci, Intel a NVIDIA to posrali na plne care, pritom stacilo pouzit mozek, zadny Comet Lake nevydavat ale doplnit 9 verzi Coffe Lake refresh desetijadrem, u NVIDIE zatim vydat jenom 12GB verzi RTX 3080, holt dementi ve vedeni tehleh firem se ukazkove ukazali, kopnul bych je do prdele bez financni kompenzace.

+1
+7
-1
Je komentář přínosný?

Tak tak. Nvidia je z Big Navi natolik vydeptaná a v háji, že sotva prosáklo víc informací, předem zahodila flintu do žita a rovnou odložila výrobu lépe vybavených modelů, které proti Big Navi měli podle průsaků postavit. :D

+1
-4
-1
Je komentář přínosný?

Já bych raději tlumil to nadšení z Radeonů a počkal si na reálné testy a chování samotného čipu v praxi.
Taky bych tlumil ten sarkasmus z PC TuRningu, protože tamní "umělci" ví taky hov..o, proto tam už ani nechodím, protože výkaly nečtu - stejná úroveň jako garážmistr z Plzně.

+1
+4
-1
Je komentář přínosný?

Je to tak a je to škoda. Na PCT mají spoustu dobrých recenzí, ale kazí jim to fakt, že nepokrytě straní Intelu. Takže testy a články o procesorech nemá smysl vůbec číst.
No a když pak člověk, který píše docela dobré recenze grafik, obhajuje zavádějící závěry tamních testů CPU, sám se tím připravuje o kredit a důvěryhodnost. A tím se vylučuje se ze seznamu autorů píšících nezaujatě. Další kapkou je pak účast těchto autorů v Computeru, a to navíc v placené sekci.

+1
+4
-1
Je komentář přínosný?

Spustu... no nevim.. Povecme, ze par. PAN Rybka. pak tam je par potratakov, co sa stratili v IT svete, zapredali znackam a Vagnerusuju a Obermeieruju zaplatene clanky. Smutne... Jeden menej, ale chodi trolit sem a ked mu pride jasny facepalm do huby, tak nema gule ani odpovedat. A druhy? ten rovno ignoruje alebo rovno banuje. Neviem, co je horsie..

+1
0
-1
Je komentář přínosný?

No dobře, spoustu možná ne, ale najdou se tam dobře zpracované recenze třeba na VR. A pan Rybka? I když někdo říká, že jeho filozofické úvahy na takový web nepatří, mě se líbí. Mají aspoň nějakou hloubku a ten pán evidentně hluboce přemýšlí. Narozdíl od většinové populace....
Jinak pan Vágner se posouvá čim dál hlouběji mimo snahu psát objektivně. Např. teď na PCT obhajuje, že Navi 21 nemá podporu ray tracingu a hádá se tam o tom na fóru jako malej kluk. Na redaktora absolutně nedůstojné chování.
Kdyby to byla polemika na téma "že AMD v podstatě nic s RT neukázalo ani výsledky testů", pak OK, to bych bral jako téma k diskuzi. Ale on nepokrytě tvrdí, že se s RX 6800+ budeme muset obejítbez RT... no, třeba ví více, než lidi v AMD :D

+1
0
-1
Je komentář přínosný?

Ved potvrdzujes, co som napisal. :) Pana Rybku si nesmierne vazim - uz od skvelych clankov zo SCORE ci Levelu, este ked som bol mladym smradom. ;) Preto pisem, ze je snad uz jediny, kvoli ktoremu navstevujem ten web. OBR ma mozgovu OBRnu, to je vseobecne zname a Vagner? Ten sa nestrapnuje iba tam v diskusiach, ale kolko krat to dokazal i tady. ;)

+1
0
-1
Je komentář přínosný?

Adams zase vyleza ze stok? :D Clovek provareny skoro tak jako legandarni zaklinac Obr.

Navic jestli neco nVidia odlozila tak proto, ze nebylo fyzikalne mozne udelat vetsi (vybavenejsi) model a udrzet odpadni teplo v mezich aby se to betonovou podlahou nepropalilo k sousedum :D Vsak neni schopna dodavat ani tedka. A to neni tim, ze by zajem byl taaaak ohromny.

+1
0
-1
Je komentář přínosný?

Nvidia zrusila modely s vetsi pameti - to je fyzikalne nemozne? Spis bych rekl, ze nvidia se misto vydani techto karet zameri na uspiseni refrese, ktery od zacatku bude s tou vetsi pameti, nebo rovnou na nastupce. Uvidime.

+1
0
-1
Je komentář přínosný?

Nedostatečným VRAM ? Ty vole ..Dneska je asi trend čím více Vram tím více Adidas...

Ty brdo tady jsou zase odbornící... s 10Gb Vram je mrtvá...
Jak kdyby výkon té grafiky záviset jen velikosti vram.. :roll:
1.) pro 2K je 10Gb a dlouho dobu bude uplně cajk a myslím že to nebude ani výrazný limit pro 4K
2.) Pokud se nvidii podaří technologie která bude posílat data z ssd přímo do gpu tak tolik vram nebude potřeba.
3.) někteří tu dělají jak kdyby najednou nešlo nic hrát. :!:
4.) pokud by nvidia dala více ram tak počátejte tak +5K na té samé kartě a samozřejmě i spotřeba UP.
5.) Nvidia i Amd potřebuje vydělávat a né-prodávat někomu kartu na 5 let. Jako zákazník si jim u zadele a že toto není produkt do budoucnosti jak si někteří představují.(kvůli tomu že v budoucnu tomu může dojít vram). Není no, oni chtějí aby sis koupil nový produkt za pár let.
(kopie z fora PCT. tam sem to psal taky.)

V době kdy sem měl polarise každý kupoval 8Gb verzi ,já měl 4Gb pro FHD a dřív sem narazil na limit GPU než na to že má jen na 4Gb vram.

+1
+1
-1
Je komentář přínosný?

No třeba Doom Eternal se na 4K s maximálními detaily a dost mohutnou optimalizací postprodukcí, dynamickým škálováním rozlišení a dalšími triky dostane lehce pod 8GB. Pokud má karta vydržet aspoň rok, dva tak na 4k v dnešních hrách je 10g už pomalu na hraně.
S tím streamováním z SSD, to je podle mě vhodné například na procházení levelem kdy se dynamicky donačítávají highres textury. v rámci jedenoho framu se to ale do té paměti vlézt musí, nelze za 16-20ms načíst a dekódovat stovky MB až GB dat.

+1
+3
-1
Je komentář přínosný?

Nejenom DOOM.

Skyrim s 4k texturama a par modama (jako detailnejsi meshe) si spapka 6-8 GB.

+1
+3
-1
Je komentář přínosný?

RTX IO je implementácia DirectStorage API, ktoré bude dostupné až s jarnou aktuálizáciou Windows 10 a bude to znova jedna z technológii silne závislá na implementácii v hernom engine aj hre ako takej. Takže nábeh bude mierne pomalší, aj keď nové konzoly to využívajú už teraz.
Kiež by tu boli späť časy kedy sa predávali GPU s dvomi veľkosťami VRAM a človek si mohol vybrať. Hráč by si napr. kvôli úspore vybral tú 10GB verziu, tvorca obsahu, ktorý vie využiť väčšiu pamäť (napr. DaVinci Resolve v pohode 10+GB pri 4K projekte upotrebuje) by zobral tú

+1
+1
-1
Je komentář přínosný?

To by ty paměti musely nejdřív výrazně zlevnit. Zatím jsou (na konto vyšších rychlostí) spíš pořád dražší a posadit na grafiku 8 nebo 16 GB už je na celkové ceně dost znát. Speciálně když to znamená připlatit tři litry na to, aby měl člověk v pěti a půl hrách, které to dokáží využít ve 4K, vyšší fps.

I blbé a pomalejší DDR4 se teď s hrůzou dostaly na ceny, na kterých byly před čtyřmi lety.

+1
-2
-1
Je komentář přínosný?

Napísal som že by bolo fajn mať možnosť si vybrať, aspoň by sa ukázalo o čo majú ľudia skutočne záujem. Bol by problém vyrábať 2 varianty, ktoré by sa líšili len veľkosťou VRAM?
Ja by som si aj kúpil novú kartu, kľudne aj od nVidie (aktuálne mám GTX1070) ale 8GB pri RTX3070 a 10GB pri RTX3080 je pre mňa obmedzujúcich, resp. nevyhovuje mi taký upgrade, pretože by mi to síce zrýchlilo rendering videa z DaVinci Resolve, ale vzhľadom na v podstate nulové navýšenie VRAM (áno pri tej 10GB by to bolo navýšenie o 25% ale aj to je málo) by som sa stále dostával na limity pri ColorGradingu a podobne.
Proste by som chcel aby boli zase bežne k dispozícii 2 verzie kariet, s menšou a väčšou VRAM ale inak aby mali úplne totožné parametre

+1
+3
-1
Je komentář přínosný?

I kdybych s casti souhlasil, a nadseni z Radeonu tlumil (dokud nebudou benchmarky), tak tohle:

> Pokud se nvidii podaří technologie která bude posílat data z ssd přímo do gpu tak tolik vram nebude potřeba

... zni jako totalni zblebt, vycucanej z prstu. Kde jste vzal ze Nvidia na necem takovem dela ?

A co si predstavujete pod "primo do GPU" ? v GPU cipu jsou akorat cache, ktere maji par megabajtu. Mohli by jste posilat neco "primo" do GPU cache z SSD, ale h*vno by jste vyresil, jelikoz SSD by byl nejpomalejsi clanek v retezci, a cele GPU by to zpomalilo na uroven zpred dvaceti let. Nebo by jste to mohl posilat z SSD do VRAM... coz je vlastne to co se dela dnes (pres DDR a PCIE).

Kazdopadne, je to uplne fuk. Prekvapive totiz, problem s nedostatecnou VRAM existuje uz asi tak tisic let, a resilo ho X lidi v Y ruznych technologiich. Tady je temer deset let starej priklad:

https://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/6

+1
-1
-1
Je komentář přínosný?

Tady doporučuju se dovzdělat. NV už umí číst data z SSD přímo do VRAM (RTX IO). Uměla to dokonce už předchozí generace 20xx, ale tehdy ještě nebyla podpora ze strany Windows. AMD to taky umí (nové herní konzole; předpokládá se, že to půjde i do PC). Tento přenos dat nejde přes CPU (nezatěžuje ho) - narozdíl od dosavadního postupu, kdy se načte z SSD do RAM, až pak odtud do VRAM. Mimochodem v GPU-výpočetních serverech je to roky stará věc.

Ocituju Sony ohledně představě o přínosu: Dosavadní hry načítají 10 sekund mapy dopředu, teď bude stačit jen 1 sekunda. Tj. bude ti stačí desetina velikosti VRAM pro mapu (zabraná část buffery a modely samozřejmě zůstává).

+1
-1
-1
Je komentář přínosný?

Jenže to může fungovat jedině tak, že by GPU mělo vlastní PCIx řadič, vlastní PCIx linky atd.
Dokud jdou linky přes CPU případně přes nějakou část čipletu v CPU tak i kdyby nVidie uměla malovat modrou oblohu z ho** nedostane data jinak než přes CPU.
U konzolí je to něco jiného. Tam je HW návrh naprosto jiný a může se tam počítat s takovou krásnou věcí.
Která ovšem nemá reálně žádný efekt.
Protože v celém řetězci Disk -> CPU -> RAM ->GPU je DISK to zařízení s naprosto nejnižší rychlostí a to řádově.
Takže dokud nebude SSD připojené přímo ke grafické kartě je to k ničemu (a možná tím směrem chtějí jít, že hra bude mít data uložená na SSD přímo na grafické kartě protože tam dostat třeba 64GB SSD cache v ceně karty za 30k je maličkost.

Jinak je to z hlediska konstrukce sběrnic v PC pitomost.

+1
0
-1
Je komentář přínosný?

Pozor, je rozdiel ak to pôjde cez CPU ako také a keď to pôjde len cez radič PCI-Express. Práve druhá varianta je tou, ktorá je súčasťou DirectStorage, teda vynechá sa CPU a RAM, čo bude mať obrovský prínos v latenciách. Špecifikácia PCI-Express totiž umožňuje priamu komunikáciu medzi zariadeniami na tom istom radiči

+1
0
-1
Je komentář přínosný?

Ano, přesně tak. Pokud CPU nezapojíš v režimu SoC (vyvedené jen finální porty), ale k chipsetu (tak je to obvykle na základní desce desktopů a části notebooků), tak data potečou přes samostatný čip obsluhující PCIe (chipset) a k CPU se to vůbec nedostane. Takhle se to očekává v desktopu, takhle je to i v PS5 (samostatný čip řadiče od Sony). V případě serverů to dřív byla samostatná karta, do které se napíchaly GPU, teď s novým Epycem to je přímo do něj (přesněji do I/O chipletu, takže sice z pohledu z venku to jde do CPU, ale uvnitř to jde jen do I/O chipletu, ale do CPU jader už ne).

Celé je to o počtu drawcallů, proto se vyvinula API pro 3D grafiku (DirectX 12, Metal, Vulkan) umožňující rozložit zátěž na více jader (singlethread výkon CPU už nedostačuje). Proto se hledají další cesty, jak mu ubrat práci (zde nahrávání dat do GPU bez použití CPU). Jinak o výkon SSD bych se nebál, nové konzole mají NVMe - a to se rozšiřuje i normálně do desktopů, notebooků a samozřejmě serverů.

+1
0
-1
Je komentář přínosný?

Je Vám jasné, že pokud to jde po PCI linkách, tak ty linky nemůžou dělat nic jiného a tím pádem například blokují CPU?
Prostě přesunout logiku čtení dat z SSD do GPU nebo prostě na grafickou kartu v architektuře kdy PCI linky mají jen jeden středobod a o jehož provoz se musí starat nějaký řadič a je jedno kde je, tak to pořád bude brzdit vše ostatní?
U toho PS5 to nejspíš funguje právě jen díky tomu, že se jedná o APU, které technicky sedí na stejné straně PCI sběrnice jako jeho CPU a mezi CPU a GPU v tomhle APU je nejspíš existuje paralelní sběrnice k té PCI nebo jakékoliv jiné sběrnici.
Protože pokud nemáš paralelní vedení, ale jdeš přes jeden uzel tak je ti to celé na nic?
Navíc se bavíme o tom, že do grafiky jdou data z RAM kam má grafika nejspíš přímé čtení. U toho PSka je to otázka omezení množství RAM a jeho náhrada streamem dat z SSD. Kdy samotné SSD je novinkou a tím pádem vede ke zrychlení stávajících her.
Prostě a snadno, je naprosto fuk jak si to představujeme. Koncept může fungovat jen tehdy pokud bude existovat přímé spojení mezi SSD a grafickou kartou bez jakéhokoliv prostředníka. Proč by, ale grafika měla mít SSD řadič a disk? To prostě nedává moc smysl. To už totiž rovnou nemusí být grafika, ale celý počítač protože právě začala dělat to co dělají další komponenty v počítači. ;-).
Navíc logika kolem čtení a práce se souborovým systémem není úplně triviální a nemyslím, že GPU je na tohle zrovna dobře postavené ;-).

+1
0
-1
Je komentář přínosný?

Je ti jasné, že NVMe --> VRAM je jeden přenos, kdežto NVMe --> RAM --> VRAM jsou přenosy dva? Takže nové řešení zatěžuje PCIe sběrnici polovičně proti dosavadnímu, což už je znát. A u toho PS5 hádat nemusíš, jeho architektura je už veřejně rozebraná (stejně jako v desktopu i tam je PCIe řadič oddělený čip od CPU).

+1
0
-1
Je komentář přínosný?

Ještě jednou a pomalu. Data z SSD se musí někam načíst. O logiku čtení se musí něco postarat. SSD je připojené na PCI tu komunikaci musí něco vyjednat.
Takže by tam musel vzniknout systém kde jsou dva PCI řadiče na jedněch PCI linkách co se přetahují o data z jedno SSD zařízení. Zařízení spolu můžou komunikovat, ale pořád tu komunikaci musí něco řídit. Nejde si prostě posílat po PCI cokoliv kdo si zrovna vzpomene a tím pádem je sběrnice zahlcená pro ostatní zařízení.
Navíc by GPU nebo grafika musela mít nějakou logiku pro práci s filesystémem, protože ten je součástí OS. To je další slabina takového provedení, posouváme tím GPU někam kam prostě nepatří.

+1
0
-1
Je komentář přínosný?

Ještě jednou a hodně pomalu. Je tam jeden PCIe řadič, a ten je samostatný čip oddělený od CPU. Cílem je přenést data jen 1x (NVMe --> VRAM) místo 2x (NVMe --> RAM --> VRAM) a nezatěžovat CPU. Jako nevím, co řešíš. Tohle se už roky používá v serverech (ty výpočetní přes GPU) a je i v herní konzoli. A protože PC Mater Race nemůže zaostávat za výkonem nových konzolí, tak dalo smysl Microsoftu to implementovat i do Windows.

+1
+1
-1
Je komentář přínosný?

V herních konzolích se o čtení dat staralo CPU a prostě data ti z NVMe (jedno jaký disk to je) neskočí do VRAM jen tak.
Něco o ty data musí požádat, něco musí říct co to má být za data.
Na serverech se používají GPU pro výpočty, ale tam se nepřenáší obrovské balíky dat jako u textur. Tam se děje hodně výpočtů co nepotřebují vyměnit textury když se otočíš, čelem vzad.
Takže ještě jednou a mnohem pomaleji.
Data se musí do té VRAM nějak dostat. Takže někde musí být nějaký čip, který se postará o to čtení. Teoreticky můžeš obejít CPU, ale pořád jsi na stejné sběrnici jako je to CPU takže, dokud čte data ta grafická karta je CPU odstřižené. Technika je taková, že se v nějakém intervalu budou střídat.
Jenže tady narazíš na ten zásadní problém. Hra není o statickém obrazu nebo opakování jednoho matematického vzorce milionkrát za vteřinu.
Hra má nějakou logiku a až když se nad nějakou částí dat provede nějaké logické rozhodování, data se uloží do RAM protože je to rychlejší a až na základě těch dat provede GPU načtení dat z RAM a provede to zobrazení.
V ideálním případě má v tu dobu ve VRAM všechny textury a modely a CPU mu prozradí jen nastavení scény (což se reálně neděje).
Takže jediné co má smysl tahat nějak přímo jsou modely a textury, jenže ty jsou vv ideálním případě už ve VRAM a pokud ne tak je rychlejší je tahat z RAM kam se stejně musí sahat a čekat na to CPU co musí říct jak bude scéna vypadat.
Dokud nebude zvláštní dedikovaná sběrnice mezi diskem (ať je jakýkoliv) a grafickou kartou. Nedává takový přístup valný smysl.
Protože konzole nejspíš mají onu sběrnici, potažmo jejich APU má GPU a CPU sedící na stejném konci PCI může to tam mýt smysl, ale pořád nejde obejít řadič PCI potažmo, řadič jakékoliv jiné sběrnice.

+1
-1
-1
Je komentář přínosný?

1. Ano, o čtení dat se staralo CPU. V nové generaci se ale výkon zvýšil 2x tím, že se o to bude starat samo GPU.
2. U výpočtů na GPU záleží, jaký to je. Některé pracují hodně s malým množstvím dat, některé málo ale s velkým objemem dat. Výrobci výpočetních serverů je vyrábějí tak, aby pokryli oba typy požadavků (a zákazník nemusí tolik řešit, jaké úlohy bude na serveru v budoucnu počítat).
3. Ten nějaký čip, který ty data přečte z NVMe a pošle do RAM, VRAM či jinam, se jmenuje PCIe řadič. Je to samostatný čip - přes CPU to nejde (u Epycu tím samostatným čipem myslím I/O čiplet).
4. Ano, PCIe sběrnice je sdílená (to je princip sběrnice obecně). Ale přenáší se přes ní polovina dat (rovnou do VRAM, místo do RAM, a pak do VRAM).
5. Rozhodování je sice v CPU, ale ten program (hra) jen řekne GPU, co si má načíst z NVMe, a to GPU to udělá paralelně bez zatěžování CPU.
6. Pokud se ti nevejde aktuálně vykreslovaná grafika do VRAM, tak máš velký propad fps, když část věcí musíš tahat do GPU po PCIe sběrnici z RAM. Tohle je situace na loweend PC, kde se smíříš s menším fps, ale je to levnější HW. Je to vyvážené i tím, že GPU je samo pomalé (menší počet jednotek), takže snížená rychlost dodávání dat do něj není větší brzdou.
7. Na mainstream a higend PC a konzolích je situace jiná, tam se ti grafika pro aktuální kreslení vejde do VRAM, a co řešíš, je jak donačítat grafiku pro budoucí část mapy. Mimochodem už hře Ignition z roku 1996 se nevešla grafika trati do RAM (minimálně ne pro minimální požadovanou konfiguraci), takže trať se načítala postupně. Proto vyžadovala DMA u HDD (hra přes CPU řekla HDD, jaká data má načíst kam do RAM, a pokračovala v kreslení snímků hry - HDD po dokončení načtení dat vyvolal přerušení a hra začala používat i nová data v RAM). Před asi týdnem brácha tu hru zkusil na starém notebooku s HDD bez DMA, a bylo to nehratelné - po části trati vždy hra na chvíli zamrzla, protože CPU musel přes PIO mód načíst další data z HDD (PIO = Programmed Input/Output, CPU je zcela zaměstnán přenášením dat ze zařízení).
8. Není potřeba dedikovaná sběrnice, stačí a) přenášení polovičního množství dat (rovnou do VRAM a ne do RAM a pak VRAM) a b) přímá komunikace mezi zařízeními místo vše přes CPU (jde tedy přes řadič, který je odděleně od CPU).
9. Nové konzole nemají samostatnou sběrnici pro tohle, mají akorát samostatný čip (řadič), přes který to jde. V předchozích generacích samostatný řadič nebyl (byl to klasický APU, resp. SoC). Samostatný řadič je ale třeba v PC desktopu běžná věc (jinak bys nemohl připojit tolik zařízení), a ten už dávno umí přímou komunikaci mezi zařízeními. Vylepšuje se jen logika a standardizuje se komunikace mezi částmi (PCIe řadič, GPU, OS).

+1
+1
-1
Je komentář přínosný?

Vy asi len nechcete chápať.
Logika je nasledovná: Existuje PCI-Express radič, ktorému všetky na ňom zavesené zariadenia dávajú požiadavky. Do týchto zariadení sa počíta aj CPU. Aktuálna situácia je taká že ak CPU rozhodne že GPU potrebuje dáta, pošle sa požiadavka na radič, ten odošle požiadavku na SSD, odtiaľ začne ťahať dáta, ktoré sa cez CPU dostanú do RAM (tam skratka cez PCI-E a RAM pokiaľ viem nie je), to je prvé zaťaženie radiča aj CPU. Následne z RAM musí CPU tieto dáta načítať a poslať ich cez PCI-Express radič do grafickej karty. To znamená že dáta absolútne zbytočne vykonávajú cestu radič->CPU->RAM->CPU-radič.
Toto v DirectStorage odpadne. Tam bude scenár nasledovný: CPU rozhodne že GPU potrebuje dáta. Pošle cez radiť požiadavku do GPU aby si ono požiadalo o dáta z disku. GPU následne požiada radič o dáta, ktorý mu ich poskytne priamo a nie sprostredkovane cez RAM. Vyťaženie PCI-Express zbernice neklesne, naopak pribudne jedna komunikácia z CPU do GPU a z GPU do radiča, ale dáta z disku sa zbytočne nebudú zdĺhavo nahrávať do systémovej RAM aby následne boli znova prenášané do VRAM, proste sa najkratšou možnou cestou disk->radič->GPU dostanú do VRAM. Tým sa ušetria interné prenosy dát.
Navyše PCI-Express radič vie pracovať zároveň s niekoľkými segmentami (skupinami liniek) súčasne, takže táto komunikácia nezaťažuje CPU ani neblokuje jeho schopnosť kominikovať s chipsetom. A keďže NVMe disky majú maximálne 4 linky (najnovšie k dispozícii vo verzi 4) stále ostáva pre ďalšiu komunikáciu s CPU 12 liniek (alebo 4 ak by šla v režime x4), ktoré na tú zvyšnú komunikáciu plne dostačujú
Tento princíp sa používa bežne
https://upload.wikimedia.org/wikipedia/commons/thumb/d/df/AMD_DirectGMA....

+1
0
-1
Je komentář přínosný?

Když tady to vaši hádku sleduji tak si tak říkám nakolik by něco podobného bylo přínosem pro hry. Čistě logicky i kdyby to ušetřilo přenos do ram a z ram, tak není naopak tohle i výhoda? Přecijen z disku se čtou data řádově pomaleji než z ram a je otázka jestli není lepší nejprve načíst/nachystat data do ram a pak je rychleji přenést vcelku do vram než to načítat "pomalu" přímo do vram?

+1
0
-1
Je komentář přínosný?

Pochopitelně.
Celé je to podle mě o jakési fantastické vlastnosti kdy si bude grafika tahat data z disku. Jenže pořád mi nikdo nevysvětlil jak bude fungovat filesystém běžící na GPU a celá logika nahrávání.
Dneska umí grafika adresovat RAM tak že si do ní šáhne a má v ní připravená data. To je celkem logické a vidím v tom přínos. Ram je rychlá a CPU mezitím má co dělat.
Ovšem pomalu tahat data z disku zaměstnat tím GPU, Které není příliš dobré na nějaké seek operace mi zní celé jako Krkonošská poudačka. Zvlášť co se efektivity na desktopu týká.
U konzolí věřím, že vvhodnou konstrukcí můžou dostat tenhle systém do funkční podoby.

+1
0
-1
Je komentář přínosný?

Hele kluci, kouzelné slovíčko: paralelizace. GPU má stovky výpočetních jednotek a nově i nějaký ten křemík na ten DitectStorage (případně jak se to kde jmenuje). GPU nepotřebuje znát filesystém, seznam bloků na NVMe mu řekne OS (proto je potřeba spolupráce od OS).

Není to nic nového, už před desítkami let to měly konzole v podobě cartridge. Ta byla vlastně read-only RAM - namapovala se do adresního prostoru CPU, a hra tak kreslila přímo z této ROM (pointer na kreslený sprite byl přímo do cartridge).

Tím se dostávám i na odpověď na komentář nad tím výše: Hra tak může vykreslovat komplexnější/větší scénu, než kolik se vejde do RAM (resp. méně budoucí scény musí prednačíst). PS5 má sice 16 GB RAM, ale to je dohromady CPU a GPU (představte si to zjednodušeně jako PC s 8 GB RAM a GPU s 8 GB RAM). Aby se tedy konzole mohla vyrovnat např highend PC s 16 + 16 GB RAM, tak potřebuje různý triky (např. technologie ověřené z výpočetních serverů). Ano, souhlasím s vámi, že je to jen "trik". Ale princip konzolí je, že pro vývojáře se vyplatí dané triky použít, protože:

1) Bude fungovat na každém z milionů stejných kusů (není to jako např RT v době GF 20xx, kdy fungovalo jen na 2 nejvyšších modelech jen jednoho z výrobců grafik - nepočítám nižší modely, kde výkon byl zcela nepoužitelný).

2) Protože musí, pokud chtějí, aby jejich hra vypadala jako na highend PC za cenu lowend PC.

+1
0
-1
Je komentář přínosný?

Z principu tady popisuješ dvě rozdílné věci.
Disk se nemůže z principu chovat jako paměť ROM. Už proto, že ho používají i jáná zařízení například k zápisu. Disk také nejde namapovat na nějakou adresu v paměti tak jako cartridge u herních konzolí. Protože ty konzole tak byly postavení ale PCI Express na které je pověšeno DISK (a je jedno jaký) je komunikační sběrnice nikoliv sběrnice CPU, na kterou se připojovali ty cartridge.
To jen pro přesnost.
Konzole aby se vyrovnala PC používá triky, ale těm se říká především optimalizace na jeden HW. Prostě co je navíc to se vyhodí. Konzole je jednoúčelové zařízení, chová se naprosto jinak, je to ve své podstatě daleko jednodušší HW než PC. Protože se tam nepočítá s připojením X různých řadičů disku, X různých pamětí X různých grafických karet.
Mě nikdo nemusí vysvětlovat jaké triky se používají, používal jsem je už na Amize abych dostal na obrazovku víc než 32 barev (ECS) nebo 256 (AGA).
Proč může fungovat čtení přímo z disku na konzolích je nasnadě. Někdo jí tak prostě navrhl. Dopředu věděli, že to tak bude.

A teď zpět k PC HW. Aby PCIe zařízení mohlo komunikovat s jiným zařízením na téže sběrnici přímo a nikoliv přes ROOT zařízení (tedy CPU) musí splňovat určité specifikace. Podstatné pro náš problém, je to že PCIe sice umožní komunikaci napřímo, ale grafická karta musí mít něco co dokáže přečíst data z disku (něco co jí řekne v kterém souboru ty data jsou a ten soubor se nachází kde) to normálně dělá OS a Filesystém.
Tzn. na grafickou kartu musíme umístit něco co spustí ovladače filesystému aby dokázalo data číst, jak jsme si vyjasnili ten disk není cartridge, která začíná vždy na adrese $400000 a končí $5FFFFF (SNES). Disk má vlastní komunikační vrstvu kam mu padají požadavky a ty buď jako data nebo potvrdí zápis. Každopádně potřebujeme se dostat na úroveň file systému aby jsme věděli, která data chceme. To nám zařídí CPU, bez něj jsme namydlení. Data z disku prostě nejsou jednolitý úsek nějaké paměti ROM, případně jejího přepisu do RAM.
Jediné kdy by jsme tohle mohli použít a to je dost možná technologie PS5tky. A totiž to, že soubor obsahující data připojíme skrz OS jako samotné paměťové zařízení to nám umožní část CPU která nese název MMU. To, ale opět neobchází CPU.
V případě, že máš APU kde je mezi CPU a GPU nějaká ta "fabrick" sběrnice tak potom je tohle relativně funkční postup. Ovšem pořád potřebuješ být transparentní pro OS. Tedy CPU neobejdeš.

+1
0
-1
Je komentář přínosný?

Příklad starých konzolí s cartridge byl pro ukázku, že není třeba všechna data narvat do RAM (RAM byla v každé době relativně drahá). Dnes to funguje tak, že se načítají v pozadí paralelně s kreslením scény (ano, pro kreslení musí být ve VRAM). Jde ale o to, že se ušetří polovina propustnosti PCIe sběrnice přenášením dat do VRAM jen jednou (ne přes RAM).

A ne, GPU nemusí znát filesystém. Proto je potřeba spolupráce s OS, aby ten řekl GPU, které bloky na NVMe obsahují která data v kterým souboru. Jako nevím, proč se v tom chceš furt zamotávat. Tohle funguje roky ve výpočetních serverech, funguje to v nových konzolích a už je to připravené i pro PC. Kde ještě to má fungovat, abys uvěřil, že to existuje?

"Konzole aby se vyrovnala PC používá triky, ale těm se říká především optimalizace na jeden HW. Prostě co je navíc to se vyhodí."
Ve skutečnosti většina konzolí měla slabý obecný hardware a k tomu specializované čipy na míru hernímu použití. To by sis jinak rovnou koupil lowend PC.

+1
0
-1
Je komentář přínosný?

"Ovšem pořád potřebuješ být transparentní pro OS. Tedy CPU neobejdeš."
Ne, právě OS slouží od toho, aby ti řekl, kde na disku je který soubor (už od dob DOS - Disk Operating System). Toto sice probíhá na CPU, ale ten jen GPU řekne seznam bloků na disku - ty si GPU pak už z disku přečte samo (přečte si je přes řadič sběrnice a disků).

+1
0
-1
Je komentář přínosný?

Nvidia to neumi, Nvidia jen ohlasila podporu technologie se kterou MS prijde cca za rok. Tou dobou to bude podporovat i AMD.

+1
0
-1
Je komentář přínosný?

NVidia to umí (a umí to i spousta dalších, tahle technologie se už běžně používá). Akorát to potřebuje spolupráci s operačním systémem. První krok je vyrobit hardware, druhý pak dodělat do OS podporu. Jinak bys to do OS dělal naslepo a mohly by vzniknout kiksy, kvůli kterým by se funkčnost budoucího HW musela ohýbat.

+1
-1
-1
Je komentář přínosný?

Jestli si dobre pamatuji, tak v drivejsich dobach mela nVidia nastavene ruzne frekvencni domeny pro cip.

Shadery bezeli na frekvenci 2x oprotiz zbytku. Bylo to mozna okoukane z Pentia, kde take bezeli ALU na 2x vetsi frekvenci nez zbytek.

Mozna ze ma RDNA2 nejakou specialni delicku. Uzivatel nastavuje napr jen jadro cipu, kde bezi shadery a zbytek je kvuli teplu, vyteznosti a efektivite treba jen na 70% te frekvence :)

+1
0
-1
Je komentář přínosný?

Otazka je, jestli to ma dnes zasadni vyznam. Pokud zabiraji shadery dnes treba 90% plochy GPU tak tenhle pristup nema moc smysl...

+1
0
-1
Je komentář přínosný?

pri taktovani 2.5Ghz ovsem bude TDP 500w takze to GPU nevydrzi dlouho, pokud mu nebude zvednut TDP limit a zlepseno chlazeni.
I kdyz i hodnoty 2ghz pro Navi1 jsou dost za hranou energo efektivity, u herniho nasazeni se na efektivitu kasle, max vykon. Treba u tezby eteru je 5700xt energeticky nejefektivnejsi na 1350mhz/900 pameti (55.5mh) pri zvednuti na 1380mhz/930 uz je to sice 57.3mh, ale v pomeru ke spotrebe uz se to zacina horsit. Na tezeni se obavam ze novy radeon 6000 nebude nic moc, uzka sbernice, kterou u her resi velka cache, ovsem na tezbu to asi cache neporesi a podle me vykon nebude o moc vetsi nez u 5700xt a dost mozna bude horsi efektivita energeticka. Na hry to bude 2x 5700xt nebo i o neco vice vykonejsi diky vetsimu poctu SP a i taktum. Ted uz jen vedet cenu a dostupnost, Nv 3000 je vypustena jen na papire, skladem jsem ji snad nikde nevidel a podle me pokud Navi nebude mit nejake tragicky zabugovane ovladace coz asi nebude protoze jeto jen dalsi Navi a tudiz uz jsou odladene a nezacina se s tim od 0, pokud bude cena par tisic pod 3080 ma NV prosku problem, jeji karty jsou spise imaginarni a cena vysoka, budou s tim muset neco delat, AMD myslim ze ma vyrobu poresenou lepe u lepsiho vyrobce a budou dostupne, zvlaste pokud nebudou extra dobre na tezbu.

+1
-4
-1
Je komentář přínosný?

Ted jde o to, jestli s tema 300W nepocitaji jako s tim absolutne krajnim rezimem.

Treba to opravdu zvlada nakych 2GHz pri 200, 2.2GHz pri 250 a 2.5GHz pri 300W.

Ja bych pockal na testy. A na srovnani. Ono jestli treba vyjde, ze RTX3090 zere 350 a 6900RX 360 a maji stejny vykon, tak uz to bude prast jak uhod a bude se resit treba kvalita raytracingu, ci jine aspekty.

+1
0
-1
Je komentář přínosný?

Taky se tesim na pristi tyden na uvedeni, akorat teda se musim smat tomu zdejsimu nadseni, jak to da 2,5GHz a proste to bude bomba, nejvykonejsi grafika vubec.
Treba jo, ale uvedomte si, ze to ma 256bit sbernici. RTX 3080 ma 320bit a 3090 dokonce 384bit.
Tim nerikam, ze 256bit je spatne, ale nejak ty data tam musi dostat a zjevne jich prenesou ve stejnem case o 20% a 35% mene nez konkurence, takze se tesim, co genialniho AMD vymyslela a jak to bude resit.

Kamos treba rikal, ze nechape, proc AMD neudelala i jednu kartu s HBM, tam je sbernice 2048bit, takze tam se sirkou neni problem. Tak jsem mu rikal, ze treba vymysleli neco, co to dokaze nejak "obchcat", tak uvidime.

+1
0
-1
Je komentář přínosný?

Ta sirka sbernice neni vsecko, pokud maji v GPU velkou cache, ktera bude efektivne fungovat klidne to muze setrit rozdil, netusim jak moc se tim da zlepsit efektivita prenosu z pameti a do pameti, asi da a dost kdyz sli touto cestou. Myslim ze AMD uz pred lety pouzila 512bit sbernici, dokonce 4096bit s HBM a mela sbernici sirsi nez konkurence v te dobe, ovsem nebylo zas tak dobre GPU a vysledek nic moc.
Karty s HBM klidne jeste byt muzou, ale pro mainstream by byly moc drahe proto se to udelalo takto.HBM muzou mit vypocetni radeony.

+1
+3
-1
Je komentář přínosný?

A treba si vypocitali, ze to neumerne zdrazi kartu (coz HBM jsou vyrazne drazsi) a pritom to diky implementovanym algoritmum na kompresi dat, pridanim cache ruzne po cipu atp. nema zadnou pridanou hodnotu ve vykonu ;)

+1
+2
-1
Je komentář přínosný?

Pokud by takt sběrnice byl stejný jako takt GPU tak má nVidie vymalováno. Šířka sběrnice je tak zásadní v případě, že nemůžeš taktovat. Pokud můžeš máš možnost dostat přes sběrnici víc dat díky rychlejšímu čtení té sběrnice.
Je to otázka přístupu k problému.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.