Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia končí s podporou SLI v nových hrách

celkem škoda, ony ty dvě RX580 co jsem vytáhnul z minera (nitro+) celkem slušně jedou v podporovaných hrách to je přes 1070, často k 1080. Za ty prachy... (zadarmo - karty se už dávno zaplatily). Nejlepší jsou DX12 tituly, které nejsou moc nové (kde už se na podporu vykváknuli), ani moc staré (kde není DX12)

+1
+2
-1
Je komentář přínosný?

lol ty mínusy, jako za to že jsem si před pár lety koupil více než 1ks RX580? A to vám vadí ještě dneska? Bežte se bodnout ubožáci

+1
+2
-1
Je komentář přínosný?

Měl jste si koupit NVIDIA Titan.

+1
0
-1
Je komentář přínosný?

Titan nebyl třeba, stačila 2080 a člověk mel pres 2 roky vystaráno...

+1
-4
-1
Je komentář přínosný?

Podle AMD už crossfire RX480 překonalo tu GTX1080: https://www.fudzilla.com/images/stories/2016/June/amd-premium-directx-12...
(jenom připomínám co AMD vypouští do světa, s ohledenem na nové Navi21)

+1
0
-1
Je komentář přínosný?

Ano a tehdy žádný bushit "2x perfromance" od AMD fans nebyl, přitom celá prezentace neukázala jediný bench kde by 2x480 nepřekonala 1080, realita byla že to byl také jediný případ kdy 1080 byla pomalejší, žádná rencenze nedokázala v jakékoli jiné hře s 2xRX480 dosáhnout výkonu 1080. A spotřeba těch dvou karet... hmmm...

+1
-2
-1
Je komentář přínosný?

nevím jak je na tom 1080, tu nemám, ale 2xRX580 (rychlejší než 480) je určitě 1080 blízko. I tak jsem raději napsal výkon mezi 1070-1080, aby se tu jako někdo nezbláznil. Spotřeba kakat, hraju max pár hodin, zdroj zbyl z minera taky, na ty 2 karty je myslím s 1200W gold zdrojem větší rezerva než jakou má Franta pro svou 1080 s bronze noname 6ti-stovkou. (Btw ten zdroj tahal karet 6, podtaktovaných, ale i tak...). Jen by mě zajímalo jestli by šly sehnat nové větráky do Saphire Nitroplusek

+1
+1
-1
Je komentář přínosný?

https://twitter.com/i/web/status/1306655000454725636
"I've now got confirmation for both :

> Navi21 16GB VRAM
> Navi22 12GB VRAM

I have no idea if these are full die or cut down SKUs"

+1
+2
-1
Je komentář přínosný?

divím se, že chybí články o nedostupnosti RTX3080 a že vlastně celý launch FE edic byl vlastně fake a těch pár karet sežrali nákupní boti za pár vteřin

+1
+1
-1
Je komentář přínosný?

Přitom těch karet bylo stejně jako při launchi 2000 řady. Steve z GN o tom má video, že nějaký OEM výrobce pc měl 900 ks a za 10 minut prodal všech 900 mašin s těma kartama. Etaileři měli extrémní zátěže na svých stránkách a co měli vyprodali za pár sekund.

Ano s ohledem na zájem těch karet bylo málo, s ohledem na obvyklý lauch toho bylo stejně.

Taky mysli na to že do 1.9 se prodávaly grafiky jak po másle a od 1.9. se prodej téměř zastavil. Lidi čekali na nové grafiky. K tomu přičti covid a letos nadstandardní zájem o herní HW.

Koukni na XBOX či PS, ty nové konzole jsou také vyprodané už v předprodeji.

+1
0
-1
Je komentář přínosný?

Jedna karta stačí každému....aneb chiplet design ještě neřekl poslední slovo :)

+1
+2
-1
Je komentář přínosný?

Eh, s jednou kartou to nic nema.... karet si porad muzes dat do systemu kolik se vejde. Problem se SLI byl ze jednak je uzitecnost omezena pameti a jednak to ma nulovou flexibilitu.

PCIe existuje, pro tky ktere nestaci: NVLINK - rychle spojeni mezi GPU taky porad existuje a bude existovat. Kdo potrebuje vyuzivat >1 GPU tak si to furt muze naprogramovat i s rychlou inter-gpu komunikaci. S vulkanem/dx12 je to sice vic prace ale taky mnohem vetsi moznosti.

+1
0
-1
Je komentář přínosný?

U AMD hlavně nepotřebujete NVLINK, povídají si přes PCIe, Gen4 je na to dostatečně rychlé. A serverová HPC GPU mají IF konektivitu.

+1
+3
-1
Je komentář přínosný?

Odkaz na nejakou tu HPC GPU s IF by nebyl?
(on ten NVLINK, IF pripadne CXL a jeste jeden dalsi standard.. nabizi zrejme ty same sluzby - cache coherent pristup, skoda ze v PCIe to nebylo od pocatku)

+1
0
-1
Je komentář přínosný?

Nevím, jak v HPC, ale IF spojující 2 Vegy je např. v Apple Mac Pro (dual 7nm Vega 20). Ten NVLink je běžný v serverech. Na desktopu je v plné variantě na Quadro (GPu si vidí do RAM ostatních GPU), na GeForce je část funkčnosti vypnutá (nevidí si do RAM, takže driver musí klasicky nahrát stejná data do obou karet - plýtvání VRAM).

+1
+1
-1
Je komentář přínosný?

Dik, ten rozdil s vram nebyl hned jasny, ale pak to vysvetluje uz proc se DGX umi tvarit jako "jedna" grafika :)

+1
+1
-1
Je komentář přínosný?

Ano, to je ta síla NVLINK/IF - pro aplikaci je to jedna GPU. Žádný problémy s podporou SLI/CrossFire a žádná manuální práce programátora s více GPU v systému.

+1
+1
-1
Je komentář přínosný?

Umí to Radeon VII a pak všechny ty výpočetní karty řady Instinct: https://www.amd.com/en/graphics/servers-radeon-instinct-mi

+1
+3
-1
Je komentář přínosný?

"...ale Pascal (GeForce 1000) SLI vyřadil i ze standardního mainstreamu, kdy GeForce GTX 960 již konektor nenabídla...." - Nebyla v tomto kontextu myšlena spíš GTX 1060?

+1
0
-1
Je komentář přínosný?

Cim dal vic jak informacnich tak gramatickych chyb se objevuje v clancich od diitu.cz, vety se nespojujou, chybi nebo sou naopak pismena pri-dana navic a jeste k tomu se vety za sebou opakujou, korekce sla hodne bobkem dolu.

+1
-5
-1
Je komentář přínosný?

Nikoho to netrapi, toto su članky pre hardwarovych nadšencov a nie sekretarky.

+1
-5
-1
Je komentář přínosný?

kdyby to byla pravda

+1
0
-1
Je komentář přínosný?

Nikoho? Mluv za sebe a ne ostatní. Těžko brát vážně názory někoho, kdo nebyl schopen, za minimálně osm let výuky, pochopit základy mateřského jazyka.

+1
+1
-1
Je komentář přínosný?

SLI a Crossfie mělo v posledních letech problém hlavně s horším škálováním. Komu se chtělo platit za dvě karty, když nárůst výkonu s druhou kartou ve full HD byl obvykle 0–20 %. A za to, že to v nižších rozlišeních neškáluje, mohou dlouhodobě stagnující procesory. U nich se to zlepšilo, až když Intel pustil do mainstreamu šestijádra a osmijádra, ale to už bylo v době, kdy SLI/CF nikdo nepoužíval.

Dorazilo to Mantle/DX12 s vizí, že vývojáři budou sami a z vlastní iniciativy přidávat do her podporu pro explicit multi-gpu a můstky a AFR už nebudou zapotřebí. Ve finále se to dostalo v podstatě jen do her, kde to zaplatilo AMD, aby se zaříznutím CrossFire dokázalo, že už ho nepotřebují.

A ostatně, když se podíváte, jak škáluje RTX 3080 ve srovnání s RTX 2080 Ti ve full HD, je to takový krásný příklad toho, že bychom se u SLI zase dočkali všude mimo 4K nárůstů 0–20 %, a kvůli tomu už si druhou grafiku koupí fakt jen magor.

BTW, s uvedením RTX 2070 Super ještě probublalo SLI i do, v podstatě, mainstreamu, takže to bylo relativně dostupné i normálním lidem.

+1
0
-1
Je komentář přínosný?

Pozor na záměnu příčiny a následku. Není to spíš tak, že o SLI / CrossFire reálně nikdy nebyl takový zájem, aby to zaplatilo složitou softwarovou podporu, kterou oba výrobci v tichosti utlumili, v důsledku čehož nové hry neškálovaly?

A nebyla nová API spíš nabídkou vývojářům, kteří o akceleraci s více GPU stojí, aby ji implementovali takovým způsobem, který má pro hru smysl namísto již u řady her nefunkčního generického modelu v ovladačích?

Můstky už AMD zrušila v roce 2013 s Hawaii (nejde o nic nového) a dopad byl spíš pozitivní. Pokud jde o Nvidii, tak změna můstku pomalu s každou generací (SLI -> SLI-HB -> NVLINK) a jejich cena rostoucí s každou generací až na $90 působila spíš jako snaha odradit poslední uživatele SLI.

+1
+3
-1
Je komentář přínosný?

Není. Zájem klesal úměrně tomu, jak s druhou kartou klesalo škálování výkonu. Podívej se na testy GTX 1080 ve SLI a zaměř se speciálně na škálování s rozlišením (v té době byla obvyklá čtyřjádra). Obdobný problém s výkonem procesorů byl pak u RTX 2080/Ti, kde už je ve full HD kolikrát škálování i záporné, zatímco ve 4K nárůsty výkonu vidět jsou (a rostou s rozlišením).

https://www.techpowerup.com/review/nvidia-geforce-gtx-1080-sli/
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-sli-rtx-20...

Ano, u AMD bylo bezpochyby příčinou to, že nechtěli vrážet prachy do podpory CrossFire v okamžiku, kdy u vývoje grafik katovali kosty a nefungovaly jim dokonale ani ovladače na jednu kartu. Taky nemá moc smysl skládat multiGPU ze slabších karet, když jde místo toho koupit jednu silnější.

U Nvidie si nemyslím, že by byl primární příčinou problém s financováním vývoje a optimalizací, už jen proto, že v podstatě stačil ten generický model, který u většiny her a konfigurací pořád ještě fungoval.

Nvidia můstky měnila proto, že nestačila jejich propustnost a nároky na ni rostly. Ale nemyslím si, že by člověka, který si chce pořídit dvě karty za 1200 dolarů, odradí můstek za devadesát. :D

+1
+1
-1
Je komentář přínosný?

Nemelo to smysl, kdyby dokazali spojovat ruzne grafiky, tak to mohlo byt zajimave, ale proc bych si pro boha kupoval dve stejne karty a ne jednu vykonejsi, to mimo ten absolutni highend, nad kterym uz nic neni, nedava smysl.

Ja mel treba GTS450 a pak jsem poridil GTX570. Tak jsem nechal v pocitaci obe, protoze mi horsi karta mohla pocitat PhysX.

A ano, muzete se mi ted smat, mne to po letech taky prijde hodne usmevne, zvlast kdyz jsem tu slabsi grafiku myslim po dvou letech vyndal, protoze jaksi nemela vyuziti, PhysX se jako temer vubec nekonalo. :-)

---

Asi to sem do clanku nepatri, ale RTX 3080 teda zklamani, kdyz pominu, ze je karta zrava stejne jako tamta od AMD, ze ktery jsem kvuli tomu mel srandu, tak druha vec je nepovedene chlazeni, ktere narusuje airflow v PC skrini a otepluje procesor. Tohle hloupe reseni maji i karty vyrobcu snad vyjma totalne predrazene MSI Gaming Trio. Doufam, ze teda AMD tuhle hozenou rukavici jeste sebere a predvede neco lepsiho v oblasti chlazeni. Meli by, narozdil od NVidie oni to vazne potrebuji.

+1
+2
-1
Je komentář přínosný?

Spojovat grafiky přece můžeš jak se ti zlíbí, podpora v DX i Vulkanu je, problém je že to nikdo nechce dělat protože je to neskutečný oser aby věděli co mohou po které grafice chtít a jak to vybalancovat mezi 2 a více grafikama v systému aby jedna nedělala bottleneck ostatním

Proto to taky vývojáři nikde nepoužili, nedivím se, vzhledem k cílové skupině to nestojí za tu práci. Navíc v době kdy nám skokově rostou výkony grafik, Od 27.5 2016 do 17. 9. 2020, tedy 4 roky 4 měsíce se nám výkon grafik zvedl zhruba 2.5 násobně a dokonce za stejnou cenu (GTX1080 a RTX3080)

K 3080 chlazení ... Nastuduj si materiály od recenzentů.

1: airflow skříně ta grafika možná narušuje ale v jaké skříni, jsou skříně a jsou skříně, jedna má ráda negativní, druhá pozitivní tlak. V jedné je to řešeno tak v druhé onak

2: nikdo neprokázal že by teplota CPU s tou grafikou vzrostla

3: všichni potvrdili že to pomáhá, byť minimálně, teplotě pamětí.

+1
+1
-1
Je komentář přínosný?

Je super, ze to v nekterych skrinich bude pusobit pozitivnim tlakem, jenze moje nic takoveho neumi. Takze ja mam u RTX 3080 vyznamne minus a budu cekat, jestli se neobjevi neco lepsiho.

Dalsi vec je, jak moc jsou ty grafiky hnusny. Treba ted jsem zhlednul ukazku EVGA RTX 3080 a fakt nevim, proc bych si mel dat do pocitace s oknem neco tak oskliveho, tak levne plastove pusobiciho. Jeste v zadne generaci nepredvedli na launch vyrobci tak osklive grafiky jako letos. Mezi nima se Founders Edition vyjima jako neco vyjimecne povedeneho, pritom z testu to vypada, ze teploty nejsou nic moc.

Ale zatim teda vim, ze pokud nakonec RTX 3080 budu preci jen brat, tak bych chtel tu FE od NVidie, neni draha a jeste vypada pekne. Bohuzel zle jazyky tvrdi, ze NVidia neni zasobena tak, aby poptavku uspokojila do konce tohoto roku, tudiz mi davaji aspon cas na pruzkum i u konkurence, kde po oznameni realne naskladneni take ocekavam az v zaveru roku nebo na zacatku pristiho. :-/

+1
+1
-1
Je komentář přínosný?

A proč nekoupit po určité době za dobrou cenu druhou s bazaru a odložit tím nákup nové grafiky. Já vím nové technologie, ale někomu to mohlo stačit.

+1
-1
-1
Je komentář přínosný?

Mne prijde, ze bazarovky s cenou kolem 10K prestavaji mit smysl. Je to jen pocit, ale jestli nejsme jako hraci uplne spokojeni a pripraveni na ceny novych grafik pres 20K, tak myslim, ze nejsme (u me to plati urcite) pripraveni ani a dvakrat tolik na nakupy bazarovek za 10K.

Proste bazarovky jsem prestal kupovat v dobe, kdy by me stala vic jak ty 3,5 tisice, co jsem za ni dal naposledy a to uz je rada let.

---
Jsem i zhyckany tim, ze chci tichy pocitac, teda neco co jsem pred 15 lety neresil, ale dneska na tom trvam a bazarovku s vyjetyma loziskama teda ani z tohoto duvodu ne. Jiste chlazeni se da vymenit, jenze to zase zvedne cenu nad unosnou uroven toho, ze kupuju neco uz pouziteho.

Na aukru je nejlevnejsi RTX 2080 Ti za 14K a RTX 2080 za 11.5K, to jsou ceny novych grafik podobneho vykonu, ktere tu budou za mesic. Blaznostvi kupovat pouzitou.

+1
0
-1
Je komentář přínosný?

pochybuji, že by se s tím dneska někdo patlal v nové hře, nikoho to zajímat nebude a implementace 1 manday taky stát nebude. S Pascalem přišlo dostatek výkonu, že přestalo dávat smysl kupovat 2 karty, I v recenzích pokud si dobře vzpomínám to nikoho netrápilo.

+1
0
-1
Je komentář přínosný?

Náhodou by bylo docela elegantní udělat jednu kartu jen s tensor-cores pro raytracing.

+1
-1
-1
Je komentář přínosný?

kompromisní řešení výkonu nazvané SLI se překonalo, i nVidia už to uznala. Důvodem je že dnes není problém vytvořit výkonné GPU...

+1
-2
-1
Je komentář přínosný?

A nechcete jít do AMD či nVidie jim říct, že to není problém? Asi by s vámi hodně rychle vymetli. Už i nVidia začíná narážet na limity technologií, protože u řady 3xxx zvedli výkon, ale za cenu nemalého zvýšení spotřeby. Už mají problém zvedat natolik efektivitu, aby výkon rostl, ale spotřeba byla +/- stejná. Jistě, teoreticky není problém nasázet na kartu třeba taková čtyři jádra a nahonit je na limit. Blbé je, že taková karta bude muset mít přibundlován jaderný reaktor a dusíkový chladící systém...protože takovou věc v realitě nikdo neuživí a neuchladí. Pryč jsou časy, kdy první 3Dfx karty měly zcela holý čip, bez sebemenšího pasivu a zvládly to celé napájet šroty od Eurocase.

+1
+1
-1
Je komentář přínosný?

Hmm, zaujimava debata. Moc hry nehravam, mam Radeon 7850OC ale deckam trochu seka Minecraft (2k rozlisenie). Ak by som dokupil druhu 7850OC tak by som mohol mat vyssi vykon?

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.