Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeony RX 5000 podporují CrossFire pouze pro DX12 / Vulkan

nezačlo AMD "značku" CrossFire opuštět už s příchodem VEGY/DX12 a od té doby už propagují jen mGPU ?

+1
+1
-1
Je komentář přínosný?

Možná, ale pořád drželi podporu v ovladačích. Ukončit ji, to už není opouštění CF nebo propagace mGPU, to je prostě konečná.

+1
+2
-1
Je komentář přínosný?

"Začala se psát v roce 2004 ...brzy na to přišla ATi s AFR" - ne, nezačala a Ati napřišla. Historie SLI (i AFR) se začala psát mnohem dříve. Ke SLI se nVidia dostala přes nákup firmy 3Dfx v roce 2001 po vydání 3Dfx Voodoo4 a 5. SLI byla poprvé použita co vím jednak na kartách Quantum3D s čipy Voodoo 1 (bohužel nevlastním) a u 3Dfx Voodoo2 (nevim termíny, ofico považuji za první SLI řešení Voodoo2), což byl hlavní tahák 3Dfx v tomto roce - počátek 1998! V roce cca 2000 pak vyšla ATi Fury Rage MaXX ... dvoučipovka používající technologii AFR.

+1
-3
-1
Je komentář přínosný?

„"Začala se psát v roce 2004 ...brzy na to přišla ATi s AFR" - ne, nezačala a Ati napřišla“

Opravdu už budu za tohle vytrhávání z kontextu mazat příspěvky. Když odstavec začíná slovy: „Celá novodobá historie SLI a CrossFire…“, má to svůj důvod.

Původní SLI 3Dfx nemá s SLI Nvidie nic společného vyjma obchodní známky, kterou Nvidia získala akvizicí 3Dfx. Zkratka SLI znamenala Scan-Line Interleaving, což je režim, který Nvidia nikdy nepoužívala. Nemá proto smysl míchat původní SLI s novodobým, nijak nesouvisí.

+1
+6
-1
Je komentář přínosný?

Taky si pamatuji, že technologie Vůdů nebyla technologií SLI, ale to že vedl konektor z normální grafické karty do vůdůčka a ten teprve ten obraz nějak dodělával. Tehdejší grafické karty byly strašně jednoduché a kdo měl ATi Rage 32MB byl bůh, ale to už je počítačová praprapraprehistorie, něco jako vznik atomů po velkém třesku.

+1
-1
-1
Je komentář přínosný?

bylo to trošku jinak. Voodoo jakožto graficky akcelerátor měl VGA kabel z klasicke grafiky do něj a z něj to šlo do monitoru. Pokud se zapla 3d hra, tak došlo k inicializaci voodoo, naskočilo vám na monitoru logo a voodoo úplně převzalo kontrolu nad výstupem do monitoru. Vodoo karty navíc měly konektor a daly se propojovat do multigpu. Propojovací kabel vypadal podobně jako kabel k floppy.

+1
+3
-1
Je komentář přínosný?

Aha tak to jsem nevěděl, myslel jsem že na tom ty dvě karty spolupracují. Tato technologie mě prostě minula a skočil jsem pak až do GeForce 2 MX

+1
0
-1
Je komentář přínosný?

Fakt nic?

To i ja mam Ati Rage 2 + Voodoo 2. A mam je opravdu soucasnost, ten PC mi stale funguje, ovsem uz se mi to nikam nevejde, tak je ve skrini a vzdycky jednou za rok si udelam paricskej vikend. :-)

+1
0
-1
Je komentář přínosný?

jj, Voodoo neuměla 2D akceleraci, ale jen to své 3D. Takže v PC byla klasická 2D grafika a Voodoo přebírala kontrolu jen v podporovaných hrách.
Sám jsem si na stará kolena pořídil bazarové 2xVoodoo 2 a ve Quakovi vyzkoušel ;)
Mělo to výhody. Tehdy se u grafik právě 2D a podpora videa hodně řešila, takže člověk mohl vybrat nějakou dobrou 2D kartu s akcelerací videa na desktop a Voodoo už jen na hry ;)

+1
0
-1
Je komentář přínosný?

Voodoo 1 a 2 neuměla 2D. Voodoo 3+ ano. Pikantní je, že ty už se nedělaly klasicky pro SLI, ale škálovatelné jako multichip řešení (evoluce?) a nVidia si z toho vzala právě to SLI a navíc spíš marketingově než technologicky :-)
Jinak Voodoo a Glide bylo tenkrát 3D porno oproti všemu, co nabízela konkurence ...

+1
0
-1
Je komentář přínosný?

Ehm, 3dfx: 1 karta pocita jednu pulku snimku, druha karta pocita druhou pulku snimku.
nvidia: 1 karta pocita jednu pulku snimku, druha karta pocita druhou pulku snimku.
Jedinej rozdil, je ze 3dfx pouziva intelaced mode a nvidia progresive. Fakt to spolu vubec nesouvisi :D

+1
0
-1
Je komentář přínosný?

S GK je to jako v životě. Existují lídři a ostatní nohledové je musí chtě nechtě následovat protože sami vést nedokáží. NV prostě dokáže přijít s novou technologií a být technologický leader. Ati tohle nedokáže a musí se přizpůsobit aby přežila.

Ikdyž zrovna u SLI.... nebyla první ATi s dvoučipovou kartou, myslím že existovalo něco jako Radeon MAXX který pracoval s AFR? Navíc SLI byla technologie Voodoo2. Dobré je, že AMD se alespoň snaží hacknout NV že uvede Freesync jako otevřený standard proti G-sync.

+1
-3
-1
Je komentář přínosný?

áno Maxx tam bolo :-) ...volala sa ATi Rage Fury Maxx 32MB ... https://www.techpowerup.com/gpu-specs/rage-fury-maxx.c644

Na svoju dobu super karta, len nemala DDR pamäte (iba SDR) a T&L jednotku (Transforming and Lighting) a preto potrebovala čo najvýkonnejší procesor, aby sa vyrovnala prvej Geforce-ke :)

Po tejto karte vyšiel už prvný Radeon, ktorý už mal aj T&L aj DDR pamäte...to tu už bola Geforce 2 GTS, takže Radeon "one" to mal veľmi ťažké..

+1
0
-1
Je komentář přínosný?

Mne sa pacilo ako Ati pred uvedenim Radeonu hovorilo o vykone 10x-15x Geforce (mozno ze to bolo len o vykone pixel/vertex pipeline) a datum vydania v nedohladne. To boli sranda casy. :)

+1
0
-1
Je komentář přínosný?

To bylo o 10-15 %. Nikoli 10-15× :-)

+1
0
-1
Je komentář přínosný?

jj, az na platok "PC 2000", ktory napisal ako hovorim ja, bolo to pred uvedenim Radeonu 8500. :)

+1
0
-1
Je komentář přínosný?

Radeon 8500 som vlastnil po Geforce 2 MX...v istom aspekte unikátny kúsok (stále ho mám odložený)...prvá grafika čo mala Tesselačnú jednotku (TruForm), podporovolo jú síce asi len 20 hier, ale prvenstvo jej už nikto nezoberie...tak ako RTX kartám :)

+1
+2
-1
Je komentář přínosný?

- jediné co přinesla NV je slušný výkon pro pseudo RT, které je tu cca tři generace a dál ?
- Ati od počátku měla výrazně lepší kvalitu výstupu a akceleraci videa (doba kdy kraloval DSUB)
- AMD jako první přineslo 10 bit výstup pro neprofesionální karty
- díky AMD tu je low lvl API a jiné technologie z kterých aktuálně těží i NV u Turingů ;) (je pravda, že NV dokáže velmi rychle adaptovat cizí nápady a vytěžit z nich více než ten co to vymyslel :) )
- první kdo s tím principem přišel byl VESA.ORG kvůli úspoře energie v mobilním segmentu (ani ve snu je asi nenapadlo alternativní využití pro hry )>> NV se toho chytla a udělelal vendor lock-in variantu G-SYNC a následně se AMD chytlo za nos a rozjeli to s otevřeným FS (proto taky byla první předvaděčka na NTB, protože měl eDP verzi, která podporovala daný standard)

atd. atd. atd. :)

+1
+2
-1
Je komentář přínosný?

Ad kvalita výstupů, to je nějaký fakt, nebo jen dojmy z toho, že někteří výrobci na kartách ojebávali elektroniku u výstupů? ATI si dělalo v té době karty samo, takže to měli pod kontrolou. U Nvidie jenom musel člověk vzít výrobce, co ty karty nevykrádal, a s kvalitou výstupu nebyl problém.

Ne, Nvidia neviděla eDP a nedostala spásný nápad, prostě přišla s adaptivním v-syncem ve hrách a ten standard k tomu jenom využila. To, že je extrémně nevýhodné, pokud může monitor přepínat jen mezi násobky frekvence s v-sync (a že to při přepínání z fixních 30 na 60 fps dělá dojem, že se obraz trhá), řešili už dlouho před G-Syncem. A že je pitomost u LCD jenom kvůli zpětné kompatibilitě s D-subem realizovat vykreslování obrazu stejně jako na CRT a ještě to mít locknuté na 60 Hz řešil asi každý, kdo někdy přemýšlel nad tím, jak se obraz dostane z grafiky na monitor, nepochybuju o tom, že by tohle v Nvidii bez eDP nikoho nenapadlo. Kdyby to na ten standard nešlo nabastlit, udělali by vlastní řešení. Kvůli G-sync byli schopní udělat kompletní novou elektroniku k monitorům. Přidat k tomu i vlastní rozhraní by už nebyl takový problém. S elektronikou u monitorů a s v-syncem ostatně koketovali už dávno před ním, mj. protlačili na trh 120Hz LCD kvůli 3D stereu. Ještě před eDP.

+1
-3
-1
Je komentář přínosný?

- to je fakt (získaný z praxe měl jsem několik ATInek a snad všechny generace od NV (od prvopočátku) a než se prosadil masověji digitální výstup tak to byla v jejich podání slabota ve všech směrech .. akorát tu akceleraci 3D měli o hodně lepší :)
- o které kvalitní značky mělo jít ? samotnému mi prošlo několik různých kousků rukama a montoval jsem to i do sestav známým
- kdyby s Adaptive V-Sync nebo G-Sync přišli o pár let dříve nebo aspoň v těsném závěsu tak bych tvé verzi i uvěřil, že se neinspirovali někde jinde a myslel bych si, že na tom cíleně spollupracovali aby mohli udělat vlastní řešení :)

+1
0
-1
Je komentář přínosný?

Myslíš třeba Mantle jako začátek DX12 a Vulkanu? ;)

+1
+1
-1
Je komentář přínosný?

No jasne, nvidia spatna, amd dobra... Jeste docela zive si pamatuju, jak se amd snazila nvidii vyfouknout vitr z plachet pri uvedeni pascala zapojenim dvou rx480 do crossu. Zcela vazne.
Podle me byl upadek multigpu reseni zapricinen tim, ze to vzdy melo smysl jen na high-endu a melo to smysl jen pro nekoho, komu nestacil vykon tehdejsi nejvykonnejsi karty. Coz bylo naproste minimum z minima lidi.
Problemu s multi gpu reseni bylo vzdy vice, nez vyhod, ergo u nizsich trid karet. A to jak pro hrace, tak urcite i pro programatory. Napriklad to, ze se nescitala graficka pamet, bylo napriklad u 2GB karet dost limitujici, kdyz jste ve hre potrebovali na lepsi detaily 4GB.
U rady titulu nefungovalo multigpu pro jistotu vubec. Bud nebylo podporovane ze strany vyvojare, nebo pro ten titul nebyl profil. Obcas jsem na profil cekal i pul roku.
Spatne skalovani asi netreba zminovat, to byl denni chleba. Za +50% jsem spontane padal na kolena a za +90% jsem k tomu bral rovnou fapesnicky.
Postupem casu uz ale nebyl duvod honit
se za multigpu, protoze jedna karta stacila a tim odpadla i spousta trablu. Napriklad spotreba, nebylo vyzadovano vlastnit 1000W zdroj. Chlazeni - vrchni kartu uchladit byl kumst i u tech 2GB plecek. Pro high-endovy karty byla potreba i platforma s dostatkem pci linek, pokud chtel clovek vymacknout i ty posledni procenta ( aspon tak se to tradovalo) - coz bylo taky drahy jak prase...
Proste a dobre pro mainstream a lowend to bylo naho... k nicemu a to prosim pekne i v pripade, ze to nahodou fungovalo, protoze obcas byly ty casy snimku tak rozkolisany, ze bylo nekdy lepsi to vypnout a jit ven si odpocinout.
Pro high-end se to casem nevyplatilo kvuli cene platformy a vykonu novych grafik. Plus na to kaslali vyvojari na obou stranach, problemy s freesync i gsync byly jen spickou ledovce. To je imho i duvod, proc jsme se zatim nedockali hry, ktera by podporovala multigpu v dx12.

+1
-1
-1
Je komentář přínosný?

"o je imho i duvod, proc jsme se zatim nedockali hry, ktera by podporovala multigpu v dx12."
hry podporující mGPU pod DX12, Vulkanem existují ;) ač to většinou není žádná sláva ..ale to je všeobecný problém u "nepracovního" mGPU řešení :) a jen pár je dobře "napsaných" a fungují ukázkově

+1
0
-1
Je komentář přínosný?

Vím jen o jedné AotS, které další to podporují?

+1
0
-1
Je komentář přínosný?

Dobrý dotaz. Také jsem dohledal čerstvou informaci, že to funguje pouze v AotS (alespoň explicitně, tak jak bylo zamýšleno), ale! na youtubu jsou starší videa z Deus EX: Mankind Divided, kde to funguje pod dx12 s dvojicí rx480 - tedy alespoň implicitně (v podstatě cross), v BF1 s dvojicí 1080Ti (implicitní v podstatě sli), v BFV R9 Fury s Nano (implicitní, jsou kompatibilní v cross). Čili jak to je vlastně zase vůbec nevíme aka nevěřim ničemu, co si sám nezfalšuju. Na Vulkan je jediné video od wccftech ve hře Strange Brigade a funguje to jen s dvojicí radeonů. Jako 2 hry, to je sice o 2 hry víc, než jsem si myslel, ale ve výsledku fakt málo. Jen to potvrzuje, že na to je z obou stran kašláno, protože o to momentálně prakticky nikdo nemá zájem.

+1
0
-1
Je komentář přínosný?

Dík za informaci. Já pořád myslím jen na tu explicit variantu.

+1
0
-1
Je komentář přínosný?

Končí tedy AMD s CrossFire nebo ne? To co je v DX12 a Vulkanu není CF ani SLI, ale prostě multi GPU, máme to tu dávno a aktuálně to používá jedna hra a jeden benchmark?

+1
0
-1
Je komentář přínosný?

"s Radeony RX 5700 končí klasické CrossFire a zůstává pouze podpora pro Explicit Multiadapter"

S novými Radeony skončilo DX11 mGPU (Crossfire), a také jedna z možností DX12 mGPU - Implicit (v zásadě taky Crossfire, jen pod DX12). AMD už nebude řešit ovladače a profily pro jednotlivé hry, je to na vývojářích. Zůstává DX12 Explicit mGPU, které se dělí na Linked a Unlinked. Linked=stejné grafiky, využívá to myslím třeba Tomb Raider. Unlinked=libovolné grafiky (podporující DX12), což dosud má jen AotS.

+1
+2
-1
Je komentář přínosný?

Nevím, no... s RTX 2070 Super spadl konektor na SLI i na GeForce za třináct a půl a měl by tam normálně fungovat (a kombo dvou RTX 2070 Super nemusí být na poměr cena/výkon špatné). Fakt je, že jsem si až po otestování uvědomil, že o tom v RG není ani zmínka.

U Radeonů jsem ale předpokládal, že to, že ten konektor schází, neznamená, že CrossFire nebude fungovat. To je celkem... blbý.

+1
-1
-1
Je komentář přínosný?

otázkou je proč dva supery když ve spoustě případů bude jeda 2080Ti lepší, zvláště při RT, tam SLI nefunguje vůbec.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.