Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Patří Vega k největším propadákům světa hardwaru?

Jj, souhlasim. AMD prostě nedokázala světu vysvětlit, že ty nízké FPS na Vega kartách jsou záměr, ne chyba!!!

Pamatuji se, jak jsem se někde zmínil, že za všechno může Koduri a následně mi AMD fans vysvětlili, že se mýlím a Koduri za to bude moct až za pár měsíců až přejde do Intelu. :-D

+1
-17
-1
Je komentář přínosný?

ja som bol s 2x Vega 56 (default vysavac - hlucny, ale v case som mal 30 stupnov, Nitro+ )spokojny, a po case som ich predal drahsie, ako som ich kupil. Pre mna z toho pohladu najlepsie karty za ten cas, co gpu kupujem

+1
+7
-1
Je komentář přínosný?

Tiez som mal Vegu 56. HBM sli taktovat z 800 na 1100 MHz, k tomu undervolt a vykon sa zvysil na uroven GTX 1080.

+1
+5
-1
Je komentář přínosný?

Já jsem měl pár let Vega 64. Spokojenost. Nejlepší poměr cena-výkon, když se poladila trošku vodníkem a trošíčku (+30%) přetaktovala :)

+1
+4
-1
Je komentář přínosný?

dodnes používam Vegu 64 od Sapphire a max spokojnosť. Teraz čakám na novú 79..... celý čas ide na undervolting, mierne zdvihnuté pamäte. ticúčko, bez problémov. Teda až na začiatky kedy som mal black screeny, ale na to som prišiel že pri freesyncu nemôžem mať zapnuté aj radeon enhanced sync, čo aj je napísané v dokumentácii pri adrenaline driveroch.

+1
-1
-1
Je komentář přínosný?

si mal stastie, mne sli taktovat len a 950MHz. Na to si v neskorsich varkach dali vyrobcovia pozor, aby tam (na Vega 56)nedavali tie lepsie HBM

+1
0
-1
Je komentář přínosný?

To trebalo flashnut bios z Vegy 64, co zvysilo voltaz pre HBM o cca 0.15V a potom sli taktovat na 1100. Bez flashu mi sli len na 960.

+1
+2
-1
Je komentář přínosný?

Nieco z Koduriho v AMD este zostalo. Pozri podporu frameworkov u AMD Instinct™ MI250:
https://www.amd.com/en/products/server-accelerators/instinct-mi250

TensorFlow: Yes
PyTorch: Yes
Kokkos: Yes
RAJA: Yes

+1
+2
-1
Je komentář přínosný?

Koduri je dnes v oblasti GPU asi najvacsi macher, napriek haterom. Riesi filozofiu, zaklady a najtazsie technologicke veci. Samozrejme, kym sa technologia "vylesti" a zoptimalizuje, este to chvilu trva, ale stavia sa na tom, co postavil Koduri.

+1
-5
-1
Je komentář přínosný?

"Riesi filozofiu, zaklady a najtazsie technologicke veci."
.. nechci ti brat iluze, ale pokud je v manazerske pozici u Intelu, jako ze je, tak opravdu neresi uz vubec nic. Maximalne, kdyz mu prijdou lidi s nejakyma napadama, doporucenima a nedohodnou se sami, tak pak rozhodne za ne :)
Jeho task je koordinace tymu, zajistovani penez, reseni veci, ktere s tim souvisi + mozna urci obcas nejaky smer (ale to je s dost velkym otaznikem).

+1
+4
-1
Je komentář přínosný?

Co znamená nízké? Byla mezi gtx 1070 a 1080. Někde na úrovni 1080, někde spise 1070. Nicméně měl jsem ji asi 4 roky (Vega 64 na vodniku) a rozhodně se nedá říct, že měla nízké fps. Topila, to jo :-).

+1
+1
-1
Je komentář přínosný?

Co je "nízkého" na výkonu v průměru o 5% větším než soudobá GTX 1080?

https://www.youtube.com/watch?v=rHlpSH5mMuo

+1
+1
-1
Je komentář přínosný?

Přesně! A stačilo nějak přetrpět těch 100 W navíc a počkat jen pět let, než hry dozrají na vyspělejší architekturu. No jestli nestálo za to dát těch pár stovek navíc za těch pět procent k dobru v roce 2022!

+1
0
-1
Je komentář přínosný?

Proč "přetrpět"? Novější hry mají logicky vyšší nároky, takže u nich je výkon nejpodstatnější. U soudobých her o něco nižší výkon vadí výrazně méně, protože pro ně i o něco nižší výkon bývá zcela dostatečný.

+1
0
-1
Je komentář přínosný?

Jak je zmíněno v článku, propadák z ní udělaly ty odklady a problémy s výrobou, v desktopu spíš byla zastíněná Polarisem, který se ukázal jako skvělý mainstreamový produkt a následná řada RX 5000, zase nabídla velký posun v energetické efektivitě a poměru cena výkon (i když spolehlivost zezačátku nic moc).

Hlavní nevýhoda oproti konurenci v desktopu byla vyšší spotřeba, nižší maximální fps při malé zátěži a neschopnost konkurovat v high endu, ale oproti řadě GTX 1000 zase nabízela lepší výkon v DX12/Vulkan, větší VRAM a lépe držela výkon u vyšších rozlišení, takže v tomhle ohledu souhlasím s tou dlouhověkostí.

Z osobní zkušenosti jsem musel na svojí Vegu 64 čekat hodně dlouho a výběr použitelných modelů s kvalitním chlazením byl velmi malý (Asus katastrofa, Sapphire, ukterého jsme skončil, hlučný a kromě PowerColoru tu už nic dalšího nebylo). Kupoval jsem jí v době, kdy ještě NVidia nepodporovala FreeSync, takže moje koupě i s monitorem, nakonec vyšla mnohem levněji, než co nabízela konkurence. Navíc přišla v době, kdy AMD zapracovala na SW, takže v tomhle ohledu velká spokojenost, protože víceméně většinu funkcí jsem nakonec využil, i když je nevyužívám pravidelně. (Power Limit, FPS limiter, Mobilní aplikace, nahrávání a editace záznamu)

+1
+4
-1
Je komentář přínosný?

ked som uz cital napis ma to troska triggerovalo. Pretoze mam prave laptop s 5500u, a akoze na tie stare hry to bohate staci.A co sa tyka desktopu, ja som kupoval 5/2020 z vypredaja NOVU nereferencnu gigabyte vega 64 za 250e ! Stacilo undervoltovat a ta karta bola uplne dostacujuca na vacsinu veci. A potom 2021 predana za 600e :). A este rad by som podotkol, napr RDR2 a ine moderne hry, tam AMD fakt pekne bezia a aj dorovnavaju 1080ku.

+1
+3
-1
Je komentář přínosný?

"A este rad by som podotkol, napr RDR2 a ine moderne hry, tam AMD fakt pekne bezia a aj dorovnavaju 1080ku."

Podle https://www.youtube.com/watch?v=rHlpSH5mMuo je Vega 64 o 13% rychlejší v RDR2 než GTX 1080.

+1
0
-1
Je komentář přínosný?

aký opak voči RDNA

Samsung To Keep Using AMD's RDNA GPUs For Exynos SoCs

published about 15 hours ago
https://www.tomshardware.com/news/samsung-to-keep-using-amd-rdna-gpus-fo...

+1
+1
-1
Je komentář přínosný?

Nejsem si jist, ze Vega byla az takovy propadak jak to maluji. Ano vykon byl nizsi, spotreba vyssi, na druhe strane **cena** byla podstatne lepsi nez u Nvidie. Navic i ta "spatna" Vega jako iGPU dokazala porazit soudobe Intelacke iGPU.

Kdyz uz mluvim o cene a spotrebe, chybi mi v tom seznamu Intel Core 11 generace, plus intel HEDT. Ceny stejne jako konkurence (tohle alespon vyresili s 12tou generaci), spotreba jak letadlo, vykon sotva dotahujici konkurenci - proc tohle neni mezi propadaky ? Co Inteli HEDT, tak spatnej ze ho radeji uplne prestali delat, to neni propadak ?

+1
+4
-1
Je komentář přínosný?

Doteraz to značenie Vegy nechápem:
Vega 11 v R5 3400G je niečo lepšie ako Vega 10? U nových APU AMD už Vegu ani bližšie neznačí - nie je Vega so 7 jadrami v R7 5700G lepšia ako spomínaná Vega 11?

+1
-1
-1
Je komentář přínosný?

ako spominaju v clanku, vzdy tam boli nejake medzigeneracne vylepsenia. A tiez dost podstatny je takt.

+1
0
-1
Je komentář přínosný?

Ale ťažko sa v tom orientuje. "Vega graphics" nie je konkrétne označenie IGP.

+1
-2
-1
Je komentář přínosný?

ved preto uz pri 6xxx laptopoch oznacuju ako 680M / 660M. to si este pamatam ked som bol decko, nechapl som preco vzdy pisalo len RADEON 4800 series a podobne ...

+1
0
-1
Je komentář přínosný?

"Vega 10" v článku je kódové meno, niečo ako R300 v minulosti alebo Navi 31 teraz. "Vega 10", či "Vega 11" ako označenie grafiky v Ryzene 2700U resp. 3400G je produktové označenie podľa množstva výpočtových blokov. Karta s produktovým názvom "Vega 64" teda niesla čip s kódovým názvom "Vega 10". Aj grafická časť v Ryzene 2700U označená produktovým názvom "Vega 10", mala svoje kódové označenie, ale neviem aké.

+1
+2
-1
Je komentář přínosný?

Označení GPU Vega za největší propadák světa HW je naprostý nesmysl, jednoznačně tendenční snaha shodit vše AMD. Tomu odpovídá zahrnutí AMD Bulldozer/FX.
Nebyly to zázraky, ale grafika (FM1, FM2, FM2+) byla výrazně silnější než u Intelů tehdejší doby, cena výrazně nižší. Takže pro mnoha lidí dobrá volba.
Plus velký počet jader u FX byl pro použití v úlohách, kde rozhodoval MT, ne ST výkon, pro hodnocení cena/výkon jasný plus AMD - tehdejší i7 byly oproti FX šíleně drahé. Např. design FPGA byl na FX díky velkému počtu jader rychlejší než na cenově obdoných i5.

Za největší propadáky bych označoval technologie, které se na trhu vůbec nechytily - tomu neodpovídá ani jedna z uvedených až na Arc (NetBurst, FX, Vega). Arc nejspíš většího nasazení nedojde.

To už bych v článku viděl raději technologie jako FireWire (používala jen specifická skupina lidí kolem kamer a/nebo Apple), poslední Matrox grafiky atp.
Toto jsou technologie, které ale stejně většina lidí buď přímo viděla nebo aspoň o nich věděla, když byly na scéně.

Bizárů ze světa IT HW, které se neprosadily, bylo ale mnohem více.

BTW: xD karty pro Olympus a Fuji mělo vcelku dost lidí, ale většina dnes už ani nepamatuje. Jen CF a SD..

+1
0
-1
Je komentář přínosný?

Sorry, ale Bulldozer nebyl dobrej produkt. 8core dával horší výkon než 6core Phenomy 1090/1100. Myslím původní model 8150, jasně že 8350 Piledriver už byl o něco lepší. Ale s X6 1100 se AMD naposledy jakž-takž držela Intelu, Bulldozer ji poslal do dýchavičného závěsu (nijak nerozporuju, že byli lidi, co ten počet jader oproti 4core Intelům chválili prostě proto, že pro jejich využití to zrovna bylo velmi vhod). Argumentovat iGPU AMD z FMx éry je blbost, to s Bulldozerem po jeho uvedení prostě nesouvisí. Souhlas tak jen s tím, že i7 byly drahý. Byly, byly a byly.

Jinak s xD je prdel i dnes. Tuhle jsem zrovna nostalgicky zprovozňoval 20 let starej kompaktík Olympus. No, reukce xD-microSD je bez patřičně malé karty nanic - ale zkus sehnat max. 256MB microSD. Prakticky nelze. 1GB xD M to nesežere, moc velká. Furt jen card error. Takže jsem do toho sehnal ... sedíš? ... 16MB původní xD, na kterou to dostane ve střední kvalitě 32 snímků v 1600x1200. Ale má to takové specifické sympatické podání, zajímavé, jak to vlastně pěkně fotí na to, že to byl vlastně před těmi 20 lety takový levnější modýlek.

+1
0
-1
Je komentář přínosný?

"ale zkus sehnat max. 256MB microSD. Prakticky nelze." - no
na ali sem loni kupoval 128MB..

+1
0
-1
Je komentář přínosný?

IMHO... většina z těch kandidátů na propadák, které se tu přetřásají, vůbec propadáky nejsou. Jsou to produkty nebo rovnou celé generace produktů (P4, BD), které jenom byly o horší než to, co zrovna měla jejich konkurence. Akorát si to málokdo je schopný uvědomit, že, tím jak na trhu x86 a GPU jsou jenom dvě firmy, tak nevidíme, že i ten o dost horší propadák od čísla dvě je pořád něco, na co by se někdo třetí ani zdaleka nezmohl. Kdyby Bulldozera vyrobil Sun/Oracle nebo IBM jako jejich blleding edge nové jádro SPARC/Power (nebo ARM coby jejich nové výkonné jádro pro servery), tak by si nejspíš nikdo nevšiml, že je to "špatná" a neefektivní architektura. Totéž Netburst btw.

Bulldozer (a náseldníci), Netburst, Vega *fungovaly* jako produkt několik let. Horší spotřeba je blbá, ale ta je vždycky zvýrazněná tím, když se firma snaží vydřít výkon provozem na nevýhodných napětích, to by nemělo být nejdůležitější kritérium. Čily mohla být klidně lepš, kdyby se akceptoval o něco nižší výkon. Podobně není "propadák" Rocket Lake, protože sice má horší spotřebu, ale pořád je to fungující produkt.

Jestli chcete propadák minulé dekády, tak bych tak nazval Project Denver, ambiciózní projekt CPU Nvidie.
Léta kolem toho běžel hype, pracovali na tom snad od roku 2006 (akvizice Stexaru), plány byly velké - CPU od Nvidie měla být v superpočítačích, serverech, ale i v PC, pak v mobilech/tabletech. A výsledek byl, že jejich architektura opakující ideu z Transmeta naprosto vyhořela (vedlo toho, že asi byla o něco popožděná), jádro Denver bylo jenom v jedné Tegře, která se nikde moc nepoužívala (IIRC i to kritérium horší spotřeby bylo splněné, nebyla nic moc a výkon byl trochu zajímavý jenom chvíli). Veškeré významné komerční nasazení ARMů od Nvidie byly jenom SoC založené na normálních licenčních jádrech Cortex.

Tohle byl skutečný propadák. Nebylo to jenom něco, co bylo o trošku horší než konkurence, ale i tak odvádělo svojí práci. Celá koncepce architektury byla od základu špatně zvolená - jediné opodstatnění toho dvojího vykonávání (emulované instrukce nad softwarovou vrstvou a pod tím VLIW) bylo, kdyby to bylo kompatibilní s x86. Jakmile se to rozhodli překlopit na ARM, mělo to být celé zahozeno, to byl prostě koncepčně neefektivní přístup. na druhou stranu, kdyby Nvidia investovala do vývoje rozumného ARM jádra a nějak s ním udělala díru do světa, tak by z ní byl ještě větší nneažraný moloch, tak možná dobře že to tak dopadlo :)
Paradoxně ideje za Neburstem a Bulldozerem byly celkem funkční, ale částečně selhávaly v detailech, částečně prostě měly horší vlastnosti než alternativní řešení. Ale furt lepší než když je přímo ústřední koncept architektury omyl.

+1
0
-1
Je komentář přínosný?

Na hry ale boli Netburst i Bulldozer tak strasne, ze top model bol horsi nez low end od konkurencie, co bolo az komicke.

+1
0
-1
Je komentář přínosný?

Je to ještě veselejší, když si člověk uvědomí, že Intel P4 věřil a měl s ním smělé cíle a pak musel uplácet obchodníky, aby omezovali lepší konkurenci. Zato Bulldozer byl právě výsledek toho, že AMD mělo na vývoj málo na vývoj peněz, původní návrhy byly jiné, ale škrtalo se v nich. Proti tomu na vývoj P4 bylo dost peněz a chyba byla, že nikomu nedošlo, že plánovaných 10 GHz je mimo realitu.

+1
0
-1
Je komentář přínosný?

Ale Pentium 4 vydrželo na trhu pět let (2001-2006) a většinu času se prodávalo docela dobře a mimo hry aplikační výkon byl OK.
Athlon 64 byl sice jasně lepší a čso i K7, ale třeba Northwood iirc Athlony XP porážel. Proto píšu, že to normálně fungovalo jako produkt, jenom to bylo horší než konkurence.

Kdyby P4 bylo od AMD a nemělo výhodu dominantního postavení (takže by se míň sw vývojářů obtěžovalo pro něj vytunit programy), tak by to mělo těžší, ale asi by ho AMD pořád celkem normálně bylo schopné prodávat. Stačí se podívat, kde byl tehdy výkon VIA. (A opačně, kdyby Bulldozer byl od Intelu, tak si na trhu vede líp).

+1
0
-1
Je komentář přínosný?

Ačkoli kupuju už delší dobu grafiky od AMD, musím jednoznačně konstatovat, že (velká)VEGA byla obecně ve většině parametrů horší než Pascal.
Pokud si vzpomenu jak jsem ji v minulosti vnímal, napadá mě slovo "nevýrazná". Not great not terrible :)
Polaris ji u běžné hráčské populace zastínil.

+1
+3
-1
Je komentář přínosný?

Ta VEGA s highendovým čipem a drahými HBM2, která měla konkurovat GTX 1080 Ti za dvacet tisíc a museli ji prodávat za šestnáct a míň, protože měla výkon jako GTX 1080 za čtrnáct? Ta Vega, která byla při uvedení stála proti levnější GTX 1080, a aby to vůbec někdo kupoval, tak k tomu udělali bundle a kompenzovali to na procesoru a desce? Ta Vega, kterou vyráběli a dodávali jen v malých sériích, aby na tom tolik neprodělali a v podstatě jen proto, aby měli v nabídce i něco lepšího než mainstreamový Polaris RX 480/580?

Ta, u které jsem na konci, kdy to leželo na skladech a Vegu 56 prodávali za sedm tisíc, slyšel i distributora stěžovat si, že na každé takhle prodané kartě prodělává čtyři tisíce?

A ta profi Vega, která musela v profi segmentu dělat tak skvělé kšefty, že to AMD i při tom malém počtu čipů, co udělali, nakonec pustili i do desktopů?

No tak na té AMD určitě hodně vydělalo. :D Víc jak Nvidia na V100, které Nvidia v profi segmentu vesele prodávala za čtvrt milionu na kus. Poor Volta! (BTW, ComputerBase řeší právě ty highendové čipy Vega, a ne jestli AMD povedlo architekturu Vega nacpat ještě do nějakých úspěšných APU).

Ale jinak souhlas s tím, že se na ComputerBase asi zbláznili, protože 4GB Fury s Fiji byla ještě horší.

+1
-4
-1
Je komentář přínosný?

lol.. aneb jak ze sebe udelat blbce v diskusi pod clankem kterej jsem necet.. ((:

+1
+5
-1
Je komentář přínosný?

To myslíš no-xe? Který v reakci na dva odstavce s kritikou Vegy 64 a Vegy 56 a Radeonu VII na ComputerBase napíše obhajobu architektury Vega všude možně včetně APU a ve finále napíše, jak AMD vlastně na Veze úžasně vydělalo?

To máš recht, no.

ComputerBase: Vega 56, Vega 64 a Radeon VII stály za starou belu!

Jirka Souček: To není pravda, protože se Vega dávala i do APU a profi grafik!!!

+1
-7
-1
Je komentář přínosný?

DeepL z ComputerBase:

„AMD Radeon RX Vega ("Vega 10" a "Vega 20")
Během oficiálního představení grafických karet generace AMD Vega si výrobce neodpustil rýpnutí do svého velkého konkurenta Nvidia. Varovný nápis s heslem "Poor Volta" v upoutávkovém videu však nakonec nebyl pro AMD přínosem a stal se mementem. V té době se nová generace Nvidie prezentovala pod názvem Volta.

"Chudák Volta" se společnosti AMD vymstilo a stalo se z něj meme
Vedlejší úder "Chudák Volta" se společnosti AMD vymstil a stal se mementem
Ať už šlo o Radeon RX Vega 64 a RX Vega 56 (recenze), které se později staly alespoň tipy v poměru cena/výkon, nebo později o Radeon RX Vega VII (recenze) (který byl prostě příliš hlučný, příliš pomalý a příliš drahý): Nvidia GeForce GTX 1080 a 1080 Ti a jejich nástupci GeForce RTX 2070, 2080 a 2080 Ti byly téměř vždy lepší volbou.

ComputerBase proto 7. února 2019 také potvrdil: "Pokud chcete jen hrát hry a nechcete grafickou kartu nejprve ručně optimalizovat, neměli byste se rozmýšlet a sáhnout po GeForce RTX 2080 - Nvidia má bezpochyby vybavenější balíček, který většině hráčů vyhovuje lépe." Co si ale myslíte vy?“

+1
-4
-1
Je komentář přínosný?

hele, tak jak chces..

'' Ta VEGA s highendovým čipem a drahými HBM2, která měla konkurovat GTX 1080 Ti ''

takze mi ukaz kde amd tvrdila ze vega bude konkurovat 1080ti.. sorry, ale to jsou jen tvy fantasie.. vega mela mensi chip nez fiji, polovicni sbernici nez fiji a polovinu hbm chipu.. fakt nevim jak sis z toho vycet ze s ni amd chtela sundat konkurencni ultrahiend..

'' A ta profi Vega, která musela v profi segmentu dělat tak skvělé kšefty, že to AMD i při tom malém počtu čipů ''

takze chci videt zdroj k tomu malymu poctu chipu.. zase dalsi tvoje fantazie..

'' To myslíš no-xe? ''

kdyz to pisu tobe, tak jakym mozkovym myslenim si prisel na to ze myslim no-xe?? (: bud mas problem se ctenim nebo s chapanim.. vega dala zaklad nekolika generacim uspesnejch chipu od lowendu po hihend a dostala amd od superpocitacu az do do ulv 15w notebooku.. to je proste fakt a ze ho nechces videt jenom ukazuje tvoji zabednenost.. to se da fakt jen tezko srovnavat s failama jako pentium4, ktery nevedlo k nicemu (v servrech ho muselo nahradit itanium, v notebookach p-iii) nebo arcem, kterej se poradne nedostal na trh ani sam o sobe..

+1
+6
-1
Je komentář přínosný?

No-x byl ten, kdo nejspíš nečetl ten původní článek. Stránkovým elaborátem se tady pokouší vyvracet něco, co na ComputerBase nikdo nenapsal. Jako by si už nepamatoval, že sám v době, kdy ty karty uvedli, vyráběl články, ve kterých vysvětloval, že Vega vlastně není tak špatná, jak to vypadá.

„takze mi ukaz kde amd tvrdila ze vega bude konkurovat 1080ti..“

Jo, to se tak totiž dělá, že když navrhuješ nejvýkonnější čip z nějaké řady se superdrahými pamětmi, tak jím plánuješ konkurovat modelu vyšší třídy a ne highendu, že jo.

Prostě konkurence udělá čip se 471 mm² pro GTX 1080 Ti a čip se 314 mm² pro GTX 1080, tak logicky děláš 486mm čip s HBM2 do Vegy, protože jsi ho plánoval postavit proti tomu o třetinu menšímu GPU konkurence s obyčejnými GDDR. :D

AMD: Vega 20 do desktopů nepůjde! OK, tak jsme si to rozmysleli, do desktopů půjde Vega VII, i přestože s cenou, jakou na to musíme dát, v recenzích vyhučí jak fakule.

Proč by to asi dělali, když ne proto, že to v profi segmentu nedokázali udat.

Jestli je něco, co byl pro AMD v posledních několika letech opravdický průšvih, jsou to highendové GPU Fiji a Vega. Na žádném jiném desktopovém Radeonu než na těch s Fiji a na Vega nebylo za posledních deset let tolik vidět, že to vlastně ani nemají zájem prodávat, protože na tom nevydělávají.

+1
-5
-1
Je komentář přínosný?

AMD udělala universální čip pro hry, profi grafiku a výpočetní akcelerátor, protože si nemohla tehdy dovolit vyvíjet separátně čip pro výpočetní a akcelerátor, proto měla velká Vega takovou plochu a spotřebu. Ostatně byl to poslední universální grafický čip, protože tím propadákem vydělala dost na výrobu onoho výpočetního a akcelerátoru a tím pádem mohla grafické čipy udělat efektivnější. Zatímco Nvidia s universálním čipem začala v době kdy AMD věděla, že s universálním čipem končí. Proto ty současné rozdíly ve spotřebě. Ale kdyby ta architektura, o které se v článku píše, byla propadák, těžko by vzniklo tolik variant čipů. Adams Adams nepochopil patrně rozdíl mezi konkrétními herními kartami a architekturou.

+1
+8
-1
Je komentář přínosný?

Ahm... jo. ComputerBase výslovně napíše, že RX Vega 64, RX Vega 56 a Radeon VII byly špatné karty.

No-x napíše článek, že ComputerBase píše bláboly, protože jediný problém, který ty Radeony měly, byl špatný marketing, v jiných produktech se ukázalo, že architektura Vega byla skvělá a nadčasová, a ta špatná architektura byla vlastně Volta.

A nakonec jsem já ten, kdo si plete konkrétní karty a architekturu. :D

+1
-4
-1
Je komentář přínosný?

Myslím si, že tady třeba jen problém, že no-X ty karty prostě nikdy neměl v ruce a jen vyvozuje nějaké závěry na základě výsledků něčích testů. To je prostě takové dosti naprd, byť musím přiznat, že jsem to sám v životě udělal mnohokrát. Proto vím, že je to naprd. Neměl jsem v ruce ani Vegu, ani 1080 Ti, takže všechna moje dojmologie je právě jen dojmologie. Je fakt rozdíl mezi "čučením na hambaté filmy" a "čučením na opravdovou holkou ve vlastní posteli", mám-li vytáhnout vulgární přirovnání.

+1
-2
-1
Je komentář přínosný?

Já ten článek na CB četl, dost stručné a zjednodušující hodnocení. Celkem by mne zajímalo, jak např. přišli na to, že evoluce Pentia 4, nebyl plánovaný vývoj, ale nouzové řešení. Zcela zjevně bylo celé hodnocení bráno čistě z pohledu PC gamera, protože např. Itanium bylo obchodně pro Intel větší propadák. A čistě dle plánů Intelu mělo jít o budoucnost PC. Vůbec se neohlíželi na trh celkově. A jen tak mimochodem ani zmínka o řadě FX od Nvidie. Objektivitu bych u nich nehledal. Velké magazíny mívají své sponzory. Koho chleba jíš, toho píseň zpívej. Ale třeba se pletu.

+1
0
-1
Je komentář přínosný?

logicky k tomu došli. Po propadáku prvních P4 to nešlo jednoduše jen tak zahodit stejně jako GCN u AMD/ATi, takže se dělaly efektivnější deriváty. Poslední tuším Smithfield dualcore založený na NetBurst si vedl už slušně - měl jsem Pentium D 945 a to si v konkurenci s Athlony rozhodně nevedlo zle.
Největší trápení bylo s Polaris, první 4xx stály jemně řečeno za prd, pak 5xx už byla lepší ale až finální RX 590 se hrdě mohl postavit i GTX 1060 9Ghz a hlavně už působil jako finální produkt ne typ "dodělej si sám".
FX bych do toho netahal, to už je hodně vzdálená minulost co už nikdo nepoužívá. FX jsem kupoval ještě jako student a to už uplynulo vážně hodně vody. Bohatě stačí omezení na DX11/12 GPU.

+1
+2
-1
Je komentář přínosný?

Vysloveně tam psali i o srovnání prvních P 4 proti tehdejším P III. Přitom P4 je starší než řada FX Nvidie, Jistě, že celá řada P4 se prodávala dlouho, sám jsem přetočené Pentium D 805 vlastnil, ale jen proto, že v době nákupu ještě nebylo dvoujádro AMD Athlon 64 X2 ve stejné cenové hladině. Spíš jde o subjektivní názor autorů, k objektivnímu hodnocení by museli uvést více faktů a nedívat se na celou věc z jediného úhlu.

+1
0
-1
Je komentář přínosný?

„no-X ty karty prostě nikdy neměl v ruce“

To by mě zajímalo, jak jsi na to přišel :-)

+1
+1
-1
Je komentář přínosný?

Usuzuji z toho, že v té době ještě recenze GPU byly moje věc (ač už jsem netestoval, prostě to bylo to období, kdy jsme GPU testy nedělali, mám pocit), ale pokud jsem někde přehlédl tvůj test Vegy 56/64, případně sis ji tehdy koupil a používáš ji, pak beru svůj názor zpět.

+1
+2
-1
Je komentář přínosný?

No ona ani ta architektura, resp asi její ovladače, nejsou extra výhra. Na mém ryzenu 5800H jsem dostával příležitostný BSOD při videjích, dejme tomu třeba youtube .. :-D No aktualizace asi po 3 měsících to vyřešila. Mám takový pocit, že vega v APU je znouzecnost, protože nic jiného nebylo po ruce.

+1
+2
-1
Je komentář přínosný?

A co teprv ten zoufalej Kaby Lake s Vegou :-D.

+1
+2
-1
Je komentář přínosný?

Tam nikoho spatny ovladace netrapi. Stejne si to nikdo nekoupil :-)

Edit: chtel jsem dohledat prodejnost a narazil jsem na tento jeste zajimavejsi clanek https://www.cnews.cz/radeon-vega-intel-kaby-lake-g-architektura-polaris

+1
0
-1
Je komentář přínosný?

@Majklos: souhlasím, Vega byla propadák, hlavně protože se za celou dobu její životnosti nepodařilo zprovoznit její "revoluční" a tolik hypované featury, které Kakaduri propagoval jakožto její největší přednosti :-D Ano byl to universální čip, ale to byly i Radeony postavené na předchozích architekturách ( třeba povedené "Tahiti" aka Radeon R9 280X )

Vega suma sumárum, to byl velký a žravý čip oproti konkurenci, špatné škálování výkonu nad 3500SP, příliš drahé na výrobu ( Interposer + HBM + rozměry die) mainstreramový model s HBM AMD nevydalo vůbec, stejně jako Vegu Nano a AMD na ní spíše prodělávalo, mimo jiné i proto se Vega arch. reyklovala v čem se dalo včetně APU, aby alespoň nějak minimalizovali ty ztráty než budou mít něco použitelného a konkurenceschopnějšího pro hráče. Jestli tohle nebyl propadák, tak pak už nevím co bylo...

+1
0
-1
Je komentář přínosný?

To je příspěvek! Tak pod ten se můžu hnedka podepsat. Ale stejnak, dokázal jsem nasrat minimálně 14 lidí (v tuto chvíli 14 mínusů) pouhýma dvěma větama. Ty jsi na poloviční počet dosáhl celým odstavcem. :-D
Máš ale naprostou pravdu, taky si pamatuju, jak se Vega težce nechytala a jak AMD brečela, že na tom prodělává, ikdyž to bylo furt šíleně drahé.

+1

+1
-7
-1
Je komentář přínosný?

brecela ze prodelava?? tvl dalsi dojmolog.. od vydani vegy nebyla amd jedinej kvartal v minusu.. brecis tu jenom ty s adamsem.. (:

+1
+2
-1
Je komentář přínosný?

Adams, RedMaX
Adams, RedMaX
Adams, RedMaX
...
RedMaX, RedMaX.

+1
-3
-1
Je komentář přínosný?

ono je potřeba hodnotit zvlášť grafiky Vega56/64, pak APU s Vega int. grafikama a (polo)profikarty postavené na Vega architektuře a nakonec snad i Radeon7(Vega20). Tohle vše je třeba potřeba postavit a hodnotit zvlášť protože v tom obrovský rozdíl je.

Viz často zmiňovaný argument o žravosti se určitě nevztahuje k poslední inkarnaci v iGPU 5700G. Jakože s 4733Mhz pamětmi mám výkon úrovně GF1050 spolu s 8C/16T Zen3 v 65W TDP. No ukažte mi efektivnější spojení jakéhokoliv desktop CPU+GPU nebo desktop APU, které dosáhne takových výkonů v oněch 65W. Já jen že pokud lepší řešení není, tak těžko to nejlepší může být zároveň nejhorší

+1
+4
-1
Je komentář přínosný?

ona to nebyla zas takova katastrofa jak se tu leckdo snazi podsouvat.. hlavne teda ty reci jak je polaris skvela a vega spatna byly dost mimo.. vega 56 mela lepsi pomer spotreba:vykon nez jakakoli polaris a vega 64 na tom byla stejne jako rx580..
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#diagram...

proti fiji 20-40% zlepseni a zacatek optimalizaci pro vyssi takty, kterej ved k dnesni rdna2.. takze se to podle me neda hodnotit zvlast.. bez vega 56/64 by tu zadny dalsi grafiky k hodnoceni nebyly.. zvlast se da hodnotit p4 nebo geforcefx, ze kterejch nic dalsiho nevzeslo..

+1
0
-1
Je komentář přínosný?

Vylepšovat vyznění hodnocení Vegy tím, co přišlo po ní, ne blbost. vega byla jaká byla a je jedno, že o X let později AMD přišla s RDNA2. Je to stejné jako kdybych teď tvrdil, že bychom neměli Ice Lake tolik kritizovat, protože položil první základy pro to, co přišlo s Meteor Lake v roce 2024.

+1
-1
-1
Je komentář přínosný?

S tím rozdílem, že Meteor Lake nemá s Ice Lake nic společného, kdežto RDNA je produktem obnovení vývoje GCN zahájeného s GCN 5 (Vegou). Ono hlavně není potřeba nic vylepšovat, když je Vega na trhu stále - jak v akcelerátorech Instinct, tak v integrovaných grafikách - ani pět let od vzniku architektury ji Intel nedokázal v integrovaných grafikách dohnat, natož překonat.

+1
0
-1
Je komentář přínosný?

To, že je nějaká varianta Vegy dnes stále v nabídce, je z hlediska jiného X let starého produktu irelevantní. To, že je stále v nabídce, neznamená, že je to optimální řešení, že by teoreticky AMD nemohla dodávat něco lepšího. To, že ji Intel ve svých iGPU nedohnal, má jednoduchý důvod: on se o to nijak zásadně nesnažil (i kdyby nakrásně jeho markeťáci kecali něco jiného, však víme, že poslední roky jen kecaj a skutek utek) - a v tomto kontextu je též irelevantní, že s velkými GPU se poslední roky snaží (a jde mu to tak nějak naprd). Možná Vega tehdy dělala ten "paving the way", nicméně se tehdy Nvidia měla díky tomu dobře a vydrželo jí to do relativně nedávné doby.

+1
+4
-1
Je komentář přínosný?

To je zajímavá úvaha. GTX1050 je na dnešní dobu už opravdu plíseň, kterou drtí i ty nejlevnější Radeony (usuzuji z udávaných GFLOPS, mám RX6500XT, ale GTX1050 jsem nikdy neměl). Drtí ji i ve spojení s se starším low-end CPU jako moje 10400F. Jasně, papá to asi víc než 5700G (dle mých měření koelm +30W ve hře), ale výkonu pro hru to bude dávat ještě DALEKO víc, ne? Takže je to hlavně o tom, že tobě stačí 5700G a nemáš důvod vůbec řešit, co by mohlo být jinak.

+1
+1
-1
Je komentář přínosný?

úplně nechápu těch +30W. To jako vážně 65W 10400F a k tomu 6500XT (až 105W) je jako prakticky jen +30W oproti 5700G? Jsem připraven změřit odběr celého systému v nějaké konkrétní hře a rozlišení zásuvkovým wattmetrem. Nejsem si jen jistý čemu na Vašem tvrzení nevěřit více, jestli tomu, že nenažraný 65W TDP Intel nežere víc než 65W nebo že snad až! 105W RX6500XT si bere jen 30?W??? Nejsem si jistý jestli žijeme ve stejném vesmíru. A prosím ne piškvorky ale nějůco standartního jako GTA5, Doom Eternal a pod. ve fullHD. Já se do těch 100W 100% vlezu (2xM.2 pcie3 SSD + 2x2.5" SATA), u Intel CPU + dGPU s 6 pinem pochybuji

+1
0
-1
Je komentář přínosný?

Vega nemusela být taková tragédie kdyby nestála proti extra povedené konkurenci. Pascal byl vrcholem efektivity NVidie, byl to vrchol vývoje od řady Kepler kdy se zcela soustředili na herní efektivitu, viz třeba GTX 960 jak těžce zatápěla papírově hw silnějším grafikám GCN. Sice později už to taková hitparáda nebyla, ale už to byl hw který skoro nikoho nezajímal a prodeje byly ukončené, ale na tom na čem záleželo byly dobové hry a aplikace ve kterých drtila konkurenci s mnohem silnějšími parametry.
Zároveň Vega byla vrcholem této neúspěšné řady započaté HD 7000. GCN beru ne jako krok zpět, ale bokem kde došlo k mnoha nezamýšleným efektům a nejzajímavější z celé řady vyjma prvních 3GB karet s 384bit sběrnicí určitě excelovalo Fury + Nano, to byl takový nenaplněný příslib zítřka který spláchla Vega, tam už bylo naprosto jasné že tudy cesta nevede, leda ke špatnému konci.
Tragédie pro GCN bylo že ani přes špičkové hw parametry nebyly schopny překonat konkurenci které s Kepler/Maxwell/Pascal stačila poloviční sběrnice, nižší spotřeba a celkové méně silových parametrů. Už když proti HD 7970 byla pozicována GTX 680 s parametry mainstreamu bylo jasné že je s GCN něco hodně špatně. Později se zvýšenou náročnosti her/aplikaci sice poodskočily, jenže to už na trh mířila nová generace, totéž znovu a znovu...
A nepřidalo tomu ani že první GCN karty tedy HD 7000 a RX 2xx měly brutální "úmrtnost" - evidentně se výrobci s AMD snažili srazit cenu ale někde byla uznaná reklamovatelnost přes 30 procent. Sám jsem reklamoval a po prodeji poslední RX 280 mě po několika měsících kupec požádal o doklad protože se objevil glitch a mizela stabilita...

+1
+3
-1
Je komentář přínosný?

Rada HD 7000 mala Eyefinity, hral som na 3 monitoroch co nemalo konkurenciu. Vytazila i nejake BTC. Pouzival som ju 5 rokov, 3GB stacilo, najlepsia karta aku som mal.

+1
0
-1
Je komentář přínosný?

tak sedmitisícovka nebyla tak špatná ale vztaženo k GTX 680 žádná hitparáda. EF bylo sice zajímavé ale už tehdy na rozlišení 3 obrazovek málo výkonu a hlavně paměti. 680 byla i 4GB verze a tam už to bylo lepší. Sice se vyskytla i 6GB verze Radeonu ale ta byla dost vzácná. Ale zase komu se zadařilo a měl ji tak byl dlouho v pohodě.

+1
+1
-1
Je komentář přínosný?

No ona to nebola hitparada ani pre 680. :) 680 bola podla Techpowerup lepsia o 7%, podla Computerbase horsia o 3% nez 7970 vo FullHD. Na 3 monitory bola 680 horsia, Nvidia na to nemala rovnocennu technologiu. Spotreba rovnaka. Cena lepsia pre Radeon.

+1
-1
-1
Je komentář přínosný?

nojo jenže co se porovnává - ten čip v 680 byl navržen původně pro mainstream, NV čekala od konkurence větší výkon, to GPU co bylo v 680 mělo být podle původního úmyslu "dvojka" tedy 670tka.
GCN byla předimenzovaná a ještě víc trpěla na "skrytý" výkon než předešlé WLIV GPU. Proto se zoufale hledalo jak to nějak upotřebit v herním segmentu, jenže se proto muselo hodně optimalizovat tak to dopadlo jak muselo - udělaly se jednotky prototypových her a zavřela se nad tím voda. Kdo si dnes vzpomene na hojně propagované u AMD/ATi Ashes of Singularity které se stalo takovým techdemem pro asynchronní shadery...
EF byl určitý bonus, ale žádná masovka pro co by se uživatel při koupi rozhodoval, tři obrazovky měla a má těžká minorita. Obvyklý je buď jeden větší monitor nebo dva kvůli většímu pracovnímu komfortu.

+1
+1
-1
Je komentář přínosný?

Ziaden mainstream. Tie cipy mali rovnaky pocet TMU i ROPS. 680 mala o 14% vyssi fillrate a 7970 o 16% viac FP32 TFlops. Jediny vyrazny rozdiel je 384bit zbernica u 7970 lebo este nemali delta kompresiu.

Alebo ty myslis ze highend mal byt velky kepler 561 mm² ktory mal 2x viac tranzistorov, +50% TMU i ROPS ktory pouzili u GTX 780 a ktory mal o 20% vyssi vykon nez 680? Tak ten bol riadny financny fail. Minimalne 2x drahsia vyroba za 20% vykonu. :)

+1
-1
-1
Je komentář přínosný?

GPU 680 má pouhých 294 mm2 což je mainstream velikost, HD 7xxx/RX 280/380/X byly o třídu výš.
Abych nezapomněl, ani to opěvované EF nebylo jedinečné, bylo NV Surround takže šly také spřáhnout 3 obrazovky a jedna kontrolní, tedy celkem 4 jako u Radeonů.

+1
+1
-1
Je komentář přínosný?

7970 mala 7x vyssi vykon v FP64 TFlops, preto mala vacsi cip.
NV Surround ale vyzadovalo 2 grafiky v SLI zapojeni lebo jedna grafika mala len 2 vystupy.

+1
-1
-1
Je komentář přínosný?

a to je co jsem psal, měla spoustu skrytého nevyužitého výkonu. A v době kdy se začal aspoň částečně využívat zase nestačila paměť a celkově už byla mimo rozsah většiny zákazníků z důvodu nových generací.
Nn, to platilo u GTX 5xx, šestková zvládala opravdu 4 obrazovky z jedné karty. Tady odkaz pro osvěžení paměti: https://www.cnews.cz/geforce-gtx-680-v-testu-rychlejsi-levnejsi-uspornejsi/

+1
+1
-1
Je komentář přínosný?

"Vega nemusela být taková tragédie kdyby nestála proti extra povedené konkurenci. Pascal byl vrcholem efektivity NVidie, byl to vrchol vývoje od řady Kepler kdy se zcela soustředili na herní efektivitu, viz třeba GTX 960 jak těžce zatápěla papírově hw silnějším grafikám GCN"
Už jsem chtěl napsat co je tohle za nesmysl, ale musím souhlasit potom co jste napsal o Fury Nano. Dodnes mám názor že to byla nej AMD grafika všech dob. Pro tu jedinou to neplatilo. Kupoval jsem ji v době kdy zlevnila pod 12 tisíc. Výkonově natrhla zadničku libovolně nataktované GTX980(non-Ti) a to nikdy! nepřelezla 175W. GTX980 v té době dostala naprdel hned 4x - výkon, cena, spotřeba a navíc Nano jak to říct - revoluční velikost (na hiend).

+1
+1
-1
Je komentář přínosný?

Tak já Vegu FE mám, mohu si tedy dovolit napsat názor uživatele.
Kupoval jsem ji jetou z datacentra v zimě 2017 za 9000Kč. Tedy lehce jetou.. uvedení bylo v létě..
Prodávájící řekl, že se jim na výpočty nehodila..a dělají upgrade.
Kupoval jsem ji kvůli absenci limitu streamů na enkodování videa. Encoder se bohužel ukázal pomalý /proti Polaris, GTX 1060/ a kompatibilita byla rovněž slabší. Všichni programovali v CUDA.
Jenže.. pak nějak se začaly opět probouzet kryptoměny a bylo řím dál tím méně výhodné pokukovat po uprgradu na nějakou Nvidii..
A tak u mne zůstala dodnes.. Postupem času se zlepšily ovladače. A to hlavně v posledním půlroce. Ve hrách až do letoška zrála jako víno. S posledními podává špičkový výkon ve hrách, pokud posuvník ventilátoru posunete na 100 procent. Víc není třeba ladit...
Uprostřed kryptoměnového šílenství jsem ji nechal težit. I po propadu cen kryptoměn si nějaký ten tisíc USD na svého následovníka vydělala /tam naopak poladěná je../.
Mám to hodnotit jako propadák? Ani ne.. Mohlo to být lepší..hodně špatné bylo, že AMD nikdy nezprovoznila akceleraci pro virtuální počítače.,AMD MxGPU, to uživatelé u poloprofi karty pro vývojáře čekali a čekají a pláčí dodnes, ale 2k si s ní pořád zahrajete, sama si na sebe vydělala... a uvidíme jak nové generace karet, zda ji vyměníme..

Tolik z praxe..

+1
+3
-1
Je komentář přínosný?

to je to o čem jsem psal, kolik procent uživatelů zajímá že po x-letech konečně produkt "dozrál"? Krutá odpověď by byla nvidiácké "who cares"...

+1
+4
-1
Je komentář přínosný?

Tak fail vega 64 byl myslim v tom, ze to byla slabsi karta nez RTX 1080, ktera byla na trhu o vice jak rok drive.

+1
+1
-1
Je komentář přínosný?

Však také ve svém příspěvku píšu, že to nebyla žádná hitparáda. Ale že za třetinovou cenu jako použitá se rozhodne za fail historie pro mne osobně nedala označit.
Přičemž Vega Fe je mnohem víc problematicka než herní Vega 64. Marketing toho hodně nasliboval. Jakési kecy o kartě pro vývojáře, ale nic z toho ve skutečnosti nebylo. Jak chcete dělat vývoj když karta nebyla schopna akcelerace v hypervizorech. To byl skutečný fail a blamaž a hlavně lhaní. Ne nějaké herní zaostavani za gtx1080..To bych považoval za menší problém, pokud by ostatní věci fungovaly.

+1
+2
-1
Je komentář přínosný?

Další věcí bylo, že AMD se zcela vykašlalo po několik let na drivery pro tuto kartu. Wattman byl nefunkční několik let, bylo nutno editovat registry, abyste se dostali ke starému frondendu /herní vizuál/ obvladačů, kde bylo možno parametry karty hýbat. A to ještě bylo nutno vychytat ty správné verze driverů.
Pokud běžná VEGA 64 zaostala výkonem a spotřebou, tak to byla AMD VEGA FE, která nesplnila prakticky vůbec nic. S následnou ostudnou nepodporou zhlediska AMD. Podpora AMD na AMD foru nářky uživatelů statečně ignorovala a neobtěžovala se roky ani odpovídat.. Za nákupní cenu 30.000Kč byla edice FE megafail. / za 9.000,- se to naopak dalo snést s občasnými záchvaty deprese./.

Na závěr..s posledními drivery.. si klidně VEGU kupte.. za ROZUMNOU cenu.ovšem..výkon je ještě hodně vpředu před integrovanými GK, drivery jsou konečně OK, a cena to řeší..Navíc ten Blow dobře topí v místnosti, když už pálíte drahou elektřinu..

+1
+1
-1
Je komentář přínosný?

no právě, když to máš skoro-zdarma tak podle zásady darovanému koni na zuby nehleď. Pro mě z minulých generací byla nejlepší Sapphire Nitro+ RX590. To byl produkt který se dal označit za kompletní, byť sw to nebyl ideál, ale už to bylo skoro na úrovni konkurence. V některých hrách se dokonce škrábala na dohled GTX 1070 ale to bylo titulů co bych spočítal na prstech jedné ruky.

+1
0
-1
Je komentář přínosný?

Já mám vegu 64 s full vodním blokem dodnes. Koupil sem jí tenkrát v radeon packu cenově vyšla o několik tisíc levněji než 1080 a výkonově na tom byla podobně tak nebylo co řešit že trochu víc topí mě osobně je jedno já mám cele pc na vodě tak že jestli je tam 200-300 nebo 500w tepla mě je fuk pořád hrobové ticho. Za mě ta karta je super dřív sem grafiku měnil fakticky vždy co 2 roky a tahle mi pořád stačí budu jí měnit asi až s přechodem na 4K.

+1
+1
-1
Je komentář přínosný?

Situace je nadmíru výtečná.

Pro Mr No-X. Budu se moct pobavit alespoň nad dalšími 3 články o tom jak jsou Intel grafiky marné.

A pokud se zadaří a všechny uniky Raptor Lake jsou se super PL2 na 360W a Nvidia zlepši 4xxx sérii jen o 1.75 pri 800W a AMD Radeony o 2.35. Bude o zábavu postaráno :-)

V krasné reakci článek že VEGA nebyl fail. A místo toho aby rozebral ten problém se spotřebou, zmíní „Vega měla samozřejmě i slabé stránky, které byly rozebrány více než dostatečně“

GJ

+1
+1
-1
Je komentář přínosný?

Jelikoz Veka pri svem uvedeni na trh byla obrovskym zklamanim, poridil jsem 1080Ti a tim jsem porusil svoji dlouhou serii Radeonu od nejaky HD3870 az po vybornou R9 Fury... takze svym zpusobem Veka propadak byla. Byl jsem z toho tak votraveny, ze jsem prelezl ke konkurenci. Nvidie jsou super.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.