Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Arc A770 vydán: Výkon GeForce RTX 3060 při spotřebě Radeonu RX 6800

Změna paradigmatu nastala, je konec.

+1
+13
-1
Je komentář přínosný?

Za trest tu kartu zrecenzuješ!

+1
+12
-1
Je komentář přínosný?

:D

+1
+2
-1
Je komentář přínosný?

Asi klidně, ale kdo mi ji půjčí? :D

+1
+3
-1
Je komentář přínosný?

Pat prý jednu má... třeba půjčí :D

+1
+2
-1
Je komentář přínosný?

Ani ARC Troopers neměli zrovna oslnivé začátky, v zásadě byli bráni jako experimentální a moc se od nich nečekalo.

+1
+5
-1
Je komentář přínosný?

Nějaká pozitiva tam jsou: kartě se daří líp na vyšších rozlišeních. A podle mě když Intel zamaká na driverech, tak to ještě o pár procent posunou.
Co se týče spotřeby, RX6600 je král efektivity, na ten nemá ani nVidie.

+1
+8
-1
Je komentář přínosný?

K čemu je dobré, že se jí lépe daří ve vyšších rozlišeních, když má celkový výkon nižší než konkurenční karty pro 1080p?

+1
0
-1
Je komentář přínosný?

Hledám pozitiva, no. Třeba pro raytracing při 2560x1440 by to byla volba.
Já prostě čekal větší průšvih, tohle sice konkurenci nedohnalo, ale propdák to není.

+1
-1
-1
Je komentář přínosný?

Mě by zajímalo jak moc vážně to Intel myslí. Jestli už pracují na dalších dvou až třech generací grafik (při délce vývoje).

+1
+3
-1
Je komentář přínosný?

To poznáme až příští rok z PR oznámení. Většinou něco naznačí v polovině května, kdy probíhá conference call s investory.

+1
0
-1
Je komentář přínosný?

Naše karta je sice dražší, zato je ale pomalejší a více žere.

+1
+13
-1
Je komentář přínosný?

Můžete z ní ovšem mít skvělý pocit!

+1
+11
-1
Je komentář přínosný?

+ ovladače vám nebudou u většiny her fungovat korektně. Prostě kauf století.

+1
+4
-1
Je komentář přínosný?

Vydat ovladač je docela jednoduchý proces, oproti vydání HW.

+1
-1
-1
Je komentář přínosný?

vydať , to áno. Funkčný to už je iná káva....

+1
+4
-1
Je komentář přínosný?

Nicméně jiná cesta není, aby intel mohl udělat funkční ovladače, musí mít na trhu nějakou herní kartu. Potom má šéf možnost tlačit na vývojáře, aby odstraňovali chyby a optimalizovali kód. Na druhý pokus by to pak už mohlo být lepší, ale je naivní si myslet, že to lze udělat na první dobrou.

+1
0
-1
Je komentář přínosný?

To by platilo, kdyby to byla prvni herni karta od Intelu. Jewnze Intel uz ma integrovane GPU uz kolik, 10 let ve svych CPU? Takze problemy ve hrach uz mel dost casu poladit.

Jasne, tohle ne novy HW, ale ty problemy se hrami a ovladaci uz ma Intel leta a neresi to.

A nez neco namitnete, na integrovanem GPU od Intelu je dat hrat hralo, starsi hry na tom v pohode behaly, treba Sims nebo neco jednoduzsiho .... pokud ovsem dana hra na tom nepadala.

+1
0
-1
Je komentář přínosný?

Snížit cenu je ještě jednodušší proces. Uvidíme, zatím ne.

+1
+2
-1
Je komentář přínosný?

Jistě, a proto to Intel už desítky let nedává.

+1
+2
-1
Je komentář přínosný?

Informace o enkoderech jsou. AV1 enkoding podporuje. Pokud aspoň toto udělali dobře, pak si to své zákazníky najít může. Jde o to, že Nvidia má zamčený výkon na 3 streamech.. AMD sice ne, ale enkodovat AV1 neumí.. Takže pokud to Intel nezamkl jako NVidia a dostane podporu od vývojářů software.. pak možná..

+1
+1
-1
Je komentář přínosný?

áno, AV1 je najnutnejšia fičúra dnešných GPU

+1
0
-1
Je komentář přínosný?

Přesně - když už všichni výrobci dávno zaplatili za licence H265.

+1
+1
-1
Je komentář přínosný?

Nvidia hw encoding do AV1 v SOUČASNOU dobu neumí. Bude to umět až nastupující generace Ada Lovelace RTX4000.

https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new

AMD RX7000 mají hw encoding do AV1 umět taky.

https://wccftech.com/amd-rdna3-radeon-rx-7000-confirmed-to-support-av1-e...

Decoding AV1 podporují nV i AMD už se současnými generacemi grafických karet tj. RTX3000 a RX6000.

+1
+3
-1
Je komentář přínosný?

Včak jsem to psal jako o RTX4000. Je kolem tolik keců, že jako by byla.
Nenapadlo by mne, že to někdo může chápat jako vyjádření ke staré generaci.
AMD enkoding je dlouhodobě odpad. Hrozná, doslova hrozná kvalita a rychlost, vlastně pomalost. Pořídil jsem si kvůli tomu kdysi levně VEGU FE a byla to chyba. Poslední verze enkoderů Intelu soupeří zhlediska kvality s posledními verzemi enkodérů Nvidie.
Bude zajímavé sledovat co a jak spáchali tito 3 hráči na poli enkodovacích bloků.
ANO, některé to nezajímá, zejména hráče co streamují max, 1 stream, ale světe div se karty nejsou jen o hraní. JInak by tam ty bloky snad ani vůbec nedávali..
Takže se těšíme na srovnání i této technologie, nejen počítání fps v nějaké obskurní střílečce.

+1
0
-1
Je komentář přínosný?

"Při současných cenách energie se asi většina zájemců o výkon"

Jako vážně někdo bude vybírat HW s ohledem na cenu elektrické energie? Wow. Neříkám že se takoví nenajdou, ale těch bude fakt málo.

Já třeba díky rozhazovačství vlády budu mít účet za elektřinu v roce 2022 i přes 100% navýšení ceny silové elektřiny nižší než jsem měl loni. 5 tisíc na děcko člověk nedostane lae 3,5 na elektřinu ano a to dokonce i tehdy kdy to odběrné místo nemá roční účet ani v té výši.

Cena elektřiny fakt nebude někoho trápit. Jestli můžu používat počítač co žere 50W nebo 5W tak si vyberu ten 5W a je jedno jestli jsem za kWh platil 5 nebo 7 korun nebo i kdyby platil 10 nebo 20 korun. Ale jestli budu mít komponentu co při něčem žere 100 nebo 200W a běží krátkou dobu už to fakt není třeba řešit, rozdíl je jen dvojnásobný ne desetinásobný a neběží to 24/7. Daleko víc ušetřím tím že místo televize budu koukat třeba na tablet nebo laptop z nějakých 60W se dostanu na 3W, 20x nižší spotřeba a když to někomu běží celý den jako kulisa...

Navíc kdo si kupuje HW za 10 tisíc který ve funkčním celku stojí minimálně 20 tisíc asi není na tom tak špatně aby tu elektřinu co to spotřebuje nedokázal zaplatit.

+1
-13
-1
Je komentář přínosný?

Nevím proč do toho pleteš vládu, ale ok, pobrečel sis. Taky by mě zajímalo, kolik lidí bude u Ryzenu 9 snižovat napětí, aby ušetřil těch pár (třeba 60) Wattů...

+1
+8
-1
Je komentář přínosný?

Já to třeba udělal, pravda u dnes už ne příliš aktuální 3900. Drobný UV, omezení TDP na 65W a vlastně to nikde ani nepoznám, jen v cinebench mám MT výsledek o 2% horší. Hlavní motivace ale nebylo ušetření nějaké té kačky, ale snížení nároků na chlazení a tišší PC.
Ale třeba u firmy, kde takových mašin běží desítky či stovky, si dovedu představit že to řešit budou...

+1
+3
-1
Je komentář přínosný?

Jojo, viděl jsem myslím 7950X, kde přišli o pár bodů při testech za cenu extrémního snížení teploty a příkonu.

+1
+1
-1
Je komentář přínosný?

Že to méně sežere je příjemný bonus.

V domácím použitím je obvykle prioritou méně hlučný provoz.

+1
+1
-1
Je komentář přínosný?

Hele, 3,5kKč sežere jenom to PeCko ročně, ne ?
Lidi dnes buď na spotřebu sestavy koukají nebo nekoukají. Zvýšení cen elektrické energie zvětší tu skupinu "koukačů" na úkor "nekoukačů". Tedy sice nelze říct, že všichni budou vybírat HW s ohledem na cenu energie, ale lze říct, že cena energie ovlivní počet lidí, kteří spotřebu u HW budou řešit.

+1
+6
-1
Je komentář přínosný?

Ja na tu spotrebu pozeram Jirko. Vies Jirko, lebo tie watty, ktore to zozere Jirko, to premeni na teplo Jirko. A to teplo niekam treba odviest Jirko. V zime Jirko ma to moc nesere, pretoze by mi tu kuril radiator Jirko, ale v lete je to uplne nahovno Jirko. Momentalne mam zdroj, ktory vymackne len 250W Jirko. Ale ked tu mam dve hodiny s niekym call, tak sa mi pracovna premeni na suchu saunu Jirko. Mat grafiku Jirko (ja to skor volam kockovy rozlisovac), ktora zere podstatne viac aj v idle, tak tu mam suchu saunu, aj ked iba tak cumim do vyvojoveho prostredia Jirko. A teda mi nepride Jirko, ze naklady na klimu, ktora bude dochladzovat jeden Intelacky nedorobok, su az tak zanedbatelne Jirko. Ako obstaravacie, tak prevadzkove Jirko.

+1
+4
-1
Je komentář přínosný?

Ještě přidat tak 50 čárek a bude to jako Ládinek drahé paměti.

+1
+4
-1
Je komentář přínosný?

Proste, no!

+1
+1
-1
Je komentář přínosný?

Já třeba hardware podle spotřeby vybírám, resp. spotřebu zohledňuji při rozhodování. Kupříkladu jsem ale třeba bral 107W RX6500XT místo 53W RX6400, protože 99,9% doby jedu v idle a tam není rozdílu. Ve hrách mi těch pár desítek W navíc nevadí, nicméně třeba cokoli řady 6600 až 6800 jsem prostě do výběru nedal, protože žerou.

+1
+1
-1
Je komentář přínosný?

Kolik žere ta 6500XT ve hrách?

+1
0
-1
Je komentář přínosný?

No když tak na to koukám, tak v idle je na tom třeba hůř než ta 6600(tu jsem mimochodem zvolil já, na to co hraju relativně stačí bez velkých omezení a generuje ještě přijatelné množství tepla) a když se u ní nastaví stejná kvalita, nebo FPS limit tak bych řekl, že bude spotřeba podobná ne li nižší než u té 6500 a většina karet bude mít i lepší chladič, jen musí být člověk ochotný/moci dát těch pár tisíc navíc. Bohužel v této třídě to je dnes prostě katastrofa. No uvidíme co přinese nová generace APU, jak rychle dokáže vyplnit tuto mezeru na trhu, takových 16-24CU rdna2 už bych na méně náročné hraní (fhd) považoval za dostatečné.

+1
0
-1
Je komentář přínosný?

Fajn, mne ukazuje Nitro+ RX 6600 XT při hraní starších her (teď třeba Watch Dogs 2) na max detaily s FPS limitérem GPU Power Draw kolem 30W dle Sapphire TRIXX. Tak prosím Ježku, kolik by sis představoval, že by to mělo brát, aby to "nežralo"?

+1
0
-1
Je komentář přínosný?

To je trochu ošidná otázka, protože pokud ty karty jsou víceméně ze stejné serie, tak při stejném zatížení budou brat přibližně stejně.

+1
0
-1
Je komentář přínosný?

Ale veď to je jasný úspech. Intel si pred 4 rokmi povedal, že urobí grafiku a podarilo sa. Síce 20% slabšiu s 20% vyššou spotrebou ako top model nVidie, ale to bude vlastne OK, aspoň odstavíme AMD. Lenže prešli 4 roky.... ..a ku..a

+1
+2
-1
Je komentář přínosný?

No na moje počudovanie, je to na PRVÝ ich počin, celkom slušné. Mňa zaujíma hlavne 1440p a 2160p (či už s XeSS, alebo bez) a to im celkom ide ...no a potom cena...na tej ak ešte zapracujú, tak to môže byť zaujímavé...Unreal Engine 4 im celkom sedí (770ka je blízko 6700XT) a uvidíme čo na to UE5, a nakoľko UE 5 sa zrejme stane v budúcnosti masovo rozšírená záležitosť, tak výhliadky majú dobré, ak nezaspia na vavrínoch a budú nové generácie "mágov" (keď aj v malých skokoch) chŕliť každých cca 12-18 mesiacov.

+1
+2
-1
Je komentář přínosný?

Přesně tak - síla je v té RAM a tím pádem vyšších rozlišeních. A drivery budou ještě hodně upravovat, prostě chtěli stihnout release a ne vše se stihlo dodělat.

+1
0
-1
Je komentář přínosný?

Po všech těch odkladech prošvihli tolik releasů, že to mělo být dávno dodělané... až na tu fatální chybu v HW, kterou opraví až s další generací.

+1
+4
-1
Je komentář přínosný?

Jakou?

+1
0
-1
Je komentář přínosný?

že je to křáp...a tie drivery ani náhodou nedoladia. Na to indovia v intely nemajú ani náhodou....

+1
+3
-1
Je komentář přínosný?

Aha, to jsou pádné argumenty:-D Hodné dítěte ve školce...

+1
0
-1
Je komentář přínosný?

Problémom Intel Arc GPU je, že bez tzv. Resizable BAR je FPS nestabilné a nízke. Nie každá hra a kombinácia HW však ReBAR podporuje.

+1
0
-1
Je komentář přínosný?

tak na 1. pokus to není taková bída, nevzpomínám si, že polaris byl takhle haněnej, když RX580 žrala 185W při výkonu 1060 s 120W a víc toho amd neměla, kde ještě k tomu nvidia měla další 3 výkonnostní třídy nad

"výkon, který se za pár měsíců stane low-endovým" možná tak výkonnovým lowendem, ale že by se poměr cena/výkon posunul zas za pár měsíců o generaci dál a RTX4050 za 6000,- s výkonem GTX1080 by veškerou většinu karet do 10k nechala v propadlišti dějin včetně celé nabídky intelu se fakt nestane, ba naopak jak nvidia nacenila ADU tak si myslím, že v intelu si teď říkaj my chcem taky

+1
+1
-1
Je komentář přínosný?

protoze polaris rozhodne nebyl takovy pruser.. stal podstatne mene, spotreba nepresahovala 150W TDP... karta byla drobna, ticha a hlavne fungovala a to skvele... pri ceskych cenach za 480/570 okolo 4 000Kč navic stala zlomek onoho ARCu..
ps.: jeste zapominas na R9 radu, FURY a VEGA

+1
+1
-1
Je komentář přínosný?

Tak ne všichni mají grafiku jen na hry, že ano... Intel má nejlepší poměr na trhu ve smyslu VRAM/cena. A těch pár W navíc je úplně jedno. Navíc - jde vidět i při rozebrání karty, že je to šité horkou jehlou. HW člověku sice zůstane, ale SW se ještě bude dost měnit. A pak je jedno jestli člověk bojuje s CUDA API (které je navíc jen pro nVidiu) nebo univerzálním oneAPI...

+1
+1
-1
Je komentář přínosný?

Jestli zaříznou vývoj, tak ti zbude karta, která bude mít neopravený SW. No nevím, dokud Intel neoznámí záměr vydat druhou generaci, tak bych teda nekupoval. I kdyby to mělo 24 GB VRAM.

+1
+2
-1
Je komentář přínosný?

Presne. Pokud to rozhodnuti dal v dedikovanych kartach nepokracovat uz padlo, tak tu podporu budou postupne omezovat, az to zariznou na uroven integracu.
Osobne skoda, Intel se mohl "etablovat" aspon nekde v low endu a mainstreamu. Tam by se 3 hrac hodil. Ale jestli to neumi vyrobit, aby na tom neprodelal kalhoty a zaroven se mu tenci bussines v serverech a noteboocich, tak to asi moc dlouho dal sponzorovat nebude.

+1
0
-1
Je komentář přínosný?

To si nemyslím. Ono se minimálně pro Linux najde plno lidí, kteří si klidně udělají driver vlastní. A hlavně kvůli tomu AI to podle mě dost nadšenců mít bude. Ono platit si třeba $12/h AWS vs. mít tohle doma za pár tisíc, to si člověk dost rozmyslí i za cenu občasné drbačky s driverama (která možná ani drbačka nakonec nebude, bo si člověk stáhne např. hotový docker image).

+1
-2
-1
Je komentář přínosný?

„Ono se minimálně pro Linux najde plno lidí, kteří si klidně udělají driver vlastní. A hlavně kvůli tomu AI to podle mě dost nadšenců mít bude."

A to je přesně ta cílovka co počítá každou tisícikorunu při nákupu karty?

+1
+3
-1
Je komentář přínosný?

Nepocitame :P

+1
+1
-1
Je komentář přínosný?

Tak upřímně jsem nečekal, že to vůbec vydají... takže vlastně příjemné překvapení.

+1
+4
-1
Je komentář přínosný?

Asi muzou byt dva pohledy
.. jeden, ktery bere v potaz konkrenceschopnost tech grafik vzhledem k tomu co je na trhu od NV+AMD. Tady pri tech vsech aktualnich vykonostnich testech a spotrebe vydelenou cenou, dopadly ty karty blbe. Koupit si to, bude chtit "odvahu" anebo sberatelsky tik.
.. Druha bere v potaz, ze je to prvni (byt uz treti v rade) pokus Intelu o vstup na graficky dedikovany trh. A tady to podle mne neni zase tak spatne. Vetsina tech nejblbejsich bugu, co byly na 380, je fixnuta. Ma to prekvapive zajimave RT, XeSS je aspon ve fazi pouzitelnosti a dx12 hry na tom jedou obstojne. Pruser je Dx11, Dx10..coz pro mne by byla treba stopka, jelikoz hraji i starsi hry. Nicmene je tady asi potencial v driverech, ze by tohle mohl Intel casem doladit.
Jestli to staci na to, aby Intel dal pokracoval dalsimi generacemi...pri te ztrate, co s tim udela, tezko rict.

+1
+3
-1
Je komentář přínosný?

Osobně si myslím, že žádná firma, která chce vstoupit na zavedený trh, nemůže počítat s tím, že hned první produkt bude ziskový a perfektní. Navíc Intel musí pro akcionáře vykázat nějaký dílčí progres. Pokud dokáží s první generací jakkoliv penetrovat trh herních GPU, tak to bude z pohledu Intelu úspěch. Počkejme si, co a nebo jestli z Intelu v této oblasti vyleze něco dalšího ...

+1
+1
-1
Je komentář přínosný?

"Počkejme si, co a nebo jestli z Intelu v této oblasti vyleze něco dalšího ..."
.. no a to je presne to, co neni moc jiste.

+1
+1
-1
Je komentář přínosný?

Tak něco vyleze určitě - jestli to bude v češtině začínat g č nebo h, to už je druhá věc.

+1
-1
-1
Je komentář přínosný?

Jaký první produkt? Intel snad neměl GPU v procesoru? Intel neměl už (snahu o) dedikované grafiky (i740, Iris)?

+1
+2
-1
Je komentář přínosný?

První produkt , který mířil na soudobý highend....i740 ani Iris dneska konkurenci nezatopí .Nová architektura a snaha urvat si kus jestě nedávno velmi lukrativního trhu s GPU pro sebe ....Kryptohorečka bohužel pro Intel vychladla moc brzy.

+1
0
-1
Je komentář přínosný?

Pozitivum je v té vysoké spotřebě - tohle dá do notebooku jen úplný debil, takže těch zasviněných notebooků bude hodně málo.

+1
+2
-1
Je komentář přínosný?

Spotřeba je taky záležitost driverů a podívej se na testy mobilní verze :D V noteboocích to bude :D Těš se :D

+1
-2
-1
Je komentář přínosný?

Pokud je mobilní verze z hlediska spotřeby vyladěná, tak je amatérismus to nevyladit i u desktopové. Firma jak kráva, 100 odkladů a stejně je výsledek jak od startupu co má 20 zaměstnanců.

+1
+9
-1
Je komentář přínosný?

Prostě je to neprodejné po všech stránkách marketingu a specifikací,....
Tam kde AMD a Nvidia mají své mouchy a bijí se o různé příčky a předhánějí se o to kdo v čem bude lepší, tak na všech pozicích I tel jasně prohrává
výkon, spotřeba, cena....ani jedno z toho už není konkurenceschopné

Je to tragédie že je to výkonově na úrovni RTX3060 a zachvilku na úrovni hypotetické RTX 4050,... bohužel se spotřebou srovnatelnou s highendem
Jak je zmineno v článku, tohle byla konkurence před r lety pro Turing

Mimochodem, Michal Šimonek na FB uvedl vtipnou narážku na Intel,
Není náhodou Koduri Trojský kůň, který by měl Intel zničit zevnitř??
.....na tom něco bude xD xD

+1
0
-1
Je komentář přínosný?

Celá recenze takové grafické karty by mohla vypadat třeba takto:
„Intel vydal grafické karty Arc. Proč?“

+1
+3
-1
Je komentář přínosný?

Intel je nucen vydat i nepovedenou první generaci . To ,že to nebude veselá jízda bylo jasné dlouho dopředu .Nicméně o důvod víc věřit , že pokud segment grafických karet Intel nepoloží má šanci uspět v generaci další .Přece jen málo , ale stále dokázali konkurovat .SIS nebo VIA byly na konci ztěží konkurenceschopní .

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.