Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Arc B580 patrně těží hlavně z nárůstu taktů, počet funkčních jednotek klesl

Proč by si tohle někdo dobrovolně kupoval.

+1
+3
-1
Je komentář přínosný?

Záleží, jaká bude cena.

+1
+1
-1
Je komentář přínosný?

Zadarmo jim to otestuju.

+1
0
-1
Je komentář přínosný?

Na staré hry to je k ničemu na nové také tak jedině do sbírky bizáru se to hodí.

+1
+3
-1
Je komentář přínosný?

to máme cca 7000 s DPH, tedy konkurence pro 7600, 8600

+1
+3
-1
Je komentář přínosný?

To uvidíme až po recenzích 12.12.2024

+1
+1
-1
Je komentář přínosný?

to za prve

za druhe proti novym Radeonum

kdyz pojebali 7ckovou radu nizkymi frekvencemi, skrtli 8ckovy high end, musi zabrat a poradne.

A ne kvuli Intelu, ale s timhle prddilem na trhu muzou grafickou divizi zabalit a prodat tym treba Sony

+1
0
-1
Je komentář přínosný?

Mám přístup k A580 která v době nákupu stála asi 4300,- s DPH. Bylo to srovnatelný nebo výkonnější než RX6600, o 1000kč levnější a překvapivě to fungovalo v mém velice různorodém portfoliu her čítající earlyacess hry, tycoony, survivaly, 2.5D "věci", další okrajovky a pár AAA her. I VRR bylo funkční. Jen ta idle spotřeba a děsně kolísavá spotřeba v zátěži, kdy si karta běžně brala podobně jak RX6600, ale někdy klidně o 150W víc ve stejné scéně.

+1
+1
-1
Je komentář přínosný?

""""kdy si karta běžně brala podobně jak RX6600, ale někdy klidně o 150W víc ve stejné scéně"""

To jako opravdu?? Jako že to někdy bere 120-130W (RX6600) a někdy 280W ????

Dost pochybuji..

+1
0
-1
Je komentář přínosný?

Proč by ne. Buď bude skákat fps, nebo spotřeba. Bude trvat roky, než vyladí plynulý framerate.

+1
0
-1
Je komentář přínosný?

Má to 2x8pin. S RX6600(pulse) jsem měl na měřáku do 200W na case. S A580 většinou podobně nebo trochu víc, ale při pohledu patrně na "nekompatibilní" shader spotřeba vylítla k 350W a 5600G za to fakt nemohl. Testoval jsem Sparkle (tuším ORC) dvouvětrák a v podstatě nejvíc mě na tý grafice štvalo jen to, že má blbě nastavený ventilátory a i v ploše si cca každých 30sec na chvíli zapnula větráky. Bylo to otravný a rušilo to a jediná jiná možnost byla je nechat běžet nastálo, kde byl ale problém s tím že minimum je 30% tedy na Idle celkem kravál (berte s rezervou).

+1
+2
-1
Je komentář přínosný?

Aaaaajj. Zjistil jsem že celou dobu mluvím o Arc A750, ne o A580. :D sooooooorryyyyyy

+1
0
-1
Je komentář přínosný?

lebo chudak intel je na tom zle? (ironia)

+1
0
-1
Je komentář přínosný?

Když musíš do postu psát jak jsi to myslel ("ironia"), tak něco není asi úplně OK.

+1
0
-1
Je komentář přínosný?

Každý chce slízávat smetanu, ale polotučné mléko má také svoje zákazníky. Taková moderní, pasivně chlazená kartička s 4 až 8 GB DDR5 by si určitě našla svoje zákazníky ve větším počtu. Zvláště v nabídce, kde třeba zoufalá GT 710 s 2GB a multimediálními schopnostmi starými 10 let stojí 14 stovek. Vždyť by jí taky mohli prodávat dalších 10 let, takže náklady na vývoj by se splatily, zvláště bez neexistující konkurenční nabídky. Místo toho se Intel cpe tam, kde bude zase jen paběrkovat...

+1
+1
-1
Je komentář přínosný?

To bude tym, ze GT710 je jedna z poslednych grafik, ktora sa este pohybovala v TDP, ze z nej slo vyrobit rozumnu pasivnu grafaren. Odvtedy sme so spotrebami uleteli dakam do prdele.

A myslim si, ze sa to uz nezmeni a ak chce clovek grafiku, ktora nema samostatny vetrak, tak si bude musiet APU.

+1
+2
-1
Je komentář přínosný?

Grafické/výpočetní karty bez svého vlastího větráku jsou.
Ale ne ve IV. cenové.

+1
+2
-1
Je komentář přínosný?

By mne docela zajímalo, co vede výrobce grafických čipů k používání sice nejnovější generace PCIe, ale polovičního počtu linek. Pro uživatele je to přínos absolutně nula, naopak je to omezuje v uplatnění takové karty u starších PC, kde je naopak nějvětší prostor pro upgrade GK.
Např. na AM4 v lepším případě pojede PCIe 5.0 8x karta poloviční rychlostí (B550, X570 - PCIe4.0) nebo dokonce čtvrtinovou (X370, B350, X470, B450 - PCIe 3.0)

+1
+5
-1
Je komentář přínosný?

Vede je k tomu nasazení v mobilním segmentu, kde 16 linek vyžaduje na dnešní poměry velkou plochu PCB a jakékoli zúžení (=zmenšení) je proto žádoucí. Intelu to ale nejspíš bude k ničemu, protože se nakonec rozhodl mobilní variantu nevydat (poměr spotřeba / výkon asi není konkurenceschopný).

+1
+1
-1
Je komentář přínosný?

Nejen plocha na PCB.
I plocha na křemíku. PHY pro PCIe moc zmenšit nejde.

+1
+2
-1
Je komentář přínosný?

... nejen plocha, ale i zjednoduseni navrhu.

+1
0
-1
Je komentář přínosný?

Jak píšou všichni výše, prostě je to zase jen o penězích (je to levnější)...
PS: Pokud má karta dost VRAM, není zas tak podstatné, že má je 8linek - na PCIE4 desce (logicky)

+1
0
-1
Je komentář přínosný?

Teoreticky i v serverech, i když není jasné, jestli je Intel vzdal. Pak by jedna x16 karta byla ve skutečnosti 2x x8 karty. AMD to už v minulosti vyrobilo pro Mac Pro - akorát tam to bylo 2x x16 karty, tudíž musel vzniknout nekompatibilní dvojnásobný PCIe slot.

+1
0
-1
Je komentář přínosný?

V oblasti grafik se na starší PC kašle. Přínos je úspora nákladů nejen za materiál, ale i testování v různých systémech. Doufám jen v to, že s PCI-E 6 se poučí z debaklu s PCI-E 5 a budou cílit jen na nejvyšší highend (ideálně jen threadrippery) a tak s tím budou výrobci grafik a SSD počítat. Milerád svůj názor změním až přijde SSD co mně v PCI-E 6 zrychlí PC.

+1
0
-1
Je komentář přínosný?

Mi se líbí ty tvoje psycho výlevy.. "Debakl PCIE5 a poučí se PCIE6" :)))
Nečumíš u toho ťukání textu na fotbal?

+1
0
-1
Je komentář přínosný?

Lidi už jsou na to zvyklí.
Intel je už je vyškolil.
PCIe v5 x16 slot pro GPU provozovaný v režimu PCIe v4 x8, protože současné GPU v5 neumí a 8 linek se obětovalo na připojení NVME v5 x4.

Ne že by to zas tak vadilo. U čehokoliv s výkonem pod 3080 to vykazovalo rozdíly pouze v benchmarku na úrovni chyby meření.

+1
+3
-1
Je komentář přínosný?

Asi tak. Mám moderní PC s PCIE 4.0x16 a už si fakt nenechám nabulíkovat, že to příštích 5 let nebude stačit. Možná kdyby někdo vytvořil skvost něco ve stylu RTX 50-6090 s 5.0x8 linek s prodejní cenou 2000$+ a výkonným a tedy velkým čipem.
Rozdíly byly minimální(řádově jednotky procent) v 1080p. Někde jsem viděl porovnání 4090 v PCIE3x8 až PCIE4x16. Ve vyšším rozlišení budou rozdíly ještě menší.

+1
0
-1
Je komentář přínosný?

co vzpomínám měření z dob, kdy ještě všechny karty měly x16 linek, tak se tyhle testy dělaly pro TB externí boxy, kde TB tuneloval v podstatě 4 lineky a ukázalo se, že zhruba 1 linka je průser, ale od 4 je to ok. Přeloženo do dnešní doby a tedy ten největší "průser" co může nastat je asi ten, že si koupí někdo jakýsi nový lowend na x4 PCIE 5.0 linkách do svého PCIE3.0 starého stroje, čili bude mít zapojení x4 pcie3.0 linky. Tak vzhledem k tomu, že to bude lowend a výše řečenému nebude ani tento "nejhorší" scénář zásadní průser. Nicméně platí že jakýchkoliv x16 linek je vždy lepších, proto do starého kompu raději např. bazarovou RX 6800, která už těch x16 linek má, jakožte "entry-hiend" své doby, než RX 6700 na osmi linkách. Nehledě na to, že i těch 16GB VRAM se dnes hodí

+1
0
-1
Je komentář přínosný?

RX 6700 dokonce i 10GiB provedeni ma PCIe 4.0 x16.

+1
+2
-1
Je komentář přínosný?

PCIe 4x16 stačí, ale my co máme PCIe 4 bychom s touto kartou měli PCIe 4x8, nám je PCIe 5x8 docela k ničemu a to znamená omezení.
Už jsem se trochu bál, ale tahle grafika nebude mít ani náhodou výkon ani RTX 5070 ani RDNA 4, leda by musela AMD něco totálně pokurv..., to nepředpokládám. Takže sorry, nekupuju. :-)

+1
+1
-1
Je komentář přínosný?

Co už ses bál, že by to náhodou bylo povedené, tak bys to koupit musel?
Ne neboj, nemusíš.

+1
0
-1
Je komentář přínosný?

V jiným vlákně jsem psal, že když to bude cenově a výkonově ok, tak kupuju. Ale nemyslel jsem to moc vážně právě s ohledem na to, že moc nevěřím, že ta grafika od Intelu sáhne na výkon konkurence.

Jinak by se mi hodilo nahradit RTX 3080 něčím výkonějším, ale nemíním platit nesmyslnou cenu, nepodporuju 12VHPWR a nechci, aby to mělo ošizenou VRAM pod 16GB. Snad bude něco od AMD. :-/

+1
0
-1
Je komentář přínosný?

Jak ten kašpárek je asi veliký ve srovnání s autorem recenze a ředitelem pražské teplárenské?

+1
0
-1
Je komentář přínosný?

Pokud máte vykrmené prasátko, můžete si předobjednat server s RTX 5090.
Za 6/8 GPU to bude "jen" 40/50 tisíc €.

V ceně je 32 jádrový EPYC, 256 GB RAM a 1 TB úložiště (na zavedení systému by to snad mohlo stačit). A jako bonus vodní chlazení.

https://videocardz.com/newz/gpu-server-with-eight-unreleased-geforce-rtx...

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.