Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k 12GB verze GeForce RTX 4080 vypadá na „přejmenovanou“ GeForce RTX 4070

Spíš ty nové karty vypadají na další vtip ve photoshopu nebo šikovného hračičky. Kdyby fotky zveřejnil někdo před lety, tak by to byl stejný podařený vtip jako na fotce v článku. Od vtipu k realitě za 5 let. Připomíná mi to vtipy o hloupostech EU a to mě děsí.

+1
-4
-1
Je komentář přínosný?

Ty jsi snad zájemce o RTX 4090 tedy kartu která bude začínat u nás na ceně 50tisic?
Je to karta pro tzv "velryby" (čti "idioty co musí za jakoukoliv cenu mít to nejlepší") a pak zákazníky kteří tu kartu chtějí na výpočty protože profesionální karta by je vyšla klidně 3x tolik.

Mě teda přijde pro normálního zákazníka jakekoliv GPU nad 30tisic absolutně nezajímavé a nepotřebné.
Nejzajímavější jsou do 20tis.

+1
+4
-1
Je komentář přínosný?

Nejzajímavější jsou do 10 tisíc. Je překvapující si najít recenze a reakce lidí na např. GTX 480, která dnes vypadá jako skoro lowend a pak vidět fotky RTX 4090, které vypadají jako nějaké zvláštní miniPC.

+1
-2
-1
Je komentář přínosný?

No, vždycky jsem kupoval grafiky x70 nebo x700, ať už nVidia nebo AMD, ATI jsem snad ani neměl. Zatímco dříve stály kolem 6-7kKč, tak před kryptománií kolem 10kKč, během kryptománie kolem 25kKč (pokud byly) a teď kolem 13kKč. Takže to do 10kKč platilo tak před osmi lety naposledy ... Dříve byla moje platební ochota těch 7kKč, dnes tak 12kKč. Takže v podstatě jde o to, co je technicky zajímavé a co je finančně zajímavé. Průnik tam asi bude, ale každý ho bude mít nastavený jinak ...

+1
+11
-1
Je komentář přínosný?

Je to tak. Mě přijde, že dneska pokud karta stoji víc, jak 10-15k, tak se to na hry prakticky nevyplatí, protože když vezmu, že hry kupuju za hubičku na různých herních servech za pakatel, tak koupit si k tomu kartu třeba za 20k nebo dokonce víc, je totální overkill...i těch 15k je moc...a co koupíte za 15k? Mainstream, na kterém dáte u novějších her sotva FullHD na max. detaily, možná s vyhlazováním...na vyšší rozlišení už to stačit ale nebude...obyčejné pořádné hraní na PC se stává pomalu luxus...

+1
-1
-1
Je komentář přínosný?

A přesto jsou lidé, kteří s tím nemají problém. Já osobně raději koupím nižší výkon s plnou zárukou, než něco z druhé ruky. Nebylo to tak vždy, ale v IT se pohybuji dost dlouho, abych věděl, proč to tak dělám.

+1
0
-1
Je komentář přínosný?

„Je to karta pro tzv "velryby" (čti "idioty co musí za jakoukoliv cenu mít to nejlepší")“

No ono je ovšem docela zajímavé, že dříve toto Nvidie „pro lidi“ nedělala a přesto byli určitě lidi, kterým výkon ani tehdejšího high endu nestačil, tak čím to asi bude, že si na to musíme zvykat až teď, proč najednou taková proměna?:) To mi neříkej, že Nvidie na to přišla až teď, že lidi využijí klidně i tady toto, a proto to začla dělat.:)))

+1
+1
-1
Je komentář přínosný?

Nvidia Titan neexistovaly?.

A btw vynechal jsi celkem důležitý dodatek že krom velryb se to taky hodně kupuje na výpočty.

+1
+1
-1
Je komentář přínosný?

Aha? A jakej jako Titan měl spotřebu 450W? Já si pamatuju, že max. bylo vždy 250W.

+1
0
-1
Je komentář přínosný?

Vychytávku pro idioty (kteří nemají nouzi o peníze) přece zavedlo už 3DFx, cožpak už všichni zapomněli na jejich vynález - SLI (Crossfire později u ATI)? Kupovat dvě karty pro 1,5 násobný 3D výkon, to je přece velmi výhodné...

+1
0
-1
Je komentář přínosný?

Pokud myslíte že s jakýmkoliv typem procesorů a jedno zda jde o velká jádra a desítky až stovky kusů a nebo malá jádra v grafikách nebo výpočetních akcelerátorech o tisících kusech škálují lineárně, tak to tak nefunguje. Aby to bylo složitější, s každým typem zátěže se to liší. Kromě toho zvyšování výkonu grafiky větším počtem není ani vynález 3DFx, ti to jen použili poprvé v herní grafice. Poprvé se to objevilo v nejvýkonnějších modelech grafických systémů stanic a serverů SiliconGraphics a patrně i jinde ve světě UNIX / RISC systémů. Pochopitelně se totéž týkalo i hlavních procesorů. A to se nebavíme o mainframech a prvních superpočítačů, tam se paralelizace objevila ještě dřív.

+1
-1
-1
Je komentář přínosný?

Že škálování neprobíhá lineárně vím dávno a taky na to narážím. SLI se propagovalo jako věc pro velryby, která je prostě to Top eňo-ňoňo co si můžete do PC dát a mít co nejlepší výkon hrách. Že to výkon nenásobilo (v celých číslech), tím už se samozřejmě výrobci tolik nechlubili. A naopak v případě nVidie, s radostí doporučili ještě přikoupit i třetí kartu :-)
A nebyla to taky 3DFx, která jako první osadila dva výkoné čipy na jedno PCB? (Fakt nevím, jestli to neudělal dřív třeba Matrox)

+1
+1
-1
Je komentář přínosný?

Já psal o tom, že totéž se ale děje i uvnitř čipu, jen možná méně v případě masivně paralelního výpočtu, což je u grafiky typické. Ale ani uvnitř CPU počtem jader neškálují lineárně. Já samozřejmě chápu, na co narážíte. Jenže tam zase bylo technologické omezení, ten čip za rozumnou cenu větší ani na vyšším taktu udělat nešlo a toto byla jediná možnost, jak zvednout výkon. Proto to dělali všichni Nvidia, 3DFx, ATI i v těch grafických stanicích a serverech se to tak řešilo.

+1
-1
-1
Je komentář přínosný?

Nvidia si potrebuje po hroznych financnych vysledkoch a prepade hodnoty firmy a cien akcii urgentne zvysit marze. Moze to celkom fungovat, ludia predstalen kupia radsej nieco z rady 4080 namiesto 4070, psychologicky faktor tam je :)

+1
+2
-1
Je komentář přínosný?

Tie spotreby su brutálne. Ak sa spojí 600W grafická karta s procesorom čo žerie 250 W, to sa ani neoplatí dávať do skrinky. To môžu hneď osadiť do rámu, čo sa používa a na testovanie a ofukovať podlahovým ventilátorom s 50 cm vrtuľou.

+1
+6
-1
Je komentář přínosný?

Když se spojí 600w gk s 250w procesorem tak máš solidní topení na celou zimu.

+1
+3
-1
Je komentář přínosný?

Pár dní nazpět jsem si přitápěl s Furmarkem a Prime95 (OC 6800XT a 3700X), aby se mi rychleji usušilo prádlo. Byla kosa a centrální topení ještě netopí.

V malé místnosti po ani ne dvou hodinách o několik stupňů tepleji a kdybych opakovaně nevětral kvůli vlhkosti, tak by lezla ještě dál.

Voda za GPU blokem před radiátory (240+480) měla hezkých 38°C :). Plus podlahový větrák na cirkulaci vzduchu.

+1
+1
-1
Je komentář přínosný?

Ta 4090 čím víc větráčků tím víc adidas a přitom se to ani nevejde do kejsu :D

+1
0
-1
Je komentář přínosný?

To je founders ed. Normální bude mit méně fanů :D ale jako dobra zmrdovina takto ojebavat karty řekl bych ze to začalo v dobe 970 a jeji ojeb s napojenim 512VRam... Udělala vůbec někdy Ati/Amd takovouhle zmrdovinu???

+1
0
-1
Je komentář přínosný?

4080 s 12GB je nesmysl, tohle se mělo jmenovat 4070Ti
Má to menší čip, méně jader, méně paměti, menší TDP....
Všechno menší, a pod klasickou 4080 je už jedině 4070Ti/Super
Pokud tato 4080 s 12GB měl byl základ highendu tak potom je špatně značená 4080 s 16GB která by se měla jmenovat 4080Ti

Nvidia v tom zase dělá bordel
Doufám že to je jen další hoax který si leakři mezi sebou předávají, a po oficiálním oznámení se vše vyjasní,
a značení bude tak jak jsem popsal o pár řádku výše

Co se týká 600W pro 4090 je to pořád blbost, jsem zvědav jak se to bude dát chladit a kolik to přidá MHz, asi to bude reálné ale asi po dost omezenou dobu, nějak si nedokážu představit velikost toho chladiče který by to dlouhodobě udržel v teplotních limitech.

Nejvíc zábavné ale bylo číst o 900 až 1200W spotřebě.
Netvrdím že to není nereálné, leaky nejspíš vycházejí z nastavení BIOSu,
ale na to bude potřeba rozhodně dusík, a zajímalo by mě jak se bude chovat tepelný most mezi čipem a základnou chladícího komínu, protože odvést tolik tepla by mohl být problém, pokud to tělo komínů pojme bude to asi OK, protože to většinou bývá z monolitu a dost masivního, většinou z mědi
https://images.squarespace-cdn.com/content/v1/5e8cfddcf90d76136fa28c6c/1...
Otázkou je, jak dlouho vydrží takové přetaktování a jestli standardní komíny budou chladit dobře nebo ne, osobně si myslím že bude potřeba vymyslet nové chladící komíny třeba s vnitřním žebrováním pro zvětšení plochy kudy protéká dusík, na obrázku je vidět že ten komín má pro zvětšení chladící plochy vyvrtané díry, to nejspíš následující generaci pro max.OC nebude stačit

+1
0
-1
Je komentář přínosný?

Všechno má svůj vrchol. Ještě vyšší spotřeba u další generace mně nepřijde pravděpodobná. Doba se změnila a budoucnost nebude o třítunových SUV a kartách s větší spotřebou než má dohromady celý průměrný herní PC.

+1
0
-1
Je komentář přínosný?

No je konkurenční boj, takže ten výkon tlačí co to dá, ať jsou hlavně výkonově nejlepší bez ohledu na spotřebu a cokoliv jiného (třeba cenu), protože nechat se předběhnout AMD, tak to by asi Kožeňák nerozdejchal.

Dokud budou schopni navrhnout chladič co zchladí i 800W, tak si piš, že se jich dočkáme, takže výkon budou dál vesele navyšovat o pohádková čísla celkem jednoduše, když si můžou dovolit spotřebu furt navyšovat.

Problém je, že jednou narazí na limit fyziky a už to dál prostě nepůjde takto dělat a najednou už to nepůjde tak lehce. AMD má výhodu, že dokáže dotahovat i s výrazně mírnější spotřebou, takže až Nvidie s tím navyšováním spotřeby dřív nebo později bude muset skončit, ať se jí to líbí nebo ne, čekají ji asi dost krušné časy, protože konkurence nebude mít ten power budget ještě tak vyčerpaný a jak je pak spotřebou dorovnají, tak AMD bude umět nabídnout lepší výkon, protože jejich GPU mají vždy lepší efektivitu.

+1
0
-1
Je komentář přínosný?

Podle mě to tak udělali možná i proto, aby lidi zas neremcali, že se neustále zvyšuje spotřeba, a tak to prostě pojmenovali takto, aby to vypadalo, že to je vlastně naopak.:D

+1
0
-1
Je komentář přínosný?

beru to tak že tato generace byla vyvíjena s výhledem mnohem lepších podmínek trhu i cen energií.
Za mě je to "zabitá" řada která nic moc kladného nepřináší. Mám už poměrně žravou základní 3080tku a s ní tuto nemastnou-neslanou sérii přečkám do další.
Měnit kvůli sezónímu výkyvu skříň i zdroj opravdu nee...

+1
+2
-1
Je komentář přínosný?

Jednak to vyvíjely týmy na západě, kde mají poněkud jiné starosti a za další, přeci jen to od návrhu po hotový produkt pár let trvá.

+1
0
-1
Je komentář přínosný?

Na západě mají podobné starosti jako my tady. To že naši aktuální vládnoucí politici jsou asi největší vlastizrádci a blbci neznamená, že na západě blbci nejsou.
Vývojář moc netuší, kolik ten jeho právě navrhovaný čip bude nakonec v reálu žrát a na jaké bude frekvenci a napětí. RTX 4090 s identickým hardwarem mohla a stále může žrát jen max. 250 W. I v době Fermi šly karty taktovat a uvedená GTX 480 mohla mít výrazně vyšší a nebo nižší spotřebu.

+1
-1
-1
Je komentář přínosný?

Fakt myslíte že cca před 4,5. až 5. lety měli ve spojených státech stejné starosti, jako byť v západní Evropě? Navíc ti špičkoví vývojáři, mají o reálném životě běžných lidí asi stejné povědomí jako vládnoucí politici.

+1
0
-1
Je komentář přínosný?

rámcově vědí kolik to bude žrát, třeba že spotřeba bude o desítky Wattů větší, ale přesně to nevědí dokud nemají nějaké zkušební čipy (většinou1-1,5 roku před vydáním),
a přesně jak píšeš vývoj trvá roky, už ted se intenzivně pracuje na RTX5000 a nejspíš už jsou na papíře i RTX6000, jak dlouho je třeba v Intelu R.Koduri, už pár let a grafiky teprve přicházejí....
u CPU je to stejné, už pracují na 2-3 generacích dopředu, minulý týden jsem kdesi četl že ty jádra co jsou ted v Intelech navrhoval ještě J.Keller a ten v Intelu končil v létě 2020

AMD to dělá podobně a mám zato že shodou okolností to byl právě J.Keller který byl zmíněn v jednom ještě starším článku asi pře 2 roky, četl jsem o vývoji ZENů, Keller odešel z AMD v r.2015 a první Ryzen vyšel v r.2017.....
kromě toho bylo v článku uvedeno že v AMD působí vedle sebe několik na sobě nezávislých vývojových týmu a každý má na starost jinou architekturu,
v tuto chvíli to bude Zen5 Zen6 a nějaký next gen,

tedy takový vývojář mikroarchitektur opravdu nemůže vědět co bude za 5 let, jaké budou ceny elektřiny

+1
+1
-1
Je komentář přínosný?

No ještě, že 12 GB 4080 není přejmenovaná 3080.

+1
+2
-1
Je komentář přínosný?

S tím přepínačem to dobře vymysleli, až přijde topná sezóna, stačí jen lupnout do jiné polohy a hned máš z toho topení.

+1
+2
-1
Je komentář přínosný?

Příště prosím 4 polohy pro jaro-léto-podzim-zima.

+1
+5
-1
Je komentář přínosný?

To se nam ta informatika pekne sere:

->intel sestavi nizsi radu 13000 procesoru Raptor Lake z neprodejnych procesoru Alder Lake
->nvidia hra sachovou partii nakolik chce vytriskat z lidy prachy a k tomu obkecat prilisne TDP
->a amd nam zas v pripade X670 a B650 umele vyhodi pci-ex 5.0 na x16 slotu i kdyz je bliz CPU

K tomu neni co poradneho hrat, dale pribyla jiz 3 verze(a znovu odlehcena) PS5 na kterou ani doted neni jedina hra ktera by byla hratelna jenom na tehle konzoli, inu uvidime co Zen IV a RX 7000.

+1
-3
-1
Je komentář přínosný?

U obou jsou přece dvě provedení tedy 4 varianty zatím, kvůli ceně. PCIe 5.0 je náročnější na provedení základní desky a ne každý to na grafice využije, mě to přijde logické. Možná se to nezdá, ale jestli má deska 12 nebo 10 vrstev, už je na ceně dost poznat.

+1
0
-1
Je komentář přínosný?

Jak PS5 od SONY souvisí přímo s AMD? To je snad v jejich režii, AMD je jen dodavatel APU.

+1
-1
-1
Je komentář přínosný?

Nie je co poriadneho hrat? Staci prestat hrat AAA hry, tie su uz roky mrtve bez ziadnej invencie ...

+1
+2
-1
Je komentář přínosný?

Neslučoval bych vývoj HW, který jde uplatnit i v profi sféře nebo obecně na práci nebo obecné výpočty výlučně s hrami. Tím spíš že výrobci HW na herní vývoj moc vliv nemají.

+1
-1
-1
Je komentář přínosný?

EVGA konci s grafikama a komentrem od Jay2Cent
https://www.youtube.com/watch?v=12Hcbx33Rb4

+1
0
-1
Je komentář přínosný?

No hura, predrazene polofunkcni EVGA grafiky konecne zmizi z nabidek obchodu. Nutno dodat, ze zmizi je relativni, protoze EVGA napriklad u nas prodavala posledni leta jen prebytky, kdyz opadla kryptohorecka, jinak sem nedodala nic. Jako zlaty Asus, MSI, Gigabyte a v posledni dobe i Palit alias Gainward a Inno3D, ti sem dodali alespon neco.
Vtipnej je ten komentar, jak si stezuje, ze NVidia najednou chce zacit s partnerama zacit soutezit v primem prodeji grafik. Tomu ja rikam, no konecne. Volam po tom uz dva roky, ze partnerum, kteri prodaji vsechno kryptotezarum, je potreba zacit konkurovat primym prodejem. Holt maji, co si sami navarili.

+1
-1
-1
Je komentář přínosný?

Jako že EVGA mohla za kryptománii nebo rozhodovala kolik čipů který výrobce dostane, jak to dělala Nvidia?

+1
0
-1
Je komentář přínosný?

Ne, znamena to, ze nam to muze byt ukradene, EVGA k nam mimo prebytky, ktere nejdou udat jinde, nic nedodava, takze kdo nakupuje v CR, nemusi ho to zajimat.
Jinak ale mela EVGA v minulosti se snad kazdou radou grafik, nejake faux pas, vzdycky neco zkazili, takze zadni borci, ale grafiky jim umiraji uz davno a je to jen jejich chyba.

+1
0
-1
Je komentář přínosný?

Chování Nvidie dlouhodobě sleduji a ty informace, jak se chová k "partnerům" byly šílené. To že ty grafiky ještě někdo krom samotné Nvidie ještě dělá je malý zázrak.

+1
0
-1
Je komentář přínosný?

Zjevne to nekterym partnerum silene neprijde, kdyz ty grafiky Asus, MSI, Gigabyte, Palit, Inno3D, PNY vyrabeji a prodavaji.
NVidia dela to, co si mysli, ze je vyhodne pro ni samotnou. Co je na tom spatneho?

A at zase jedina odpoved neni, ze taky prodavali kryptotezarum. Ano, ja vim, ze se take na nas hrace vysrali, ale kdyz furt nemaji konkurenci, tak co jako mame my hraci delat? AMD se sice blizi, ale furt nejsou stoprocentne vyrovnany souper s adekvatnim vykonem. Treba RDNA3 prekvapi, ale osobne v to moc neverim, ikdyz jim preju.

+1
-2
-1
Je komentář přínosný?

No podle toho, co říkal JayZ a Steve na Nexusu, tak nVidia jsou pěkní zmrdi, kteří prakticky drží výrobce v šachu a pokud chtějí vyrábět karty, tak budou skákat, jak oni budou pískat a ještě jim dělá konkurenci tím, že prodává svoje karty prakticky pod jejich náklady...výrobce cíleně udržuje v totální nevědomosti, jak mají ty karty udělat, než si kožeňák Huang udělá svou prezentaci, nemají žádné ovladače dopředu, žádné info o parametrech, jak ty karty vlastně budou dělat,nic...arogantní přístup nVidie, když něco chtějí a to na těch kartách mají dost mizerné marže...takže jo, pokud ty grafiky chtějí vyrábět, tak musí holt zkousnout všechny tyhle svinstva, jinak mají smůlu...eVGA má aspoň koule na to je poslat někam a nenechat si dál srát na hlavu...

+1
+2
-1
Je komentář přínosný?

To je velice vtipné, jak všichni najednou tma a v mozku v paměti nic. :-D Opakovaně byly úniky informací od výrobců karet, kteří si dělali reklamu a "neuhlídali" NVidií dané embargo před vydáním. NVidia tomu udělala konec tím, že výrobce od těch informací odřízla a nedá jim ani ty ovladače dopředu, aby z nich výrobci nemohli odečíst informace, které chce světu oznámit Huang sám.

Jako co bys dělal na Huangově místě ty? Opět teda platí, že za tohle si výrobci karet mohou jen a jen sami.

+1
-2
-1
Je komentář přínosný?

Nejde jen o ty ovladače. Pamatujete před časem na ten program od NV, už nevím, jak se to přesně jmenovalo, to bylo tak za hranou i zákonů, tehdy všem došla trpělivost a NV to musela odpískat. Pořád to zkouší, pořád lžou a stále dostávají výrobce do situace, kdy zvažují, zda má cenu pokračovat. Táhne se to celé opravdu roky. A ty informace se ven dostávají. Pamatuji jak NV mlžila, když se jim kazily grafiky v NTB, jak se tvářili, že je vše OK, aby mohli dál prodávat a jak se to snažili zamést pod koberec. Přitom chyba se může stát každému, jde o to, jak se k tomu kdo postaví.

+1
0
-1
Je komentář přínosný?

AMD bere výrobce jako obchodní partnery, NV jako konkurenci a v tom je obrovský rozdíl. NV by vůbec nevadilo, kdyby zůstala jedná, kdo ty karty vyrábí. Chápete ten rozdíl? Ovladače jsou hodně důležité, ale tam jde i o ceny a termíny, množství dodaných čipů. Jak ty firmy mají nastavit obchodní strategii, když do poslední chvíle neví tak důležité věci. NV tohle dělá všem, ale EVGA byla na výrobě NV grafik dost závislá, další výrobci mají časti dlouhou tradici v základních deskách a dalším HW, případně dělají i grafiky AMD. EVGA byla první pro NV už do začátku a nikdy grafiky konkurence nevyráběla. A NV to bylo jedno. To není normální.

+1
0
-1
Je komentář přínosný?

Zase ale přeci je problém EVGA, že vyrábí jen grafiky pro NVidii a navrhuje si zdroje, které jim vyrábí OEM partner. Měli diverzifikovat, dvě super drahé základní desky, tři myši to nezachrání. Taky mohli vyrábět i pro AMD jako to dělají ostatní.

+1
0
-1
Je komentář přínosný?

Jenže ta firma měla podobnou pozici jako Saphire pro ATI a poté AMD. Rozdíl je v tom, že AMD si partnerů váží.

+1
0
-1
Je komentář přínosný?

Ne, nemela. To bylo mozna zdani ze strany EVGA, ale NVidia na to tak zcela jiste nenahlizela. ;-)
Mezi nami, Sapphire je pro AMD dulezity, ale lepsi by bylo vzhledem ke kvalite grafickych karet, kdyby nebyl.

+1
-2
-1
Je komentář přínosný?

Ta kvalita nevím, míval jsem od nich něco, ale nevím, zda bych si Saphire znovu koupil. Ale třeba se to už zase zlepšilo. Mohlo to být jen jedno období.

+1
0
-1
Je komentář přínosný?

Co se týká Nvidie. EVGA není jedniná. Je to pár let, co jsem se něco podobného prve dozvěděl a o EVGA tam nešlo.

+1
0
-1
Je komentář přínosný?

Nemají moc na výběr, něco vyrábět musí.

+1
0
-1
Je komentář přínosný?

Kdyz by jsi si poslechl cele to video, tak by jsi tak nejak pochopil, ze u nas to muze byt 'okrajove', ale treba pro severoamericky trh, jmenovute US to byl velky nebo nejvetsi hrac s grafikama NV na trhu. Jejich cena byla vyssi i z duvodu nadstandardnich zarucnich ujednani.
"kteri prodaji vsechno kryptotezarum, je potreba zacit konkurovat primym prodejem. "
.. nechci ti brat iluze, ale NV dodavala primo kryptotezarum asi nejvic sama, naprimo :) Pokud jsi to myslel tak, ze NV je ta hodna, co to krypto nepodporovala a OEMka ti spatni, kteri jim to kazili, tak si asi hodne naivni :)

+1
0
-1
Je komentář přínosný?

Tak psal jsem v odpovedi na diskutujiciho Kutil, ze delali to same co NVidia sama, takze ne, nejsem najivni, ale spis bych to prevratil, OEMka tu nejsou ti dobri, takze proc je litovat.
Navic, NVidia a partneri prodavali kryptotezarum a vydelavali na tom nejak vsichni nebo holt EVGA mela narozdil od ostatnich partneru tak spatnou pozici, ze nevydelavala a zabalila to, smula.
AMD se pro zmenu na partnery vykvakla uplne a vyrobu cipu grafik prevedla na vyhodnejsi vyrobu procesoru a dodavky APU pro zajimavejsi partnery Sony a Microsoft.

Tady proste neni nikdo ten dobry, co myslel na hrace. Vsichni mysleli hlavne na prachy a ja proti tomu nic nenamitam, to je trh. Ja jenom rikam, ze v tehle situaci porad plati, ze si koupim takovou grafiku, ktera bude mit nejlepsi parametry, ktere pozaduji. Pro me je to nejaka GeForce, pro nekoho jineho mozna nejaky Radeon a kdyz se treba Intel bude hodne moc snazit, jednou to bude nejaky ARC. Proste chovam se stejne trzne jako vyrobci a je na nich, aby se s novou radou predvedli. ;-)

+1
-1
-1
Je komentář přínosný?

Nejde srovnávat pozici NV, Intelu a AMD. AMD se musí rozhodovat s malou výrobní kapacitou, kam výrobu nasměruje. A právě to udělala dobře, protože při první krypto-vlně se spálila fakt hodně. A jelikož výrobce čipů nemá až tak možnost ovlivnit, kam vyrobené karty půjdou, raději posílila nabídku v jiném prodávaném segmentu. Takto se vyhnuli oslabení prodejů po odeznění vlny, které už 2x zažila NV, která navíc dělá i své karty, dokonce přímo modely pro těžaře. A tím pádem ví, kam ty karty jdou.

+1
+1
-1
Je komentář přínosný?

Super, takže AMD zařízla obchodní partnery a udělala to dobře a NVidia je ta zlá. :-D

+1
-3
-1
Je komentář přínosný?

Nevím o tom, že by některý výrobce měl k AMD takové výhrady, jako k Nvidii.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.