Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD ztrojnásobila počet lidí v softwarovém oddělení, dopad očekává za 3-5 let

že jim to trvalo. Hw je jedna věc, ale vytvořit kvalitní sw ekosystém je jiný level. Snad se jim to podaří, protože takto ty jejich super APU zmírají na úbytě. Sice vydělávají ale Huang nebude čekat s rukama v klíně.

+1
-2
-1
Je komentář přínosný?

AMD zrýchľuje

SANTA CLARA, Calif., July 10, 2024 (GLOBE NEWSWIRE) -- AMD (NASDAQ: AMD) today announced the signing of a definitive agreement to acquire Silo AI, the largest private AI lab in Europe, in an all-cash transaction valued at approximately $665 million. The agreement represents another significant step in the company’s strategy to deliver end-to-end AI solutions based on open standards and in strong partnership with the global AI ecosystem. The Silo AI team consists of world-class AI scientists and engineers with extensive experience developing tailored AI models, platforms and solutions for leading enterprises spanning cloud, embedded and endpoint computing markets.

Silo AI CEO and co-founder Peter Sarlin will continue to lead the Silo AI team as part of the AMD Artificial Intelligence Group, reporting to AMD senior vice president Vamsi Boppana. The acquisition is expected to close in the second half of 2024.
https://ir.amd.com/news-events/press-releases/detail/1206/amd-to-acquire...

https://www.silo.ai/blog/amd-to-acquire-silo-ai-to-expand-enterprise-ai-...

+1
+1
-1
Je komentář přínosný?

„Právě využití prostředků na vývoj hardwaru, který nevyžaduje drahou a složitou softwarovou porporu (=CPU) byl tou jedinou správnou strategií, jak se mohla AMD vrátit do hry. “

Přesně. Začít lejt prachy do GPGPU a softwaru v době, kdy mělo AMD na trhu s grafikama větší podíl než Nvidia a příjmy přes šest miliard a dvakrát víc než Nvidia a v procesorech Athlony XP a 64, by byla naprostá kravina, když máte možnost dělat procáky, co software prakticky nepotřebují a GPGPU vlastně nikdo nechtěl. A proč si vůbec kazit byznys s vícejádrovými procesory tím, že to budete chtít počítat na GPU. Taková pitomost.

Bylo potřeba nechat Nvidii, aby se z ní stala nejhodnotnější společnost na světě, s vlastníma grafikama spadnout na osmnáct procent, a pak teprve na tom začít konečně makat! :D

V černých číslech jsou od roku 2017, ale až teď je napadlo, že by jako mohli začít víc investovat i do softwaru.

Ale díky bohu za to, že se tam někdo konečně probral a přestal se spoléhat na to, že když zveřejní dokumentaci, komunita si k tomu napíše software sama.

+1
-3
-1
Je komentář přínosný?

Souhlasím, jenom bych dodal i menší omluvu pro AMD. AMD se vysílilo zbytečným bojem s "too big to fail" Intelem a jeho nelegálními praktikami, takže tvoje úvaha zasazená do zdravého tržního prostředí je chybná. AMD z historických důvodů muselo lít peníze minimálně do dvou oblastí (CPU+GPU), zatímco nvidia se mohla soustředit jen na jednu a na továrny peníze neplýtvala. Zbavení se továren AMD udělat muselo, ale znát tuto budoucí nevyhnutelnost dříve, bylo nemožné, resp. ti manažeři by museli být vyjímečně dobří.

Samozřejmě můžu AMD zazlívat, že nepředpovídali boom těžení a AI, ale ten nepředpovídal nikdo a i Nvidia k tomu přišla jak slepá k houslím - prostě měla i to štěstí. AMD v serverech část smetany slízává a všechen SW na GPU zdaleka nejede, to už by Intel krachnul i přes dotace od vlády.

I dnes se prodávají hotové top desktopy za víc jak 100 litrů s RTX 4090 a většinou mají i9. Situace v notebookách obdobná. Je to jasný důkaz, že AMD se může stavět na hlavu, ale některé věci kvůli nezdravému trhu nikdy nezmění. Když použiji analogii s auty, tak to, co dnes je normální v oblasti PC, je jako kdyby dodavatel kol pro drahá auta úspěšně dodával 2x těžší plecháče (Intel), zatímco AMD (skvělé léhké liťáky) paběrkoval. V autech nepředstavitelná situace, ale v PC jsme si už zvykli, protože minimálně podvědomě tušíme o co jde a co je horší - antimonopolní úřady si už taky zvykly.

+1
+13
-1
Je komentář přínosný?

Ale už se to začíná zlepšovat, když si třeba na Alze rozkliknu hotovky a vyfiltruju si 4090, tak je ta nabídka Ryzenů docela vyrovnaná. Samozřejmě že ty 14900K budou pořád, ale už se i Ryzeny začínají prosazovat, přeci jen už jsou i výkonnější, takže to by bylo, aby se aspoň do nějakých nedostaly.

+1
+1
-1
Je komentář přínosný?

Pokud by v důsledku obchodní války USA byl najednou Tchajwan nedostupný, tak bude Intel jedinou firmou na světě, co nepřeruší dodávky, asi tak ke zbavování se továren.

+1
-3
-1
Je komentář přínosný?

Ehm... a nezačal teď Intel hlavní částí jádra vyrábět u TSMC?
Ale jinak máte pravdu... ty slabé nebo staré procesory si zvládnou vyrobit.. AMD už asi ne... Ikdyž.. ti by si to asi nechali vyrobit Samsungu, byť by to nebylo třeba tak dobré

+1
+1
-1
Je komentář přínosný?

Jaké obchodní války? S tím komentářem bych na 100 % souhlasil, kdyby tam nebylo slovo "obchodní", ale jen "války".

+1
0
-1
Je komentář přínosný?

Hlavne Nvidia mala dlhé obdobie dobré finančné výsledky tak mohli vo veľkom investovať do softwaru. Ja neviem čo presne ľudia očakávajú od firmy, ktorá má tých fin.prostriedkov omnoho menej. Až teraz po dlhom obodbí, keď AMD bude mať CPU market pod palcom sa myslím odvážia preliať tie peniaze postupne inde.

+1
+1
-1
Je komentář přínosný?

Děláte, jako by Nvidia měla vždycky víc peněz než AMD. Byly doby, kdy byla podstatně menší než to AMD. Nedělejte z AMD pořád takové chudáky, existuje pětapadesát let a je to normální korporát.

A nic to nemění na tom, že někdy od třetí generace Ryzenů už si fakt na nedostatek prachů nemohli stěžovat. Spíš ji přišly atraktivnější procesory, protože v něm prodávají třetinový kus křemíku za stejnou cenu, za jakou se prodávala celá grafika s čipem Nvidie, takže je na tom zřejmě poněkud větší zisk.

Akorát v AMD nejspíš nikoho nevzrušovalo, že když se k tomu udělá slušný software, tak se to dá prodávat jako produkt firmám, které nezajímá ani tak to, kolik to stojí, ale kolik na tom dokážou vydělat, a za čip, jaký se v grafice prodává za čtyřicet litrů, osazený do profi akcelerátoru, ta firma vysolí klidně sto padesát litrů, a když už to kupuje, obvykle nekoupí jeden.

+1
-2
-1
Je komentář přínosný?

Nerozumiem úplne tvojmu komentáru. Nie som fanboy aby som obhajoval korporát. Toto je racionálne zhodnotenie situácie. AMD sa aj vlastnými chybami dostalo do zlej situácie okolo roku 2011 a potom to už išlo dole. Tesne pred ryzenom boli pred krachom. Nvidia naopak mala úspech v GPU a podarilo sa im výrazne prekonať amd v obrate. Samotná AI začal byť naozaj zaujímavá tak pred 5 rokmi, ale o úpsechu openAI sa ešte nechyrovalo. A nie bola doba, keď AMD drvilo Nvidiu, ale tiež to nebolo extrémne dlhé obdobie. Ja rozprávam o posledných 10-15 rokoch, nie o stave pred 2010.

+1
+1
-1
Je komentář přínosný?

Nebyli před krachem. AMD je firma, která jen tak nezkrachuje. Na tom, aby nezkrachovali, měl enormní zájem Intel, Nvidia i celá americká vláda. Zrovna ta Nvidia jim dává svou cenovou politikou dost velký prostor na to, aby nabídli něco zajímavého. Jediné, co z nich pod Lisou většinou vypadne, je výkonnostní alternativa k Nvidii s horšími vlastnostmi levnější o padesát nebo sto doláčů bez ohledu na to, jaké ceny Nvidia nastaví. A myslí si, že bude stačit, když Lisa hezky prohlásí, jak miluje hráče.

Nic to nemění na tom, že teď jsou v takové situaci, že do toho softwaru mohli lejt prachy už pět let. Místo toho to spíš vypadalo, že GPU divizi upozaďují, než že by koukali, co s GPU zvládá Nvidia a snažili se je dotahovat. Grafiky se prodávaly samy kvůli kryptu, takže proč to hrotit, že, a nikdo neřešil, že ethereum někdy skončí.

+1
-4
-1
Je komentář přínosný?

Ja som túto teóriu už počul, ale je to podľa mňa veľmi nepravdepodobné. Toto by podľa mňa antimonopolný úrad ani nikto iný reálne napadnúť nemohol. Stále existujú a existovali alternatívy typu ARM a RISC-V. Takýmto spôsobom by si mohol perzekuovať aj TSMC ktoré je popredu pred konkurenciou. AMD nikdy nebolo too big to fail, ale to nie je ani Intel ani Nvidia.

A teraz naspäť k mojej argumentácii. Viacerí insiders - teda engineers na vysokých pozíciach potvrdili, že predaje PS4 im významne zachránili zadok. Tu je článok napr. o tom https://gamerant.com/amd-bankruptcy-ps4-saved/

Ďalšia vec je, že áno majú vyššie predaje ale porovnaj si Nvidiu a AMD. AMD muselo dlhodobo konkurovať Nvidii a Intelu zároveň pričom Nvidia častokrát mala celkovo vyšší obrat.
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/revenue
https://www.macrotrends.net/stocks/charts/AMD/amd/revenue)
A teraz si porovnaj obraty v posledných dvoch rokoch a zistíš, že to bude ešte dlho trvať kým sa AMD dotiahne na Nvidiu.

+1
+1
-1
Je komentář přínosný?

Není too big to fail, byli too small na to, aby si s nimi Nvidia nebo Intel lámali hlavu. U intelu to šlo tak daleko, že rezignovali na jakýkoliv vývoj a několik let žili jen z rezervy, jakou mělo při taktování Core i7. Kdyby Nvidia chtěla zrušit sekci grafik AMD, stačilo jim už od Keplera kdykoliv shodit marže u herních GPU z padesáti na patnáct procent, a AMD by buď muselo GPU prodávat s těžkou ztrátou a několik let je dotovat, nebo to zabalit, protože prakticky u všeho od té doby potřebovali na stejný výkon mnohem větší kus křemíku. A z Radeonů by zbyly IGP pro konzole.

Pro Intel i Nvidii bylo vždycky lepší, když jim pustí deset dvacet procent trhu a nechají je žít, protože pak nemusejí řešit, že mají monopol. A Lisa toho u grafik využila, výrobu nastavila tak, aby si pokryli tu svou pětinu trhu, a ceny vždy nastavila tak, aby si to tak ten každý pátý koupil, a vydělávali si na procesorech. U několika karet v poslední generaci už ty ceny šponovali na úroveň Nvidie natolik, že jim i recenzenti vysvětlovali, že za tuhle cenu jim to strhají tak, že to nikdo nekoupí, a zlevňovalo se to v posledních dnech před vydáním.

+1
+1
-1
Je komentář přínosný?

Sorry Adame, ale urban legenda o "antimonopolni" zachrane AMD je hroznej nesmysl, uplne odtrzeny od reality. Kdyz se podivas na jakekoliv vetsi antimonopolni pripady, tak z toho nebyl pro ty firmy v principu zadny problem. A to ani v extrememch, ajko byl soudni proces s MS, ktery pak Bushova administrativa jednoduse zahrala do autu. Politika a bussines jdou ruku v ruce. Idealy jak by meli veci vypadat, pokud kdy nejake byly, jsou dneska uz jen vzpominakama na casy minule.. Vzdyt i ten pripad EU vs Intel, nakonec kompletne splachli.. a kupodivu to zadnym EU politikum nevadi, ha ha..
To ze NV "nezrusila" AMD je proto, ze Huang dre marze kam az to jde. Sam si marze nebude snizovat. Tvrdy, nelistostny, ledovy kapitalista. Nic vic a min. To ze toho AMD neumi poradne vyuzit a nebo se pohybuje v pasmu, kde jim to jak NV, tak AMD vlastne vyhovuje, je pak jina vec. Ale zadna "zachrana AMD", at uz Intelem nebo NV nikdy nebyla. Je to nesmyslna urban legend.

+1
+1
-1
Je komentář přínosný?

Já nepíšu, že je zachraňují, píšu, že je nechávají dýchat, i když by pro Nvidii v některých fázích nebyl problém obětovat marži u dvou generací a dostat AMD do stavu, kdy desktopové grafiky zabalí, protože se jim to nevyplatí dělat, a zůstanou jen u IGP a čipsetů do konzolí. A není nemožné, aby se to nestalo. Intel měl taky kdysi nadějné grafiky, a prostě to zabalil, protože dokázal žít s procesory. A podíl na trhu s grafikama si vyráběl tím, že prodával IGP lidem, kteří ho nikdy nepoužili. A teď má grafiky zase, a zase je zralý na to je zabalit, protože na tom prodělává.

U AMD už u GPU několikrát rezignovali na highend, a několikrát ho uvedli jen proto, aby ho měli, ale nevypadalo to, že mají zvlášť velký zájem to za ty prachy prodávat (Fiji, Vega). A teď se na něj vykašlou zase. A já za tím zase vidím jenom to, že proti RTX 4080 s 379 mm² musejí stavět Navi31 s 300 mm² a šesti čiplety, se kterými to nabobtná na 600 mm², musejí ho prodávat levněji, a ještě k tomu musejí přilípnout šest čipletů a 20 nebo 24 GB VRAM, a ani s tím to nejde zrovna na dračku. A není vyhlídka, že by se to u příští generace mělo zlepšit, tak se spokojí s levnými čipy, o které Nvidia ztrácí zájem.

+1
0
-1
Je komentář přínosný?

Fiji bylo technologické cvičení. Vega? Vega je úplně jiná liga. Nejsou to jen desktop grafiky, bylo to i několik generací integrovaných a akcelerátory. První generace Intinct MI jsou i Vegy. Až po nich přišly čistě výpočetní CDNA, tedy MI 2xx a MI 3xx. A bez Fiji a Vegy by nejspíš nebylo nic čistě výpočetní. Mimochodem Vega i v desktopu měla dvě generace a speciální modely pro Apple, takže docela velký úspěch AMD, tím spíš že pro Apple byly i:

Apple AMD Radeon Pro Vega II Duo
64GB of HBM2 VRAM (32GB per GPU)
8192 Stream Processors (total)
Provides up to 28.3 TFLOPS of combined single-precision floating-point (FP32) performance and up to 56.6 TFLOPS of combined half-precision floating-point (FP16) performance.
7nm 2nd Generation Vega Architecture.

+1
0
-1
Je komentář přínosný?

To ze neco nechavaji dychat vychazi spis opet z bussines pohledu. Firmy apriori preferuji zisk, tudiz pokud bylo AMD na hrane zaniku, na co by si NV kazila svoje vysledky, kdyz AMD nepredstavovalo a stale nepredstavuje opravdu vyznamnou konkurenci pro NV, ktera je velmi dominantnim hracem trhu. Cili apriori to co pises nema nemelo pro NV v dane dobe vlastne smysl, i kdyz z pohledu dualniho trhu a pohledu, se to treba nabizi.
Jinak AMD zachranili konzole, na tom se asi i shodneme..to je asi jedine, v cem mozna MV udelala nejakou strategickou chybu.

+1
0
-1
Je komentář přínosný?

U Vegy to bylo tím, že byla hybridní v tom smyslu, že neměla jen vysoký výpočetní výkon v 32. bitech, který je třeba pro grafiku, ale navíc i v 64. bitech. Byla od začátku dělaná na grafické a výpočetní použití, protože tehdy ještě neměli peníze na vývoj samotné řady akcelerátorů. Proto pro Apple byly i dvoučipové verze, které pro PC neexistovaly. To se týká speciálně Radeon VII (Vega 20) a všeho, co z toho vycházelo u první generece ještě tolik ne.
Maximální výkon pro 16 / 32 / 64 bitů: 27 648 / 13 824 / 3 459 GFLOPS.
U předchozí Vegy 64 25 / 330 / 12 665 / 791,6 GFLOPS - největší zlepšení právě pro 64 bitů.
Na Vega 20 stojí i Instinct MI 50:
Compute Units 60
Stream Processors 3840
Peak INT8 Up to 53.6 TOPS
Peak FP16 Up to 26.5 TFLOPS
Peak FP32 Up to 13.3 TFLOPS
Peak FP64 Up to 6.6 TFLOPS

O neúspěchu se mluvit fakt nedá. Tak to vnímají jen hráči.

+1
0
-1
Je komentář přínosný?

Přesněji jsem to našel.

(TFLOPS) 16 (TFLOPS) 32 (TFLOPS) 64 (GB/s)
Instinct MI6 / Polaris 10 - 2304 - 1120 / 1233 MHz - GDDR 5 - 5.161 / 5.682 - 5.161 / 5.682 - 0.323 / 0.355 - 224
Instinct MI8 / Fiji - 4096 - 1000 MHz - HBM - 8.192 - 8.192 - 0.512 - 512
Instinct MI25 / Vega 10 - 4096 - 1400 / 1500 MHz - HBM 2 - 22.94 / 24.58 - 11.47 / 12.29 - 0.717 / 0.768 - 484
Instinct MI50 / Vega 20 - 3840 - 1450 / 1725 MHz - HBM 2 - 22.27 / 26.50 - 11.14 / 13.25 - 5.568 / 6.624 - 1024
Instinct MI60 / Vega 20 - 4096 - 1500 / 1800 MHz - HBM 2 - 24.58 / 29.49 - 12.29 / 14.75 - 6.144 / 7.373 - 1024

+1
0
-1
Je komentář přínosný?

Pokud jde o grafický hi-end AMD, ten už delší dobu s Nvidií plně srovnatelný není, tam s hodnocením cen souhlasím, ale ve zbytku grafické produkce AMD už moc ne. Ta firma se nemůže věčně jen podbízet, byť nemá tolik skalních fanoušků jako Nvidia.

Intel chovali a chovají se jak pitomci. To stává velkým firmám, které mají téměř monopol a řídí je manažeři bez technického základu. AMD vždy víc vedli inženýři až na smutná období. Intel nejdřív cecítil potřebu reagovat a pak vlastní vinou prostě nemohl. Když si rozesral vývoj výrobní části. Nic extra složitého na tom prostě není, netřeba tam hledat něco víc.

+1
0
-1
Je komentář přínosný?

Nejdřív potřebovali dostatečně široké portfolio HW. Dnes jsou v x86 světě jediní s konkurenceschopnými CPU od NTB po superpočítače, GPU, akcelerátory, speciálním HW Xilinx. Mají nabídku jako nikdo a dost peněz, aby se mohli víc opřít do SW. A jen naivka si myslí, že to nedalo práci a nestálo čas a prachy.

+1
+1
-1
Je komentář přínosný?

To je hezký, akorát jim při tom soustředění se na CPU nějak uteklo, že supercomputing, korporát i věda se přesouvá na GPU. Nvidia se na nějaké široké portfolio produktů vykašlala. Když já si tak vzpomenu na ty zasvěcené debaty, jak je Nvidia v pytli, protože nemá x86 procesor, AMD má kompletní platformu, a konzole obsadilo AMD, takže se to do pár let propíše i do PC, a AMD má úžasné portfolio produktů, zatímco Nvidia má jenom GPU a marné pokusy prorazit s Tegrou, tak to dnes vyznívá dost komicky.

Momentálně by mě zajímalo, jaké záměry měli s tím nákupem ARMu a co sledují Omniversem, který teď furt cpou na každou prezentaci včetně těch pro běžnou veřejnost, když to "nikoho nezajímá" stejně jako dřív jejich GPGPU, CUDA, ejáj, ray tracingy a co já vím co ještě. Asi to zjistíme za pár let.

+1
0
-1
Je komentář přínosný?

Nic jim neuteklo. Jednak si pamatuju, jak uváděli první APU. Kdy přímo počítali s výpočetním využitím GPU části. Ale na velké řešení tehdy neněli dost peněz k vývoji, tehdy na tom ještě tak dobře nebyli.

+1
0
-1
Je komentář přínosný?

Ano, jako většinou udělali hardwarovou část, a spoléhali se na to, že software, co to bude efektivně využívat, za ně udělá někdo jiný. A jako většinou ho nikdo neudělal.

K čemu je dělat hardware s nějakým takovým záměrem, když pro něj pak nikdo neudělá software.

+1
0
-1
Je komentář přínosný?

Kdyby se to neprodávalo, nepokračovali by. Nvidia měla náskok a AMD ji muselo dohnat aspoň v HW. U velkých systémů problém nebyl takový jako u malých firem a jednotlivců, tam si ty aplikace napsali na míru, aby ten drahý HW využili.

+1
0
-1
Je komentář přínosný?

Jak to bylo s počátky Instinct u AMD jsem tu vypsal. Začínalo se MI 6 na Polarisu 10, pak Fiji a Vega 64 a Vega 20. Až po nich CDNA v podobě MI 100.

+1
0
-1
Je komentář přínosný?

Pokud jde o Nvidii, nebýt nástupu GPGPU a pak AI, bez procesoru by nikdy nemohli mít kompletní platformu. Proč asi má Apple vlastní procesory? Z Nvidie klidně mohla být "jen firma na grafiky".

+1
-1
-1
Je komentář přínosný?

A AMD vůbec několik let nehrozil krach, máš krátkou paměť.

+1
+1
-1
Je komentář přínosný?

AMD hrozil krach pred zenom a hlavne tesne pred ním. Niečo na tom nesedí? Nerozumiem čo týmto chceš povedať.

+1
-1
-1
Je komentář přínosný?

Já zapoměl na uvozovky, aby bylo jasné, že jde o ironii.

+1
0
-1
Je komentář přínosný?

Nehnevaj sa, ale táto chytrosť vyznieva dosť arogantne. Ale dobre, beriem to tak že proste máme na to odlišné pohľady.

+1
0
-1
Je komentář přínosný?

AMD výrazněji sleduji od prvního slotového Athlonu. To jsem byl ještě na střední. Takže vím, jak se o firmě před ZENem mluvilo, většina lidí říkala, že nepřežije a paradoxně jen jeden kamarád, co AMD moc rád neměl, mi tvrdil, že nepadne. Já jsem fanda firmy celou tu dobu.

+1
+1
-1
Je komentář přínosný?

jenže v kostce jde o to že opravdu se soustředili pouze na hw + část filozofie Linuxu. Tedy že dodají hw a dokumentaci a jiní z toho něco udělají. Měli opravdu zajímavou technologii, minimálně od 5D/4D jednotek. Jenže složité na implementaci, tudíž pro vývojáře/nakladatele zdlouhavé a drahé. NV přišla s jednodušší základní výpočetní jednotkou která tak složitou optimalizaci nevyžadovala - pak už to šlo automaticky podle zákonů trhu. Podobně s prvními APU, marketingové haló ale ve skutečnosti bez pořádné sw podpory jen bouře ve sklenici vody. Nová technologie či přístup ke fůzi několika elementů vyžaduje aby ten projekt mateřská firma maximálně podpořila, nechat to na komunitě kde je to jen od dobré vůli a aktuálním volném čase je sebevražedné. Jde o ten přístup, pokud se změní a vezmou si víc příklad z těch vytrvalejších a úspěšných tak určitě dobře. Hlavou proti zdi to zkoušeli už opravdu spoustu let.
I relativně mocná Sony se svým speciálním hw PS3 nakonec kapitulovala, pro AMD zkoušet tuhle cestu z pozice slabšího zavánělo krchovem.

+1
0
-1
Je komentář přínosný?

A úplně nejlepší je investovat do Adama, aby psal krásné a oslavné články na PCTuningu, že? :D

BTW: U prvního článku o DLSS byla informace, že se jedná o sponzorovaný článek, ale u druhého už ne... takže jste chtěl udělat radost nVidii a napsal jim druhý článek zadáčo jo? :D A bude nějaký článek o konkurenčních technologiích zadarmo? :D

+1
+2
-1
Je komentář přínosný?

Šmarjá, asi jsem nezaškrt jedno blbý škrtátko. Zaškrtnuto. Neinvestují do mě, kasíruje to Grunex. Já z toho mám jenom autoráky jako za normální článek (a spíš méně než více). Ale aspoň můžete konečně psát, že mě platí Nvidia.

Články k alternativám od AMD zadarmo bych rád, jakmile nebudu mít ve frontě produkty na testy na dva měsíce dopředu. Takže pokud budou nové grafiky někdy bůh ví kdy, tak na to už snad bude čas. Jenom už to asi nebude na PCT.

+1
-2
-1
Je komentář přínosný?

Na PCT se to nehodí nebo jak? :D

Vy tam máte pořád frontu grafických karet k otestování? Vždyť nic nového ještě nevyšlo a už jste otestoval asi tak 90% toho, co je na trhu ne? :D

+1
+4
-1
Je komentář přínosný?

Na PCT se to hodí, ale má to nižší prioritu, než nějaký ten Radeon, A580, která chybí v grafech, a pár drobností mimo, co jsem chtěl otestovat a nasliboval jsem na ně testy, a mám je tam ve frontě už dlouho.

+1
-3
-1
Je komentář přínosný?

No já jen nepochopil tu větu, že už to nebude na PCT :D

A teda jen tak bokem.. myslíte, že někoho nějak zajímá A580?

+1
+3
-1
Je komentář přínosný?

Zajímá jen minimum lidí, ale v těch grafech prostě chybí, a pro lidi umanuté na poměr cena/výkon bez ohledu na okolnosti to není špatné. A taky mi tam chybí 6GB RTX 3050 a chtělo by to ještě doplnit RX 6500 XT.

+1
-3
-1
Je komentář přínosný?

Herohero?

+1
0
-1
Je komentář přínosný?

Paywall. Fuj. HWCooling.net

+1
-3
-1
Je komentář přínosný?

Paywall je fuj pro čtenáře. Pro ty co tvoří obsah je to příjem.

Ok no to abych začal číst jiný web. Ale PCT čtu stejně jen okrajově. Hlavně Rybkovy politické úvahy tvle to můžu jít do hospody poslouchat tyhle žblepty.

+1
+2
-1
Je komentář přínosný?

Já se hlavně obávám, že pokud jde o testy grafik, tak se lidi radši podívají na grafy s textem v angličtině, než by platili za články v češtině (a i když tu angličtinu nedávají, tak je spousta českých webů, co jim rády zahraniční testy převypráví).

Dělat opičárny na youtube, tak to asi někdo zaplatí, protože mají diváci větší pocit sounáležitosti, ale u textů se to furt asi moc nenosí.

+1
-3
-1
Je komentář přínosný?

Na tom něco bude. Nejvíc me baví vaše recenze gpu a pak guilty pleasure,kdy Stratos/Belka dělá ostudu homo sapiens. Jo a rybkovy úvahy, které nejdou do politiky. Vůbec nechápu,proč ho to necháte dělat.
Yt je ztráta času,hodinové video co se dá shrnout do 5 odstavců textu.

+1
0
-1
Je komentář přínosný?

Je to jako většina věcí reakce na poptávku, a poptávka ze strany čtenářů (a čtenosti) po těch článcích je větší než po většině malých recenzí. I když to není není čistě o hardwaru, ale má to přesah do politiky. V politice se vrtá většinou ve chvíli, kdy se politici rozhodnou, že je potřeba v IT něco regulovat.

+1
0
-1
Je komentář přínosný?

To je ale žbebt, došly prášky?

+1
-1
-1
Je komentář přínosný?

Tomu říkám argument do diskuze. :D

Ne, mě jenom baví, jak ať už AMD udělá cokoliv, dokonce i když to vypadá, že sami uznávají, že zachrápali, Jiřík vždycky najde důvod, proč to bylo to nejlepší, co mohli udělat a proč neměli jinou možnost.

Besedy s velkými akcionáři a besedy s vedením musely být fakt veselé, když jim docvaklo, z čeho a kam se za tu dobu dostala Nvidia a kolik z toho dokázalo vytěžit dlouhou dobu bohatší AMD. Řekl bych, že tohle je oznámení je jenom důsledek toho, že si uvědomili, že jim ujel vlak.

Ten trend mohli chytit s prstem v nose už v době, kdy byli s Athlony XP a Athlony 64 v nejlepším, Intel byl s Pentii v háji, a AMD koupilo ATI. Nvidia v té době představovala CUDU, budovala ekosystém a dělala promo GPGPU, zatímco v AMD řešili, jak dělat efektivní a levný grafiky pro hráče a neplácat drahý křemík na nějaké výpočty. Byli tak soustředění na boj s Intelem, že se jim teď Nvidia směje do ksichtu oběma.

Prakticky stejné cancy o tom, jak "Vize spočívá v jednotné softwarové platformě, která pokryje hardware od procesorů až po AI akcelerátory. Určitou paralelu lze vidět v platformě Intel OneAPI, ale v případě AMD to vypadá na podstatně ambicióznější projekt, tedy alespoň s ohledem na šíři podporovaného hardwaru. " měli markeťáci AMD v podstatě už v tom roce 2006, kdy kupovali ATI a makali na „AMD Fusion“ a spojení CPU a GPU. Tehdy nám taky barvitě líčili, jak jednou budeme mít v počítačích úžasné a výkonné APU, u kterých bude obstarávat souběžně výpočty procák i grafika a bude to díky integraci pohromadě šlapat tak, že si nikdo na nějaké grafiky nebo procesory bez GPU už ani nevzpomene.

Ale jak říkám, primárně jsem rád, že si uvědomili, že komunita je nebude při vývoji softwaru suplovat a když to k něčemu má vypadat, musejí k tomu hardwaru nabídnout i nějaký software, a ne to odbývat tím, že je to otevřený, tak si lidi sami můžou naprogramovat, co chtějí.

+1
-1
-1
Je komentář přínosný?

Adame myslím si, že teď AMD trošku křivdíte... Přece nelze srovnávat AMD v době Athlonů XP/64, kdy neměla ani svou grafickou divizi a ani s AMD po koupi ATi.. tam ta společnost fungovala evidentně úplně jinak a evidentně špatně... nikdo o tom nepochybuje a málem je to dohnalo až ke krachu.

Asi bych řešil moderní a současnou AMD od dob nástupu Lisy Su do pozice CEO a od prvního Zenu. A podle mého bylo sice dále hlavní prioritou porazit Intel a vše ostatní je vedlejší a bude se to řešit později. Ono se jim to povedlo... na poli procesorů válí - to všichni víme. Teď, když si stabilizovali nějak pozici mezi procesory, můžou se koukat dále...

Ono by to asi taky bylo něco jiného, kdyby se AMD zaměřovala pouze na jeden segment tedy buď CPU nebo GPU. Když se chce angažovat v obou, tak to prostě není tak jednoduché a i když se AMD dařilo v poslední době dobře, stejně zřejmě nebylo dost financí na všechno...

+1
+5
-1
Je komentář přínosný?

Nevím. Hodně se plácali v červených číslech, ale dvakrát měli u grafik příležitost naskočit do rozjíždějícího se vlaku a měli na to i jakés takés prostředky. Když Nvidia rozjížděla GPGPU, a když rozjížděla AI.

Jensen kvůli tomu do jisté míry obětoval herní výkon a dané generace grafik na to ve hrách dojížděly (GTX 280/RTX 480 u GPGPU) a RTX 20/30 s AI (a to byli fans u vytržení z toho, jak má Nvidia strašné dinosaury, zatímco AMD se svými efektivními herními čipy válí), ale stokrát se mu to vrátilo o pár let později.

Jensen nebo někdo v Nvidii na to asi má podstatně lepší čuch a má na pár let dopředu celkem jasný plán. Asi by měli v AMD trochu víc hledět na to, co mají v plánu, a podle toho jednat. Nvidia přijde s něčím, u čeho si spousta lidí klepe na čelo, co tím jako sleduje a co tím získá a bagatelizuje se to. Jo, občas něco neklapne, ale když to klapne, tak se po pár letech všichni nestačí divit a dovolávají se zásahů antimonopolních úřadů, aby napravily neúnosnou dominanci Nvidie na trhu.

Já už zažil takových věcí od Nvidie, jejichž význam AMD na prezentacích a v rozhovorech bagatelizovalo, aby se to pak horko těžko snažili dohnat, až to pěkný není.

+1
-1
-1
Je komentář přínosný?

Jo v tom máte pravdu, že co se GPU týče, tak nVidia si razí cestu dle svého a v AMD na to přijdou až později a pak to dohání. Ale proč to tak je? Nebude to tím, že nVidia dělá jen GPU a v podstatě veškeré své investice cpe pouze do GPU a vývoje softwaru? Ono když máte na práci jen jedno odvětví a mnoho vývojářů vymýšlí věci jen a pouze pro toto odvětví, tak se to vymšlí asi přeci jen lépe, než když jedete na dvou frontách a finance na vývoj máte i přes úspech asi tak na 1,5 fronty.

AMD přece odjakživa byla CPU společnost... proto jsou pro ní procesory prvořadé. Teď možná má finance i na jiné věci a jde do toho... jako proč ne? Buď jim to vyjde a nebo ne, ale aspoň se k tomu dokopali a třeba z nich něco zajímavého i vypadne. Proto mi nepřijde správné jim při takové newsce vyčítat, že to neudělali dřív...

Ona se taky karta může hodně rychle otočit. Netvrdím, že se to stane... ale kdo by před 10ti lety řekl, že se Intel bude nejdřív vysmívat AMD za chipletové řešení a o 10 let mu nezbyde nic jiného, než je v podstatě kopírovat a přitom bude neustále ztrácet pozice, zájem zákazníků i finanční prostředky. To bylo v podstatě nemyslitelné...

+1
+1
-1
Je komentář přínosný?

No, nevím, ale aby už nebylo pozdě. Vůbec bych se nedivil, kdyby zákazníci na AMD stejně "kašlali jako teď" i kdyby měli ten SW lepší, než nV

+1
+1
-1
Je komentář přínosný?

Hele, fakt není primární problém v tom, že zákazníci kašlou na AMD, protože jsou tupí a podléhají marketingu, nebo proto, že má Nvidia tajné dohody s výrobci.

U procesorů to trvalo dvě tři generace, aby majorita běžných lidí sáhla radši po AMD místo Intelu. Má to nějakou setrvačnost, ale když udělají po všech stránkách dobrý produkt, lidi to „během pár let“ zjistí.

I v historii Radeonů už bylo pár světlejších chvilek, kdy lidi zajímaly víc než GeForce.

+1
-1
-1
Je komentář přínosný?

ano, lidi vždy musí mít pocit, že dostanou něco navíc, nebo levně což u ryzenů amd dalo zabrat, ale nakonec to lidi přesvědčilo, ale za jakou cenu? amd musela prodávat výkonější procesory, který byli levnější a ještě k tomu měli mnohem nižší spotřebu, tohle všechno dovolil intel, aby se šipka otočila smerem k amd a v oem to stejně je těžký jako před lety
ale nvidia je jiný kafe
1. furt šlapou neskutečně do zvyšování výkonu a neusnuli na vavřínech a huang nenechá celou korporaci chrápat jako intel
2. radeon divize nepřinesla za posledních roky vůbec nic na stůl a vždy kopírovala nvidii a dala o 10% levnější cenu, chápu, že dlss jim přišlo debilní a nechtěli si kazit prodeje, když hra se může rozběhat i na slabším stroji než bylo zamýšleno, bohužel nvidia v tom viděla obrácenou přiležitost, prodávat očesaný grafiky a říkat, vy potřebujete dlss a lidi se na to chytli, protože neviděli v amd alternativu

+1
-1
-1
Je komentář přínosný?

teď jsem si vzpomněl, že amd přineslo vulkan, ale taky to byla z nouze cnost, měli špatný procesory a jediný řešení, bylo přijít s low level api, aby jejich apu vypadali v testech líp, nebyla to vize společného otevřeného standardu, který by využívali všichni

+1
-2
-1
Je komentář přínosný?

Já myslím, že hlavní roli v tom hrála hlavně vize, že se Mantle rozjede v konzolích, z nich se to díky konverzím přelije do PC, a Nvidia bude hrát druhý housle. A až pak někdo zjistil, že se do optimalizací her čistě pro Radeony vývojáři hrnou podstatně míň, než AMD čekalo.

+1
0
-1
Je komentář přínosný?

Vulkan je snad pokračování vývoje Open GL.

+1
0
-1
Je komentář přínosný?

Já teda žiju v tom, že DX12 je mantle překlopený do directx a vulkan mantle překlopený do ogl.

+1
+1
-1
Je komentář přínosný?

Tak bych to neřekl. Mantle vychází z DX a Vulkan z OGL. Ale to že jdou oba stejným směrem, tedy snížení CPU zátěže a snížení latencí, je spíš dáno tím, že vznikaly ve stejné době a navzájem se asi inspirovaly.

+1
-2
-1
Je komentář přínosný?

Mantle initial release September 25, 2013
https://en.m.wikipedia.org/wiki/Mantle_(API)

DirectX 12 announcement date March 20, 2014, launched July 29, 2015
https://en.m.wikipedia.org/wiki/DirectX

Mantle bola alternativa k neefektivnemu Direct3D 11. Az ked Mantle ukazalo, ake vyrazne zrychlenie je mozne, implementoval MS Direct3D 12 s podobnou technologiou. Vulkan bol oznameny v 2015 a stavia priamo na Mantle, AMD je spoluautor.

+1
+2
-1
Je komentář přínosný?

Tak je Vulkan inspirovaný Mantle. Ale nevychází z něj ale z OpenGL, nebo přesněji jeho cílem bylo řešit nedostatky OpenGL a umožnit vývojářům větší kontrolu nad GPU. Čemu na tom nerozumíš? Vulkan podporuje multithreading a poskytuje explicitní správu paměti, což je proti starému OpenGL velký rozdíl, samozřejmě je taky blíž HW tedy je to nízkoúrovňové rozhraní asi jako by jsi srovnával Assembler a Cobol nebo jiný vyšší jazyk. Je klidně možné, že se AMD nelíbilo, jak probíhá vývoj DX12 - ty byly uvedeny 2. srpna 2016 a Vulkan 16. února 2016, tedy vývoj probíhal paralelně a AMD o DX12 samozřejmě věděla a možná se vývoje po boku Nvidie, Microsoftu a možná i Intelu podílela - nejspíš ano. A Mantle bylo prostě nepovedené a neprosadilo se, navíc bylo první rok 2012, Vulkan se ale používá, navíc narozdíl od DX je multiplatformí a zdarma.

+1
-1
-1
Je komentář přínosný?

amd mantle předalo skupině khronos, která zaštituje opengl, ty to trochu vylepsili a přejmenovali na vulkan
je možné že při draftech co bude directx12 obsahovat se to amd nelíbilo tak si udělali svoji odnož a prosadili si myšlenku nízko urvonoveho api, které nezatěžuje tolik procesor

+1
+2
-1
Je komentář přínosný?

Dík za upřesnění.

+1
0
-1
Je komentář přínosný?

„Hele, fakt není primární problém v tom, že zákazníci kašlou na AMD, protože jsou tupí a podléhají marketingu, nebo proto, že má Nvidia tajné dohody s výrobci.“

Takže když jsem se naposledy ptal produkťáka nejmenovaného českého výrobce sestav, proč v low-endu tlačí GeForce, když Radeony mají lepší poměr cena / výkon a k tomu nižší spotřebu a on mi odpověděl proto, že od Nvidie má za každou zamontovanou grafiku €10, tak to bylo proto, že je zlý a chtěl pomluvit strýčka Huanga? :-)

Ono by to možná chtělo se nejdřív trochu zorientovat v pozadí celé situace a teprve pak až kázat a poučovat ostatní.

+1
+5
-1
Je komentář přínosný?

No jo, pravděpodobně jsme našli příčinu toho, proč má Nvidia osmdesát procent trhu.

Bude to ta desetieurová sleva Nvidie na lowendové grafiky.

Díky bohu, že aspoň ty máš takový přehled.

+1
-3
-1
Je komentář přínosný?

:-)))

+1
+1
-1
Je komentář přínosný?

Chápu, když Ti někdo vyvrátí argument a nejsi schopný reagovat, snažíš se odvést pozornost rádobyvtipným okecem. :-)

Ono toho samozřejmě bylo podstatně víc. Kauza AEG, kdy Nvidia platila lidem za to, aby ve veřejných diskuzích hájili její značku a produkty, to byla taky čistota sama.

+1
+2
-1
Je komentář přínosný?

A já jsem zase slyšel od jiného produkťáka, že dostávají prachy na bundl grafiky s deskou a procákem. Tak jsem fakt zvědavej, co mi na takové podlé jednání AMD řekneš.

AMD nikdy nedělalo cashbacky na Radeony tvl.

Nebo jsi to myslel tak, že mu vždycky na konci měsíce přišla z Nvidie domů obálka naditá desetieurovkama?

+1
0
-1
Je komentář přínosný?

Takze tu zrazu mame BFU co je imunny voci reklame, nekalym obchodnym praktikam, "dobrym" radam obrstrejcov z PCT a doteraz nakupoval tak, ze predavacovi povie (schovavajuc sa za maminu suknu), ze "chcem pocitac na minecraft", pripadne si da zoradit na alze zostavy podla najvyssej ceny (jirkak by urcite approvol) a vybera z top3 podla farby led na ventilatore. No a takyto clovek zrazu zacne, sam od seba, bez toho aby sa aj nadalej snazil vynalozil akukolvek snahu zistit neskreslene data o produkte co kupuje, spravat racionalne. Vsak staci len "par let" a dobry produkt si ho sam najde. LOL. To uz mna si skor najde 1,4kW chladic CPU.

+1
+2
-1
Je komentář přínosný?

Nejspíš jste objevili obrovskou díru na trhu. Výrobci sestav nenabízejí Radeony, přestože jsou levnější a lepší kvůli tomu, že jim Nvidia dává na karty cashback deset eur.

Když ty Radeony z toho důvodu zákazníkům nenabízejí oni, můžete jim to nabídnout vy, a každý vám za levnější počítač s vyšším výkonem urve ruce. Stačí se jenom nenechat uplatit Nvidií!

Lidi jsou dnes tak tupí, že si nedokážou pustit na youtube první video ke grafikám, co jim vyleze, aby se v něm dozvěděli, jak jsou karty AMD proti GeForce děsně výhodný, jak umějí totéž co GeForce, ale levněji, a jak by si daný youtuber ten Radeon určitě v počítači nechal... kdyby nemusel stříhat video.

+1
-1
-1
Je komentář přínosný?

Hé ? Prispevok nebol o dostupnosti (aj ked v pripade laptopov by to bolo na riadne dlhu debatu, nastastie tu je dnes uz Tuxedo a dalsi), ale o tom, ako za vlasy pritiahnute zneju tvrdenia o neovplyvnitelnom BFU, ktory z nespecifikovaneho dovodu sprvu odmieta najvyhodnejsi produkt, ale napokon si ho teda kupi a vsetko to vlastne chce len cas. Happyend. E.Bernays by len "ziral".
Apropo youtube, tam je to urcite tiez sam hwunboxed, Mirek Dusin kam sa clovek pozrie. Vobec sa BFU nemusi prehrabavat tonami digitalneho smogu, aby nasiel povestnu ihlu v kopke sena. Vlastne BFU to aj tak nerobi, staci ked si klikne na prvu hovoriacu hlavu (ak to teda nejak zvladne), kde by sa onoho casu dozvedel ako je RDNA2 zla, RT, DLSS n.n a pod. su nove paradigmy a od firmy co nema 80% trhu by aj tak nikto nemal nic kupovat - toto bol trend v case ked som potreboval kupit nove GPU.

+1
0
-1
Je komentář přínosný?

A jakým zázrakem se stalo, že lidi začali nakupovat Athlony XP, Athlony 64, Ryzeny 3000, 5000, 7000, Radeony 7000, 8000? Intel přestal uplácet produkťáky montující sestavy?

+1
+2
-1
Je komentář přínosný?

Ty procesory prostě byly dost dobré, aby je lidi chtěli. To uplácení se týkalo DELL, HP a podobně.

+1
0
-1
Je komentář přínosný?

No, a ty grafiky momentálně dost dobré nejsou. Dost dobré by byly, kdy nabízely víc za stejnou cenu, totéž za lepší cenu, nebo o něco méně za mnohem lepší cenu.

Od té doby, co to přebrala Lisa, najelo AMD na styl „lidi začali milovat naše procesory, takže jim stačí prodávat v grafikách horší karty za o trochu lepší cenu“, do prezentace prdnou grafy price/perf, označí se za vítěze, a pak se všichni diví, že jim lidi za takové karty neurvou ruce.

Jenomže když se většina lidí zamyslí nad tím, jestli má smysl ušetřit padesát doláčů a mít výměnou za to větší spotřebu, řešit víc problémů s ovladači, nemít DLSS, které už je všude, a mít horší podporu v aplikacích, tak si většinou řekne, že to nejsou zase tak dobře ušetřený prachy. A když se ty rozdíly smrsknou při podobném výkonu na pár stovek, jako třeba mezi RTX 4070 Super a RX 7900 GRE, tak si už ten Radeon koupí jenom skalní odpůrce Nvidie.

+1
+1
-1
Je komentář přínosný?

Žádná technologická firma nemůže dlouhodobě běžet jen v režimu "více za méně".

+1
0
-1
Je komentář přínosný?

to ale amd dělá hlavně u rdna3 to podělala
místo toho aby nabídla 7900XT za 750$ rovnou, tak si řekli nesmyslně 900$ a recenze byli špatný kvůli ceně,
v amd jsou taky greedy a viděli příležitost jak podojit zákoše jako nvidia, akorát jim to vůbec nevyšlo a všichni se na ně vykašlali, až s 7800XT pochopili kde je jejich místo a je to jejich neprodávanější grafika

+1
0
-1
Je komentář přínosný?

Ale 7900 XT a XTX nejsou celá RDNA 3 řada, že? Týkalo se to tedy jen top modelů.

+1
0
-1
Je komentář přínosný?

To nebol zazrak, ale dosledok toho, ze vo svojej dobe priniesli bezprecedentny pomer cena/vykon do smrdutych vod IT. Sam som mal kedysi Durona, kde bol vtedy pri nakupe maximalny tlak na cenu (Pentium II sa uz chystalo na onen svet). A v dobe kamennych obchodov by mnoho obchodnikov predalo aj svoju svokru, kedze zakaznici sa potom este roky zvykli verne vracat servisovat a kupovat nove komponentny od "svojho" predajcu. Ked nie su $$ tak divadlo my/oni velmi nefunguje.

+1
0
-1
Je komentář přínosný?

Já měl mimojné K5 a XP1600+, A10 7870 a R3 2200G. Ale v minulosti jsem se víc řídil poměrem výkon cena, proto jsem měl i Pentium D805. Ale i Pentium MMX 166 v minulosti.

+1
0
-1
Je komentář přínosný?

TL;DR

Až ti zbyde trochu času, tak nakopej zodpovědnou osobu, ať konečně opraví formátování stránek.

+1
+1
-1
Je komentář přínosný?

A ty jsi samozřejmě znal celou dobu podrobně jejich produktovou a finanční situaci, že? Kecale. Po bitvě je každý generál.

+1
+1
-1
Je komentář přínosný?

Zázračně se zlepšila až teď po tom, co Nvidia předjela Apple a všichni začali pátrat po tom, jak se jim to vlastně povedlo, a najednou zničehonic zjistili, že můžou nabrat na software trojnásobek lidí. A dřív to prostě nešlo.

+1
+1
-1
Je komentář přínosný?

Tady jde snad o to, kdy to bylo kritické, jasně že pak už to šlo nahoru, od té doby jedou akvizice, AMD zdvoojilo HW týmy a narůstá počet variant produktů hlavně u procesorů.

+1
0
-1
Je komentář přínosný?

A to se tady lidé vysmivali nvidii že je SW firma, nebo že může konkurence rozdávat svůj HW zdarma, ale zakoši si stejně koupi nvidii. A je to tu,amd jde stejným směrem kam se nvidia vydala už v roce 2007 (cuda).

A dělá dobře.

+1
+1
-1
Je komentář přínosný?

Jenže Nvidia naráží na výrobní kapacity, takže zákazníci musí ke konkurenci, pokud chtějí železo v rozumné době. A tohle je skvělá příležitost pro AMD, jak vrazit botu do dveří HPC segmentu.

+1
+1
-1
Je komentář přínosný?

A já tvrdím, že ne?

+1
0
-1
Je komentář přínosný?

"AMD si je vědoma toho, že prostředky z těchto prodejů jsou unikátní příležitostí k dalšímu rozvoji firmy a rozhodla se k jejich přelití do softwarového vývoje."

To je reklamní článek nebo zpráva? V poslední době to na tomto webu jde špatně odlišit.

+1
-4
-1
Je komentář přínosný?

Mě ta věta přijde OK, prostě popis situace, asi by ses měl naučit rozumět psanému textu, když to nedokážeš rozlišit.

+1
0
-1
Je komentář přínosný?

Ne, je to spekulace nebo marketingový kec. Nepopisuje to situaci, ale podsunuje "uvědomění firmy".

1, "AMD je si něčeho vědoma". Je to firma, nemá vědomí. Není to popis situace, ale spekulace, že si firma něco uvědomila.
2, Takové řízení škod, kdy nechtějí říct, že na to doteď kašlali a teď holt s tím začnou něco dělat.

+1
-1
-1
Je komentář přínosný?

A kam ty lidi umístili? Jestli vyvíjí soft pro CPU, GPU nebo AI?
Bych bral GPU, ale zase proč, když 7900 XTX a XT mají být nejvýkonější AMD grafiky ještě další dva roky minimálně. :-/

+1
0
-1
Je komentář přínosný?

No však psali, že se to projeví za 3-5 let ne? To by měli mít už výkonnější GPU.

+1
+3
-1
Je komentář přínosný?

dost pozde teda, kdyz uz jim to nedocvaklo po par letech kdy z cudy se stal standard tak jim to mohlo docvaknout po 1. cryptu, vzdyt nechali cely korporat nvidii v oblasti renderingu a gpu vypoctu (nemyslim hpc)
kdyz by byli zamereny na herni grafiky tak nemaj 10% podilu na trhu s hernima gpu
nevim co si pri vydani zen4 rikali kam budou rust, 20% vykonu navic nepresvedci koupit novej procesor/platformu
ani obgeneraci se to nevyplati pokud nejsem honic fps
problem je ze procesoroveho vykonu pro uzivatele je az az a kdyz bych chtel zrychlit uzivani pc tak ani 9800x3d mi nepomuze kdyz celej sw dneska funguje jak z prdele kvuli html aplikacim a vsude samej framework

+1
-1
-1
Je komentář přínosný?

Nějaký Epyc s 384 MB cache už by si s těmi "moderními" aplikacemi poradit mohl.

+1
+2
-1
Je komentář přínosný?

A což teprve kousek s 1152 MB L3.

+1
0
-1
Je komentář přínosný?

Ten by možná dal i dvě najednou ;)

+1
+1
-1
Je komentář přínosný?

Chicken and Egg problém. AMD akcelerátory by se neprodávaly, bo měly horší SW podporu. A měly horší SW podporu, bo se neprodávaly. Proto ten segment AMD víceméně ignorovalo.

Jenže Nvidia má psychotické dodací lhůty a nestíhá saturovat trh. Takže AMD oprávněně cítí šanci a celkem se ji chytá.

+1
0
-1
Je komentář přínosný?

pozdě ale
začarovaný kruh přece musí rozbít amd a ne trh, proto nvidia jede a amd ne, protože nvidia měla tu iniciativu
a amd to zase spadlo do klína, protože nvidia nestíhá

+1
0
-1
Je komentář přínosný?

Jenže donedávna to nebylo jak rozbít. Respektive to pro AMD nedávalo smysl - svoje wafery u TSMC a GloFo a svoje R&D nejlíp uplatňovali na Zen, pro něj nejlíp pak EPYCy a v GPGPU neměli sebemenší šanci - CUDA byla víc jak 10 let industry-standard a neexistovala jediná motivace k tomu, aby kdokoliv psal a ladil smysluplný port pro ROCm, když byly dostupné Nvidia akcelerátory.

Až poslední 2 - 4 roky je pro AMD příležitost zamíchat trhem a dostat se do HPC. Do té doby to bylo cca 10 let bez rozumné šance.

+1
+1
-1
Je komentář přínosný?

s křížkem po funuse :-D

+1
0
-1
Je komentář přínosný?

AMD CUDA :-) Do 5 let, vážně???

+1
-1
-1
Je komentář přínosný?

CUDA to opravdu nebude.

Pokud bys ale zaplatíl licenční poplatky, CUDA by to být mohla. A dokonce i dříve.

+1
+1
-1
Je komentář přínosný?

Ty asi nebudeš nejostřejší pastelka, viď??

Samozřejmě že AMD nebude mít licenci na CUDA. To by bylo hodně pod jejich úroveň, koupit si něco od konkurence.

Předpokládám že komentář byl myšlen tak že AMD si vyvyne vlastní kompletní ekosystém právě jako je CUDA a protože toto řešení ještě nemá své jméno, tak komentující použil výraz "AMD CUDA"

Každopádně 5 let je vážně nesmyslem i pro docela inovativní AMD.
Trochu mi to připomíná Intel konstantu (termín x 2=.....)

+1
0
-1
Je komentář přínosný?

A jsme zpět u toho, že Jen-Hsun je vizionář. Kolik let že to je od chvíle, kdy prohlásil, že "nvidia je softwarovou společností"? Už je to 15 let, co jsem tu o tom psal ... https://diit.cz/clanek/jen-hsun-huang-nvidia-jsme-softwarova-spolecnost ... jinými slovy ... https://www.root.cz/clanky/nejvetsi-vizionar-planety-jen-hsun-huang/

+1
+1
-1
Je komentář přínosný?

Citam clanok na root.cz a nevychadzam z udivu, ze sa stale siri konspiracia o zamerne sprznenom kode pre CPU PhysX. Ved v tom case to bol stale kod Ageia a bol vtedy podobne vykonny ako ine API na fyziku. NVIDIA praveze ten kod zmodernizovala a vydala v prvom PhysX SDK verzie 3 myslim v roku 2013. Pricom podla tejto logiky to este nemali robit kedze GPU PhysX tlacili do hier este par dalsich rokov a teda si podla nej podkopavali predaje GPU na PhysX. Ci to je nejake insider info, ze NV prerobila povodny kod Ageia, aby ho sprznila? :-)

Doplnam este vyjadrenie hlavneho vyvojara PhysX k tomuto nezmyslu:

https://www.codercorner.com/blog/?p=1129

Fakt nie je dovod stale zivit tento mytus.

+1
0
-1
Je komentář přínosný?

Promiňte, ale mícháte hrušky a jablka, melete páté přes deváté a ještě se tváříte, že něco uvádíte na pravou míru.

„Ci to je nejake insider info, ze NV prerobila povodny kod Ageia, aby ho sprznila?“

Nic o tom, že Nvidia zprznila kód Agei v Davidově článku není. Vkládáte mu do úst vlastní žvást, který vyvracíte a tváříte se, jako by to mělo zpochybňovat celý článek. Klasický argumentační klam, demagogie.

„ze sa stale siri konspiracia o zamerne sprznenom kode pre CPU PhysX“

Nikoli. Opět mícháte jablka a hrušky. Nový kód pro čistě CPU PhysX byl v pořádku, problém byl CPU-fallback pro GPU PhysX, kde Nvidia záměrně ponechala historický kód s x87 instrukcemi, přestože měla k dispozici nový kód optimalizovaný pro procesory. Cílem bylo, aby u her s podporou GPU PhysX vedla nepřítomnost GeForce v sestavě k propadu výkonu způsobenému použitím v dané době nevhodných x87 instrukcí a absencí podpory pro multi-threading.

+1
0
-1
Je komentář přínosný?

Nvidia měla k dispozici nový kód? V plně funkční verzi připravené na ostré nasazení? Byl by i zdroj toho tvrzení? A blokovala to Nvidia, nebo šlo zapnout kód pro multithreading, a vývojáři to nedělali?

https://web.archive.org/web/20100820153527/http://www.thinq.co.uk/2010/7...

+1
0
-1
Je komentář přínosný?

Jako myslíš, že v té době neexistovla jiná verze než čistě x87, co neuměla vektory? Ale byla, jenže cílem bylo hnát to na grafiky.

+1
+1
-1
Je komentář přínosný?

Skor je to len zelanie hladacov senzacii, ze zla NVIDIA zasa pachala nieco nekale. Na zaciatku NV pracovala s tym, co mala od Ageia. Ale do roku 2013 cele API prerobila a zmodernizovala. Pokial by bolo cele API uz pri kupe postavene na modernych instrukciach, bol by tak urobeny aj CPU fallback pre GPU fyziku. Argument o potrebe predavat GPU neobstoji. Oproti procesorom v tej dobe by stale mali graficke karty citelne vykonovo navrch.

+1
-1
-1
Je komentář přínosný?

Já si myslím, že po převzetí se jel vývoj dvou verzí. Vylepšená varianta pro CPU a nová pro GPU. A puštěna už byla pouze jedna.

+1
0
-1
Je komentář přínosný?

Realistickejsia je podla mna ta varianta, ze NV upravila verziu API od Ageia, aby to, co sa akcelerovalo na Ageia kartach mohlo byt akcelerovane na ich GPU. To potom nejaky cas tlacili do hier kym nemali hotovu prerobenu a zmodernizovanu verziu celeho API. Ta na zaciatku ani neobsahovala kompletnu funkcionalitu povodneho API a postupne sa doplnala a zacala pouzivat. Vyplyva to myslim aj z toho co pisal k tejto teme Piere Tiedeman. Odkaz na jeho blog som dal vyssie.

+1
+1
-1
Je komentář přínosný?

Tohle být mohlo. Ty akcelerační karty pro Nvidii neměly cenu, v té době byly počátky GPU akcelerace a výpočtů a CPU varianta byla jen do počtu.

+1
+1
-1
Je komentář přínosný?

CPU varianta bola zintegrovana do hlavnych hernych engine-ov. Teda hlavne do Unreal Engine 3 a 4 a doboveho Unity. V podstate skoro kazda hra postavena na tychto engine-och pouzivala CPU PhysX. S GPU PhysX vychadzalo iba tak 2 az 5 hier rocne, kym sa neprestal pouzivat.

+1
-1
-1
Je komentář přínosný?

Je fakt, že po dakové době už si ty začátky až tak nepamatuju. Vždy mne zajímal víc HW než SW. Ale každopádně první byla verze pro jejich akcelerátor. Pak až jen SW CPU a GPU. Trošku si pomáhám ověřováním a čtu: Poslední inkarnace samostatné karty PhysX PPU navržené společností Ageia měla zhruba stejný výkon PhysX jako dedikovaná karta 9800GTX .

+1
+1
-1
Je komentář přínosný?

A ještě k vektorovým instrukcím a multithreadingu na CPU. Nespěchali s tím a má to i logický důvod, PhysX totiž šlo v prvé řadě do konzolí a až pak na PC: PlayStation 3; PlayStation 4; Xbox 360; Xbox One; Wii.

"Dne 5. července 2010 zveřejnila společnost Real World Technologies analýzu [31] architektury PhysX. Podle této analýzy byla většina kódu používaného v aplikacích PhysX v té době založena na instrukcích x87 bez jakékoli optimalizace pro více vláken . To by mohlo způsobit výrazné poklesy výkonu při spouštění kódu PhysX na CPU. Článek navrhl, že přepsání PhysX pomocí instrukcí SSE může podstatně snížit nesoulad výkonu mezi CPU PhysX a GPU PhysX.

V reakci na analýzu Real World Technologies Mike Skolones, produktový manažer PhysX, řekl, že podpora SSE byla upozaděna, protože většina her je nejprve vyvinuta pro konzole a poté přenesena na PC. Výsledkem je, že moderní počítače spouštějí tyto hry rychleji a lépe než konzole i s malou nebo žádnou optimalizací. Senior PR manažer společnosti Nvidia, Bryan Del Rizzo, vysvětlil, že multithreading již byl dostupný s CPU PhysX 2.x a že bylo na vývojáři, aby jej využil. Uvedl také, že automatický multithreading a SSE budou zavedeny s verzí 3 PhysX SDK."

+1
+1
-1
Je komentář přínosný?

To je v sulade aj s tym, co pise Tiedeman:

"For proper SIMD gains you need to design the data structures accordingly and think about that stuff from the ground up, not as an afterthought. And this is exactly what we did for PhysX3. After making PhysX2 stable and complete enough, after making it a real, useable, feature-complete middleware, it was finally time to think about optimizations again. It took time to make the software mature enough for this to be even on the roadmap. It took time for us (and for me) to actually learn SIMD and multi-threading. It took time for compilers to catch up (/SSE2 on latest versions of MSVC is way way way better and produces way more efficient code than what it did when we first tried it). It took time for SSE2 support to spread, and be available in all machines (these days we only have a SIMD version - there is no non-SIMD version."

...

"Contrary to what people also claim, PhysX works just fine on consoles and it is a multi-platforms library. That is, writing SIMD is not as easy as hardcoding a bunch of SSE2 intrinsics in the middle of the code. It has to be properly supported on all platforms, including some that do not like basic things like shuffles, or do not support very useful instructions like movemask. Converting something to SIMD means writing the converted code several times, possibly in different ways, making sure that the SIMD versions are faster than their non-SIMD counterparts on each platform - which is not a given at all. It takes a lot of time and a lot of effort, and gains vary a lot from one platform to the next."

+1
-1
-1
Je komentář přínosný?

Že seš to ty, tak jsem ti to protáh přes chatgpt4o (ChatGPT může dělat chyby. Doporučujeme kontrolovat důležité informace.):

Souhrn:
Nvidia reagovala na tvrzení, že úmyslně zpomaluje CPU PhysX, označujíc tato tvrzení za "fakticky nepřesná." Bryan Del Rizzo, senior PR manažer Nvidie, prohlásil, že "jakékoli tvrzení, že nějakým způsobem brzdíme CPU, je zjevně nepravdivé." Del Rizzo uvedl, že Nvidia neustále investuje do výkonu PhysX pro všechny platformy, včetně CPU-only na PC.

Kontroverze vznikla z zpráv, že CPU PhysX je zbytečně závislý na instrukcích x87 namísto efektivnějších instrukcí SSE a že není správně multithreadovaný, což způsobuje závislost pouze na jednom jádru CPU.

Del Rizzo tvrdí, že podpora multithreadingu je v CPU-PhysX dostupná a je na vývojářích, jak vlákna alokují podle svých potřeb. Ukázal na testy v 3DMark Vantage a FluidMark, které demonstrují, že CPU-PhysX dokáže škálovat výkon s přidáváním dalších jader. Dodal, že kód PhysX 2.x pochází z doby, kdy byly vícejádrové CPU vzácné, což vysvětluje, proč CPU-PhysX není automaticky multithreadovaný. Del Rizzo však říká, že je pro vývojáře snadné implementovat multithreading v PhysX 2.x.

Nvidia plánuje představit nové automatické multithreadingové funkce v nadcházejícím PhysX 3.0 SDK, které automaticky využijí dostupná jádra nebo jádra nastavená vývojářem, a také poskytne možnost "thread poolu," ze kterého může simulace fyziky čerpat zdroje.

Ověření tvrzení:
Závislost na x87 instrukcích:

Zpráva z Real World Technologies ukázala, že CPU PhysX ve starších verzích skutečně používaly hlavně x87 instrukce namísto SSE. Toto bylo považováno za neefektivní způsob, který omezoval výkon.
Multithreading:

Del Rizzo tvrdil, že CPU-PhysX podporuje multithreading, pokud to vývojář aktivuje. Nicméně starší verze PhysX nebyly automaticky optimalizovány pro vícejádrové procesory, což potvrzují i některé analýzy​ (Overclock.net)​​ (HotHardware)​.
Nvidia a investice do CPU výkonu:

Nvidia tvrdí, že nadále investuje do výkonu PhysX na všech platformách, včetně CPU. Tento závazek se zdá být potvrzen pokračujícími aktualizacemi a vylepšeními, jako je plánované zavedení PhysX 3.0 s lepší podporou pro multithreading.
Závěrem lze říci, že zatímco Nvidia možná neúmyslně omezovala výkon CPU PhysX ve starších verzích kvůli historickým omezením, pracovala na zlepšeních v novějších verzích, aby optimalizovala výkon a podporu pro moderní hardware.

>Co tvrzení "However, he notes that the current PhysX 2.x code "dates back to a time when multi-core CPUs were somewhat of a rarity," explaining why CPU-PhysX isn't automatically multi-threaded by default. Yet despite this, Del Rizzo says it's easy enough for a developer to implement multi-threading in PhysX 2.x."
ChatGPT
Tvrzení "However, he notes that the current PhysX 2.x code 'dates back to a time when multi-core CPUs were somewhat of a rarity,' explaining why CPU-PhysX isn't automatically multi-threaded by default. Yet despite this, Del Rizzo says it's easy enough for a developer to implement multi-threading in PhysX 2.x" odráží realitu ohledně stavu kódu PhysX 2.x a jeho schopností.

Detailní vysvětlení:
Historický kontext PhysX 2.x:

Kód PhysX 2.x byl navržen v době, kdy vícejádrové procesory nebyly běžné. To znamená, že nebyl původně optimalizován pro automatické využití více jader procesoru. Tato skutečnost vysvětluje, proč CPU-PhysX ve výchozím nastavení nebyl multithreadovaný.
Možnost implementace multithreadingu:

Navzdory tomu Del Rizzo uvádí, že vývojáři mohli relativně snadno implementovat multithreading pomocí dostupných nástrojů a nastavení ve PhysX 2.x. To zahrnovalo používání "worker threads" a možnost spustit každou instanci NxScene v odděleném vlákně​ (Overclock.net)​​ (HotHardware)​.
Plánované vylepšení v PhysX 3.0:

Nvidia také plánovala zavést nové automatické multithreadingové funkce v nadcházející verzi PhysX 3.0, která by umožnila efektivnější využití vícejádrových procesorů bez nutnosti manuálního nastavení od vývojářů. Tento přístup by využíval task-based model, což by usnadnilo škálování výkonu s rostoucím počtem jader​ (Overclock.net)​​ (HotHardware)​.
Ověření tvrzení:
Tvrzení Bryana Del Rizza je podloženo fakty. Z historického hlediska byl PhysX 2.x skutečně navržen před rozšířením vícejádrových CPU, což vedlo k omezené automatické podpoře multithreadingu. Nicméně možnosti pro multithreading existovaly a vývojáři je mohli využít. Plánované zlepšení v PhysX 3.0 ukazuje na snahu Nvidie adaptovat se na moderní hardware a zlepšit výkon na vícejádrových systémech.

Závěr:
Ano, Del Rizzo správně popisuje historická omezení PhysX 2.x a možnosti pro vývojáře implementovat multithreading. Plány pro PhysX 3.0 potvrzují, že Nvidia se snažila tato omezení odstranit a přizpůsobit se moderním požadavkům na výkon.

+1
-3
-1
Je komentář přínosný?

Nechces jit plachtovat nekam jinam ;)

+1
+2
-1
Je komentář přínosný?

Já to dělám kvůli Jirkovi, když se občas kouknu na jeho článek, pak na zdroj, pak zase na jeho článek, a pak zase na zdroj, a porovnám, co je u zdroje, a co z toho vyjde jemu, tak si občas nejsem jistý, nakolik rozumí angličtině.

+1
+1
-1
Je komentář přínosný?

V Davidovom clanku je napisane:

"Jen-Hsun Ageiu kupuje a krátce poté omezuje běh PhysX na firemní GPU a jak ukazují tehdejší analýzy kód od Davida Kantnera, CPU kód je záměrně limitován, aby byl pomalý a lidé kupovali GeForce, ideálně dvě karty"

Koho kod bol teda zamerne limitovany, aby sa predavali Geforce? Priamo pise, ze ide o CPU kod a nie len o CPU-fallback pre GPU PhysX (co ani spominane nie je). A mam to akoze chapat tak, ze zatialco CPU kod od Ageia bol v poriadku (novy vtedy od NV nebol, ten prisiel az s SDK 3.x) a podporoval nativne multithreading, zatialco ten od NV nie? Tak to teda urcite. Mohli by ste si precitat aj vyjadrenie Tiedemana co som k nemu postol odkaz. Na tom blogu maj aj porovnania vykonu medzi roznymi verziami PhysX SDK a Bulletom (vysledky s Havok mal zakazane zverejnit). Tiez zaujimave citanie, kde je vidiet, ze "skripleny" PhysX vobec nezaostaval za dobovymi verziami inych API na fyziku:

https://www.codercorner.com/blog/?p=748
https://www.codercorner.com/blog/?p=761
https://www.codercorner.com/blog/?p=767
https://www.codercorner.com/blog/?p=773

Plus dalsie. Ono ale je asi lepsie sirit nezmysly o przneni a zamernom spomalovani.

A tiez by som rad videl relevantny zdroj informacie, ze NV mala k dispozicii moderny kod, ale namiesto neho pouzili iny neoptimalizovany. To sa museli vyvojari dost narobit, aby stihali pisat viac verzii toho isteho.

+1
+1
-1
Je komentář přínosný?

Tak mají unikátní příležitost - Nvidia nestíhá dodávat (ty dodací doby jsou vážně psychotické), takže se do HPC postupně dostávají CDNA akcelerátory od AMD. V posledních 2 - 4 letech to je vidět i na podpoře - kde dřív ROCm port nebyl, dneska nějaký je, kde byl žalostnej, je teď už celkem konkurenceschopný. Část portů si AMD dokonce dělá samo (doporučuju se mrknout na jejich GitHub).

Jestli tak kdy chtějí stáhnout náskok Nvidie v GPGPU segmentu (který bude v příštích letech spíš jen růst), musí zamakat na SW podpoře svých API. A nelze říct, že by v posledních letech nebyli úspěšní.

+1
0
-1
Je komentář přínosný?

Ty blaho, po 25 letech s AMD, které bylo vzdy "Close to metal", zmena paradigmatu!

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.