Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia končí spolupráci se Samsungem, novější procesy jsou pro PC nepoužitelné

NVIDIA je zpátky v plné síle a Intel i s Applem vidí ve zpětném zrcátku.

+1
+8
-1
Je komentář přínosný?

NVIDIA osirala TSMC co to slo, byt TSMC seru na ni ale jiste TSMC dobre priplaci, co se tyce Applu, Intel-u a Microsoftu, je to jedna dementni a stejne nenazrana banda, vsichni ctyri radi zakazniky jednoduse pravidelne vojebavaj a neresi jejich skutecna prani, namatkou:

->nizsi spotreba
->vyladenej scheduler pro mnohojadrove procesory
->procesory se skutecnyma jadrama ne ty pitome atomy
->skutecna revoluce od generaci ke generaci

Ceresnickou na dortu sou pak slibovane tlachy...

+1
-4
-1
Je komentář přínosný?

Já jsem klidný, Lisa už před lety říkala jak se začínají víc soustředit na architekturu a ne nové nm. AMD nás svým architektonicky moderním lowendem-mainstreamem na průměrných nanometrech zachrání od naprosté agónie.

Já být Intelem, tak od 14nm ustupuju pomalu a zkusím i nějaké GPU pro dedikovaný lowend. Teda né, stejně by to uvedli až tak za 3 roky a to už nebude iGPU jen v levnějších procesorech na hry.

+1
-2
-1
Je komentář přínosný?

"Pro Nvidii je tak štěstí, že si včas zajistila kvalitní - byť dražší - proces u TSMC. Tentokrát by totiž dopadla podstatně hůř než s Ampere."

Jakože s Ampere u Samsungu Nvidia dopadla špatně? :D Jakože by loni vydělala víc než těch deset miliard dolarů, kdyby ty čipy dělala u TSMC, které by to vyrábělo dráž a ani bez Ampere nestíhalo vyrábět? :D

+1
-4
-1
Je komentář přínosný?

no jasny, nVidie je urcite desne vodvazana z toho ze se nechala dohat konkurenci a sesadit ze spicky v energeticky efektivite, kterou si drzela 10 let.. fakt ji 8nm proces samsungu desne pomoh, jeste ted se necha jensen placat po zadech.. (:

jo a jeste by me zajimalo kdes vycet, ze tech deset miliard vydelala na desktopovym amperu vyrabenym u samsungu a ne na profesionalnim vyrabenym u tsmc..

+1
+6
-1
Je komentář přínosný?

furt se musí brát v potaz i výrobní kapacita, nedovedu si představit jak by to teď vypadalo, když by se amd dělila s kapacitou ještě s nvidí takže díky za ten samsung, stejně oba prodali vše co měli
to se ještě uvidí na konci roku jak to bude vypadat, když intel u tsmc taky něco shrábne

+1
+4
-1
Je komentář přínosný?

Na konci roku se hlavně uvidí v bazarech kolik že grafik se vlastně za ten minulý rok prodalo

+1
-1
-1
Je komentář přínosný?

Preco az na konci roku? :)

+1
0
-1
Je komentář přínosný?

1) Nikde jsem netvrdil, že to vydělala jen na desktopovém Ampere.
2) Kdyby nedělala Ampere u Samsungu, těžko by vyhrnula stejný objem profi grafik u TSMC > byly by nižší zisky z obou segmentů.
3) Kdyby dělala desktopové Ampere na dražším TSMC, nikdy by na něm neměla takové zisky.
4) určitě se musejí mlátit do hlavy, že sice mají místo zisku 4,5 miliard z 2021 (a i v něm už se pakovali na Ampere) skoro deset miliard, ale zato už si do prezentace nemůžou dát slajd „best perf per watt on market!“. Speciálně v době, kdy navzdory tomu „tragickému omylu“ s výrobou u Samsungu tomu AMD i s jeho špičkovými kartami urvali z podílu grafik nemalá procenta. :D
5) A jako bonus ještě nejspíš dotlačili TSMC k nižším cenám na další generaci, když jim ukázali, že ty karty taky můžou dělat jinde.

V AMD by byli šťastní jak blecha, kdyby se dopouštěli takových přešlapů.

+1
+1
-1
Je komentář přínosný?

No výborně, tak proč na těch supr dupr čupr výrobních procesech nezůstanou tedy i nadále, když to je pro ně tak výhodné?

+1
+1
-1
Je komentář přínosný?

No primární důvod bude asi ten, že už od Samsungu nedostanou takovou cenu, jakou dostali na Ampere. :D

A pak hrají nejspíš roli ty další technikálie, o kterých je i ten článek. :D

+1
+1
-1
Je komentář přínosný?

Jen aby to nebylo tak, že oproti 7nm tandemu TSMC/AMD byli ještě jakžtakž konkurenceschopní, byť za cenu vyšší spotřeby, ale proti 5nm by už byli úplně marní?

Nevím, jestli trollíš, nebo to myslíš vážně, v obou případech jsi ale IMHO zcela mimo.

+1
0
-1
Je komentář přínosný?

I když RTX 3080 dostala rovnou největší Ampere a GDDR6X, stála při uvedení o 300 doláčů míň než RTX 2080 Ti, a Nvidia na ní přesto vydělávala. A určitě ne málo. I v Q3/Q4 2020, kdy ty Ampere dodávala a grafiky měly ještě normální ceny, měla rekordní zisky.

Těžko by jim takovou nabídku někdo udělal podruhé. A určitě to mělo vliv i na cenotvorbu u TSMC.

+1
+2
-1
Je komentář přínosný?

Nespletl sis reakci na někoho jiného? :-D

+1
-1
-1
Je komentář přínosný?

Podíly na trhu bych poslední roky moc neřešil. Prodalo se vše co se při nedostatku součástek vyrobit dalo. Proto je teď na trhu hromada nějakým způsobem ořezaných modelů. A Nvidia oživila i starší procesy aby rozjela opětovnou výrobu starších karet.

+1
0
-1
Je komentář přínosný?

Když on i ten nárůst podílu souvisí s tím, že byli schopní vyhrnout celkově víc karet.

+1
+2
-1
Je komentář přínosný?

"Podíly na trhu bych poslední roky moc neřešil. Prodalo se vše co se při nedostatku součástek vyrobit dalo."
Ale o tom to je. Kdyby Nvidie nevyráběla u Samsungu, tak by toho nedokázala vyrobit tolik a ten podíl by měla nižší.

+1
+1
-1
Je komentář přínosný?

Problém třeba představovali paměti. Ty NVidia dost ořezala. Máme karty s méně pamětí, pomalejší pamětí ... Aby se v tom prase vyznalo. A nezapomeňte, že AMD také dodává do konzolí. Tam ten zájem byl taky brutální. Vybalancovat výrobu poslední roky nebylo snadné pro nikoho.

+1
+1
-1
Je komentář přínosný?

A přesto No-X myslí, že je to otázka štěstí...

+1
0
-1
Je komentář přínosný?

Není vše jen o zisku... Tím že se nepoužilo TSMC tak se AMD nechali dost dohnat a tím se AMD nepropadlo už tak moc v těch prodejích a drží se.

Stačilo to aby i různí OEM výrobci začali brát znovu vážně jejich GPU, do laptopů se už osazují i Radeony, což dříve bylo nemyslitelné, dokonce už si stihli vymyslet speciální Advantage program pro vymazlená comba Ryzen + Radeon atd., atd... do půdy zasadili první semínka, za chvíli něco vyleze a sklidí se.

Teď už to půjde samo a AMD se začne dost zvedat, jak se tomu stalo i v CPU na úkor Intelu, kdy je architekturou a chiplety zašlapou do země... efektivita, spotřeba, výkon, vše budou mít náhle ve výhodě, prostě rychlá akcelerace vývoje, konkurent je zaskočen a nestíhá reagovat, RDNA3 bude pro Lovelace tvrdá rána, to RDNA2 bylo proti Ampére ještě jen takové první kopnutí, opravdu to vypadá, že to bude jak Zen – RDNA přinesla konečně s novou architekturu a přinesla svěží vítr, postupně se formovala, evolučně se rozšířila a nakonec donese chiplety a Nvidie mezitím s Lovelace přešlapuje na místě, což je spíš jen takový refresh Ampére na steroidech, ze kterého se stál pořádný Otesánek, který jim stejně stačit nebude.

Ona RTX 4090 mluví sama za sebe – 600W monstrum... bruh.

+1
+6
-1
Je komentář přínosný?

Hm... Obávám se, že u těch grafik to není taková legrace jako u procesorů.

Docela dost tam dělá celý ekosystém, který je kolem toho postavený, a i kdyby udělali ten nejgeniálnější hardware, po stránce softwaru a podpory jsou na tom ve všech segmentech za Nvidií dlouhodobě pozadu o několik let.

+1
-1
-1
Je komentář přínosný?

Tak prozraď tu stěžejní fičůru co AMD nemá a pro hráče je natolik kritická, aby to ospravedlnilo o víc jak 200W vyšší spotřebu a s tím související šílené nároky na chlazení a nižší výkon přinejmenším tak o 10%... Na tu jsem opravdu velmi zvědavej.

+1
+1
-1
Je komentář přínosný?

Ansel, PhysX, GeForce Experience, CUDA, DLSS, ML, GeForce Now, G-Sync, GPP, Gameworks, Hairworks, Reflex, NVLink, proprietární ovladače v Linuxu, NVENC, Optimus, NVAPI, 3D Vision, RTX, SLI, ShadowPlay, WhisperMode, Dynamic Boost, GameStream, BatteryBoost...

+1
+1
-1
Je komentář přínosný?

A to hlavní, masivní software podpora snad ve všech produkčních aplikacích kde GPU jde využít.

+1
+6
-1
Je komentář přínosný?

Vetšina z toho co píšeš má alternativu od AMD. Nvidia ale většinu toho co nabídne uzamkne na poslední generaci jejich HW. V případě technologii AMD je podpora u více generací a není vázaná na karty specifického výrobce. Dále tam máš věci které NVidia zase v tichosti zabila, nebo přestala podporovat. A některé zanechávají pachuť, že nás Nvidia chtěla ojebat. Třeba Gsync. 50usd za modul v monitoru a podpora pár karet? Freesync přišel s updatem ovladačů a okamžitě poslal tenhle nesmysl k ledu. Co se týče Linuxu tak NVidia s jejich ovladači moc populární není. Ale AMD během pár posledních let udělala pro hraní na Linuxu hodně. Steamdeck vypadá, že by mohl hodně rozšířit uživatelskou základnu Linuxu. Oba výrobci mají své pro a proti.

+1
+1
-1
Je komentář přínosný?

Právě proto se ptám, protože je to přesně tak jak píšeš. V tom výčtu z marketingového letáku totiž nevidím pro hráče nic, co by stálo vyměnit za 200W. Ale on ten příspěvek asi nemyslel příliš vážně. Jediné v čem má Nvidie možná tak skutečně výhodu je výkon RT, tu ale s příchodem RDNA3 pravděpodobně ztratí. Takže nic.

+1
-1
-1
Je komentář přínosný?

Ten příspěvek byl jako většina jeho příspěvků sarkasmus, ve kterém chtěl naznačit, že všechno, co Nvidia udělá, je v podstatě k ničemu a je to odsouzeno k zániku.

+1
0
-1
Je komentář přínosný?

No a není to tak? Já bych řekl, že ve spoustě případů „bohužel“ ano. Jak už bylo řečeno výše, takový jeden příklad za všechny např. ten G-Sync aj. zbytečné technologie, které už jsou dávno v ripu.

+1
-2
-1
Je komentář přínosný?

GSync bolo nejaku dobu jedine a potom dlhodobo najlepsie riesenie pre adaptivnu synchronizaciu na desktopovych monitoroch. Odkial tu niektori beriete, ze je zbytocny? Vy len porovnavate nazvy a co je viac open, ale to nie je iba o tom. Kazdy monitor s GSync je v adaptivnej synchronizacii lepsi ako vacsina Freesync monitorov, pretoze ta neobmedzuje na nejaky podinterval, ale funguje od 30Hz do hornej hranice monitora. Proti Freesync nic nemam. Tiez mam monitor s jeho podporou. Ale tieto reci o zbytocnosti nechapem. Len preto, ze sa neda nieco pouzit na AMD HW, neznamena, ze je to zbytocne. Uz len to, ze rozhybali AMD, aby pripravil konkurencne riesenie je prve plus. A funkcne vyhody GSyncu som uz spominal.

+1
+1
-1
Je komentář přínosný?

To jsem naznačit nechtěl, spíš jen výčet technologií, ale jsou samozřejmě oblasti, kde má NVIDIA značně navrch, tomu snad nikdo neodporuje.

+1
+3
-1
Je komentář přínosný?

Jo, na většinu z fíčůr, co Nvidia má čistě pro hráče, nabídne hráčům AMD časem alternativu. A přicházejí i s fíčůrama, které pro změnu přebírá Nvidia.

Jenže na většinu z toho, co se dá pro GPU najít na developer.nvidia.com, nemá AMD alternativu žádnou.

Proto jsem psal, že ať udělají sebelepší hardware, se softwarem budou několik let pozadu, pokud do toho vývoje nenarvou taky několik miliard dolarů.

+1
+4
-1
Je komentář přínosný?

Asi si špatně rozumíme... bavíme se jen o těch, co mají přínos pro běžného hráče. K čemu je hráči to na co odkazuješ? To jako všichni majitelé Geforce toto využívají...? těžko. Pokud využije třeba CUDA, tak samozřejmě v pořádku, ale jinak mu to může být šumák.

+1
-2
-1
Je komentář přínosný?

Bavili jsme se o trhu s GPU. A s tím fakt nehne, když AMD v jedné generaci udělá grafiky, které žerou o 100 W míň nebo budou mít o patnáct procent vyšší výkon. To je prostě nespasí, neznamená to, že hráči a profesionálové kvůli tomu přestanou nakupovat karty Nvidie a půjdou radši do Radeonů. Nvidia má u grafik mnohonásobně širší záběr než to AMD. A ještě dlouho to tak bude. Logicky. AMD vydělává na procesorech, grafiky jsou pro ně okrajové. Nvidia má jenom ty grafiky.

+1
-1
-1
Je komentář přínosný?

Okrajovou záležitostí bych je nenazval když jsou ve všech hlavních konzolích (PS5, Xbox, Switch, Steamdeck, ...) Tady se ukazuje jak dobrou nabídku zakázkových čipů AMD má. O tom, že Radeony drželi AMD nad vodou v době před Ryzeny nemluvě. Co se týče trhu samostatných GPU, tak se delší dobu nezaměřují na úplný highend. Hardcore hráči mají samozřejmě NVidie ale ve středu bych to viděl zhruba na stejno. Co se týče pro (CAD a podobně) sektoru, tak tam je standartem Quadro a tenhle trh se mění pomalu. Pokud se bavíme o CUDA vs OpenCL tak to je o konkrétním užití. Jako koncového uživatele mě moc aplikací nenapadá co by využívali podporu CUDA. Větší souboj bude na poli serverů.

+1
+3
-1
Je komentář přínosný?

Konzole vydělávají na hrách, ne na hardwaru. Od toho se odvíjí jejich cena a od toho se musí odvíjet i zisky, které na nich jsou. Těžko má AMD z APU do konzole za čtrnáct tisíc takový vývar, jako má z procesoru, který si samo prodá za deset tisíc nebo jako má z grafiky, která se prodává za dvanáct. Z pohledu výrobce není dodávání čipů do herních konzolí takové terno.

A nemalou roli v tom úspěchu AMD v konzolích nejspíš hraje i to, že může nabídnout x86 CPU pohromadě s GPU (a v podstatě unifikovanou platformu s PC), zatímco Nvidia může nabídnout maximálně ARM + GPU nebo jenom to GPU.

Nějaké zázraky bych za tím nehledal.

+1
-4
-1
Je komentář přínosný?

Konzole pod cenou neprodává AMD. Tam je domluvená cena a objem čipů. Z prodeje her nevidí ani dolar. Je to jistý a stálý příjem. Pod cenou prodává Sony a Microsoft. Co se týče návrhu čipů tak půjde i o to, že NVidia není tak pružná v návrhu čipu přesně podle požadavku zákazníka. Možnost X86 APU je třešnička navíc. Výsledkem je čip, který plní přesně to co má. Neobsahuje zbytečnosti navíc, což dále snižuje cenu a snižuje spotřebu. Jsou i další oblasti kde se NVidia a AMD předhání. V automotive zelení třeba přišli o Teslu. Apu na míru od AMD jsou spokojeni.

+1
+2
-1
Je komentář přínosný?

Ale no tak, ty jsi nějaký rozumbrada:
„jako má z procesoru, který si samo prodá za deset tisíc“
Poprosil bych název toho procesoru, který si tehda mohli dovolit prodávat tak draze jak s dodávkami do konzolí začínali, na ten si teda počkám, pokud mě paměť nešálí, to nejlepší co tehda měli byl FX 9590 přímotop a ten rozhodně nestál tolik.

Vždyť konzole je právě to, co AMD drželo dost nad vodou v té největší krizi a generovalo aspoň nějaké zisky, když do nich mohla dodávat své čipy, o které jinak nebyl moc zájem, ale těm jejim konzolím to stačilo a ti výrobci slyšeli na nízkou cenu a bylo to pro ně výhodné. Kdyby nebylo Lisy, která je k tomu už tehda dokopala násilím, kdo ví jak by momentálně AMD vypadalo bez tohoto kšeftu, nejspíš hodně bídně kvůli neschopnému vedení a žádné Ryzeny a nové Radeony by nebyly, protože by na to nebyly žádné prachy, AMD by bylo rádo jen za to, že může vůbec ještě existovat s tou hrstkou prodaných levných čipů s „nulovou“ marží, to by toho moc nevydělali.

Kupovali bychom jen Intel, kdyby bůh dal 6C Skylake+++, a byli by jsme za to všeci happy, Nvidie to co je teď RTX 3070 Ti by prodávala nejspíš jako RTX 3080 Ti a to by byl vrchol nabídky a tím by to haslo, rozhodně by nedělala nic jako 600W RTX 4090.

Ano, konzole se dotují, ale ty si už dotuje sám Sony a Microsoft, které si to pak od zákazníků vybírají zpět v podobě svých služeb, různá členství ať můžeš pařit online apod. Že je dotuje AMD a čipy jim prodává pod cenou, to je přeci do nebe volající nesmysl, proč by to jako dělali? To už by si rovnou mohli otevřít charitu.

+1
+1
-1
Je komentář přínosný?

Poptával jsem FirePro do WS. Nope, jen Quadro. Tam je to krutě zaháčkovaný.

+1
+1
-1
Je komentář přínosný?

Právě v tom Středu vede NV... Svědčí o tom jak statistiky třeba CZC (2020 byla nejprodávanější 2070S a sekudnovala RX580 nikoli 5700XT), nebo tu někdo nedávno dával prodejnost z Amazonu, nejprodávanější 3060Ti, nejprodávanější AMD karta na 1/4 prodaných kusů..
Starši statistiky MindFactory, tuším 2020, nejprodávanější kartou 2070S, a tržby za ni jako za všechny karty AMD. Druhá nejprodávanější byla 5700XT ale bylo to o tisíce kusů méně než 2070S, další nejprodávanější kartou byla 2060S. I 2080Ti se prodalo téměř stejné množství jako největšího lowendu AMD - 5500XT

Jinak v nějakém komerčním využití těch karet hraje nejen CUDA ale třeba NVENC, Optix.

V herním je pak DLSS jako jasná výhoda, plus lepší výkon v RT.

Ale ono si to dělá reklamu samo. Spousta lidí kouká třeba na streamery jak hrají jejich oblíbenou hru a zeptají se jakou mají grafiku... odpověď NVIDIA... divák si jde koupit NVIDIA grafiku.

+1
+1
-1
Je komentář přínosný?

Len poznamka na okraj. Vo Switchi je NVIDIA Tegra SoC. No a co sa tyka desktopovych grafik, tam ma NV cez 80% trhu. Ci nie je iba o tom, ze sa AMD nezameravalo na high-end. To sa ale zrejme od dalsej generacie bude postupne menit v prospech AMD. Ak sa teda potvrdia informacie, co koluju na internete.

+1
0
-1
Je komentář přínosný?

Mate dost zlu pamat ohladom GSync. Ked ho NV predstavila, tak to bolo na desktopovych monitoroch. Zatial co AMD narychlo zbastlilo ukazku na NTB. Freesync sa na desktop dostal tak rok a pol po GSync. To nebolo ziadne poslanie nezmyslu k ladu a uz vobec nie len nejakym updatom ovladacov. Neviem kto siri takyto nezmysel. A dokonca aj potom ako sa Freesync dostal do desktopovych monitorov, tak bol po funkcnej stranke stale dlhodobo zaujimavejsi GSync. Ten totiz u kazdeho mojitoru podporoval adaptivny refresh od 30 do hornej hranice. Zatialco k Freesync si mal sice lacnejsi pristup, ale musel si si davat pozor na rozne intervaly v ktorych adaptivny refresh fungoval. Dakujem pekne aby som musel davat pozor ci nespadnem do divnych intervalov ako 48-60, 60-90 a podobne. GSync rozhodne ziadny ojeb nebol. Aby si dosiahol u Freesync to, co robi GSync, musi mat monitor komplexnejsiu elektroniku a potom je aj drahsi aj ked stale nie taky drahy ako GSync. Ten ma samozrejme aj nevyhody ako cena a funkcnost iba na kartach id NV, ale funkcionalitou tomu konkurujd az Freesync 2, ktory vysiel este o dalsi cas neskor. Trvalo to Freesyncu par rokov, kym zacal realne konkurovat GSyncu.

+1
0
-1
Je komentář přínosný?

Freesync je opravdu záležitost ovladačů. U notebooku se se změna refresh rate používá běžně pro úsporu energie. AMD tuto podporu neměla z jader pro desktop odstraněnou. Byla ted přítomna, jen nebyla využita. Takže po vydání Freesync fungoval i na starých kartách řady 200. A náklady na elektroniku monitoru? VESA Adaptive Sync je volitelnou součástí standartu Display Port 1.2a který Freesync využívá. Tedy náklady nula. V době uvedení tak bylo více kompatibilních monitorů, než NVidia za rok stihla slíbit. Co se týče podpory Gsync bez modulu tak se bavíme až o kartách řady 1000.

+1
0
-1
Je komentář přínosný?

V NTB ano. Ale v desktopovych monitoroch bol GSync dlhodobo najlepsie riesenie. A kym prisiel prvy Freesync, tak jedine. A co stale vynechavate je funkcnost. A s nou su spojene naklady na elektroniku v monitoroch. Preco sa podla vas drviva vacsina Freesync monitorov pohybovala pre adaptivnu synchronizaciu v intervaloch ala 48Hz-60Hz, 40Hz-60Hz alebo 60Hz-90Hz? Ked podla vas boli naklady na elektroniku nulove, preco kazdy Freesync monitor nepodporoval adaptivnu synchronizaciu od 30Hz po hornu hranicu tak ako kazdy GSync? Ako pisem. Vy len porovnavate nalepky a co je viac open. To, ze drviva vacsina Fressync monitorov bola, a velka cast stale aj je, obmedzena oproti GSync, vas z nejakeho dovodu nezaujima. GSync je sice drahsi, ale stale ma svoje vyhody. Ani pri jednom GSync monitore nemusite riesit nastavenia hier, aby ste sa s framerate trafili do podporovaneho frekvencneho rozsahu monitora, ale iba to, aby ste mali nad 30FPS. To vam drviva vacsina Freesync monitorov garantovat nemoze. A tie ktore ano, patria z pochopitelneho hladiska k drahsim monitorom, pretoze taka podpora vyzaduje drahsiu elektroniku.

+1
0
-1
Je komentář přínosný?

Teorie hezká ale praxe říká něco jiného. Zatím co freesync si mohl ošahat skoro každý a viděli jak funguje. Minimálně nejnižší úroveň kompatibility levného HW. Gsync neměl nikdo. A to z jednoduchého důvodu. Modul se dával jen do premiových herních monitorů s vyšším refesh rate. Kdo si takový monitor mohl dovolit, měl i na výkonné GPU a Gsync ztratil smysl. Pořídilo si to jen minimum lidí. Hezky se o tom psalo ale naživo to neviděl prakticky nikdo. Gsync s modulem zanikl a Nvidia se vrátila k VESA standartům. Nemluvě o tom, že motáš hrušky a jabka. Srovnáváš levnej 60hz monitor se 144hz kouskem za minimálně trojnásobnou cenu. Srovnej monitory se stejným panelem. Výsledek bude stejný. Jen kousek s Gsync modulem měl cenovku minimálně o 70usd vyšší.

+1
-1
-1
Je komentář přínosný?

To nie je teoria ale prax. Moj prvy takyto monitor bol prave 4K s GSync. Teoria su prave vyhlasenia o tom, ze kto ma na monitor s GSync, ma aj na drahu GPU a ze GSync straca zmysel. To je prave nezmysel. Tak isto potom mozes tvrdit, ze kto ma drahu GPU, tak adaptivnu synchronizaciu nepotrebuje. Maloktore GPU davali a aj teraz davaju 2K na 144Hz alebo 4K na 60Hz. Co bol moj povodny monitor a mal som vtedy GTX 1080, ktora bola v tom case najvykonnejsia GPU. A ze tato karta nedavala vonvela hrach 4K a 60FPS ani v case jej vydania, asi vieme vsetci. Okrem toho nemas nikdy ani s najvykonnejsou GPU zaisteny plynuly framerate, pretoze ten zavisi od grafiky v hrach a nastaveniach, na ktorych chces hrat. Tiez som nikde nezrovnaval 60Hz monitor so 144Hz monitorom. Iba som pisal, ze zatialco mas s GSync vzdy garantovane parametre, tak s Freesync si musis davat pozor. Ked chces porovnavat monitori, tak ano. Treba zrovnavat rovnake len s inym typom podpory adaptivnej synchronizacie. A tiez iba take, kde Fressync zabezpeci rovnaku funkcnost ako GSync. Lacne monitori s Freesync su lacnou alternativou, ktoru si sice osahas, ale nie je to to iste vzhladom na obmedzenu funkcnost.

+1
0
-1
Je komentář přínosný?

1080. Polovina roku 2016 a generace co už nepotřebovala modul. Takže je možné, že jsi ho nikdy nepoužil. Freesync 2 výšel brzo po té. Co se týče zobrazování, tak sice ano nebylo nic co by v náročných hrách zvládalo více než 144fps ale u 144hz panelu jsou časy mezi snímky tak krátké, že prodleva není tak výrazná jako u 60hz. Panelu. Respektivě se bavíme o maximálně 7ms u 144hz a 17ms u 60hz. U 60hz je tedy rozdíl výraznější a má tedy smysl prodlevu zobrazení zkrátit. U 144hz rozdíl mezi použitím a nepoužitím je velmi minimální a okem nepostřehnutelný.

+1
0
-1
Je komentář přínosný?

GSync som urcite pouzil. V 4K casto lietal framerate a na 60FPS si mohol vacsinou zabudnut. Ten sa dal dosiahnut len pri starsich hrach. Inak som bol medzi 30 az 50 FPS, kde s GSync bol obraz bez artefaktov sposobovanych fixnou frekvenciou monitora a posobil plynulejsie. Ono vsetko zavisi od toho ako si nastavis hru a aj najrychlejsie CPU a GPU mozu mat problemy pri novych hrach udrzat tych 60 alebo 120 ci 144Hz. Technologie ako GSync a Freesync nikdy nestratia svoj zmysel a nesuvisia s tym, aky vykonny HW mas.

BTW GSync vysiel v roku 2013, Freesync vysiel v 2015 a Freesync 2 v 2017. GSync nemal poriadnu konkurenciu az do Freesync 2. T.j 4 roky. Az Freesync 2 uz zaviedol urcitu povinnu uroven kvality, ktora spolu s mnozstvom vyrabanych monitorov s jeho podporou donutila NV, aby zacala implementovat jeho podporu. Inak pokial viem, tak GSync tiez neskoncil a predstavuje stale najvyssiu uroven kvality zatialco Freesync je lacnejsia alternativa. Nieco ako DLSS vs FSR.

+1
0
-1
Je komentář přínosný?

RTX je prosím tě produktová řada, k čemu je hráči BatteryBoost,....
Co to vůbec meleš?

+1
-1
-1
Je komentář přínosný?

Jako fakt - polovina z toho co tam píšete již dávno zanikla, nebo je podporovaná tak mizerně ,že to nestojí za zmínku.
A druhá polovina jsou blbosti pro hráče ( děcka).

+1
-1
-1
Je komentář přínosný?

Fíčůra pro hráče tvl. :D

Říkám, že s ekosystémem pro GPU jsou pozadu o několik let. Studujte, je tam toho spousta. I na několik životů.

https://developer.nvidia.com/

+1
0
-1
Je komentář přínosný?

Mě přijde naopak hodně stěžejní "ekosystém" od AMD, kdy si CPU a GPU můžou vzájemně přenechávat nevyužité rezervy. Stejně tak mi přijde přívětivější přístup AMD, kdy staví na otevřených standardech, nebo je vytváří (FreeSync × G-Sync, OpenCL × CUDA, Resizable bar...). Taky mi přijde důležitější, že vedení AMD nedělá přehnané sliby, zavádějící srovnání a podobné (eufemisticky řečeno) kulišárny na uživatele.
Na jednu stranu je sice zajímavé řešit mezi kamarády, kdo vytáhne o kolik "procentíček" "lepšejší" výsledky v to jakém testu, hře či aplikaci, ale aby to pak bylo za cenu +200 - 300 W odběru? :) //myslím na CPU+GPU AMD s AMD vs Intel s NVidií.

+1
-1
-1
Je komentář přínosný?

Nvidia má uzavřené technologie, protože do jejich vývoje narvala miliardy dolarů. AMD do toho v grafikách tolik peněz nerve a „řeší“ to tak, že dělá otevřené standardy.

Výsledek je rozdíl mezi developer.amd.com a developer.nvidia.com. Jsou věci, které ti dobrovolníci zadarmo jen tak z lásky k AMD pro jeho otevřené standardy prostě nenaprogramují.

A to, jestli někdo v jedné generaci karet podporuje asynchronní shadery a někdo jiný je umí až o dvě generace později, v tom hraje fakt marginální roli.

+1
0
-1
Je komentář přínosný?

AMD to podle mně nějak lépe řešit ani nemůže, nejsou pořádně lidi co by to mohli dělat a kapacity na to nemají. Ale jasně, to developery/zákazníky nezajímá.

+1
+1
-1
Je komentář přínosný?

tandem AMD + Microsoft

+1
0
-1
Je komentář přínosný?

> Nvidia má uzavřené technologie, protože do jejich vývoje narvala miliardy dolarů. AMD do toho v grafikách tolik peněz nerve a „řeší“ to tak, že dělá otevřené standardy.

Bullshit ^ 100biliontou.

Intel rval miliardy do softwaru v dobach, kdy Nvidia ani neexistovala. Za celou existenci narval do sveho ekosystemu vic, nez AMD a Nvidia dohromady. Pres tyhle utracene prachy ma Intel taky zdaleka nejvic prispevku do opensource, a na vetsinu sveho PC hardwaru ma opensource ovladace (...a je toho mnohem vic nez ma nvidia).

Nvidia ma uzavrene technologie, protoze... buhvi. Treba maji manazerskou kulturu ala Oracle, kterou by slo shrnout slovy "fuck the customer". Ale rozhodne to neni tim ze chudacci nalili miliardy do softwaru.

+1
+3
-1
Je komentář přínosný?

A právě to, že to je otevřený, tak to velmi často funguje lépe - protože se implementuje jen to, oč je reálně zájem. Příkladem budiž Linux, kde to AMD prostě funguje líp, nemusíš se starat o černou magii uzavřených ovladačů, a byť to neumí všechny hovadinky, to podstatné tam je.

Každý přístup má svá pozitiva i negativa. Kdo mění grafiky každý rok, ten si užije s nvidií placenou jízdu moderními technologiemi. Kdo ale chce používat grafiku třeba 5 let, s podporou to už bude horší a lepší zkušenost bude mít s AMD.

Ten zbytek o AS je takové to fandovské plácání. Totéž se dá napsat v opačném gardu o RT - dodnes to opravdu funguje jen ve zlomku her.

+1
+1
-1
Je komentář přínosný?

Ako užívateľ linuxu ako hlavný systém a karty RX580 nemôžem s tebou úplne súhlasiť. Mám svoje skúsenosti.

+1
+1
-1
Je komentář přínosný?

Kecy v kleci. Dobrovolníci dělají spoustu různých věcí a, i jenom v kontextu programování, jsou lepší a slabší jedinci či týmy. A někteří dělají i hodně jaderné věci i slušné ovladače. To že někdo má firemní kulturu postavenou na uzavřenosti a uplácení se nakonec nemusí ukázat jako výhra.
Uznávám, že CUDA zjevně zabodovala lépe než OpenCL. Což neznamená, že implementace OpenCL u NVidie nebyla prostě jenom odbytá. G-Sync je zbytečnost, která stojí dosti peněz navíc.
Rozdíly ve výkonech karet AMD hodně stáhlo. NVidia uniká jenom v totálním hiendu a to za nemalou cenu. A i ten únik je takový nepřesvědčivý.
Uvidíme na CES 2023, jak na tom kdo bude.
Já jsem v zásadě vyjevil názor. Pro mě je důležitá dobrá spolupráce CPU a GPU, co nejvíce paměti na grafické kartě a raději nižší spotřeba. Nějak se s tím musím vejít do rodinného rozpočtu. Při běhu PC třeba 5 - 10 hodin se ta spotřeba už nějak projeví. A taky hluk chlazení. Takže já cílím na Radeony 6800. Uvidím podle pohybu cen na podzim.
To není něco speciálně proti NV, prostě mi to takto vychází jako lepší. ¯\_(ツ)_/¯

+1
+1
-1
Je komentář přínosný?

Pokud tě zajímá spolupráce CPU a GPU, tak už určšitě používáš Apple. RAM je jednotná pro CPU i GPU, stejně jako L3 cache. Odpadají trasfery dat atd..

Jinak spotřebou nejsou Radeony odlišné od RTX, rozdíly jsou malé. Hlučnost je pak dána mimo jiné provedeném nebo agresivitou. Stojí mi 2% výkonu navíc za 5dB hlučnosti navíc?

Já si jedu novou 3060Ti se silent biosem, hraju nejtypičtěji 1440p max detaily, na 60Hz monitoru s aktivním VSync, typická spotřeba karty je v titulech které hraji nejvíc v rozmezí 80-100W a ventilátory točí 1000 otáček. Skříň mám 80cm od ucha a musím se v tiché místnosti snažit registrovat, že ta grafika točí ventilátory. Bez limitu FPS bude na 16-17 stech otáček a cca 200W spotřeby, s perfromance biosem pak točí nějakých 2100 otáček a je nesnesitelně hlučná, spotřeba je stejná jen teploty jsou nižší a čip běží o možná pár desítek MHz výše = měřitelný, ale nepocititelný rozdíl.

Raden pro mě nemá NVENC, i když ho teď nepotřebuji, tak je to nice to have, DLSS se vždy může hodit, hlavně když mám před sebou 4k monitor, kde mohu hrát některé hry i v nativním rozlišení displeje bez nějakého dopadu na kvalitu, někde dokonce kvalitnější. No a pak výkon RT, musel bych koupit 6900XT abych měl podobný RT výkon jako s 3060Ti

+1
-2
-1
Je komentář přínosný?

Chladič je záležitostí výrobce grafiky. To co tam občas dají aby byly o pár dolarů níž než konkurence je děs. Za chladič si raději připlácím. Na to co mám na Strixu si nemůžu stěžovat.
Radeony maji encoder, co jde použít pro streamování. Není jen v nejlevnějších kartách. VP9 myslím? Je to dlouho co jsem si s tím hrál.
DLSS2 je prima ale pořád to je jen upscaling. Poněkud mi vadí, že se z toho stala mantra výkonu a maskování chabého výkonu v RTX. Příjde mi, že po letech kdy se předháněli, kdo zvládne větší rozlišení, detaily a fps je trend opačný. Kdo dokáže renderovat v nižší kvalitě aniž by si toho člověk všimnul.

+1
-1
-1
Je komentář přínosný?

DLSS a jej alternativy tu nie su preto, aby niekto mohol renderovat v nizsej kvalite. Prave naopak. Ide o to, aby sa mohol renderovat obraz vo vyssej kvalite aj ked v nizsom rozliseni a aby sa takyto obraz previedol do vyssieho cieloveho bez toho, aby si niekto vsimol rozdiel. Pouzitie pokrocilych grafickych ficur vratane RTX je stale viac narocnejsie a dosiahnutie aj malych zlepseni si uz vyzaduje velke mnozstvo vykonu. DLSS a spol sa pouzivaju aj v hrach, kde nie je RTX. Nie je to iba o raytracingu aj ked ten bol na zaciatku motivom pre vznik DLSS.

+1
+1
-1
Je komentář přínosný?

Jenže si všimneš. Pořád to je jen upscaling. Dopočítáváš chybějící detaily. Ať je výpočet jakkoliv chytrý, tak to vždy vnese nějakou chybu. A tyhle artefakty mě často vadí víc než nižší rozlišení, nebo nižší detaily.

+1
0
-1
Je komentář přínosný?

Pokial ide o obycajny upscaling tak ano. Pokial ide o AI verzie podporujuce antialiasing, tak v niektorych pripadoch je dost tazke urcit rozdiel. Dobry priklad je Deathstranding, kde je obraz s DLSS lepsi nez bez neho. Prddpokladam, ze to je kvoli implementacii TAA, ktoru hra bez DLSS pouziva. Tiez som si zahral Control, Metro Exodus, Cyberpunk a Dying Light 2 s DLSS na Quality v 4K. Vsetky detaily naplno vratane RT. Obraz bol vyborny a ak tam boli artefakty, tak nijak rusive na to, aby som si ich vsimol. A to som ich hral cez GeforceNOW, kde by clovek povedal ze streaming obraz narusi tiez. Ani to som nijak nepostrehol vdaka RTX 3080 tieru a streamingu 4K obrazu s maximalnym 50Mbit bitrate. V takychto pripadoch nemam problem upscaling pouzivat. Ale beriem, ze kazdy nehrava v 4K, a v nizsich rozliseniach alebo pri Balanced ci Performance kvalite DLSS je uz obraz viditelne v horsej kvalite. Tie nizsie urovne som zo zvedavosti vyskusal v 4k a porovnaval s nativnym rozlisenim. Osobne by som ich nepouzival.

+1
0
-1
Je komentář přínosný?

V herním segmentu žádná, ale v profi segmentu má nVidia ohromný náskok v ekosystému.
Představ si situaci, že děláš na projektu s celkovou cenou několik desítek milionu a potřebuješ 10-20 výpočetních karet pro jednu část řešení. Nikdo nebude nad AMD přemýšlet pokud pro to nebude nějaký specifický důvod, protože s nVidií je prostě menší riziko, že něco nebude fungovat. Nemá to nic společného s AMD a jeho HW. Je to čistě o kompatibilitě SW třetích stran, kde je výchozí řešení CUDA a NVENC. Skoro nikdo se nebude zabývat HIPify co možná umí překládat CUDA API pro AMD HW nebo používat AMF místo NVENC, protože čas jsou peníze.

+1
+1
-1
Je komentář přínosný?

Mě dostalo už tohle:

"Před lety kritizovala ceny TSMC a vyčkávací taktika způsobila, že ostatní výrobci její 7nm proces rozebrali. Nvidia tehdy měla štěstí…

Štěstí spočívalo v tom, že Samsung mohl nabídnout 8nm proces, který sice vycházel z 10nm výroby, ale parametry vylepšoval a jak se později ukázalo, bylo na něm možné vyrábět velké monolity a dosahovat frekvencí zajišťujících konkurenceschopný výkon. Kapacity a výtěžnost rovněž dosahovaly úrovně, při které bylo možné zásobovat trh množstvím karet vyšším než v letech předešlých."

On asi vážně věří, že výběr výrobního procesu jednotlivých návrhů čipů pro další období je otázkou štěstí. To si myslí, že to někdo losuje?

+1
0
-1
Je komentář přínosný?

Tak Samsung byl jasná volba kvůli ceně. Měl nevyužité kapacity a údržba továrny i když nic nevyrobí něco stojí, proč tedy něco nevyrobit a utržit peníze na tu výrobu plus náklady které bych měl i když by nic nedělal

+1
+1
-1
Je komentář přínosný?

Vzpomene si nekdo na to, co rikal RedMax, jak je Samsung neschopnej a ze spoluprace NVidie se Samsungem nema budoucnost a celej Amper mohl mit lepsi provozni vlastnosti, kdyby nevznikl pro proces Samsungu?
No, tak RedMax mel zase pravdu, jak se ted ukazalo, ze. :-)

+1
-4
-1
Je komentář přínosný?

„a celej Amper mohl mit lepsi provozni vlastnosti, kdyby nevznikl pro proces Samsungu?“

Ano, a po noci přijde den a po dni zase noc. A tak se to bude opakovat ještě hodně dlouho.

Jsi prostě genius, žes na takovou věc přišel... a úplně sám.

+1
+2
-1
Je komentář přínosný?

To by jeden neřekl co všechno dokáže českej švejk vyplodit.

+1
+1
-1
Je komentář přínosný?

Jistě a AMD karty neexistují, stojí nejméně 150x tolik co nVidie a nikdo je nechce, protože všichni už mají nVidii. Bláboly co tu meleš zná každý, protože je píšeš furt dokola, a to, že se částečně potkaly s realitou je jen pustá náhoda.

+1
+3
-1
Je komentář přínosný?

Ano a proto se těch špatných Ampérů prodalo přes 30 milionů a na jeden podařený radeon se prodaly téměř čtyři ampéry.

Navíc kdo tady tvrdil že se žádné grafiky nevyrábí? Když se něco nevyrábí je jedno kde se to vyrobí :D

+1
+3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.