Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel přetáhl šéfa technického marketingu Nvidii

nechcem byt zly, ale ked pozeram na jeho foto, nevymyslel DLSS on?

+1
+6
-1
Je komentář přínosný?

Obvykle to taky nedělám, ale tady jsem se tomu pocitu taky neubránil. :D Leccos by to pak vysvětlovalo.

+1
+1
-1
Je komentář přínosný?

Nekde jsem cetl, ze drzi pres 40 patentu, takze uplny jelito to taky nebude...jak vyzniva z clanku... :-)

+1
+1
-1
Je komentář přínosný?

Tak jestli má i patent na rozum :D

+1
0
-1
Je komentář přínosný?

Neco jako Babis? :-))

+1
0
-1
Je komentář přínosný?

V USA to nie je problém.
Patentový úrad skúma len, či to nie je patentované- ak nie je a zaplatíte poplatok máte patent.

Až pri vymáhaní patentu súd skúma, či to neexistovalo skôr, alebo iný dôvod neplatnosti patentu.

Potom sú tu také exotnosti

IBM si patentovalo proces patentování

Společnosti IBM se podařilo v USA patentovat patentování - přesněji řečeno procesy od vývoje technologie přes patentování až po vymáhání patentových práv. Nyní je otázkou, jestli je toto použitelný univerzální obranný patent.

2.1.2011 21:48 |

http://www.abclinuxu.cz/zpravicky/ibm-si-patentovalo-proces-patentovani;...

onday, 2 July, 2001, 13:17 GMT 14:17 UK
Lawyer moves to patent wheel
A wheel
The "circular transportation facilitation device"
An Australian man has registered a patent for a "circular transportation facilitation device" - more commonly known as the wheel
http://news.bbc.co.uk/2/hi/asia-pacific/1418165.stm

Prípadne patenty Spôsob a nástroj na vypúšťanie natrávenej potravy na opačnom konci tráviacej sústavy oproti miestu vstupu potravy do nej.

+1
+3
-1
Je komentář přínosný?

Hm... tak tady se s kolegou Stachem rozcházíte. Ten ho adoruje, ale podle tohoto článku by si od toho neschopného ulhaného markeťáka pes ani kůrku nevzal.

+1
-6
-1
Je komentář přínosný?

kde je rozpor? lhat ve prospech zamesntavatele je prece jadro marketingu.. (: tendle lhal tak dobre, ze chce intel aby lhal pro nej..

+1
+11
-1
Je komentář přínosný?

Tak zrovna tenhle se snažil nelhat. Pročež mi tenhle článek nepřijde zrovna košér.

A shrnout celé jeho působení tím, že připomeneme čtyři „lži“, u kterých první lež spočívala v tom, že stačilo počkat jenom rok a půl (hyperbola, nechce se mi zase googlovat, kolik to bylo přesně dní) a freesync bez modulu byl možný, druhá lež v tom, že vycházel z nějakých dat, přičemž data byla vadná, protože Steam blbě detekoval crossfire, třetí lež v tom, že de facto řekl, že to možná budou časem podporovat (přičemž to trvalo další čtyři roky, než na něco takového přistoupili) a čtvrtá lež z toho, že slíbil nárůst výkonu 35-45 % a bylo to přitom průměrných 35 %...

To jestli Jirka nevyhrabal nic lepšího, tak je to pro něj celkem slušná bilance.

+1
-6
-1
Je komentář přínosný?

Jako „lži“ to hodnotíš ty sám, ve článku nic takového není.

„stačilo počkat jenom rok a půl (hyperbola, nechce se mi zase googlovat, kolik to bylo přesně dní)“

Proč se tedy vyjadřuješ k něčemu, o čem nemáš informace, co tě evidentně nezajímá a čemu nehodláš věnovat ani třicet sekund googlování? Rok a půl to opravdu nebyl, on to nebyl ani rok, odehrálo se to v jednom pololetí a to ještě s monitorem, který existoval už v době původního prohlášení.

Každý si může udělat závěr, jaký chce. Jestli si myslíš, že lhal, je to tvůj závěr. Někdo jiný si třeba může myslet, že ho řešení bez modulu za příplatek nenapadlo. A někdo jiný si může udělat úplně jiný závěr. Nezaměňuj proto vlastní závěry s obsahem článku.

+1
+8
-1
Je komentář přínosný?

Jako lži to zatím hodnotí všichni tady v diskuzi. No, tak se asi spletli taky, že jo, vlastně jsi to nikomu nepodsouval. :D Prostě je to takové typické objektivní shrnutí kariéry jednoho markeťáka. ;-)

Googlovat se mi to nechce, protože to není na třicet sekund, ale na deset minut prolejzání různých zdrojů a nedávno jsem to absolvoval. Jestli zdroje dohledáváš stylem beru první odkaz z google, tak se některým věcem přestávám divit.

Ale dobře, no, tak Nvidia představila G-Sync 18. října 2013. AMD vypustilo první ovladač s podporou freesync 19. března 2015.

Čili rok a pět měsíců. A jestli to chceš ještě přesněji, tak už si to fakt dohledej sám, nemám náladu dohledávat, který z těch deseti modelů, co v té době měly podporu freesync, se začal v který den přesně před čtyřmi lety prodávat.

+1
-4
-1
Je komentář přínosný?

"Ale dobře, no, tak Nvidia představila G-Sync 18. října 2013"
máš na mysli tohle ? https://www.geforce.com/hardware/technology/g-sync/diy

+1
0
-1
Je komentář přínosný?

Ano. Ale co to má společného s válcováním silnic? Myslel jsem, že jádro pudla je v tom, že Nvidia uvádí G-Sync, má modul a tvrdí, že bez něj to momentálně nejde, zatímco AMD tvrdí, že to jde bez něj... jenom se pak stejně musí čekat rok a... pět měsíců, než se do prodeje dostanou monitory s novou elektronikou a AMD je začne podporovat.

+1
-1
-1
Je komentář přínosný?

a v čem je tedy spor ?
"AMD tvrdí, že to jde bez něj" > je to lživé vyjáření ? ANO - NE

monitorů bez drahého DODO systému od NV bylo na trhu plno hned po "prezentačce" ? ANO - NE >> BTW kolik monitorů šlo dovybavit tímto modulem bez záruk ? (přiznám se, že tohle opravdu nevím)

v podstatě bazíruješ na tom, že se FS a GS nedostal na trh v cca stejném období ?

+1
0
-1
Je komentář přínosný?

Jádro pudla je v tom, že Nvidia tvrdila, že se to neobejde bez další elektroniky, zatímco AMD dokázalo, že se to bez ní obejde, jenom to pak stejně trvalo rok a půl, protože se čekalo na novou elektroniku. :D

Jenom nevím, proč se pořád razí mantra, že Nvidia říkala, že „bez třísetdolarového modulu“ nelze a ani do budoucna nepůjde adaptivní v-sync realizovat. :D

+1
-1
-1
Je komentář přínosný?

tak další(modul navíc) a nová(bez modulu) není to samé ?

+1
0
-1
Je komentář přínosný?

„Jádro pudla je v tom, že Nvidia tvrdila, že se to neobejde bez další elektroniky, zatímco AMD dokázalo, že se to bez ní obejde, jenom to pak stejně trvalo rok a půl, protože se čekalo na novou elektroniku. :D“

Teď ovšem lžeš ty a hned v několika bodech:

1. Mezi prohlášením Nvidie a důkazem AMD neuplynul rok a půl, ale několik měsíců.
2. Nvidia netvrdila, že to nejde bez elektroniky, ale že to nejde zcela konkrétně bez G-Sync modulu.
3. Nečekalo se na novou elektroniku, AMD dokázala, že to jde úpravou firmwaru u LCD, které existovalo již v době prohlášení Nvidie.

+1
+1
-1
Je komentář přínosný?

Všechno, co AMD na CESu odprezentovalo „několik měsíců po Nvidii“ jako „důkaz, že G-Sync funguje bez modulu“, byl stánek s notebookem. Od téhle ukázky na CESu pak trvalo další rok (a nevím kolik týdnů, první recenze monitorů, které to měly od dubna 2015 umět, jsem našel snad někdy v lednu 2015), než se to povedlo v monitorech dostat do praxe.

Až o osm měsíců později po představení G-Sync na Computexu AMD ukázalo prototyp v podobě nějakého nějak upraveného asiNixeusu. A nikdo u něj nevěděl, co všechno tam funguje, co nefunguje a do jaké míry je to použitelné, jaké jsou s tím problémy, co je na něm opravdu upravené. Nikdo to netestoval. Nikdo to v redakci nezkoušel. Nikdo to nerecenzoval. Nikomu se to nedostalo do rukou. Nikdo to nezkoumal. Nikdo nezkoušel, jestli je to stoprocentně funkční. Nikdo na tom ani nevyzkoušel blbou změnu rozlišení, jestli se to celé nerozsype. Vše, co jsme se k tomu dozvěděli, byly informace od AMD a statická ukázka s „větrníkem“.

Kvůli tomu, že to, co AMD předvádělo, byl nějaký bastl (engineering sample), už jsme se jednou dohadovali, nebudu to hledat. Ten monitor jsi viděl tak na fotkách a na videu a veškeré info, co k tomu máš, je komentář od pána od AMD z videa a možná z nějakých článků od lidí, co od toho pána dostali přednášku na místě. Ale pořád si omíláš svoje a jsi si skálopevně přesvědčený, že stačila jenom úprava firmwaru a ten monitor by funkční natolik, že by se to dalo i prodávat. Že to u něj byla jen čistě softwarová záležitost. Fakt mě fascinuje, jak si tím dokážeš být tak jistý.

Když stačila úprava firmwaru, proč to trvalo rok a půl a musela přijít nová generace generace monitorů. PROČ, pokud u některých stačilo jenom flashnout firmware? Proč prostě neflashli firmware, když to fungovalo a nepustili to ven třeba s dovětkem „F“. Na co se čekalo? Proč se řešilo, o kolik potřebné součástky monitory prodraží nebo neprodraží a proč se s tím dělaly takové ciráty, pokud to u některých monitorů byla čistě softwarová záležitost? Proč se neobjevil aspoň jeden jediný monitor aspoň těch pár měsíců po té předváděčce, proč až v lednu 2015 přišly teprve první ohlášky, proč se první monitory začaly prodávat až o několik týdnů až měsíců později a proč až v dubnu 2015 přišly ovladače. Proč, pokud to bylo tak bezproblémové a tak ready a u některých monitorů stačila jenom úprava softwaru... :-\ Proč se u jediného staršího monitoru neobjevil dodatečně nový firmware, který by to aktivoval. Proč AMD nechalo Nvidii vesele rok a půl volné pole působnosti a čekalo, až si early adopteři pořídí řešení od Nvidie. Proč si byla Nvidia tak jistá, že to fakt se stávajícími monitory nejde realizovat i potom, co AMD předvedlo FreeSync? Proč Petersen tvrdili, že problém je u scalerů? Prostě jenom lhali, kalili vodu, nebo byli tak neschopní?

+1
-1
-1
Je komentář přínosný?

"Prostě jenom lhali, kalili vodu, nebo byli tak neschopní?"
Vis jak NV nasype do proprietarniho reseni balik a pak prijde AMD s levnou alternativou na ktere by si tolik nenamastili kapsu takze neschopni bych zmenil na schopni vsecho ;)
Ano da se ocekavat, ze u vetsiny monitoru se nemyslelo na funkce urcene pro mobilni segment a ani se moc necrcali s implementaci standardu z dob DVI (takzr ani "hackem" by to neslo obejit)>> uznavam tedy ze ani po uprave FW by to nepomohlo(spis hadam ze i tam kde by to slo by byl prinos minimalni a radeji od toho upustili) ... navic jak moc bezne je ze u starych produktu se rozsiruje funkcnost aby si kanibalizovali vlastni prodeje ..

Jak dlouho vyvijeli g-sync HW i SW ? Pokud vim tak NV nasadila hotove reseni a i vyrobci uz meli na ceste prvni monitory (AMD totalne zaskocili)
Zatimco FS byl rychlokvaska, kterou bylo potreba dokoncit ..vis jak "ani pes se hned nevysere":) >> hadam, ze se v oboru pohybujes dost dlouho a tohle si sam moc dobre uvedomujes

+1
0
-1
Je komentář přínosný?

At tak nebo onak..NV s G-Syncem "prohrala". Jeste nejakou dobu se to bude ukazovat u premiovych monitoru az jednoho dne po tom nestekne ani pes..pokud teda nepridou s nejakou ohromujici novou funkvi, kterou FS nebude podporovat

+1
0
-1
Je komentář přínosný?

Ale ktera funkce by to byla ...:)
Mít na to prostor tak bych do neceho podobneho sel >>> OMEN X Emperium 65

+1
0
-1
Je komentář přínosný?

Jako seznam lží sis to vylozil jen ty, když chceš chránit svého guru..... Třeba bys mohl udělat lepší.

+1
+3
-1
Je komentář přínosný?

Zjevně jsem si to tak nevyložil jenom já.

+1
-4
-1
Je komentář přínosný?

Hele wagnere, bez s tim svym rypanim do prdele..
Tohle je web, kde se vetsina lidi snazi diskutovat normalne i presto, ze maji treba jiny nazor. Pokud mas pocit, ze by to tady melo vypadat jako na tvem NV tuningu s poblityma diskusema fanatiku vcele s clanky pacienta Obrmajera..tak o to nikdo nestoji. Nech si ty svoje hlasky laskave tam.

+1
+6
-1
Je komentář přínosný?

Omlouvám se, no, já jsem to vážně pochopil tak, že nám Jirka chtěl sdělit, že jde o kontroverzního markeťáka proslaveného svým lhaním. Ve skutečnosti se zřejmě nijak nesnažil ho hanět.

Asi jsem ho nepochopil, nejsme prostě naladění na stejnou vlnu.

Proboha, dyť Jirka v těch článcích jenom sprostě (sofistikovaněji) trollí, celý ten článek je jeden velký sarkasmus, ale když na to já v diskuzi v podobném duchu reaguju, tak se můžete podělat.

+1
-3
-1
Je komentář přínosný?

A co kdyby jsi napsal prispevek, ve kterem se nebudes jednou vysmivat a das tam nejaka normalni fakta, pokud nesouhlasis s tim co je v clanku napsano? To by neslo?

To ze si No-X vybira jednu stranu preci neznamena, ze ten clovek, o kterem pise musi byt naprosty idiot. Mohl jsi treba napsat, co se mu povedlo a dat to jako protiargument tomu, co napsal No-x. Pak by takovy prispevek melo cenu i cist. Takhle se akorat radis na stejny level jako pitomci, co si tady prijdou vyblit pripspevek, protoze na nic jineho se nezmuzou..

+1
+5
-1
Je komentář přínosný?

V diskuzích na diit v podstatě není rozdíl v tom, jestli člověk reaguje normálně nebo nenormálně, stejně se to stočí do flejmu amd fans vs nvidiots. :)

A no-x si o to tímhle stylem psaní fakticky koleduje. A myslím si, že to dělá záměrně, protože to generuje prokliky. Někdy zase popřemýšlím o nekrmení trollů.

+1
-5
-1
Je komentář přínosný?

a co treba, ze styl tvojich prispevku tenhle druh flamu prizivuje...

+1
+5
-1
Je komentář přínosný?

No vždyť říkám, že pouvažuju o nekrmení trollů. :D

+1
-3
-1
Je komentář přínosný?

Ale ja vubec nerikam, ze nemas psat komentare..napis je, ale at je tam i nejaka uzitecna informace a nejen rypani..at se treba No-X chyti pak za nos :)

+1
+3
-1
Je komentář přínosný?

Užitečná informace? Tak mohl bych třeba napsat, ať ho lidi nesoudí na základě tohoto článku a radši se podívají na nějaká videa s ním:

https://www.youtube.com/results?search_query=tom+petersen+nvidia

Nemyslím si, že by to byl až tak špatný člověk, jak by to mohlo z tohoto článku vyznít.

+1
-3
-1
Je komentář přínosný?

Na mne osobne ten clanek nepusobi, jako ze je to moula, spis to beru, ze No-X vybral veci, ktere se mu nepovedli. Vzhledem k tomu, ze nejspis spouste tech veci, o kterych mluvil stejne do vetsiho detailu nejspis nerozumel, tak se opiral o info co mu interne dali. Jak zname velke firmy...tady je obcas zakopany pes :))
Vzhledem k platu, ktery za to bere, a ktery bude nasobne vetsi nez tvuj a muj dohromady, mne te par 'srandicek' co na nej No-X vystoural moc netrapi a celkem mne prijde zbytecny hajit jednu nebo druhou stranu.

+1
+1
-1
Je komentář přínosný?

Ten moula umí a ví víc než my všichni tady v diskuzi i s no-xem dohromady.

Není to klasický markeťák, který jen papouškuje, co mu někdo řekl.

+1
-2
-1
Je komentář přínosný?

SI dovolim z casti celkem klidne nesouhlasit. Pokud je nekdo sef nejake divize, nemuze znat moc technicke detaily. Jeho prace bude spocivat dost v necem jinem. To ze ma napriklad prehled o urcitych vecech to je dost mozne a bude mit nejspis i technicky background. Nicmene jeho funkce urcite nespociva v tom, ze zna technicke detaily na urovni vyvojovych tymu.
Jinak nevim kde jsi prisel na to ze nepapouskuje (aniz je to mysleno hanlive) ..samozrejme, ze musi papouskovat, protoze neni v silach jednoho cloveka znat tolik veci. Ja jsem sice nedelal technicky marketing, ale delal jsem jednu dobu technicky sales, coz je tomu do urcite miry podobne a muzu Te ubezpecit, ze jsem papouskoval taky a naprosto bezne. Technicke detaily znaji a opravdu jim rozumeji pouze lidi z vyvoje. Vsichni ostatni vetsinou pak s temi informacemi jen dal pracuji a chodi si pro moudra prave k nim. Narozdil od nich, ale dokazi vyfiltrovat patricny level informace, ktery se ma dostat dal, coz je casto problem lidi, kteri jsou v necem tehnickem prilis ponoreni.

Nevim, jestli si nekdy fungoval v bussinesu, ale prijde mi, ze mas trochu naivni predstavy :)

+1
0
-1
Je komentář přínosný?

Psal jsem "jen papouškuje", ne že nepapouškuje. To je trochu rozdíl.

A na rozdíl od vás třeba vím, že programoval skripty pro analýzu snímků z videa k FCATu, takže si fakt nemyslím, že co se technických detailů k tomu, co řešili, týká, je až tak mimo a nad věcí a jenom šéfoval těm schopnějším ve vývoji a papouškoval, co mu řeknou.

Má i nějaké patenty, jakkoliv se to tady v diskuzi snaží všichni bagatelizovat. Kolik čistokrevných markeťáků něco takového má?

Akorát na diskuzích jsou všichni holt vždycky chytřejší, no. :D

+1
-2
-1
Je komentář přínosný?

"třeba vím, že programoval skripty pro analýzu snímků z videa k FCATu"
.. ja jsem treba programoval network inventory pro design FTTH siti dvou pilotnich projektu novem zelandu ;) presto mne to nedela expertem na FTTH :)
Jeste neco? :)

+1
0
-1
Je komentář přínosný?

Ech. Nemá to smysl. Jediné, co jsem říkal, je, že to není takový debil, jak vypadá a opravdu je v obraze u toho, o čem mluví a co prezentuje a na těch technologiích se aktivně podílel. :D

Nvidia je dost bohatá na to, aby na takové pozici měla schopného člověka, a předpokládám, že ho nevyrazili pro neschopnost a že Intel by ho nepřetahoval, kdyby to byl jen tak nějaký markeťák.

Ale když máte ten pocit, slyšel jsem, že v Nvidii teď mají volného fleka. :D

+1
-2
-1
Je komentář přínosný?

No smysl to nema, protoze si akorat meles svoje. Ja jsem netvrdil, ze je to moula a dokonce jsem to i v jednom z predchozich prispevku i psal. Na druhou stranu si nedelam iluze a nebudu do toho cloveka projektovat neco cim nejspis nebude, jak se to tady snazis dokazovat necim, co to nedokazuje.
Schopny clovek na pozici vedouciho pracovnika nezmanema, ze se ten clovek pitva v technickych detailech..v tom pripade by ho opravdu nejpsis vyhodili. Podle tvych odpovedi soudim, ze si asi ve firemnim prostredi asi vicero pozic z vlastni zkusenosti moc nevidel..
A ty jsi uz prihlasku poslal?

+1
0
-1
Je komentář přínosný?

Ne, já jsem proti němu neschopný debil. :D (a na rozdíl od některých si to aspoň přiznám :D)

+1
-2
-1
Je komentář přínosný?

no dobry Adamku, koukam, ze jsi sklouzl zpatky do sveho 'prumeru' z PCT...a neco jako rozumna diskuse te miji...

+1
+1
-1
Je komentář přínosný?

Ale to jsem nemyslel nijak adresně, spíš obecně na tuhle diskuzi. :D

To je vysloveně hitparáda chytřejších mozků.

+1
-2
-1
Je komentář přínosný?

dobry no..mozna by jsme ty diskuse meli rovnou zrusit.
Sorry, ale tenhle ton mne uz moc nebavi.

+1
+1
-1
Je komentář přínosný?

K tomu nenimrání se v detailech, technický markeťák, který dokáže odpovědět na technickou otázku dělá fakt lepší dojem než markeťák, který předá slovo někomu jinému nebo odpoví, že to zjistí a pošle to mailem.

+1
-2
-1
Je komentář přínosný?

Tohle vubec nerozporuji. Je samozrejme rozdil mezi clovekem co si zjisti nejaky level informaci a ma v tom oboru technicky background a nekym, kdo opravdu jen papouskuje. Nicmene to ze odpovi na nejakou otazku neznamena, ze odpovi i na dalsi. Tohle je docela bezny fakt, kdyz delas prezentace, tak taky neznas vsechny potrebne detaily a jsou otazky, na ktere se musis zajit nekoho napred zeptat, dokonce se to nekdy i protokoluje a odpovedi se dodavaji formou mailu dodatecne.

+1
0
-1
Je komentář přínosný?

Jestli se mne snazis presvedcit, ze neni trouba..to delat nemusis, ja si to nemyslim, byt ho neznam. Rovnez si ale nemyslim, ze je to expert.

+1
0
-1
Je komentář přínosný?

Jak říkám, on se na technologiích Nvidie skutečně aktivně podílí, v tomto ohledu je to geek a je to expert. A zatím jsem nenarazil na nikoho, kdo by s ním přišel do styku a pochyboval o tom.

https://www.youtube.com/watch?v=2rlJcG-8JNk&feature=youtu.be&t=102

A jo, jsem už dost velkej na to, abych věděl, že přes to všechno je to taky jenom člověk.

+1
0
-1
Je komentář přínosný?

Jeste jinak...expert je vetsinou povazovan nekdo, kdo se aktivne podili na vyvoji. Mas pocit, ze kdyz je to sef oddeleni pro celou NV, kde bude mit pod sebou placnu 50-100 podrizenych, kde bude honit jeden miting za druhym, tak ma cas se podilet na nejakych detailech vyvoje? Na to vsechno ma lidi, co mu ty informace budou pripravovat. Tim, ze ale nejspis rozumi dane problematice, tak je schopen na urcitem levelu ty informace predavat ve srozumitelne forme dal a reaovat treba i na ripadne dotazy. To jej pak odlisuje od nekoho, kdo opravdu jen "papouskuje".
Je rozdil mit background o dane technologicke oblasti, potazmo v nem mit i svou technickou minulost a byt expertem. Jestli nechapes tenhle docela zasadni rozdil, tak se na mne nezlob, ale tahle diskuse je mlaceni prazdne slamy..

+1
0
-1
Je komentář přínosný?

Uz me tu to Vase pravidelne troleni moc nebavi. Misto toho, aby jste obnovili kvalitu Vaseho webu (driv jsem ho mel rad a chodil tam kazdy den, stejne jako sem a na dalsi pc weby), tak travite cas trolenim u konkurence. V posledni dobe se k Vam chodim vicemene jen zasmat (Treba Obrovy recenze jsou vylozene humorne, obzvlaste vyber testu) a obcas na p. Rybku (to je to jedine co u Vas za neco jeste stoji). A tady v diskuzich pisete obcas takove nesmysly, ze clovek dochazi k zaveru ze Vam ujel vlak (napr. "No tak hardwarová akcelerace snad není všechno, co se dá nějak vypočítat přes GPGPU."). Neznalost problematiky u redaktora technickeho webu zamerena na PC a zaroven neodolatelna touha se vyjadrovat u konkurence k vecem o kterych zjevne moc nevite (a navic je to diky tomu i videt) je opravdu ostuda.

Edit: uz je Vas tu videt pomalu vic nez Crhu, zhodnotte si sam jestli je to dobre nebo spatne...

+1
+4
-1
Je komentář přínosný?

Já jsem vždycky za hardwarovou akceleraci něčeho považoval dedikované jednotky určené primárně k danému účelu. A fakt to nerozlišuju tak, že co se počítá na CPU, to je softwarová akcelerace a co se počítá na GPU, to je hardwarová akcelerace.

Přistupovat k tomu takhle, tak se dá říct, že i na tom CPU se ray tracing počítá s využitím hardwarové akcelerace (co jiného jsou třeba SSE než hardwarová akcelerace nějakého typu výpočtů, co jiného než hardwarová akcelerace je matematický koprocesor).

A sorry, ale na Radeonech fakt žádné specializované jednotky pro výpočty ray tracingu nikdy nikdo nezmiňoval. Co zmiňovali, je ray tracing přes OpenCL. Ale třeba to AMD tají, že jo...

Proboha, vždyť už je to samotná podstata označení GPGPU – obecné výpočty na grafickém čipu.

Pokud považujete výpočty počítané na grafice za hardwarově akcelerované, protože je to přece grafický akcelerátor, a výpočty na procesoru za softwarové, protože je to přeci... procesor, tak to asi fakt nemá smysl dál rozebírat.

+1
-1
-1
Je komentář přínosný?

Ted uz je to diky GPGPU trochu rozsireno, zjednodusene vse co se pocita na GPU je oznacovano jako hardwarove akcelerovane. Takze si to nerozlisujte jak chcete, ale obecne je to takto prijimano. Trochu zvlastni zpusob uvazovani u redaktora.

Tak tady je prave Vas zasadni omyl. Vzhledem k tomu ze GPU jsou na pocitani trigonometrie delane, tak se prave u RT (pokud nepocitame RT cores u NV) vyuziva v podstate to stejne jako u vypoctu rasterizace (resp. se nevyuzije samozrejme vse co je potreba i pro rasterizaci), protoze kupodivu je vypocet RT zase jen trigonometrie. Takze Vas primer s CPU je zcela zcestny a RT core neni v podstate nic jineho nez orezana bezna vypocetni jednotka jen pro to co potrebuje k vypoctu RT, coz jim umoznilo jen zmensit naroky na prostor pro soubezny beh RT a rasterizace.

Proc by AMD melo mit specializovane jednotky, RT s podporou v ovladacich by bylo teoreticky schopno pocitat i Intel GPU (a taky hardwarove). A OpenCL (stejne jako Cuda) jen umozni vyuzit vypocetni jednotky GPU i jinym zpusobem nez je rasterizace (ona je taky otazka jak to ma ve skutecnosti softwarove osetrena NV na RT cores, aby to nakonec taky nebylo pres Cuda).

+1
0
-1
Je komentář přínosný?

Obecně je to tak přijímáno, to je takový oblíbený argument, když člověk není pořádně schopný napsat, čím a kým.

Proč by mělo mít specializované jednotky? Protože to zvládnou dělat efektivněji, proto se obvykle specializované jednotky dělají.

Brát to ad absurdum s tímhle argumentem, tak můžeme napsat, že grafiky mají hardwarovou akceleraci pro každou aplikaci, ve které někdo použije sinus.

Jenom filozofická debata, co je a co není HW akcelerace (přičemž ten pojem není nikde závazně definovaný).

+1
-1
-1
Je komentář přínosný?

Jenze k akceleraci vypoctu na GPU se pristupuje zpravidla tam kde to ma vyznam a kde jsou instrukce vypocetnich jednotek pro danne vypocty vhodne. Tzn. ze pouziti vypocetnich jednotek se pomerne blizi potrebnemu specializovanemu cipu. Takze raytracing, fyzikalni vypocty, rendering videa apod., protoze ty jednotky jsou na podobne vypocty delane (zrovna RT, fyz. vypocty i rasterizace je trigonometrie). Takze z tohoto pohledu se vyuziva specializace dannych cipu vyrazne. Za me je oznaceni HW akcelerace zcela v poradku.

+1
0
-1
Je komentář přínosný?

Proč by mělo mít specializované jednotky?
pod tím pojmem si představuji spíše nějaký ASIC obvod nebo smíšený ASIC, ale GPU výpočty se dají považovat vesměs za akcelerované HW ..
za ty roky se ten pojem docela "vyprofiloval" nebo ?
- v podstatě cokoliv co se nepočítá na CPU pro běžné použití se dá považovat za HW akceleraci

+1
0
-1
Je komentář přínosný?

Hm... a protože se na OpenCL a CUDA dá spočítat prakticky všechno, tak i deset let staré grafiky umí hardwarově akcelerovaně všechno. Hm.

Tak to mě teda opravdu nikdy nenapadlo k tomu přistupovat takhle. :D

+1
-1
-1
Je komentář přínosný?

Tak se nejdriv podivejte na co se Cuda a OpenCL akcelerace realne pouziva a zjistite ze mozna az na par blbosti je to z 99 % to co GPU architekture sedi. Takze obecne uzivany termin HW akcelerace pravem sedi cemukoliv pocitanemu na GPU. A k tomu je jeste dalsi okolnost, treba 20 nasobne urychleni dannych vypoctu. Nevim proc tu dokola polemizujete o necem co je tak bezne oznaceno. Ale asi je tezke pripustit omyl, ze? :)

Edit: a nebo me chcete rict ze pouzivate treba Cuda kalkulacku windows?

Edit 2: Vidim, ze jste se naucil pouzivat + a -, a i sobe jste si naklikal :D

+1
+1
-1
Je komentář přínosný?

Meh. Tak hluboko jsem ještě neklesnul, abych v diskuzích používal plusy a mínusy, ne tak abych ještě hodnotil svoje komentáře. :D (aby mě zas někdo nechytil za slovo, tím neříkám, že jsem někdy na něco takového někomu nekliknul, ale na počty zhlédnutých příspěvků to nejsou ani promile).

Prostě uznávám, jakmile se něco počítá na GPU, je to hardwarově akcelerované, jakmile se něco počítá na CPU, tak je to jenom softwarově neakcelerované.

Pokračujte v šíření těchto myšlenek dál, vím minimálně o jednom dalším nevzdělaném pitomci z řad „novinářů“, co to bere jako já: https://www.cnews.cz/amd-radeon-ray-tracing-dxr-rtx-podpora-potvrzena-se... , z těch zahraničních je jich pak nepočítaně ( https://www.google.com/search?q=amd+hardware+accelerated+ray+tracing&oq=... )

A pak to ještě doporučuju vysvětlit i šéfovi divize Radeon a Senior Viceprezidentovi AMD, zjevně taky netuší, že Radeony hardwarově akcelerovaný ray tracing vlastně už dávno umí: https://www.overclock3d.net/news/gpu_displays/amd_will_definitely_respon...

No a pak bych na to upozornil i Nvidii a ještě bych doplnil wiki o Radeony ( https://en.wikipedia.org/wiki/Ray-tracing_hardware )

+1
-1
-1
Je komentář přínosný?

Ok, s + - dejme tomu :)

Akcelerace OK.

Zbytek je blbost, to ze dosud se pouzival RT vyhradne na Cuda (ted se bavim o GPU renderingu v 3D programech) je ze vec vyvojaru renderu, abych pravdu rekl, neznam zcela presne duvod (tipuju ze to bude snazsi implementaci v Cuda). Nicmene treba Octane render uz ma OpenCL rendering ohlasen.

Co se tyka her, tak je samozrejme potreba nejdriv pripravit podporu v ovladacich nebo engine (pripadne oboji) a nikde jsem nepsal, ze zrovna podporu DXR AMD momentalne ma, takze mi to nevkladejte do ust (nebo spise do prstu na klavesnici).

Tady jde jen o to, ze RT cores k tomu zadne GPU nepotrebuje (o tom svedci RT bezici na Titan V a na Pascalu) a po HW strance je na to pripraveno v podstate kazde GPU mladsi 10 let. Nebo jak mi chcete vysvetlit tu prezentaci RT Cryteku na Vega56?

+1
+1
-1
Je komentář přínosný?

Btw, kdyz o tom tak premyslim, tak ten RT ve hrach na Nvidiich asi bude pres Cuda, protoze jinak by to asi meli problem tak jednoduse realizovat i na GPU bez RT cores.

+1
+1
-1
Je komentář přínosný?

Důvod je především výrazně větší penetrace grafik Nvidie v profi segmentu.

Titan V je na tom nadstandardně dobře (protože ten je navrhovaný pro profi segment a mj. už je optimalizovaný i pro ten „real time“ ray tracing v CAD aplikacích, s tím Nvidia koketuje nějaký ten pátek https://www.youtube.com/watch?v=eEmbyPbPFUk a od té doby, co s ním přišla, má venku už několik dalších generací karet. A asi to byl i „pilot“ na Nvidia RTX na Turingu https://www.youtube.com/watch?time_continue=1&v=jkhBlmKtEAk ). Má tensor cores, které akcelerují odšumování (což je u té stávající implementace RT nezanedbatelná věc), a obdobu RT cores u Turingu asi nemá, ale taky má v RT nižší výkon i přes to, že je to z hardwarového hlediska pořád těžší váha (má o něco víc tranzistorů, stream procesorů, má HBM2).

AMD s tím taky nějaký pátek koketuje: https://www.youtube.com/watch?v=K2RhwxJ0_MM ale asi úměrně na úrovni penetrace jejich karet v profi segmentu.

Na Pascalu je to hardwarově akcelerované tak dobře, že to má třetinový výkon (ale i u toho Pascalu už se s real time RT v profi segmentu počítalo a na Teslách se tenhle hybridní rendering používal, takže možná nějaké optimalizace má, ale o dedikovaných jednotkách pro RT... no, se nikdo nezmiňuje).

Ale to už se dostáváme do polohy, kde se budeme bavit jak blbý s pitomým, protože tohle už jsou black boxy, do kterých veřejnost nevidí a jsme odkázaní jenom na to, co Nvidia a AMD řeknou.

Za mě je Nvidia RTX zabití dvou much jednou ranou – primárně vyvíjený a optimalizovaný pro „real-time“ ray tracing ve vysoké kvalitě v profi segmentu se snahou udat to i v herním segmentu v kombinaci s DXR jako real-time „ray tracing“.

U Vegy se to v Crysis počítá přes GPGPU a počítá se u ní něco jiného a jinak než pod NV RTX (což je to, nač narážíme od začátku, za mě (a pár dalších lidí) je to softwarově přes GPGPU, za vás to znamená hardwarovou akceleraci pro ray tracing).

+1
-1
-1
Je komentář přínosný?

Nemyslim si ze duvod bude vyssi penetrace Nvidia grafik, resp. nemyslim si ze to je hlavni duvod, spis jeden z mnoha. Ale to jsou jen nase spekulace.

K cemu proboha raltime RT v CAD? Nehlede na to ze video ukazka je Cinema 4D coz je 3D program a ne CAD. Navic v podobnych softech je GPU RT uz 10 let (samozrejme jak u ktereho). A ani to neni realtime, jen se k tomu aspon trochu blizi. Realtime je jen odezva pri zmene materialu, nasviceni, oteoceni kamerou u nahledovych nebo segmentovych renderu pri doladovani scen. Ale stejne se musi casto i 60 s pockat, aby clovek vubec neco videl. Nemyslim si, ze zrovna k tomu odsumovani jsou tensor cores nezbytne, podobne odsumovaci algorytmy se pouzivaji napric vsemi 3D programy s vetsinou bleskovym vypoctem i na CPU. To je jen jejich zpusob realizace.

Implementace RT v 3D programech je zavisla hlavne na vyvojarich renderu, i kdyz samozrejme podpora AMD bude k uzitku.

Samozrejme se nada od Pascalu ocekavat oslnivy vykon v RT (zrovna AMD si myslim ze u stavajicich GPU by diky lepsim vlastnostem pri ruznych vypoctech mohla mit lepsi vysledky, trochu to naznacuje i ten test Cryteku, ale to je zatim s velkym ?). Ale to neni podstatne, jde o to ze je to hardwarove mozne. Samozrejme v tomto pripade jsou RT cores vyhodou. Kde se na Teslach pouzival Hybridni rendering? O tom jsem nikde teda necetl a ani moc pravdepodobne mi to neprijde. Ten se pouziva jen u her a tesly lide pouzivaji k renderingu v 3D programech kde hybridni rendering neexistuje.

Aby jsme si rozumeli, proti NV nic nemam a za protlaceni RT do her (v 3D programech pracuju uz vic jak 20 let a celou dobu se na RT ve hrach tesim) jsem Nvidii vdecny.

Ale to je prece uplne jedno pres co se to pocita (a abych pravdu rekl, ze to Nvidia pocita ve hrach pres Cuda jsem si jisty na 90 %, Pascal, Titan V), nehlede na to ze vsechy GPU rendery ve 3D programech to na Nvidii pocitaji pres Cuda (takze by byli i sami proti sobe delat neco kdo vi jak, kdyz uz to davno pocitaji v jinych pripadech pres Cuda a pravdepodobne i pomahali vyvojarum s implementaci). Cuda i OpenCL umozni softu vyuzit vyhody plneho vyuziti vypocetnich jednotek GPU, takze zase se budu opakovat, je to plna HW akcelerace, tady neni o cem debatovat.

Edit: Vyhoda RT cores tkvi pouze v tom, ze se u hybridniho renderingu nemusi nijak omezovat rendering rasterizace. U ostatnich karet vcetne AMD se musi cast vypocetnich jednotek vyclenit pro rasterizaci a cast pro RT. Ale zase to v urcitych pripadech muze byt i nevyhoda, pokud bude mit rasterizace velke rezervy a snimek bude cekat na vypocet RT. Ale to pujde taky v driverech osetrit aby se v takovem pripade pouzila pro RT i cast beznych vypocetnich jednotek.

+1
0
-1
Je komentář přínosný?

Tak CAD snad není jenom modelování v AutoCADu. Po pravdě jsem ani nekoukal, v jakém programu konkrétně to běží, tam je podstatný jen ten rendererer, který se už pak dá nacpat do jakéhokoliv CADu nebo „3D programu“. RT kvůli materiálům. Ad není realtime, proto píšu RT v souvislosti s profi v uvozovkách. Stejně se musí 60 s počkat – no, a proto ta hardwarová akcelerace RT, když „akcelerace přes GPGPU“ tak trvá. :D
odšumování – není klíčové pro vizualizaci při modelování, tam to není taková ztráta, ale je klíčové je pro real time nebo pro akceleraci animací, to zase Nvidia řešila v souvislosti s animáky a filmovým průmyslem (i ten hybridní rendering), kde se balancuje mezi výkonem a kvalitou.

Ad kde se na Teslách použival hybridní... mám to spojené s nějakými prezentacemi ze Siggraph https://www.youtube.com/watch?v=9yy18s-FHWw + pdf v linku u videa (Tam tomu asi ještě neříkají hybridní ray tracing, ale jestli to chápu dobře, je to totéž.) A Siggraph bývá spíš o profi segmentu. V principu je to jedno, většinou Tesla jak GeForce.

Počítá přes CUDA... CUDA je API. To neříká nic o tom, jak je to pak zadrátované v hardwarové vrstvě.

Výhoda RT cores... no, a jsme u toho, dedikované jednotky pro akceleraci výpočtů k RT, které odlehčují té části čipu pro obecnější výpočty a dokážou to dělat efektivněji, což je to, co já považuju za opravdovou HW akceleraci ray tracingu :D

+1
-1
-1
Je komentář přínosný?

CAD, pokud nebudeme pocitat fyzikalni vypocty (stress testy apod., ale toho se netyka RT, jen akcelerace pres GPU) je 98 % modelovani v Open GL, vystupni vizualizacni rendery jsou vylozene okrajovka. Kdyz uz se dela veltsi projekt, stejne se to da vyrenderovat nejakemu 3D grafikovy at se oslni investori :)

Pockat 60 s se musi kvuli uplne jine kvalite (ktera ve hrach zatim bohuzel dlouho nebude) renderu. Vypocet GI (radiosity, causics [oboji v dobre kvalite hodne narocne]), spouste area lights (ty zerou fakt hodne, kdyz jich je treba 50), poradnemu DOF (ne tim postproces hnusem ve hrach, v 3d softech se plnotucny DOF realizuje napr. mnohokrat prerenderovanym snimkem otacenym do vsech stran se stredem v centru ostrosti), poradnym antialiasingem a to se nebavim o materialech, kdy nektere jsou docela extrem, zvlast kdyz je kolem jeste treba sklo apod.

U odsumovani jsem nemluvil o nahledu pri modelovani pres Open GL, tam se ani nepouziva, ale o renderingu a to na i starem jednojadrovem atlonu tato operace trvala v Lightwave do 1/2 sekundy. Takze pro dnesni gpu to je brnkacka. A narazite na profi filmovou scenu, kde to v podstate k nicemu nepotrebuji a ani nepouziva nikdo hybridni rendering. Opravdu vzdy pouzivaji raytracing. A uz 10 let ho akceleruji na GPU a to na Nvidiich. A v dnesni dobe velkych render farem s GPU uz se resi zejmena jen kvalita. Co jsem pred casem sledoval jeden rozhovor s nekym s filmove branze (USA) a ukazoval tam jejich praci si velmi liboval, ze s tema nekolika stovkama GPU v hale za zadama ma nahledovy render opravdu realtime i v plne kvalite (ale tohle pracovni prostredi je pro bezneho 3D grafika hezky sen) :D

U postovaneho videa vidim "From Nvidia's recent SIGGRAPH presentation where they used AI to speed up ray-tracing.", takze jen se pouziva AI k urychleni, ne hybridni render. Ten je jen pro hry, pripadne pro interaktivni vizualizace.

Presne tak, idelani reseni je prave ta Cuda (a to jeste opakuju uz zkusenosti s implementraci RT pres Cudu u jinych projektu), driver akorat rozhodne ze na kartach s RT cores jede na nich a na ostatnich GPU si to sebere par normalnich vypocetnich jednotek. Proto taky ten velky propad na Pascalu.

Hardwarova akcelerace je oboji, jen u RT cores je vetsi efektivita na plochu. Protoze jak uz jsem psal (pokud se odhledne od spekulaci ze tam zadne RT cores nejsou), neni to nic jineho nez oklestena bezna vypocetni jednotka jen na to co RT opravdu vyuzije. Dokonce pokud se RT ujme je u Nvidie pravepodobny vyvoj, ze se bude pomer RT cores a zbytku jadra menit ve prospech RT. A u AMD zase, ze budou muset podobnou cestu nasledovat kvuli efektivite.

+1
0
-1
Je komentář přínosný?

Někdo z Nvidie tam v nějaké přednášce zmiňoval, že u hybridního renderingu se inspirovali u filmového průmyslu. A ten se používá, nejspíš pořád, soudě dle tohoto: RenderMan ray tracing is implemented as a hybrid sub-system, which means ray tracing must be enabled to get effects such as ray-traced reflections, refractions, and shadows. Ray tracing is, by nature, much less memory efficient than pure scanline rendering. Your scenes will render faster and more efficiently when ray tracing is disabled.

( https://renderman.pixar.com/resources/RenderMan_20/tutorialRenderingEffi... )

Jo, je to starší a jo, není to totéž, co Nvidia RTX, ale je to obdobný princip. Cars snad byly dělané hybridním RT. https://www.tomshardware.com/reviews/ray-tracing-rasterization,2351-8.html

A třeba to RT demo se storm trooperama chystala Nvidia ve spolupráci s https://www.ilmxlab.com/ zřejmě na takové to „menší domácí“ ray tracování, na které nemají k dispozici farmu se stovkama grafik nebo na to nechtějí obětovat tolik výkonu (a VR, AR, tam můžeme řešit snad jenom to, jestli je to ještě filmový průmysl).

A jinak se u té hw akcelerace vracíme oklikou zase na začátek, výpočty na neokleštěných obecnějších jednotkách, to se v podstatě dá napasovat i na rozšířenou instrukční sadu CPU a můžeme se bavit o tom, že ray tracing na CPU je teda taky hardwarově akcelerovaný (a co jiného by byl třeba ray tracing na larrabee resp. xeon phi, a co bylo vlastně larrabee)

+1
0
-1
Je komentář přínosný?

Tak tady uz se nekam dostavame :)

Na RenderMana jsem malem zapomel (uz je pro me tak nejak mrtvy, resp. ten jejich hybrid), je to trochu vyjimka, ale jsou tam docela zasadni rozdily proti hernimu hybridu. V drivejsich dobach se to lepilo ruzne (a taky to tak vypada, kdyz se divam na starsi animaky jsou rendery vylozene skarede, hlavne nasviceni), aby to vubec zvladli vyrenderovat. Takze OK, beru zpet s hybridem ve filmovem prumyslu (ne CADU) :)

Ale co se tyka HW akcelerace, tak s CPU to vubec srovnavat nejde, protoze CPU neni delane na operace s matrix apod. Da se sice "napasovat" (taky se do nedavna na CPU renderovalo), ale efektivita je uplne jinde. A s Larrabee je to asi trochu slozitejsi, nevim jak to meli konkretne delane (jen nejake vzpominky). Nicmene pokud to byly opravdu jen CPU jadra, tak to stejne nikdy moc fungovat nemohlo (jinak by se to rozsirilo aspon mezi profiky). Taky to pomerne brzo zarizli. Takze na CPU to nelze nazvat HW a uz vubec ne akcelerace. Renderovani RT na GPU je pomerne blizko idealnimu stavu, takze to ma podstatne blize k HW akceleraci nez rendering na CPU. Spravne je podle me oznaceni HW akcelerace RT na GPU a HW akcelerace na RT cores :)

Edit: i kdyz to taky vetsinou nedelam, tak jsem Vam dal k poslednimu komentu + za osvezeni me derave pameti :D

+1
+3
-1
Je komentář přínosný?

nezmiňoval náhodou, že prioritou je pro něj prorender a na herní RT/DXR se budou více soustředit později až budou moci nabídnout dostatečný výkon ve všech třídách ?

+1
+1
-1
Je komentář přínosný?

Oba dva by jste si měli ujasnit co je HW akcelerace :D
Každý výpočet který projde procesorem na jeden průchod je HW akcelerovaný, jsou to i běžné výpočty.
Pokud musím data prohnat cíleně procesorem několikrát, tzn použít víc než jednu funkci potom už se to bere jako SW výpočet.

+1
0
-1
Je komentář přínosný?

Neni treba si z me strany v tomto pripade nic ujasnovat, to co pises pisu jinymy slovy v komentarich (i kdyz pravda ne takto primo) :)

+1
0
-1
Je komentář přínosný?

Tady si prectete k akceleraci vypoctu pres Cuda a OpenCl slova od nekoho erudovanejsiho...
https://is.mendelu.cz/lide/clovek.pl?zalozka=13&id=18583&studium=50411&z...

+1
0
-1
Je komentář přínosný?

Na NV tuningu je v diskuzi nablito i díky části zdejšího osazenstva. Bez ohledu na to, jestli lze s příspěvky Wágnera souhlasit či ne, tak bych řekl, že diskutuje slušně a ty v poslední době začínáš všude tahat prdele a bukvice, což má jistě pozitivní přínos k úrovni diskuzí.

+1
-3
-1
Je komentář přínosný?

A co tak pochopit smysl prispevku a proc je ta vulgarita vubec pouzia, to by neslo? Asi neslo..to je narocne..to chce zapojit mozek..ono je jednodussi se svest, nez myslet..

+1
+2
-1
Je komentář přínosný?

Hele wagnere a co kdyby jsi misto toho svoje vecneho stourani napsal neco i sam?
Ja vim, moc prace a jeste ti to nekdo omlati o hlavu v komentari, co...

+1
+8
-1
Je komentář přínosný?

Tak. Oproti dvěma větám v komentáři to zabere nesrovnatelně víc času. ;-)

+1
-5
-1
Je komentář přínosný?

Takze jsi vlastne uplne bezna stourava bukvice, jako x dalsich lidi, kteri si chodi pohonit svoje ego, aby melo pocit ze zije..

+1
+3
-1
Je komentář přínosný?

Ne, já bukvice nejsem. :D

+1
-3
-1
Je komentář přínosný?

Ale ses.. staci se podivat na hovadiny, ktere pises.. viz napr. tva "partyzanstina typu Vega56". Ani jsi se za to neomluvil
https://geizhals.de/?cat=gra16_512&xf=132_8192%7E9809_15+8286+-+RX+Vega+56

+1
+3
-1
Je komentář přínosný?

Ne že bych to nečekal, že někdo jako ultimátní argument vytasí zase to Aero od MSI :D Celá ta debata byla o snížení doporučených cen pro Vegu 56 na 279 dolarů. Doporučuju se podívat, za kolik se prodávají všechny ostatní modely a jaká je jejich průměrná cena. A taky za kolik je Vega 56 k mání u nás.

+1
-3
-1
Je komentář přínosný?

Ja bych to ani nepsal..ale kdyz ty se rad stavis do vysmivacne role toho, kdo to vi lip...
takze Nikoli..ty jsi tvrdil, ze to byla akce na "3dny", aby se promitla jina cena Vegy56 do hodnoceni recenzi pro 1660Ti. Uvadel jsi odkazy, kde jsi citoval, ze karty nejsou, atd.. Na to jsme ti odkazovali, ze karty jinde jsou. Takze jsi nemel pravdu. No-X ti odepisoval, ze to neni casove omezena akce jen na launch 1660Ti.. ty jsi tvrdil ze ano. To ze tyhle karty jsou stale k dostani i po 6tydnech od launche potvrzuje jen fakt, ze no-x byl podstatne bliz pravde nez ty. Pokud vim, tak v oznameni AMD se nic nerikalo o plosnem snizeni karet, ale bylo tam uvedeno, ze spolupracuji s "vybranyma partnerama na snizeni ceny vybranych produktu", coz ten odkaz dokazuje, ze je pravda.
CR neni berna mince..na trh v CR sere s prominutim i hovnival, coz dokazuji i ceny dalsich AMD produktu...:)

+1
+5
-1
Je komentář přínosný?

No neviem neviem kto bol bližšie k pravde ale asi ani jeden.
Ak sa nemýlim No-X tvrdil že to je akcia AMD čo zlacnením jedného modelu by som nenazval.
A rovnako ani Adam nemal pravdu že to bude krátkodobá vec čo 6 týždňov je už dosť.

+1
-1
-1
Je komentář přínosný?

Pokud se da tohle povazovat za pravdive "..spolupracuji s vybranyma partnerama na snizeni ceny vybranych produktu.."
https://diit.cz/clanek/radeon-rx-580-radeon-rx-590-slevy/diskuse#comment...
.. tak to podle mne jde spis za No-X.
Adams krome toho, ze se snazil dokazat ze ofiko MSRP neni 279,-, coz jak jsem pochopil, netvrdilo ani AMD, tak byl v ostatnich vecech vedle jak jedle.

+1
0
-1
Je komentář přínosný?

Ja som to pochopil tak že to tvrdil No-X že AMD zlacnila Vegu.
A spolupráca na snížení ceny vybraných produktov by som tiež nenazval že je to trvalé, aj keď v Nemecku je to stále tak a ešte je otázka či je to aj inde?
A mám ešte jednu otázočku na teba, ak sa nemýlim ty máš RX 580 4GB v prevedení Saphire Pulse však? ako si s ňou spokojný. Nejde mi o výkon ale skôr o prevádzkové vlastnosti hluk, spotreba, kvalita prevedenia chladiča, niekde som čítal že verzia Pulse je o generáciu staršia edícia ako terajšia Nitro+.
Viacmenej som sa rozhodol pre RX580 8Gb Pulse za cenu okolo 200€ (nechce sa mi riešiť lacnejšie z Nemecka) len váham kvôli zdroju mám 450W Bronse tak si myslím že s edíciou Pulse by nemal byť problém (odporúčaný je 500W ale beriem to že tam je aj rezerva pre nekvalitné zdroje)

+1
-2
-1
Je komentář přínosný?

Ja mam Nitro+ edici, tak s Pulse moc neepomuzu. Vzdycky ale muzes zkusit trochu undervolting v pripade nouze.

+1
0
-1
Je komentář přínosný?

Tak som si zle pamätal ale aj tak ďakujem za info.

+1
-2
-1
Je komentář přínosný?

Pulsu mam asi 20 na farme a uz cca 3/4 roku jedou bez problemu 24/7 (ani jedna neodesla). Nicmene ruku do ohne bych za ne nedal, maji vyrazne mensi chladic nez Nitro (nejdriv jsem u investoru vznasel pochybnosti jestli je vubec kupovat), ale drzi. Osobne mam nejradsi XFX XXX, ale ty Saphire jsou taky v pohode, Nitro 100 %. Pokud bude dobry airflow v casu s pulsem problemy nebudou.

+1
0
-1
Je komentář přínosný?

Jinak tady mas 55 uzivatelskych review 8GB Pulse karty
https://translate.google.cz/translate?hl=cs&sl=de&tl=en&u=https%3A%2F%2F...
Podle tech review, karty nepiskaji, v zatezi nejsou nijak hlucne, ale Nitro+ edice je tizsi. Jinak postelovat otacky ventilatoru muzes dycky :)

Jinak ja mel Pulse edici u R9 380 a byl jsem s ni spokojeny. V silne zatezi byla slysitelna, ale bylo to spis na urovni "vyssiho sumu", nez ze by to bylo hlucne.

+1
0
-1
Je komentář přínosný?

Som si to prečítal, ja som sa rozhodoval podľa tejto recenzie https://www.kitguru.net/components/graphic-cards/dominic-moass/sapphire-... a tu som sa rozhodol pre Pulse aj z dvôvodu menších rozmerov výkonovo je to len o výššom takte ale spotreba je u Pulse lepšia

+1
-2
-1
Je komentář přínosný?

Pekna recenze, ja myslim, ze pokud ti nevadi, ze neni "neslysitelna", tak asi neni moc co resit. Ten undervolting ti muze sazit spotrebu v pripade nouze o dalsich odhadem 20+W. Jinak dobry 450W zdroj by nemel mit podle mne problem. Ta sestava si muze vzit v maximalnim trvajicim peaku, kdyz pojede vse na max okolo 300-350W, podle toho co v tom mas. To je ale spis extrem, protoze vetsine lidi jede na max bud CPU nebo GPU, ale malokdy obe najednou. Takze bez OC by jsi mel byt za vodou...
ps: nevim, co mas za CPU, ale muj 1700x rizek jde udelat taky undervolting, aniz by se to promitlo negativne do frekvenci, takze prostor pro snizeni celkoveho TDP stroje se vzdycky vetsinou najde..

+1
0
-1
Je komentář přínosný?

Nieje tam nič extra, skôr to vidím na postupný upgrade kompu ale počkám si na nového Ryzena.
Teraz je tam i7 3770 (ivy bridge bez K -netaktujem a podpora virtualizácie), GTX560 (namieto tejto by som chcel RX580 -dobrá podpora v linuxe a preto nebudem čakať na Navi lebo bude v linuxe použiteľná asi rok po vidaní), 16 GB RAM a 5 diskov (z toho 3 SSD a 2 HDD) plus nejaká čítačka kariet a DVD RW, toto mi ťahá zdroj od COUGAR 80 Plus Bronze len si nepamätám či je to 430W alebo 450W
Postupne to celé obmením nová doska podľa vybraného CPU, nové RAM DDR4 minimálne 16GB, nová skrinka a zdroj

+1
-1
-1
Je komentář přínosný?

Hele, ja bych do toho klidne sel..pokud by se ti pocitac nahodne zacal vypinat, tak porad muzes zkusit Undervolting, pripadne ten zdroj vymenit ;) Stejne to mas v planu.

+1
0
-1
Je komentář přínosný?

Stále si hovorím že ten zdroj má 2x 6+2pin tak tak by to malo zvládnuť aj verziu Nitro+ ale tá Pulse mi sedí pocitovo viaca na Slovensku ju majú za 200€ čo mi príde prijateľná cena a zase snáď vydrží aspoň 5 rokov ako terajšia GTX560

+1
0
-1
Je komentář přínosný?

Go for it ;)

+1
0
-1
Je komentář přínosný?

Dobrej typek, odchod z Nvidie chapu, Intel ho bude potrebovat vic, ono vysvetlit hracum, ze maji kupovat grafiky od Intelu nebude nic jednoducheho. Koduri je totiz mozna guru pres hardware, ale neslysel jsem, ze by Intel koupil nekoho taky pres ovladace a ty soucasne jsou tristni.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.