Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeon RX 7900 XTX: jen 350W TDP, 2× 8-pin, >3 GHz

Jak se ty informace pomalu dostávají na světlo světa, tak ty Radeony vypadají čím dál lépe. Už se nemůžu dočkat zítřka :D

+1
+16
-1
Je komentář přínosný?

dtto, ja si ale pockam na 7800(no-x) a to len kvoli WH total war 3
okrem tejto hry nemam v ziadnej inej, ktore hravam, nedostatok fps

+1
-1
-1
Je komentář přínosný?

Já už jsem trochu extrémista a chtěl bych, aby mi třeba nové Call of Duty MW2 a Warzone 2 běhaly stabilně při max. detailech (bez RT) na 144 FPS při rozlišení UWQHD 3440x1440 bez FSR a podobných udělátek...

+1
+1
-1
Je komentář přínosný?

Akurát mám trochu "nervy" z toho,, ako včera opakovali pri výsledkoch za Q3 2022, že sú obmedzní kapacitami dodávateľov v server-och a na pri výrobe FPGA - tu hlavne na starších výrobných procesoch.
A že sa to zlepší v Q4 a Q1 2023, keď sa otvoria nové kapacity

+1
+1
-1
Je komentář přínosný?

Hmmm... Ale tak nové Ryzeny a Radeony pojedou spíš na novějších procesech než na starších ne? A navíc právě máme to Q4, takže možná proto se čekalo tak dlouho s novými Radeony?

+1
0
-1
Je komentář přínosný?

Ale v tých serveroch nehovorili o starších technológiách. Staršie technológie spomenuli len pri Embedded/FPGA

Ale tam môže ísť o továreň AMD na testovanie čipov a ich balenie do Integrovaných obvodov.

AMD set to Open Manufacturing Plant in Malaysia in Early 2023
Jun 14th, 2022
https://www.techpowerup.com/295836/amd-set-to-open-manufacturing-plant-i...

AMD tam strojnásobuje kapacitu a plochu továrne z 0,8 na 2,3 milónov štvorcových stôp(odhadom cca 230 000 m^2, prepočítané 213 677 m^2)

The new facility, spanning 1.5 million square feet and occupying approximately 14 acres, will manufacture advanced integrated circuit 3 technology and is expected to be completed in 2023. Once completed, the facility will bring TF-AMD’s total manufacturing capacity to over 2.3 million square feet.
https://techwireasia.com/2022/06/tf-amd-expands-its-semiconductor-manufa...

+1
+1
-1
Je komentář přínosný?

Už se nemůžu dočkat až budou obě 7900 v mojí bedně..

+1
0
-1
Je komentář přínosný?

no hlavne se tesim, jak to budou hodnotit weby a lidi, co vymejsleli duvody, proc je 450w rtx4090 pri tom vykonu vlasne uplne skvela spotreba.. ((:

+1
+10
-1
Je komentář přínosný?

Jojo, Adam Vágner už má napsaný závěr recenze na XTX ve kterém nedostane žádnou medaili, protože nemá DLSS 3 proti kterému je nízká spotřeba irelevantní a proto se vyplatí spíš RTX4090 :D

+1
+22
-1
Je komentář přínosný?

ještě chybí logo nvidia. :-D

+1
+6
-1
Je komentář přínosný?

nVidia - The Way it´s meant to burn

+1
+7
-1
Je komentář přínosný?

nVidia - zahřeje na duši i na těle.

+1
+10
-1
Je komentář přínosný?

Nemaju taketo teorie aj fanATIci len v opacnom garde? Tym tiez vychadza, ze ak je v niecom NV lepsia alebo podporuje nieco co AMD nie, tak je to zbytocne, mrtve a nikto to nechce. :-) Tu spotrebu mozete brat ako Honza Stach a teda iba ako jednu zapnutu ziarovku navyse (teda v tomto pripade dve alebo 3 :D). Ako pisal, ked vyssie spotreby mali pomalsie karty od AMD.

+1
0
-1
Je komentář přínosný?

Stejně to je nesmysl. Ta maximální spotřeba není trvalá a ani v zátěži není kontinuální, ale špičková. Co vy mělo reálně smysl, měřit opravdu v každé hře i zátěži déletrvající průběh a z toho vypočítat, pro danou zátěž typickou a špičkovou spotřebu včetně odběru třeba za hodinu ve Watthodinách. Ale to nikdo nedělá. U obou výrobců grafických čipů a u obou výrobců procesorů by pak ty reálné spotřeby vypadaly trochu jinak.

+1
-1
-1
Je komentář přínosný?

Pokud kartu nemáte na okrasu a ukaozání blikátek tak v té zátěži si těch 300W+ opravdu vezme. Ve špičkách ještě víc.
Takže ... ty reálné spotřeby vypadaly .. jenom .. trochu jinak.

+1
0
-1
Je komentář přínosný?

Tak jinak, když to pořád nechápete. Kolik % času to odebírá do řekněme 60 % maxima odběru kolik jak dlouho trvají ty špičky nad 90 % odběru. Aneb, mne nezajímá co je tam napsáno jako maximální odběr, ale kolik šťávy to reálně ve Watthodinách vezme u různých typů zátěže a víc polopaticky už to snad ani napsat nejde. A beru v úvahu, že někomu jde o plynulé hraní třeba ve 4k ale se zamčeným maximem fps. A že si to někdo neumí nastavit, mne nezajímá.

+1
0
-1
Je komentář přínosný?

Zas proč si kupovat tu nejdražší kartu, a pak zamykat fps třeba na polovinu Hz monitoru?

+1
0
-1
Je komentář přínosný?

A kdo píše o zámku na polovině schopností monitoru? Pokud to není profi hráč, který si hru ladí po svém na rychlou odezvu většina lidí nad 75-100 Hz už nevidí rozdíl. Obvykle se zamyká podle schopností monitoru.

+1
0
-1
Je komentář přínosný?

Aneb lidské oko nevidí víc než filmových 24 fps nebo jak nám později (před aktuální generací) tvrdili na konzolích, že víc než 30 fps není potřeba. Já třeba vidím rozdíl mezi 100 a 144 Hz, a to to byl jen (herní) notebook, žádný namakaný desktop. Bylo to v GTA V, což je singleplayer hra, tedy nic týkajícího se profi hráčů.

+1
0
-1
Je komentář přínosný?

Psal jsem něco o 24 Hz? Jako minimum jsem uvedl 75 až 100 Hz podle monitoru. Vy se evidentně chcete dohadovat, ale odpovědět na otázku neumíte.

+1
0
-1
Je komentář přínosný?

Tak jaká byla ta otázka, smím-li se zeptat? 24-30 Hz je od vašich 75-100 podobně daleko jako od mých 144.

+1
0
-1
Je komentář přínosný?

Já už se můžu leda smát. Tak překroutit původní význam, to chce vážně talent. Možná by jste se uplatnil v politice, tam jsou taky normální taky dvě tuny keců bez odpovědi.

+1
0
-1
Je komentář přínosný?

Učím se od nejlepších.

+1
0
-1
Je komentář přínosný?

ja som vyrastal na hrah co mali take fps a vobec mi to nevadilo :) a nad 60 hz nevidim uz rozdiel na bezne hranie. cim viac hz cim viac adidas, a poslednu dobu to tlacia aj do mobilov...

+1
0
-1
Je komentář přínosný?

Ty zase Buri onanuješ nad vším od AMD, aniž by to vyšlo a byly zde nějaké výsledky. Takže to je asi tak stejná trapnost.

+1
-2
-1
Je komentář přínosný?

Nejsem fanda marketingu nVidia, používám ji na neuronové sítě a rendering protože CUDA a hodně VRAM. Nicméně ta karta nežere tolik ani když se člověk celkem snaží: https://sehnal.dev/file/gpupower.jpg

Stačí dát limit na 300W a výkonu je dost. Na rendering i +100%, což je velice zajimavé:
https://opendata.blender.org/

+1
0
-1
Je komentář přínosný?

No pokud by byla 7900XTX výkonější než 4090, při takové spotřebě, na kterou poukazují napájecí konektory, tak by se AMD povedl opravdový majstrštyk. Stejná výrobní technologie, o polovinu nižší spotřeba a výkon stejný, nebo vyšší. Co k tomu dodat.

+1
+1
-1
Je komentář přínosný?

GeForce RTX 4090 je vyráběná 4nm procesem, Radeon RX 7900 XTX kombinací 5nm a 6nm.

+1
0
-1
Je komentář přínosný?

Ehm... je to 5nm proces s marketingovým názvem N4. Předpokládá se, že velký čiplet v nových Radeonech bude na stejném procesu - jenže AMD o něm nelže.

+1
+7
-1
Je komentář přínosný?

Je to podobný rozdíl jako mezi 14nm a 12nm procesem nebo mezi 10nm a 8nm procesem. Podle některých zdrojů je to dokonce custom-hybrid mezi N4 a N4X.

+1
+5
-1
Je komentář přínosný?

no-X ve většině případů s tebou souhlasím, ale v tomto opravdu ne. Oba procesy jak pro AMD, tak i pro NVidia jsou optimalizovány dle požadavků obou firem. Shodou okolností jsem s sebou neměl pravítko, abych mohl poměřit rozdíly mezi jednotlivými procesy :-) . N4 je pouze obchodní název pro 5nm proces TSMC. Proč mě nepřekvapuje že naše oblíbená NV to nevyužila k marketingovému oblbnutí oveček, že to je 4 nm. Je to úplně stejné, jako Intel 7, či-li 10nm proces. Ale s ohledem na článek, to nemá žádnou cenu. Článek pojednává o skvělém návrhu napájecího konektoru, včetně jeho umístění a nízké spotřebě skvělé, levné karty na 4N procesu. Tak proč se dohadovat, na jakém procesu je to vyrobeno. Tady by nepomohl ani 1nm proces.

+1
+2
-1
Je komentář přínosný?

I kdyby to tak bylo, pořád tam máš ještě ten 6 nm. Jde o to, že se předtím tvrdilo, jak má AMD lepší efektivitu určitě jen díky lepšímu procesu... nyní je na tom líp Nvidie a efektivita je stále horší, čím to jen může být. A jen tak btw přes to všechno je pořád i stále větší, je to už jak u Intelu, kdy potřebují o kus větší jádro s ještě vyšší spotřebou, aby výkonově dorovnali konkurenci.

+1
+7
-1
Je komentář přínosný?

A víš proč tam je a jakou tam plní funkci, nebo jen tak jsi něco hodil do placu ?

+1
-1
-1
Je komentář přínosný?

Jakoby n no. Je to 5nm. 4 si někdo vycucal z prstu

+1
+1
-1
Je komentář přínosný?

Jestli 2 slotovy Radeon RX 7900 XTX se 350W(-atty) dosahne stejneho vykonu jako 450W 3 slotova "12 pin debilni" RTX 4090 pricem bude stat polovicni nebo 2/3 cenu, ze 4090 se stane neprodejny paskvil a ze RX 7900 XTX zas trhak prodeju ve skupine HEDT, RTX 4090 nepomuze uz ani 24GiB graficka pamet nakolik RX 7900 XTX ma mit mnozstvi stejne, DP2.1(8K multi+) a PCI-Express 5.0(SAM) jiz budou prijemnym to bonusem pro zakaznika.

Jo NVIDIA muze jako odpoved na RX 7900 XTX vydat jeste vyssi RTX 4090 Ti, kto si ale koupi jiz 4 slotovou(!), 700 - 800W(2x 12pin-ovou!!) bestii tezkou jako krava, nenazranou jako dva prasata a nacenenou jako uroven politiků(!!!)? Jen naprostej blb.

Mezi 4080 16GiB a 4090 24GiB je prilis velky vykonovy prostor(okno), navic 4080 neni vubec lacina(1199 dolaru), jsem zvedav kto to bude kupovat a hlavne v pripade jestli to dokaze konkurovat maximalne tak Radeon-u RX 7800 XTX(?).

+1
+2
-1
Je komentář přínosný?

Drobným problémem je CUDA. Ta navíc na 4090 běhá nadmíru skvěle, takže pro HEDT je Nvidia jasnou volbou.

+1
+5
-1
Je komentář přínosný?

V Davinci Resolve (značně GPGPU orientovaná aplikace) je přínos RTX 4090 v řádu desítek procent (proti RTX 3090). Takže pokud by RX7900 nakrásně zrychlila (v GPGPU 2x) k RTX 4090 se díky ztrátě minulé generace asi jen přiblíží. Navíc jak již bylo zmíněno, menší penetrace OpenCL proti CUDA znamená značně omezenější výběr z palety nástrojů/řešení. Geforce podporují obě technologie.
https://www.pugetsystems.com/labs/articles/NVIDIA-GeForce-RTX-4090-24GB-...

+1
-4
-1
Je komentář přínosný?

Při množství prodaných karet, je to fakt důležité. A je to herní, nebo profi grafika ? Já myslel že je pro hráče. Já hlupák, jak jsem se mýlil. Přemýšlím, čím ještě by se dal omluvit tento fail. Jo napadá mě něco. Taky se to dá používat jako topení a testovací kousek na upevnění PCI slotů, bohužel ale pouze PCI 4. Tak přidejte ještě něco, co by omluvilo tohle nenažrané monstrum s konstrukční vadou, abyste upokojili své ego, jak je to vlastě nejskvělejší výrobek. Možná by stačilo si přiznat, že né vždy se vše podaří.

+1
+5
-1
Je komentář přínosný?

Tipnul bych si, že RTX 4090 si pořizuje méně hráčů než tvůrců obsahu. Cenový/výkonový odstup Geforce od profesionálních edicí RTX Axxxx (ty nakonec v Lovelace generaci zatím ani neexistují) je pro řadu z nich lákavý. Většina zatím pozorovaných problémů patrně spočívá v nevhodně navržených(vyrobených) redukcích, možná že v případě použití přímých 12VHPWR kabelů problémy ubydou.

+1
0
-1
Je komentář přínosný?

To je jedno. Beztak bude zase 3-4x víc prodaných nV karet, protože... já vlastně ani důvod nevím, ale je to tak. Tohle slyším od každého, kdo chce koupit grafiku, možná tak jeden z 10 chce rovnou AMD, další dva/tři si aspoň vyslechnou argumenty a ti ostatní si stejně koupí nV a tečka - a věřím tomu, že i kdyby nakrásně byla 7900XTX o 50% výkonnější, měla o 50% nižší spotřebu a byla o 50% levnější, tak by si ti lidi stejně tu kartu s GPU od nV koupili. Důvod neznám, prostě to tak je.

+1
+2
-1
Je komentář přínosný?

Na to ti odpovím jednoduše. Volby, Apple.... atd. Je to stádní chování + kus frajeřiny, bez kouska vlastní invence si něco zjistit.
Kdyby to tak nebylo, tak vlastně můžeš zavřít marketingový agentury. Prostě na někoho platí, že když tisíckrát za sebou slyší že Ariel pere lépe, jde a koupího, i kdyby nakrásně všechny recenze tvrdily, že nevypere vůbec nic.

+1
+11
-1
Je komentář přínosný?

A taky proto, že Nvidia podobně jako Intel mají k dispozici násobně větší výrobní kapacity než AMD.

+1
-5
-1
Je komentář přínosný?

Ten duvod je jednoduchy. NVIDIA je prakticky one-product (GPU) company (pomineme-li Mellanox akvizici) a tomu odpovidaji smerovane investice/usili/vize/podpora. Proti tomu je AMD i vyrobcem GPU a kdyz je pro ne nevyhodne vyrabet GPU (mala marze/mm2), da se prednost CPU/APU. Jake procento z ceny vykompezuje rozdil pridane hodnoty (proti cistemu vykon/cena)?

+1
0
-1
Je komentář přínosný?

Lazar:
4090 nebo obecně jakákoliv NV grafika je lepší na práci než jakýkoliv Radeon??
A proto si to lidé zase koupí...

Psssst !!!
To se říkat nesmí .

Ale jen mezi námi,
aplikace kterou mi moje grafiky občas chroupají na jednom projektu, má hezkým zpracovanou statistiku od tisíců zapojených počítačů, přičemž některé jsou ex-těžební rigy a jiné pracovní stanice s třeba 6 GPU, takže desítky tisíc grafik.
Vtipné je že i nejnovější Radeony se výkonově pohybují na úrovni 2-6 let starého HW od Nvidie xD xD
https://www.primegrid.com/gpu_list.php
Možná v případě hráčů tam sehraje svou roli nějaký psychologický efekt, jako v případě iLidí/iOvcí u Jabka

Ale když ti ta grafiky od Nvidie přinese ~3x násobné zrychlení (rtx4000)
a 1,8x víc práce na jednotku Watt v porovnání se starší generaci, tak myslím že není co řešit a vyplatí se měnit komponenty s každou generací.
Efektivita grafiky to je kategorie sama o sobě co lidé asi nikdy nepochopí i kdyby ta grafika žrala 1 celý KW tak je to jedno pokud to odvede víc práce na jednotku Wattu než předchozí generace a pokud tohle někdo má v herním desktopu, není nic jednoduššího než to omezit na PowerLimitu v době kdy to nepracuje

+1
-7
-1
Je komentář přínosný?

Ukázkový Vendor Lock-In

+1
0
-1
Je komentář přínosný?

Možná jste si toho nevšiml, ale AMD oddělila grafické a výpočetní čipy. Takže kupovat grafiku AMD, která primárně herní a v profi verzi v základu určena k zobrazování na výpočty a pak tady takto něčím argumentovat... Druhá věc, sice píšete až tisíce karet, ale v jaké zátěži? O jakou aplikaci jde, protože v jiné to může vycházet jinak, podobnou věc bez dalších dat, která to dokazují, může napsat kdokoliv a nemá to žádnou váhu.

+1
+3
-1
Je komentář přínosný?

Ani jsem na něj nereagoval, vždyť podle nicku je "hloupej" Honza. Minimálně se tak projevuje.

+1
+4
-1
Je komentář přínosný?

Ta karta tolik nežere ani když se snažíte:

https://sehnal.dev/file/gpupower.jpg

Nevím proč tak předimenzovali chladič ale na 300W tdp jede výborně.

+1
0
-1
Je komentář přínosný?

Už se těším na prezentaci, fejk grafy, vynucený potlesk, nic neříkající video z nějaký generický hry a vyfetlá koza Líza :) Třetí housle na poli gpu.

+1
-12
-1
Je komentář přínosný?

Fízl,nebo vojín? Mozek zelenej.

+1
+6
-1
Je komentář přínosný?

"""""""""len 350w""""""""""

+1
+2
-1
Je komentář přínosný?

nVdia brutálně přepálila chladiče, 4090 je dost problém dostat přes 350W i pokud člověk hodí OC a zvýší max TDP na 600. A na 300W má člověk 85% výkonu. Jak říkal deBauer, byla by to fantastická 300W karta, wtf ty chladiče. Ta pověst nenažrané svině paradoxně není moc na místě, naopak to dává stejný výkon jako 3090 při poloviční spotřebě. Možná se připravovali na Ti edici, netuším proč je to taková cihla. Společně s těmi konektory si zbytečně podělali reputaci.

+1
0
-1
Je komentář přínosný?

Čistě jako trouba, který už je 100 let za vopicema se zeptám: která hra z posledních řekněme 2 let stojí za to, aby člověk kvůli ní koupil nějakou takovouhle kartu?

+1
+6
-1
Je komentář přínosný?

Warhammer Total War 2 a 3

+1
0
-1
Je komentář přínosný?

Nejde přeci i hru... V podstatě nejde ani o to, že tu kartu někdo potřebuje. Nikdo ji nepotřebuje, dá se hrát mnohem a mnohem levněji.

Ale to my nadšenci do technologií ji chceme. Chceme výkon, který ani nepotřebujeme, něco nás k tomu táhne a je to i prospěšné. Kam by se svět IT a jiných technologií poděl, kdyby nebyl nikdo kdo by ty technologie chtěl? Mohli by jsme klidně zůstat u 4 jader pro všechny, protože to taky stačilo každému... Kdyby někdo nepřišel s vyšším výkonem a prostě ho ne nabídl, tak zůstaneme stát na místě. Dneska to jsou grafické karty, které nemají úplný smysl, nikdo je vyloženě nepotřebuje, ale za třeba 5-10 let to pro nás může být výkon low-endu nebo integrovaných grafik... Technologie musí jít někam dopředu.

+1
0
-1
Je komentář přínosný?

Úpřimně řečeno ... nevím.
New World (Amazon Game Studio) je tak špatně napsaná, že ani kombinace Top CPU + Top GPU s tím moc nenadělá. Použitelné jsou už karty řady RX 5500XT nebo GTX 1060. Ale i mnohem výkonnější s tím mají problém. Projevuje se limitace CPU (v nárazech).

Zbytek toho, co mám, šel dost dobře už na Vega 8 z Ryzen 3550U.

+1
0
-1
Je komentář přínosný?

Hi-end jde i mimo mě, ale časem bych kartu nějaké další geneace s tímto výkonem asi použil třeba i na starší tituly ve 4K a framerate 75+

+1
-1
-1
Je komentář přínosný?

To by mě taky zajímalo.
Moje GTX770 chce do důchodu, ale není k tomu důvod. Možná až vyjde Kerbal Space Program 2.
Těsně před vydáním GTA V jsem zvolil strategii "pár let pozadu" - mám pár let starý hardware, a hraju k tomu odpovídající staré hry. Výhoda je, že ten hardware je za hubičku, a ty hry mají vyladěné všechny zásadní chyby. GTA V jsem tak koupil snad až minulý rok. A zjevně i tak bylo moc brzy, ten multiplayer je prostě nepoužitelný.
GTX 770 se mnou bude zjevně tak dlouho, dokud neumře, nebo dokud neupgraduju na 4k monitory. 4x4k už podle mě nezvládne :-D

+1
+1
-1
Je komentář přínosný?

Chápu, tuhle jsem v květnu koupil RX6500XT a zhruba v čvc/srp dostal pocit viny, že tu věc za 5k fakt nepotřebuju, že by mi i nadále stačil ten HD7570. Tak jsem změřil sestavu v idle s RX6500XT i HD7570 a zjistil, že rozdíl v idle spotřebě obou karet (což je režim, ve kterém jedu většinu času) je dostatečně výrazný, aby se RX6500XT během několika let zaplatil. :-)

+1
+3
-1
Je komentář přínosný?

To je taky důvod, nad kterým se zamýšlím. Ale pomalu se v tomhle posouvám.
Ačkoli sdílím váš pohled na hardware, tak se mi nabízí ještě jiná (a podle mě lepší) alternativa.

Už jsem nevydržel v notebooku dvojjádrový Skylake a jeho GPU, a při dobré příležitosti koupil za necelých patnáct tisíc Elitebook 845 G8. A k tomu 2x16 GB paměti. A jsem z toho nadšenej.
Jednojádrový výkon to má o kotel vyšší než ten osmijádrový Xeon. To je sakra znát. Grafická karta je oproti té GTX 770 sice pomalejší, hrát se na tom moc nedá, ale jinak je to pořád zcela OK. Virtualizace Windows 10 (potřebuju je kvůli Office 365) ve Virtualboxu je (až na grafické artefakty v nabídce Start, ehm) naprosto přirozená, vůbec to nevnímám. Takže v kanceláři na jednom monitoru Linux, na druhém Windows.
A teď ta krása, jak jsme se v hardware nekutečně posunuli. Ta věc pozná, kdo jsem, jak jsem daleko, z kombinace dvou kamer. Plně akcelerované šifrování je samozřejmostí. Má NFC, možnost LTE, nabíjení přes USB-C (tzn. stačí mi najít majitele macbooku a můžeme se podělit o jeden adaptér). Je to příjemné, kovové, výdrž baterie (bez Windows) až jedna pracovní doba. Ventilátor drtivou většinu času stojí (dokud neběží Windows). Jsem z toho úplně nadšený.
Už mi rukama prošla hromada hardware, od shitu po fakt špičkové věci, velmi různého stáří (od nového po dvacet let staré), tak jsem si myslel, že mě nějaký notebook nemůže vzrušit. Ale po prvním týdnu s ním jsem si připadal jako v reklamě na musli (šťastná snídaně, sluníčko a tak).
Kdyby uměl 4 monitory, jakože určitě se k tomu nějak přesvědčit nechá (třeba displaylinkem - akcelerace mi stačí na dvou, na jednom hru, na druhém video), tak tu pracovní stanici můžu zahodit.
Je to věc, kterou můžu nosit všude s sebou v batůžku. Počítá s nonstop konektivitou (což mi vyhovuje), takže když ji ztratím, stejně mám všechno synchronizováno. A šifrováno. Doma to píchnete Type-C kabelem, usednete ke stolu a klávesnici, a pokračujete, kde jste v kanceláři skončil. Spotřeba 7W v idle (s rozsvíceným displayem), 15W s webovým prohlížečem, 37W při virtualizaci Windows a současně renderování videa. Za 14 830 Kč nebo kolik. Ok, ne každý má štěstí, že se dodavateli poplete ceník, ale podobný zážitek budete mít i s Probookem a ceníkovou cenou 17 000 Kč.
A brzy přijde doba (už deset let přijde brzy...), kdy tohle zvládneme s mobilem. Protože těch 6GB RAM a fullHD má víceméně každý trochu použitelný nový smartfoun.
Hurá, pokrok!
Zkusím tu myšlenku shrnout: Nejen, že si dneska můžu pořídit čtrnácti palcovou žiletku s výkonem stolního počítače za pětinu ceny než před patnácti lety, ale on už to není ani jen ten počítač, ale daleko univerzálnější zařízení.

Jo a dá se to celé připojit jedním kabelem. Sériový port to pochopitelně nemá, nemá to ani ethernet - protože ethernet (respektive RJ-45) tohoto zařízení není s prominutím hoden, a to říkám jako síťař :-D
Udělali jsme v hardware pokrok. Nejenom ve gigahercích. Tohle je jiná třída zařízení než notebook podobné kategorie z roku 2010. Je to kříženec mobilu a pracovní stanice.

A pak to zapnete, a zjistíte, že máte úplně stejné softwarové problémy jako před dvaceti lety. Například Teamsy žerou 20% výkonu počítače (jako Skype před patnácti lety) nebo se po upgradu z 22.04 na 22.10 (kdy je v jádře 5.19 konečně plná podpora toho procesoru) rozbije virtualbox, protože nemá podepsané jaderné moduly; to mi vážně zkazilo den; ale v půlce léta jsem třeba po upgradu nabootoval s bílým textem na bílém pozadí, to byla oproti tomu alespoň legrace. Dostáváme pořád chybové hlášky, které nic neříkají. Tisková služba ve Windows se kouše a je třeba ji restartovat stejně jako v roce 99. Inkscape startuje s malým okénkem a myslí si, že je maximalizovaný. Když chci v Kdenlive jen zrychlit video, musím se porvat s hromadou na první pohled nesrozumitelných dialogů, zatímco v návodu najdu informaci, že mám použít "Transformaci" - a hle, ta je tam dvakrát, a hned pod sebou. Ve Windows se občas zasekne zasunutý panel, vysunutý panel, otevřená/zavřená nabídka Start, když si zobrazím ikonky u hodin, tak mi jich hromada zmizí, jak se to aktualizuje; a dokonce se člověk pořád může potkat se zaseknutým zvukem ve smyčce nebo "rozmazaným oknem"... pořád stejné problémy, ten software neumí o tolik více než tehdy, a ani jeho použitelnost není zásadně lepší.
Tohle uvědomění mě fakt zklamalo. Jste v roce 95 a koukáte na svoje budoucí já z roku 2022. Z pohledu fyzické techniky žijeme ve sci-fi. Z pohledu softwaru jsme k smíchu.

+1
+1
-1
Je komentář přínosný?

Tak přeplácanost KDE aplikací z hlediska možností a funkčnosti GUI je v podstatě trademark, to píšu jako někdo, kdo už řadu měsíců používá KDE (Plasma 5.20 v Mageie) přiohnutí do vzhledu GNOME snažíce se současně moc se nevrtat v nastaveních (neb ve chvíli, kdy funguje tmavý vzhled v LibreOffice bezchybně, je člověk, rád že kvůli tomu už nemusí rituálně obětovat jehně za současného předříkávání Otčenáše pozpátku). MS Teams je kapitolou samo o sobě, přicházím s tímhle redmondským vesmírem do styku každý pracovní den a lamentuji na to stejně často. No co, stále stejně neschopný Microsoft, to je také konstanta.

S tím hardware máte svatou pravdu, je to neskutečné (ehm, momentálně přežívám reklamaci telefonu se 7let starým 28nm 1GB/8GB droidem 6.0 a raději bych si nechyl denně trhat nehty než v tom pokračoval dál :-)). Jen jednu výtku k vám mám: opravdu jste v říjnu nahradil 22.04.něco za čerstvé 22.10? To se přece ví, že je poukázka na průůůůů...ehm. :-) Bejval bych chvíli počkal, zdali se to ustálí, nebo mezitím přijde HWE do LTS větve.

+1
+1
-1
Je komentář přínosný?

Ach ano, přesně tenhle upgrade v tento čas. S vědomím, že se to nepovede. A ono se to povedlo. Na první pohled. Ten virtualbox jsem potřeboval až druhý den... a fakt mě to vypeklo.
Byly doby, kdy jsem nosil dva notebooky. Jeden pro práci, druhý s Windows. Protože fakt nechcete přijít na jednání, kde se předvedete jako ajťák, co nerozběhá projektor. Přesně tak jsem si ten den připadal. Potřebuji pro práci MS Excel, alternativa není (a to mám Calc raději), a já byl celý den ajťák bez excelu. Ještě že mám ještě pro případy nouze terminálový server s ne tak úplně legálními Office 2007.
Ono zase když koupíte Ryzen v podstatě končící generace, tak očekáváte, že aktuální Ubuntu si s ním poradí, ale nemělo plnou podporu. A "plná podpora", to při takovém nadšení z hardwaru chcete, ať už to znamená cokoli (tady hlavně řízení spotřeby). A než si kompilovat jádro, to jsem raději přešel. Ale nedošlo mi, že přecházím z LTS.

Taky do nastavení raději moc nesahám. Teď používám KDE, předtím asi MATE i Gnome 3, je mi to tak nějak jedno. Ale přesně jak píšete, raději do toho nešťourat. Pamatuju začátek KDE 4, to mě vyškolilo. A ta absurdita na Windows! Virtualbox má patrně chybu v grafice (už hezkých pár let), takže nefunguje průhlednost ve W10. Abyste ji ve Windows mohl vypnout, musíte do toho jejich Nastavení. Ale to se zasekne ve fázi "objevování", kdy používá průhlednost, a už s ním nehnete. Řešením je vypnout 3D akceleraci, to se ve Virtualboxu udělá snadno. Ale na fyzickém hardware by to mohla být legrace.

A ještě jeden postřeh; RDP na Linuxu sice dělá pokroky, ale pořád je lepší si místo Remminy nainstaloval virtuální W10 a použít nativního klienta tam odsud. A když máte takové hardwarové prostředky, jako je čtyřjádrový Ryzen s 32 GB RAM, tak vlastně proč ne.

Omlouvám se za dlouhé příspěvky, ale zase si říkám, že jsem toho od vás taky dost přečetl, a číst to nikoho nenutím :)

+1
+1
-1
Je komentář přínosný?

>ve Virtualboxu je (až na grafické artefakty v nabídce Start, ehm)

Možná používáte v guestu 3D akceleraci. Stačí ji vypnout a artefakty v grafice zmizí. Jedinej "problém" pak je, že ve Windows 11 nefungují kulaté rohy (chce pro ně "výkonnou" GPU). Jdou ale vynutit v registru: HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\Dwm, ForceEffectMode=dword:0x00000002

K RDP: Většina (všechny?) linuxových klientů neumí akcelerovat přenos, jedou jen nejstarší verzi protokolu někdy z Windows NT4. Nicméně zajímavost: některé umí h264 přenos, krásně plynule update celé plochy (je to vlastně jako si pustit video na Youtube). Tj. ten režim, kdy na vzdáleném PC můžete používat např. 3D akceleraci. Myslím, že se jmenuje RemoteFX. Testoval jsem to na cloudu Amazon AWS, že jsem si pronajal VM s Windows a 3D kartou NVidia a provozoval 3D software v OpenGL, který vyžadoval GPU.

+1
0
-1
Je komentář přínosný?

Tohle jsem kdysi zkoušel s Windows Server 2012 (bez GPU), když jsem se o RemoteFX dočetl, a už tehdy to Remmina (nebo co jsem to používal za RDP klienta) měla umět, v nastavení to bylo. Ale nerozběhal jsem to.

+1
0
-1
Je komentář přínosný?

Z mainstreamu nic. Od malých a středních vývojářů výchází hry jako například Hell Let Loose. Tedy určité specifické téma, pokud to hraješ, určitě se nový hardware vyplatí.

+1
0
-1
Je komentář přínosný?

CyberPunk 2077

+1
0
-1
Je komentář přínosný?

Cyberpunk ma ten "problem", ze je robeny pre nvidie, nie pre graficke karty

+1
0
-1
Je komentář přínosný?

Ale většina dGPU je Nvidie, tak to není problém, ne?

+1
0
-1
Je komentář přínosný?

A ty iGPU, např. APU od AMD, desítky milionů těchto čipů u hráčů?

+1
0
-1
Je komentář přínosný?

iGPU není moc na hraní. Ty od AMD trochu jo, ale ten poměr prodaných proti těm od Intelu je tak obrovský, že výrobci her často hodí všechny iGPU do jednoho pytle.

+1
0
-1
Je komentář přínosný?

Eeeee asi tě úplně minul trh s herními konzolemi. Zajímavé :D

+1
0
-1
Je komentář přínosný?

Eeeee asi tě úplně minula klíčová slova v tomto vlákně: Nvidia, dGPU. Zajímavé :D

+1
0
-1
Je komentář přínosný?

Ty vlákno. Ty jsi tady plácnul blbost a ještě se bráníš. Tak si do toho započítej konzole a přestaň kličkovat. Kdyby tě slyšel Fiala, tak z tebe udělá dezinformátora a ruskýho švába. Ale já nejsem Fiala a jen ti doporučuji, doplň si informace, než něco plácneš, ty vlákno. Jsi mi fakt rozesmál.

+1
0
-1
Je komentář přínosný?

Konzole započítává uni a autor vlákna nejsem, jestli teda mluvíš na mě (tohle začali uni a skaven).

+1
0
-1
Je komentář přínosný?

Ty asi nejsi nejostřejší tužka v penále co?
Téma je, že skaven udělal kousavou (do značné míry ale oprávněnou) poznámku o tom, že CB77 technicky padl na oltář nVidie (protože jak víme, je to prostě kurvítko). A na to byla neadekvátní reakce tvoje, že herní trh = nVidia. No a pak jsi se v tom začal více a více topit.

+1
0
-1
Je komentář přínosný?

Ty jsi asi trochu retard, tak popořadě (každý si přece může odskrolovat nahoru, že): V čem byla moje reakce neadekvátní? Ta firma tvoří primárně na PC a pro dedikované grafiky.

+1
0
-1
Je komentář přínosný?

A ani to není pravda ;)

+1
0
-1
Je komentář přínosný?

Jen dál potvrzuj, co jsem napsal. Jak jinak bys hodnotil, že plná grafika (RT) je jen na Nvidii a na AMD grafikách ani na konzolích ne? Mimochodem tohle je první hra, kde kašlali na zástupná světla pro režim bez RT, takže ta hra tam má o dost tmavší scény (jako např dřív ,když jsi v Quake 3 na kartách bez multitexturingu neviděl lightmapy).

+1
-1
-1
Je komentář přínosný?

Konzole započítává Uni a to je správně. Ty jsi je hodlal ignorovat a ještě se o tom hádat a předhazovat, že vlákno je o ničem jiném. Mě je úplně putna, o čem je vlákno, jen mám rád pořádek v názorech a případné chyby diskutujících, se snažím uvést na pravou míru, pokud vím skutečnost. Takže to platí i o tbě a o tom že NV grafik je nejvíc. Naopak, s podílem na trhu jich je nejméně, pokud do toho započítáme i iGPU. Pokud ne, tak jsou stále druzí. V konzolích není iGPU, takže nejvíc grafik je od AMD, nikoliv NV.

+1
0
-1
Je komentář přínosný?

A ty jsi taky trochu retard, tak popořadě (každý si přece může odskrolovat nahoru, že): Ta firma tvoří primárně na PC a pro dedikované grafiky. Ano, vidím, že tobě je putna, o čem je vlákno - ale očividně ti to nebrání se vyjadřovat. Nvidie je skutečně nejvíce dGPU grafik, viz prodeje nebo Steam stats. Zajímá mě iGPU, když na něm zmiňovaný Cyberpunk 2077 neběží? Možná Low na 30, no tos mi to nandal. A ten závěr? Ukaž mi konzoli, která nemá iGPU. Taky mám rád pořádek v názorech a případné chyby diskutujících se snažím uvést na pravou míru, pokud vím skutečnost.

+1
0
-1
Je komentář přínosný?

Konzole APU, nikoliv iGPU. Ale ty prostě stále vedeš svou a snažíš se urážet ostatní diskutující, což znamená konec diskuze s tebou.

+1
0
-1
Je komentář přínosný?

APU bez přívlastku = iGPU. To, že je v případě konzole iGPU část větší než CPU část, je pro pojmenování jedno. Ale ty prostě stále vedeš svou a snažíš se urážet ostatní diskutující, což znamená konec diskuze s tebou.

+1
0
-1
Je komentář přínosný?

Zbytocne sa hadate. Cele to zacal nezmyselnym tvrdenim skaven, z ktoreho vyplyva ako keby GPU od NV neboli graficke karty. Asi chcel naznacit, ze Cyberpunk bol tvoreny iba pre NV, co je tiez mimo reality. Pre PC verziu akurat spolupracovali s NV na implementacii RT a DLSS, ale konzolove verzie nemali preco s NV riesit. Ladis ma ale pravdu, ze v PC a dedikovanych grafikach je proste NV dominantna. AMD je zasa dominantna v konzolovom trhu (do ktoreho patri aj Nintendo, kde ma zasa HW NV) a ten sa s PC predsa takto neporovnava. V konzolach su APU a nie dedikovane graficke karty. Kym sa AMD nepodarilo (po prave) ziskat konzolovy trh, tak to ani nikto nedaval dokopy s tym PCckovym. To zacali takto spajat iba niektori fanATIci, aby si tak vytvorili argument, ze AMD ovlada herny trh.

+1
+1
-1
Je komentář přínosný?

Asi jako když linuxáci počítají do marketshare i Android. Koneckonců Switch s NV GPU v prodejích překonal PS5 a Xbox dohromady, takže ani započítání konzolí jim v argumentaci nepomůže.

+1
-1
-1
Je komentář přínosný?

Myslis od vydania novych generacii konzol, ze sa predalo viac Switchov ako PS5 a XboX Series S/X? To neviem. Ale pamatam si, ze sa Switchov predalo viac ako Xboxov minulej generacie. PS ale bolo stale predanych viac. Myslim, ze PS4 a PS4 Pro malo predanych 120m kusov.

+1
0
-1
Je komentář přínosný?

On je spíš (vy)robený na hov*** a tak tlačí DLSS aby to aspoň nějak jelo. Jinak super hra, to souhlasím. Ale těším se až kluci přejdou na Unreal.

+1
0
-1
Je komentář přínosný?

Hodně mě bavil Dying Light 2, který ještě na 3090 jede dost na prd ale na 4090 opravdu září. Vypadá to jako debilní parkour ale mix průzkumu, bojů a story nebyl ve výsledku vůbec špatný. Ale opravdu záleží podle vašeho gusta.

+1
0
-1
Je komentář přínosný?

7800* dostupné až v decembri, takže predpokladám vyšší mainstream/mainstream marec/apríl, čo pre mňa znamená ešte minimálne 4 mesiace čakania s núdzovou grafikou. A som netrpezlivý kúpiť novú 6700XT alebo 6800XT z bazáru.

+1
0
-1
Je komentář přínosný?

A je to tady takže výkon 7900XTX má být jen 1,7x proti 6950XT a TBP 355W při ceně 999USD, tzn. lehce přesahující 30.000,- Kč vč. DPH. A model XT s TBP 300W je na tom s cenou jen o 100 dolarů nižší.

Celkově cítím zklamání, TDP/TBP je fajn, ale výkon nenaplnil očekávání a konkurenci spíš jen dotahuje...

+1
0
-1
Je komentář přínosný?

ale dotahuje to cenou, ked bude asi o cosi vykonnejsi ako 4080_16, ale o 200/300$ lacnejsi

+1
+1
-1
Je komentář přínosný?

Proti 4080 bude 7900 lepší volba. Počkáme si raději na nezávislé testy. Cenový rozdíl bych čekal menší, ale možná je výroba čipletového GPU o tolik levnější, že ten rozdíl tak vychází. A nebo AMD na poslední chvíli cenu stáhlo, když zjistili, že na 4090 nemají výkonem.

+1
0
-1
Je komentář přínosný?

Takže jinak řečeno, podle téhle spekulace bude 7900XTX +- stejně výkonná jako 4090, bude mít o 100W nižší spotřebu a bude o 600$ levnější? To by teda bylo opravdu velké zklamání...

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.