Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 3090 Super: 450W TDP a nový napájecí konektor

Z čehož asi plyne, že nové Nvidie nejen, že budou žrát jak lokomotiva, ale ještě budou potřebovat speciálně pro ně navržené zdroje? Nebo to bude nový standard pro PCIe 5?

+1
+1
-1
Je komentář přínosný?

Mne to prijde spis jako nejaka prasarna od NVidie, PCIe5 melo byt kompatibilni s predchozima rozhranima, takze by novy zdroj potreba nemel byt.

+1
0
-1
Je komentář přínosný?

Vtip je v tom, že, podľa únikov, aj RDNA3 má mať 400-450W a nVidia Lovelace má mať spotrebu 600W.

Teda nie je pomenovaná podľa Ady, ale z výrazu I (do not) Love lace.

lace - šňůra (do bot)
https://www.slovnik.cz/

Akurát ide o šnúru do zásuvky a nie do topánok. :)))

+1
-5
-1
Je komentář přínosný?

Ak dobre viem, obaja výrobcovia by chceli u ďalšej gen. 2násobný výkon a to s TDP do 250W nepôjde ani na 5nm procese.

+1
+1
-1
Je komentář přínosný?

šlo by to obří čip/mGPU a nízké takty, ale ještě x dražší GPU by jen tak někdo nekoupil :)

+1
0
-1
Je komentář přínosný?

na tohle by mohla jít i kotlíková dotace (mám koupit kotel za 150 litrů a nebo si zatopit a ještě provádět nějaké ty výpočty/gemblit) :D

+1
+2
-1
Je komentář přínosný?

Nechutne velka, velice nenazrana a silne prodrazena, generace Ampere je cisty fail.

+1
+1
-1
Je komentář přínosný?

Píšeš o ofiko cenách, alebo o reálnych? 1000 USD za high-end sa nedá považovať za príliš (RTX 3090 si kúpia len blázni ako Prušak) ah jeď všetci hráči by boli radi, keby stála 700 USD.

+1
+1
-1
Je komentář přínosný?

3090 si koupí dost fandů, kolik lidí dnes kupuje karty kolem 30 tisíc a to nejsou ani high end. Karty jako 3090 jsou krom profi segmentu také segmentem entuziastů kteří ceny HW neřeší, prostě koupí to nej. Ono ta cena není zas tak velká. Pokud člověk žije ve větším městě, náklady na slušný život (nájem bytu/domu, auto s pojištěním i provozem, zdravotní pojištění, služby jako telefon, internet, jídlo..) ho stojí 50 tisíc dolarů ročně a vydělává 65-80 tisíc za rok, tak těch 15 stovek nebo dnes spíše 2.5-3 tisíce unese pokud je to to něco po čem touží.

+1
-11
-1
Je komentář přínosný?

Božemůj to jsi zas vypustil lejno. Lidi kupují co je k dostání. Pokud si myslíš že bude 3090 za ceníkovou cenu samostatně tak to je na návštěvu lékaře.

+1
+4
-1
Je komentář přínosný?

Koľko ľudí má u nás príjem 5400 - 6666 USD/mesiac? Teda ak nepíšeš o LA. Tam je ozaj základ 4000, nie je problém tam mať aj 5000+ USD/mesiac.

+1
+2
-1
Je komentář přínosný?

Njn holt v NV zaspali a AMD a jejich infinity cache je proste energeticky efektivnejsi reseni, navic lze pouzit bezne ddr6 pameti s nizkou cenou i spotrebou a vysledek je lepsi nez kdyz NV pouzila klasicky design s pametmi 19ghz ktere maji o hodne vyssi potrebu i cenu a i cele GPU mozna i diky 8nm litografii samsungu je mene energo efektivni. AMD s tou kesi uhodila hrebik na hlavicku, jsem zvedav co vymysli v Nv aby RDNA3 dotahli/prekonali vykonem. Proklamovana TDP novych GPU jsou dost silena tedy, to uchladit v pc bez upeceni karty bude hodne tezke, podle me 350-400w uz je hodne na hrane v zavrene skrini pc.

+1
0
-1
Je komentář přínosný?

1. ?. 1. 2021 - isto RTX 3090 Ti nebola vydaná pred 9 mesiacmi
2. ako je možné, že RTX 3090 má 24 čipov? To sú 2 čipy pripojené na jednu 32bitovú zbernicu? Neexistujú dnes aj 4 GB GDDR6(X) čipy?
3. akým chladičom chcú uchladiť 450 W? 4slotovým?
4. škoda, že do starších zostáv sa nechystá nič. Hneď by som bral náhradu GTX 1050. Ťažiari by ju snáď neskúpili a tak by aj staršie PC mohli mať podporu AV1 a NVENC kde CPU veľmi napr. v Handbrake nestíha.

+1
-1
-1
Je komentář přínosný?

ad 2:
- pokud jsou pameti na obou stranach desky, tak se jedna o "clamshell" design, kdy se datova cast 16-bit GDDRX6 rozhrani rozdeli na 2x 8 bit a tyto dva bajty pak jdou do ruznych pametovych cipu - jedna se o synchronni "dual channel" (ridici cast je spojena paralelne, primo). Timto se dosahuje zdvojnasobeni kapacity.

ad 4:
- co treba nejake mensi Quadro - treba RTX A2000 ?

+1
+2
-1
Je komentář přínosný?

Ad 2: 384 bit / 24 čipov = 16 bit a keďže píšeš o akoby dualchannel, potom ide o 32 bit (ak dobre viem, stále je to tak) s pripojením 2 čipov. T.j. nie 2x8 bit.
Ad 4: GK za 450 $ (na zero.sk 604,67 €)? To myslíš vážne? Neblázni. To radšej kúpim GTX 1050 na bazosi (chýba mi hlavne NVENC), alebo by som šiel do RTX 3050 aj keď na moje použitie doslova kanón na vrabce. Príp. by som najradšej šiel do nového PC s R5 5600G a ten má aj CPU výkon aj podporu AV1 aj AMD VCE. Do PC s reálnou cenou ani nie 150€ nedám 604€ za GK. 6 GB VRAM mi nechýba a ani podpora ECC (za čo by som samoz. zaplatil).

+1
-1
-1
Je komentář přínosný?

Ad 2: nastuduj si varianty GDDRx a co znamena "clamshell" design.

GDDR5 bylo 32bit, s moznosti pouzivat jen 16 bit pro vrchni cip a 16 bit ze spodniho.
GDDR6 se rozdelilo na 2x16 bit per package, a pouziva 8 a 8 pro vrchni cip, a 8 a 8 pro spodni (ze dvou ruznych 16 bit kanalu).

Takze stary GDDR5 grafiky maji 384/32 = 12 pametovych kanalu, novy GDDR6 grafiky maji 384/(16*2) = 12 *paru* pametovych kanalu. Ale protoze pouzdra GDDR6 chodi vzdy s parem rozhrani, lichy pocet techto 16-bit rozhrani nejspis nikdy nikdy neuvede.

Ten posun GDDR5 --> 6 je stejny posun jako DDR4 --> 5, rozpuleni pametoveho kanalu prichazi se zdvojnasobenim ridiciho rozhrani = ve vysledku vetsi command rate a takove to.. "iops".

U clamshell design se puli datova cesta - jednak proto, ze pouzdra jsou az zbytecne siroka (2x16=32bit), druhak proto, ze na tistaku neni dost mista na vsechny ridici rozhrani, takze tyhle draty vedou jen jednou - a pak pameti jsou na obou stranach desky.

Ad 4: tak jestli chces levnou AV1 ... nabizi se imaginarni DG1 :-)

+1
+3
-1
Je komentář přínosný?

Dík za vysvetlenie.
Ako som už písal, viac mi chýba NVENC/VCE a mohol by som ísť do GTX 1050, do nového PC so Zen 3 APU, alebo do RX 550.

+1
-1
-1
Je komentář přínosný?

no pokud to bude mit az 600w tak to aby k tomu dodavali ext. chladic z auta ktery se bud montovat na zed budovy z venku :-D Ale zas bude jednodussi s par kartami v rigu krasne vytapet barak do podlahovky :)

+1
+1
-1
Je komentář přínosný?

tipuji ze tak 1/3 az 1/2 z toho narustu TDP jde na vrub pametem.... 19.5 bylo hodne mirne pretaktovane, 21ghz uz je 10.5% narust...

+1
+1
-1
Je komentář přínosný?

Neušetrí sa časť spotreby polovičným počtom VRAM čipov?

+1
+1
-1
Je komentář přínosný?

Ano proto rikam ze design AMD je vyrazne pokrocilejsi, infinity cache resi vsecko evidentne i predikcni obvody ktere prednacitaji data do cache funguji dost deobre a hitrate cache je hodne dobrej, je to levne na vyrobu energeticky usporne, neni potreba drahe a zrave ddr6x a poskytne to stejny nebo vyssi vykon nez ddr6x. Tohle se hodne povedlo a jestli RDNA3 bude mit 512 MB cache pripadne se sirsim pripojenim, vice SP ten vykon muze byt obrovsky a efektivita reseni bude jeste vice znat nez ted, NV je ve slepe ulicce klasicky design pameti tomuhle proste nemuze konkurovat.. musi pouzit drahe pameti ktere zerou vsecko spatne a vykon neni tak dobry a efektivita je spatna a pokud to budou resit HBM tak to asi take neresi problem, nebo jen castecne a HBM jsou co vim dost drahe, AMD tohle vyresila skvele a zvetseni IFC na RDNA3 to jeste vice ukaze. Spotreba sla nahoru hlavne kvuli ohromnym poctum SP jednotek a RT, aby karty nejak rozumne rozhybaly 4K rozliseni a aktualni top kartty ho rozhybou tak tak .. urcite ne 144hz. To mozna az ty co teprve vyjdou ale pokud bude spotreba a cena karet jeste vyssi nez je ted coz bude tak si myslim ze se spousta gameru 4K vyhne a bude pouzivat radeji QHD coz je zlaty stred a me to teda bohate staci a vystacim si s 1070ti :)

+1
-1
-1
Je komentář přínosný?

Vidím to tak, že za pár let budeme mít ve skříni 2 zdroje, jeden jenom pro grafiku a druhý na ten zbytek.

+1
0
-1
Je komentář přínosný?

A nejlépe elektrárnu hned vedle :)

+1
+1
-1
Je komentář přínosný?

Zacinam chapat, proc je v tom Dell T3640 MT rovnou 1000W zdroj :)

+1
0
-1
Je komentář přínosný?

Ja to vidím tak že za pár rokov väčšina hráčov prejde na konzole a Pc zostane pre potreby ľudí ktorí využívajú na prácu a pod.

+1
0
-1
Je komentář přínosný?

Tak doufejme, že udělají lepší napájecí kaskádu na kartě, než na současných 3090

+1
+1
-1
Je komentář přínosný?

Nebylo by lepší v těchto případech udělat externí zdroj a pojit ho přímo do karty z venku?

+1
0
-1
Je komentář přínosný?

Nvidia rovnako ako Intel narazili na omedzenia svojich súčasných technológii. Pretaktovanie na úkor výraznej spotreby nie je cesta.

+1
+2
-1
Je komentář přínosný?

presne tak, ale AMD ma vyhodu v IFC coz NV nepouziva a mozna kvuli patentum ani nemuze nevim, v kazdem pripade je to efektivnejsi reseni a i litografie 7nm od tsmc je vykonejsi/uspornejsi nez 8nm samsung. Jsem zvedavy co NV vymysli aby vyresili nevyhodu jejich klasickeho designu. IFC je nejvetsi pokrok v designu GPU za poslednich minimalne 10 let. Pak uz dalsi zvyseni efektivity je na optimalizaci architektury a vyrobnich procesech, ktere sice pokroci za par let ale bude to za vyrazne vyssi ceny nez aktualni 7nm - 14nm.

+1
0
-1
Je komentář přínosný?

Doba fermi je zpět. Nevím jestli je v dnešní době bezpečné takovými kartami provokovat úředníky v naší ekofašistické unii. Ještě se toho chytnou a bude po srandě.

+1
+1
-1
Je komentář přínosný?

kdyz omezili vysavace tak proc ne GPU, proste limit na domacnost 200W na gpu a nazdar :-D Kdo chce silnejsi GPU bude platit eko odpustky :-D

+1
+1
-1
Je komentář přínosný?

Pak není nic jednoduššího označit stávající "idle" režim jako defaultní při 3W a pak umožnit uživateli si kartu přetaktovat dle potřeby na 600W. ....asi si to nechám patentovat :-)

+1
+3
-1
Je komentář přínosný?

Intel. Teď tu byl. Museli jste se minout.

+1
+15
-1
Je komentář přínosný?

+1

+1
0
-1
Je komentář přínosný?

+1

+1
0
-1
Je komentář přínosný?

Valdenští byli u nás první co hořeli na hranicích, majitelé těchto monster hořet nebudou, budou utopeni jako koťata. Topení nevytváří mnoho největšího nepřítele vesmíru - CO2 a bublinky se dají posbírat.

+1
-1
-1
Je komentář přínosný?

Já bych se přimlouval, aby sama karta brala napájení rovnou 230V :-) Konektory by stačily citelně subtilnější a třeba taky pracovní zem primáru by byla galvanicky oddělená od společné signálové země uvnitř karty a počítače, takže by nebylo třeba se obávat švidrání společné země uvnitř šasi, když jí teče řádově 40A apod. A s ohledem na teplo by mi přišlo důstojné, aby karta zabírala tak 4 PCI sloty. Vemte si, jaký průtok vzduchu má napájecí zdroj, jehož tepelná ztráta je třeba 15% reálného odběru celého počítače, vs. karta která co sežere, to musí vyzářit jako teplo...

+1
0
-1
Je komentář přínosný?

nVidia, toto nebol navod!!!

https://youtu.be/0frNP0qzxQc

+1
+5
-1
Je komentář přínosný?

no tvle, tohle jsem neznal, teď jsem fakt trapnej na veřejnosti! :-DDD Dávám palec nahoru tady i na YT.

+1
0
-1
Je komentář přínosný?

dobra recese :)
Spousta lidi to klidne vezme vazne :D

+1
0
-1
Je komentář přínosný?

Na podobnou notu byly videa i dříve:

https://www.youtube.com/watch?v=_3iHV0NvLPI

+1
0
-1
Je komentář přínosný?

Nojo, začínám chápat ten odklon od SLI... nedejbože 3 až 4-Way SLI. Nadruhou stranu by se to už dalo reálně použít na ohřev vody v domácnosti. :)

+1
0
-1
Je komentář přínosný?

Však 4 tyhle karty těžící krypto a je to výkon průměrné slabší elektrické patrony. 2.5kW je naprosto pohoda :D.

+1
0
-1
Je komentář přínosný?

Už se na ni třepu karta za 80k se spotřebou 500w+.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.