Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel vydal grafiky Xe: První se jmenuje Iris Xe MAX

Hmm, to je jako když si vezmete krásnou praktickou ženu a dostanete k ní tchýni do bytu zdarma. Sice vám třeba zvedne úroveň úklidu o 22%, ale za ty vynaložené náklady a starosti se to nevyplatí. :D

+1
+22
-1
Je komentář přínosný?

Jo kdyby to vykonove aspon tech 22% bylo...
..ale neni :)

+1
+3
-1
Je komentář přínosný?

Best case scenario :))

+1
0
-1
Je komentář přínosný?

K více než čtyřjádrovému Ryzenu pěkná kancelářská karta. :-)

+1
-2
-1
Je komentář přínosný?

Prvni dostupny test..na Intel slusne, vzhledem ke konkurenci a stari jejich porovnavanych architektur, ale celkem slabota. Za mne nic moc,
https://www.purepc.pl/test-acer-swift-3x-premiera-karty-intel-iris-xe-ma...
Zaver, ale at si udela kazdy rozumny jedinec sam ;)

+1
+2
-1
Je komentář přínosný?

zas taková bída to není, ale sláva taky ne :) nechápu proč tam nedali normální paměti, když už je to dedikovaná karta

+1
+5
-1
Je komentář přínosný?

Třeba to GPU nemá paměťový řadič na GDDR5/GDDR6 paměti. Nebo třeba je to stylem jako AMD 12nm IO čiplet ve formě X570 chipsetu. Tedy je to Tiger Lake, co má deaktivované vše kromě GPU :D

+1
+11
-1
Je komentář přínosný?

No já bych se ani nedivil. Ale potom nechápu, co tam Koduri 2,5 roku dělá :-D

+1
0
-1
Je komentář přínosný?

Dle NoXe trvá vývoj GPU (v AMD) 4 roky, tj. má ještě 1,5 roku čas.

+1
0
-1
Je komentář přínosný?

V této souvislosti Karáši, a v souvislosti s odkazovaným testem mě zaujalo, kterej vlastně ten čip na tom Tiger Lake je grafika, ten menší nebo ten větší? Každopádně jsou to tři různé čipy. No a to, že u některých her ta dedikovaná Xe prohrává s integrovanou Xe, to už je jen takový Intel inside kolorit...

https://www.purepc.pl/image/artykul/2020/10/31_test_acer_swift_3x_premie...

+1
0
-1
Je komentář přínosný?

To byl spší takový fór. GPU je IMHO ten čip vlevo, ten vpravo kde jsou dva je CPU s iGPU + vedle bydlí PCH. Je možné si u Intelu objednat samotné CPU s iGPU a PCH jako samostatný čip. Ani není moc překvapivé, že je to přídavné GPU velké, nejspíš má dost podobnou výbavu jako CPU část, jen bez těch CPU jader.

+1
0
-1
Je komentář přínosný?

no kdyz se vykaslu na 3d marky, tak to moc zazrak neni.. 28w cpu s tdp limitem 50-60 wattu, 25w samostatny gpu, celkem tak 50-70 wattu a vykon to ma 10-15% nad integrovanou grafikou 35w ryzenu.. dyt to je stejnej fail jako to iris-pro, nebo jak rikali ty integrovany grafice s l4 cache za haswellu..

+1
+7
-1
Je komentář přínosný?

proc fail ? Ja s tim na hry typu WoT apd byl spokojenej ( u Broadwellu), jen ted uz jsem presel na na APU 4750 tam sel vykon jeste dal...

+1
+1
-1
Je komentář přínosný?

protoze to melo vykon jak apu od amd, ale stalo to 2-3x vic.. kdyz si clovek koupil obyc procak a k tomu low-end grafiku, mel lepsi pomer cena vykon i lepsi vykon..

+1
+3
-1
Je komentář přínosný?

V notebooku těžko.

+1
-1
-1
Je komentář přínosný?

andrew pise o broadwellu, ty vysly prvorade pro desktop.. 65w..
https://ark.intel.com/content/www/us/en/ark/products/88040/intel-core-i7...

mobilni iris pro byly neskutecne predrazeny, i tam vyslo vyhodnejc obyc cpu plus nejlevnejsi samostatna grafarna..

+1
+1
-1
Je komentář přínosný?

tak, myslel jsem desktop ... u ntb nejen nedostupne, ale cpalo se do do modelu ntb co byly cenove out :-( , coz byla skoda ....a pritom ta eDRAM nebyla myslim pro to iGPU krucialni - vykonove pomahala to jo ale nebyly to myslim propastny rozdily, tzn kdyby do tech ntb(mobile cpu) davali Iris bez eDRAM , tak by to mohlo byt fajn

+1
0
-1
Je komentář přínosný?

.. po strance gpu mozna tj. +/- stejne ( i kdyz v dobe uvedeni Iris Pro 6200 v integr. gpu myslim nejaky cas kralovala) ... ale cpu bylo v te dobe od AMD fakt bida- tj Broadwell CPU bylo fajn proti tehdejsimu AMD

+1
0
-1
Je komentář přínosný?

Ty výsledky mi ve srovnání s integrovanou grafikou přijdou slabé.
Na to, že ta grafika má vyšší takt, vlastní paměť a TDP, je navýšení výkonu spíš symbolické.

Podle těch testů hlavní výhoda dedikované verze proti integrované nebyl ani tak lepší grafický výkon, jako lepší procesorový výkon (zřejmě dedikovaná grafika uvolnila ruce procesoru).

+1
+4
-1
Je komentář přínosný?

Dá se na to dívat i jinak. Když si uvědomíš, jaká slabota ve srovnání s konkurencí byly předchozí integrované grafiky a hlavně jak dlouho, a srovnáš to s tímhle (což Koduri dokázal za kolik? 2 roky?) ... tak se nutně musíš ptát, co tam celá ta léta dělali jeho předchůdci (poslední samostatný grafický čip od Intelu z roku cca 1997 si pamatuju na nějaké průmyslové desce od Advantechu, pak už to byly všechno jen S3ky na základní desce nebo nVidie / ATI na kartách do slotů), a kdo a proč to rozhodnutí udělal.
Od Intel HD, která se významně nezměnila od Ivy Bridge, k aktuální Xe je to dost veliký skok a klíčový je právě ten rozdíl proti výchozímu stavu než rozdíl proti aktuální špičce, protože AFAIK neprezentovali, že by měli ambice je dohnat tak rychle. Co si pamatuju, chtěli do 3 let dorovnat Radeony integrované v Ryzenech.
Takže za mě jako příslib budoucího rozvoje dobrý.

+1
0
-1
Je komentář přínosný?

Pry prvni... a co treba i740?

+1
+2
-1
Je komentář přínosný?

Jo... i740 byla kromě toho použitelnější. I když... kvalita ovladačů taky nic moc

+1
0
-1
Je komentář přínosný?

Autor ví, že nejde o první grafiky Intelu a proto to taky nikde nepsal.

+1
0
-1
Je komentář přínosný?

No když už chcete mluvit o první intel grafice, tak bych spíše než o i740 mluvil o čipu 82720 z roku 1983.... ;-)

+1
+1
-1
Je komentář přínosný?

Hahah, Intel XANAX, dobry :))

+1
+3
-1
Je komentář přínosný?

1. ak tomu chápem dobre, tak IGP TDP zdieľa, takže pri max vyťažení APU by malo mať nižší výkon ako IGP v podobe dedikovanej GK. Je tak? 2. prečo by tá grafika nemohla mať GDDR6? Kvôli nedostatočnému výkonu, alebo GDDR6 žerie priveľa?

+1
0
-1
Je komentář přínosný?

Jednoduše proto, že Intel v tom návrhu čipu nemá GDDR6 řadič. Vytáhly IGP na samostatnou kartu ale přidat GDDR znamená předělat řadič v tom čipu. Kdoví jestli intel vůbec umí GDDR řadič, když to nikde jinde nemají.

+1
+1
-1
Je komentář přínosný?

me to prijde, ze je to chytak na nooby.. proste bfus jsou zvykli ze diskretni grafarna v notebooku znamena nejakej herni vykon, takze se nekdo chyti.. intelu vubec nejde o vykon, vubec nejde o ovladace, nejde o to aby o davalo smysl.. jde jim jen o to, aby meli v notebooku dalsi cip, za kterej jim nekdo zaplati..

+1
+13
-1
Je komentář přínosný?

Ale teď mají grafiky od Intelu v notebooku rovnou dvě! whoa!

+1
+9
-1
Je komentář přínosný?

Jako, ze ode dneška je možné mit dvě sady úplně nezávislých bezpečnostních chyb ?

+1
+6
-1
Je komentář přínosný?

Jen dvě a není to málo Antone Pavloviči? Třeba tam půjde dát ty čipy tři či čtyři!

+1
+3
-1
Je komentář přínosný?

Clustered VGA... paráda

+1
0
-1
Je komentář přínosný?

Podle mě bylo cílem vyšachovat z laciných notebooků s diskrétníma grafikama Nvidii (a i trochu toho AMDčka). Nic víc.

+1
0
-1
Je komentář přínosný?

... a to se jim může povést, pokud jim na to výrobci skočí. Jen se podívejme na Dell a jeho adopci Ryzenů ...

+1
0
-1
Je komentář přínosný?

Dell neni jen "Intel pozitivni", ale spis "Intel infekcni". Je to specialni pripad.
HP, Lenovo, Asus, Acer jsou v adopci AMD podstatne pruznejsi

+1
0
-1
Je komentář přínosný?

Podívejte se, Intel je leader na poli mikroprocesorů a dalších moderních technologií, tedy nemá smysl podnikovým zákazníkům nabízet neprověřený hardware někoho jiného, zákazníci chtějí kvalitu, spolehlivost a výkon pod značkou Intel. Intel je značka.

+1
+1
-1
Je komentář přínosný?

Amen to that ;)

+1
0
-1
Je komentář přínosný?

Jojo a proto je taky nejlepší zůstat u 14 max 10nm :0)

+1
0
-1
Je komentář přínosný?

presne a preto u Dell sa oplati ostat u Sandt bridge :-)

+1
0
-1
Je komentář přínosný?

Takze to budu teraz notebooky s 2 GPU od intelu alebo ako to mame chapat?
To sa im to nezmestilo na ten jeden kus SOC plosaku?

Alebo to planuju ako neake dev kity? :)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.