Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Panther Lake vypadá na 5,1 GHz pro CPU a 2,5 GHz pro GPU

Cili:

-zadnych 8P jader, dokonce fousata konfigurace se 2 coz je na rok 2025 vysoce trapne
-vykonnou Xe3 nabidne jenom nejdrazsi model coz je opet fail
-zadne prinavraceni technologie SMT / HT a tudiz doplneni o AVX-512

Secteno, potrzeno, je to vojeb, pridomek X to podtrhuje.

+1
+6
-1
Je komentář přínosný?

Neměl bych obavy o výkon v absolutním měřítku, ten konečně bude jinde než s Lunar Lake. Spotřeba bude pravděpodobně velmi dobrá. Ale výkonnostní posun oproti současnosným produktům a poměr cena / výkon už bude jiná kapitola.

+1
+2
-1
Je komentář přínosný?

> vykonnou Xe3 nabidne jenom nejdrazsi model coz je opet fail

Tohle je důvod, proč "highend" integrované grafiky Intelu nedávají smysl. Zabugované ovladače jako lowend Intel iGPU (stejný ovladač a jádra, jen jich je více), oficiální ne-podpora pro konkrétní hry, půlroční zpoždění backportu vylepšení z dedikovaných, které ale stejně končí... Nikdo si nepřiplatí. Narozdíl od toho, když tam pak bude NVidia GPU čiplet. A v lowendu můžou dát "ARMovou" iGPU, funkčně a výkonově stejné jako lowend Intel iGPU. Ušetří platy za 90 % vývojářů v grafickém oddělení. Smlouva s NVidií může být třeba na 10 let, a kdo ví, jestli pak bude ještě existovat x86 nebo Intel. Komoditního HW nebo IP (Intelectual Propety) bude dyžtak na trhu dost na výběr.

+1
-4
-1
Je komentář přínosný?

Pro Nvidii je to výhodné hned 3×:

1. Ztratí konkurenta.
2. Získá zákazníka.
3. Zabitím vývoje GPU Intelu si zajistí, že Intel nepřijde s konkurenceschopným GPGPU řešením, které by mohlo Nvidii konkurovat v segmentu akcelerátorů.

Intel tím získá jen z krátkodobého hlediska - za pár let bude mít použitelnou grafickou dlaždici. Jenže dlouhodobě to pro Intel znamená samé nevýhody. Financuje svého konkurenta, zastavením vývoje samostatných GPU se vzdává naděje prorazit ve výkonných AI akcelerátorech, které by ho mohly postavit ekonomicky na nohy. Aby toho nebylo málo, tak se stává závislým na Nvidii. Pokud Nvidia za pár let řekne, že ve spolupráci bude pokračovat jen při podstatně vyšších cenách, zbývají Intelu jen tři možnosti - utrhnout si ty vícenáklady z vlastních marží, nechat to zaplatit zákazníka a prodávat předražené produkty, nebo vysadit výkonné integrované grafiky a přijít o konkurenceschopnost.

+1
+4
-1
Je komentář přínosný?

Intel konkurent nikdy nebyl. V lowend iGPU máš na výběr spoustu jiných, z ARMového světa. V highendových Intel nebyl už asi 20 let. Vývoj GPU v Intelu je zabitý už dávno. Chytří lidi odešli, stávající Indové se v tom matlaj a výsledky nikde. To už je lepší pak koupit načisto nějaký funkční startup. Intel tím z krátkodobého hlediska získá silné ořezání nákladů, peníze na rozhazování už došly. AI akcelerátory skončily jako nesplněný sen už před nedávnými rozhodnutími. Bublina je teď na vrcholu, takže vypadá lákavě, ale odteď už bude jen stagnovat (neříkám, že praskne). Trh se konsoliduje, nemá smysl propálit desítky miliard a přijít s křížkem po funuse s produktem o 20 % horším než konkurenti (kdyby jen). Postupné zdražení je definováno ve smlouvě a dyžtak pro highend zas zvolí AMD, s jeho čipletem už má zkušenosti.

EDIT:
> naděje prorazit ve výkonných AI akcelerátorech, které by ho mohly postavit ekonomicky na nohy.

Naděje umírá poslední. Ale nalejme si čistého vína. Intel vydělává a hodně. Ale musí oříznout tuk, který ho táhne dolů. Továrny, ve kterých sám nevyrábí a nikdo jiný nechce. Dotace státu ani nepokryjí jejich ztráty. Integrované grafiky za trest. Dedikované s 0% marketshare. Serverové nikde.

EDIT 2: Intel stále funguje v AI akcelerátorech v podobě CPU s AVX-512 s instrukcemi pro AI učení a největší velikostí RAM, které jde k jakémukoli čipu připojit. První verze AI modelů je neoptimalizovaná, až v dalších levelech se vejde do serverových GPU (a nakonec do herních).

+1
-2
-1
Je komentář přínosný?

Intel Nvidii vnímá jako konkurenci přinejmenším 12 let. Už s vydáním Sandy Bridge a Ivy Bridge, když zvýšili výkon integrovaných grafik a Nvidii se podařilo vetřít do prakticky každého notebooku s Intelem a vpašovat tam alespon nějakou malou GeForce, to Intel vnímal tak, že jim Nvidia parazituje na platformě. Namísto toho, aby zákazník zaplatil 30 tisíc za notebook a peníze z většiny komponent šly Intelu, šla část z těcht 30 tisíc Nvidii. Další krok byly akcelerátory Nvidie. Zatímco do té doby byly superpočítače postavené z valné části čistě na procesorech, najednou začala čím dál větší část z rozpočtu na servery a superpočítač ukusovat Nvidia. Totéž v desktopu. Zatímco procesor býval nejdražší komponentou, najednou zákazníci nemají problém dát $1000 nebo $2000 za GPU, ale $1000 za procesor Intelu nechce dát nikdo. Výrobci nemusejí mít v nabídce identický hardware, aby si konkurovali.

+1
+2
-1
Je komentář přínosný?

Kdyby intel skutecne nechtel MK-kove prilepky v podobe malinkatych GPU NVIDIE na noteboocich tak jak rikas, mel silu na to aby vyrobce jednoduse donutil je na notebooky postavene prave na kombu intel + chipset jednoduse nepridavat, o tomhle me nepresvedci nik, naopak intel kombem svůj procesor a GPU NVIDIA jen ziskal, na lidi to zabralo a kdyz si clovek nerozesral system, tak skutecne iGPU bezelo na vse mimo hry(prodlouzila se vydrz) a lidi si natom i zahrali(i kdyz omezene a hlavne starsi tituly), jen v jedinem pripadu to byla hovadina, kdyz se to naparovalo s Pentiem / Celeronem N, to byly totiz atomove vojeby a tomuhle reseni nepomohl ani SSD disk, ani 16GB RAM ani jiz zminovana GPU, tecka.

+1
+1
-1
Je komentář přínosný?

Přesně tak. Kamarád potřeboval výpočty, tak zvolil notebook Intel+NVidia místo (silného) AMD APU (ROCm mi padal i v přesně té správné verzi té správné distribuce jediné jakože podporované). Intel s NVidií vůbec nebojoval, např. nedostatečná verze HDMI (znám lidi, co koupil s GeForce MX dGPU jen kvůli HDMI).

+1
-1
-1
Je komentář přínosný?

Asi máš pravdu, že noťasy Intel + NVidia byly výhodné pro obě strany, ale to přeci neznamená, že Intel a NVidia nejsou konkurenti.
no-X má jednoznačně pravdu.
Bude se poptávat superpočítač. Kdo dá nabídky?
AMD má celkové řešení s procesory i grafikami, rozuměj výpočetními jednotkami.
NVidia také má nebo v blízké době bude mít celkové řešení, bude to stavět na ARM platformě s vlastní výpočetní silou.
Intel nemá celkové řešení, má procesory, má grafiku jako zobrazovadlo, ale nemá výpočetní sílu, kterou může nabídnout AMD a NVidia. Takže to začne dělat tak, že mu tu výpočetní sílu bude dodávat NVidia.

Co z toho plyne, když vyhraje Intel, bude z toho mít zisk i NVidia. Když vyhraje NVidia, bude z toho mít zisk NVidia. A všimni si, že dobrá situace není ani pro AMD, která bude mít zisk jen, když vyhrají oni. Jako vetřít se do Intelu, byl další Huangův mistrovský kousek, dlouhodobě výhodné je to jen pro NVidii.

+1
+2
-1
Je komentář přínosný?

Mě furt nedává smysl ten systém tří druhů jader, ne dvou, ale tří...
Máme to už v Meteorech a testeři to i testovali a ty dvě ultra mikro malé jádra nebo co to je nikdy nic nedělaly. :)
Chápu princip na co tam jsou, ale smysl je prapodivný..
A teď mikro malých jadérek už zase víc - 4 :)

+1
+3
-1
Je komentář přínosný?

Víc druhů jader, víc adidas. Příště už budou čtyři! :-)

+1
+2
-1
Je komentář přínosný?

Snad to u titan lake(pokud něco jako titan lake vyjde) to vrátí na jeden typ jader

+1
0
-1
Je komentář přínosný?

Tak u mobilů už taky kolikrát najdeš tři druhy jader.
Teoreticky by to zvýšení na 4 mohlo zabrat, že už to zvládne obsloužit ten základní provoz systému a nebude se zbytečně budit zbytek, ale to by nás tom musel zapracovat i M$... V zařízení na baterku to zní smysluplně, pokud to opravdu funguje.

+1
0
-1
Je komentář přínosný?

U mobilů jsem měl za to, že jsou dva druhy, “p-cores” a právě tyhle ultra malinké blešky na obsluhu OS a programu na pozadí..

Jinak Intelu to údajně moc nefunguje. Už nevím která redakce, ale zkoumali zatížení těch “blech” a v zmádné situaci se nedopídili jiného výsledku než že - nezatíženo

+1
0
-1
Je komentář přínosný?

V mobilu je dnes třeba čtveřice jedno X jádro a 3 P jádra a druhá čtveřice 4 malá jádra. V mainstreamu je místo X jádra jedno ze 4 P jader nataktováno více. Nemají dynamické takty, protože to žere tranzistory a spotřeba je menší, když se jádro probudí, udělá práci na plný výkon, a pak uspí, než aby furt jelo na menší frekvenci a napětí. V úsporném režimu se celá čtveřice velkých jader vypne. Všechny mají stejné instrukce, takže přehazování procesů je no-brainer. I to vypínání je po blocích jader a ne po jednom. Nějaký blbnutí s dynamickým laděním výkonu mělo smysl, když byly 1-2 jádra.

Pro zajímavost, historický ThinkPad laptop ještě od IBM ve verzi s 4jádrovým procesorem MIPS, kvůli lokálnímu vývoji pro nějaké jejich servery, fungoval tak, že jedno jádro mělo dynamicky frekvenci a 3 jádra pouze zapnuto/vypnuto. Takže úsporné jedno jádro, a jak potřebuješ víc výkonu, tak mu dává větší takt a postupně přidává další jádra.

+1
-1
-1
Je komentář přínosný?

Tak třeba Exynos 2500
1xCortex®-X925 3.3 GHz
2xCortex®-A725x2 2.74 GHz
5xCortex®-A725x5 2.36 GHz
2xCortex®-A520x2 1.8 GHz
Tři druhy jader a dokonce čtyři úrovně výkonu.
Jen to musí fungovat na straně sheduleru a SW aby základní procesy, kde to nemusí být hned, nedostávaly příliš vysokou prioritu a nebudily zbytečně ta výkonná játra...
Když tam budou 4 atomy na 2-2,5GHz tak by to běžný provoz v prohlížeči mohlo utáhnout a zbytek budit jen když se opravdu něco začne díť...

+1
0
-1
Je komentář přínosný?

Exynosy zrovna moc úspěšné nebyly. Stejně tak ten jeden Mediatek Helios se třemi typy jader. Ani Android si s tím moc neporadí, resp. hlavu neláme. Vždyť je to přece opensource, tak ať si to lidi doprogramujou 😅

+1
-1
-1
Je komentář přínosný?

První co mě napadlo, jinak i některé snapdragony, Dimensity 9... Takže úplná kuriozita to není, jen by se to muselo muselo dotáhnout, aby si s tím někdo tu hlavu lámal a i v reálu to fungovalo jak bylo plánováno.

+1
0
-1
Je komentář přínosný?

Fígl je ten, že stačí na krabici napsat, jak je to skvělý, a ani není třeba, aby to fungovalo. Jak pro běžném používání poznáš, že ty jádra používá efektivně? Stejně se většina Android telefonů do půl roku znatelně zpomalí.

+1
0
-1
Je komentář přínosný?

Tak ten nápis vyjde trochu levněji, to je pravda a slova jako optimalizace by v dnešní době mohli i někoho urazit...
Při běžném méně náročném využívání by jsi to že to funguje měl poznat na ukazateli baterie, kvůli tomu nejspíše ti výrobci toto řešení navrhli. Dokonce i v případě Intelu a těch LP-E core, běžná E dělá jen proto že mu z plochy dají více výkonu než P.

+1
0
-1
Je komentář přínosný?

>> Když tam budou 4 atomy na 2-2,5GHz tak by to běžný provoz v prohlížeči mohlo utáhnout

Ten se povedl.
:)

+1
+1
-1
Je komentář přínosný?

to budu aspon n2600 atomy (z 2008)?

+1
0
-1
Je komentář přínosný?

Najdou se určitě i lepší, třeba že AMD už si tu změnu fyzikálních zákonů nechalo schválit, aby už vzorky mohly běhat na nedosažitelných 6,4GHz...

Takové N100, kde je o dvě generace starší architektura, nebo moje R5 2500U která je výkonem na podobné úrovni, taky ten prohlížeč zvládnou a na pomoc jim žádná další játra nepřijdou... Dokonce pro hodně náročné existuje N50 s dvěma atomy...

+1
0
-1
Je komentář přínosný?

Problém je, že tohle se musí řešit na úrovni operačního systému. Mám otevřený firefox s celkem nenaročným prohlížením a má otevřených 14 vláken a to nepočítám ostatní programy včetně systémových. Takže by tam musel být superúsporný režim, který by ty vlákna nepustil na jiná jádra, dokud by ty superúsporný nebyly využity napříkla na 70% a uživatel by musel být srozuměn s pomalejší odezvou.

+1
+1
-1
Je komentář přínosný?

Ve Win11 se k lizu nedostanou nikdy, ten systém nikdy nespí. 🙂
U jiných OS (Linux) by to možná mohlo klapnout.

+1
+1
-1
Je komentář přínosný?

To je fakt, Jedenáctky jsou o dost náročnější na CPU než Desítky. Mám jeden KabyLake notebook dvojjádro (těsně než Intel zdvojnásobil počet jader), a je to pekelný.

+1
+1
-1
Je komentář přínosný?

X9 388H bude rychlejší než 386SX
Fajn svět je normální.
Ale co 386DX?
Na dobré desce s 128kB cache.
A když se využije koprocesor 80387SX
Nevím, nevím.

+1
-1
-1
Je komentář přínosný?

Původně jsem myslel, že další evoluce Raptora bez malých šmejdů a zbytečně velkého iGPU je už překonaná, ale tyhle Intelí zoufalosti mě přesvědčily o opaku. Takový RaptorEVO ultrablackedition 8jádro 6,4 GHz by byl aspoň levný a pro většinu programů víc než dostatečný a to včetně všech 4-6jádrových zmetků. Tohle bude drahé a stejně bude AMD lepší. Holt americká vláda nakoupí další podíl...

+1
-2
-1
Je komentář přínosný?

1) chce to čtyřjádro !
2) frekvence po kterých paseš jsou holý nesmysl.
Tě nebapadlo, proč se asi dal i Sandy z roku 2011 přetaktovat klidně k 5GHz, a i dnes jsou třeba jen o 1.5GHz vyšší frekvence běžně na vzduchu naprosto nedosažitelné??? I s 350W..
Není ti na tom nic divného??
Jak jsi dával fyziku na střední?

+1
0
-1
Je komentář přínosný?

Mirda chodil na střední :-D
Tak ten se povedl.
Mam jeste lepsi:
Nekrm Mogwaie ani trolla po půlnoci!

+1
+1
-1
Je komentář přínosný?

6,4 GHz a levný. Jen to chlazení bude půlka váhy notebooku.

+1
+1
-1
Je komentář přínosný?

Jeho zástupce v parlamentu předloží pozměnňovací návrh k něktrerým fyzikálním zákonům.

+1
+4
-1
Je komentář přínosný?

OT:
Nedavno som kupil mini PC z aliexpresu Topton FU03 s Ryzen 7640HS. Je za 6160 Kc po odpocitani zlavy ktora je tam kazdy druhy tyzden. Ale k tomu este + 350Kc vypalne ceskej poste za zastupovanie na colnici a + 200 Kc DPH za postovne ktore sice bolo zadarmo ale podla nich to ma hodnotu 1000 Kc. https://www.aliexpress.com/item/1005008100784586.html + k tomu 32GB DDR5 5600 z bazaru za 1000 Kc a M.2 NVME co som nasiel doma. Skrinka je cela hlinikova, nema to blower chladic ale 9cm ventilator na vrchu ktory ale vydaval klikaci zvuk i na nizkych otackach. Tak som tam namontoval 140mm Arctic P14 PWM a znizil otacky na cca 300-400rpm. Berie to 80W v hre v plnej zatazi, uchladi to na 80 stupnov a ziaden hluk. Fotka tu: https://ibb.co/VWqgHZpv Druhy ventilator 8cm je dnu na spodnej strane a vyfukuje vzduch smerom dole (i ten klikal tak som ho vyhodil a odmontoval i predny a zadny panel lebo NVME daval 80 stupnov bez ventilatora) ale da sa nahradit za ARCTIC P8 Slim. Konektory pre ventilatory do dosky su Picoblade 1.25mm 4-pin, takze je treba spajat kabliky aby to fungovalo. Voltaz pre ventilatory je 5V a to zvladaju asi len ventilatory od Arcticu, lebo maju startovaciu voltaz 3.8V. Vymenil som i pastu za PTM7950 thermal pad.
Bolo treba i vypnut STAPM v biose podla tohto navodu https://www.reddit.com/r/HX99G/comments/1dda54i/optional_bios_setting_di... aby to neznizovalo power limit a nesekalo v hre. Niekto ten mini PC i rozmontoval a poslal video: https://www.youtube.com/watch?v=P3hcIbkAnqM
Za tych par korun je to super. :)

+1
0
-1
Je komentář přínosný?

Za tie prachy uz asi slo zohnat aj nieco poriadne, nie? :) A nebolo treba carovat s cinskym drakom.

+1
0
-1
Je komentář přínosný?

Co napriklad? Musi to byt male tiche mini pc s Windows, ktore viem preniest v batohu a napojim na velky monitor. Notebooky su zas vsetky hlucne a stoja od 25k Kc. Na doma mam zase normalne PC, ktore ma otacky do 500rpm.

+1
0
-1
Je komentář přínosný?

Porovnatelne mini PC ktore nemusis modovat je Asrock DeskMini X600 + Ryzen 8600G + 32GB DDR5 + chladic Thermalright AXP90-X47 + wifi karta = 11500 Kc a otacky mas ~1200 rpm.
Pre 300-500 rpm musis znizit celkovu spotrebu na cca 45-65W.
Moj stal 8000 Kc a zvladne 80W.

+1
0
-1
Je komentář přínosný?

OK, nevedel som, ze ultraprenosnost je poziadavka, nie uchylka :)

Ja mam nejaky AM4rkovy desktop s komponentami, ktore dnes v bazari asi nebudu mat cenu cez 6000 v bedni ~40x40x8cm s ruckou. Tie moje komponenty su overkill, lebo v tej masine je cez 4TB storage a 32 jadier, cize by to asi slo splasit aj lacnejsie (len miniITX dosky su dost unobtanium na bazari).

Problem je ale v tom ze nieco co je velke 40x40x8 cm je podstatne horsie prenosne, nez nejake miniPC.

+1
0
-1
Je komentář přínosný?

Do AM4 by som nesiel i kvoli iGPU, 8600G je v hrach o 70% nad 5700G.

+1
0
-1
Je komentář přínosný?

No, ked tak pozeram na tie konfiguracie, tak to su minimalne dve konfiguracie "procesorovej dlazdice". Jedna s 12EU Xe a druha orezana. Bol by som prekvapeny, keby bola vytaznost procesu tak mizerna, ze by pocitali s tym, ze odpisu kremik na 3/4 plochy grafiky na vacsine predanych kusov.

Lenze tam nekoncime, podobna uvaha sa da urobit pri E-core, ktorych je bud 8, alebo 0. To dava uz minimalne 3 konfiguracie procesorovej dlazdice.

No a potom je este otazne, ako vznikne verzia s 2P core, ci to bude najnizsia konfiguracia, ktora bude inac plne aktivna, ale vypnu sa dve jadra, alebo to bude samostatna, 4. konfiguracia procesorovej dlazdice.

Ja si tipem, ze nie. Takze v Inteli budu na 5 produktov pouzivat 4 rozne konfiguracie procesorovej dlazdice. Oni tu chipletovu vyrobu vobec nepochopili. Stale to konfiguruju ako keby to bol monolit.

+1
0
-1
Je komentář přínosný?

Tak AMD má dvě "dlaždice" které taky používá v mnoha konfiguracích, některé CCD mají vypnuto 7 z 8 jader...
Ono i při dobré výtěžnosti kdy třeba 90% čipů bude plně funkčních, u 5% budeš muset vypnout nějaké jádro a zbytek vyhodíš, protože to trefí něco zásadního, nebudou všechny čipy stejně kvalitní.
Pak by jsi musel omezit všechny na parametry těch nejhorších, což se používalo dříve a proto šly některé kousky tak zázračně taktovat. To máš lepší ty hodně povedené prodat za premium cenu jako třeba KS, ty pouze povedené prodat jako model v plné konfiguraci ale nižší frekvenci. Ty co mají horší leak, tam by jsi musel jít s frekvencí hodně dolů, nebo vypneš nějaké to jádro a můžeš nastavit frekvenci jen mírně nižší. Takhle zužitkuješ skoro všechno.
A hlavně navrhnout nový čiplet s méně jádry stojí ranec, takže ušetřit třeba 15% křemíku za 4+0 bude mít při této velikosti návratnost na desítkách milionech kusech a může jim finančně vycházet lepší jet jen tu jednu dlaždici.
U té GPU (což má být extra dlaždice) kde budeš vypínat 3/4 SP se dostaneš na možná poloviční velikost a tam už se 2 různé křemíky vyplatí a čekal bych že i budou, zvláště kdyby je zužitkovali i v nějakých variantách nova lake.

+1
0
-1
Je komentář přínosný?

"Ono i při dobré výtěžnosti"

Lenze to pri procese 18A ani 14A nie je validny predpoklad.

A to meni celu matematiku. Navyse AMD ma v tych cipletoch v podstate len jadra. (Ak sa najde chyba v zdielanych komponentoch, je cely chiplet na odpis).

Tu su tri dimenzie - P-core, E-core a grafika.

Takze ciplet napr. moze mat uplne dobru grafaren, ale ma odpecene hoc len jedno E-jadro a taky kremik uz automaticky pada do triedy lowendu.

AMD to jedno jadro vypne, spoji dva take kremiky, vypne este dalsie dve jadra s najhorsimi parametrami a preda to ako 12-jadrovy high-end.

Povedal by som, ze pri slabej vytaznosti pouziteho procesu a nastaveni parametrov finalnych produktov tak, ze vela vyrobnych defektov sposobi pri binningu presun produktu do kategorie lowendu tam tych dlazdic musi existovat viac typov. A asi viac nez len 2.

To by nevydalo na 50% marzu.

+1
0
-1
Je komentář přínosný?

GPU má být zvlášť a i jinde mluví o dvou různých dlaždicích s tím že střední třída bude mít aktivních třeba jen 10 bloků.
Když bude v čudu pár E, tak dle modelů v tabulce, to prodají jako U a časem se určitě objeví nějaká varianta 4+4+4 ať už jako top model U, nebo střední třída H.
To co dělá AMD holt přijde až s nova lake.

I při té vysoké výtěžnosti budeš mít stále několik desítek procent čipů, které jako hiend neprodáš, při té špatné na tom budeš ještě hůře a tím menší smysl dává investovat vyšší desítky milionů$ do nového návrhu. To má smysl až ve chvíli kdy budeš mít ohromné objemy a výtěžnost aspoň normální. Tři měl raptor jako monolit, ale ten musel pokrýt celou nabídku od ntb s 1+4 po top model 8+16. Toto je mířeno jen na ntb a ještě jen část trhu jako předtím Lunar...

+1
0
-1
Je komentář přínosný?

A sakra, moj mozog je este stale zaseknuty v tom, ze grafika je na procesorovej dlazdici.

Serem ja na cely Intel, len to zo mna robi confused Pikachu.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.