Výtěžnost v procentech nebo denzita defektů? Rozhodně nejde o totéž.
Ke zprávě o katastrofické (~10%) výtěžnosti procesu Intel 18A se vyjádřil bývalý CEO společnosti Pat Gelsinger s myšlenkou, že:
…mluvit o výtěžnosti v procentech není vhodné. Velké čipy mají nižší výtěžnost, menší čipy vyšší procentuální výtěžnost. Kdokoli používá procenta výtěžnosti jako metriku stavu výrobního procesu bez definování velikosti jádra, nerozumí výtěžnosti výroby. Výtěžnost je reprezentována počtem defektů na plochu… --- Pat Gelsinger |
Vyjádření je sice rámcově v pořádku, ale opomíjí (a těžko říct, zda účelově či nikoli) několik zásadních skutečností. Tou první je fakt, že v počátcích výroby na novém procesu nevznikají velká jádra, ale buďto malé SoC nebo čiplety. Pokud je tedy řeč o 10% výtěžnosti, tak i když nemáme informaci o přesných rozměrech čipu, který této výtěžnosti dosáhl, rámcový kontext k dispozici je. Ať už by 10% výtěžnosti bylo dosaženo na 75mm², 150mm² nebo 225mm² čipu, nic to nezmění na skutečnosti, že proces v takovém stavu je z hlediska rentability nepoužitelný pro výrobu jakéhokoli komerčního čipu nebo čipletu a bude trvat poměrně dlouho, než se výtěžnost dostane na rentabilní úroveň.
Za druhé nelze klást rovnítko mezi výtěžnost výroby a denzitu defektů (četnost defektů na jednotku plochy) se zohledněním plochy čipu. Četnost defektů je totiž je jednou z proměnných, která rozhoduje o výtěžnosti. Těmi dalšími (krom zmíněné plochy) jsou i další vlastnosti procesu, respektive rozdíl mezi parametry specifikovanými výrobcem a reálnými vlastnostmi vyrobených čipů.
Těmi mohou být leakage (proudové úniky) a od nich se odvíjející spotřeba, dále třeba dosažitelné frekvence, ale i další (ne vždy očekávatelné) vlastnosti. Připomeňme, že s leakage měl problém například proces TSMC 80nm HS. Sice dokázal dosahovat poměrně vysokých taktů, které se od něj v dané době očekávaly, ale leakage byla mnohem vyšší, než TSMC avizovala. Čipů, které dosahovaly očekávaných parametrů, bylo minimum, a tak se proces úspěchu nedočkal.
Jiným příkladem může být 110nm proces TSMC, který zase neměl problém s leakage, ale s dosažitelnými takty (a byl možná důvodem, proč 80nm HS dopadl, jak dopadl - TSMC se při jeho vývoje nejspíš soustředila právě na největší slabinu 110nm procesu - takty - ale už ne na další aspekty). 110nm proces (podobně jako 80nm HS) netrpěl na vysokou úroveň defektů, ale většina vyrobených čipů nedosahovala specifikovaných taktů. Pro masově vyráběné produkty musely být frekvence nastaveny podstatní níž než u starší 130nm generace a byly v podstatě srovnatelné s tím, co nabízela 180nm generace. Důsledkem bylo, že první 110nm produkt, Radeon X700 XT, kterému ATi v souladu s papírovými parametry procesu nastavila takt 475 MHz, byl prakticky nedostupný, neboť se ukázalo, že tuto hodnotu zvládá jen zanedbatelné množství vyrobených čipů. Ostatní produkty, které vzešly za 110nm linek, proto běžely na podstatně nižších taktech kolem 400 MHz. TSMC byla nucena výrazně snížit cenu procesu.
V továrně Intelu (Intel)
Třetí příklad ilustruje, že i s minimální denzitou defektů, nízkou leakage a vysokými takty pořád nemusí být výtěžnost výroby dobrá. Týká se ještě o trochu starší éry a to počátků výroby TSMC s použitím low-K dielektrika. To TSMC zavedla na 130nm generaci a zprvu se zdálo být velmi úspěšné. Čipy zvládaly vysoké takty při nízké spotřebě, počet defektů na plochu nasazení low-K dielektrika nijak zásadně neovlivnilo. První (řekněme zkušební) 130nm low-K čip, který se dostal na trh, vypadal dobře: mainstreamový Radeon 9600 XT dosahoval vysokých taktů a spotřeba byla nízká. Když však došlo na výrobu další generace high-endu na tomto procesu, Radeonů X800 XT, byly dodávky nízké, karty bylo zprvu obtížné sehnat a mluvilo se o špatné výtěžnosti. Problém však nebyl ani v defektech, ani v dosažitelnosti taktů, ani v leakage. Substráty, které pro 130nm low-K proces TSMC použila, způsobily, že výsledné čipy byly podstatně křehčí než bylo do té doby obvyklé. U malého RV360 / Radeon 9600 XT to ještě nepředstavovalo zásadní problém, ale u většího čipu R420 použitého na Radeonech X800 XT to problém byl. Čipy se při manipulaci po rozřezání waferu rozpadaly (lámaly a praskaly) a úspěšného zapouzdření se dožil málokterý.
Tolik k příkladům prvků, které mohou ovlivňovat procentuální výtěžnost výroby nad rámec četnosti defektů.
Co konkrétně způsobuje, že se situace s procesem Intel 18A vyvíjí tak, jak se vyvíjí, veřejně známo není. Snaha vytvořit dojem, že je vše v pořádku, neboť četnost defektů není vysoká a hodnocení výtěžnosti procenty není spravedlivé, je však nemístná. Nejen proto, že výtěžnost může být ovlivněna i dalšími prvky než je četnost defektů. Zejména proto, že růžový obrázek o procesu nekoresponduje se známými fakty a to, že (1) Intel vlastní proces 18A pro vlastní procesor Lunar Lake nepoužil a objednal namísto toho 3nm technologii TSMC, dále že (2) nasazení procesu 18A odložil o celý rok (ačkoli dlouho tvrdil, že přípravy jsou v několikaměsíčním předstihu), (3) pro další produkty objednává 2nm výrobu u TSMC a (4) Broadcom výrobu na procesu Intel 18A po vyhodnocení vzorků z důvodu nízké výtěžnosti odmítl a není známý žádný jiný výrobce, který by měl v dohledné době vydat produkt na procesu Intel 18A postavený.
Nemá smysl řešit, zda je stav procesu Intel 18A způsoben četností defektů nebo jinými problémy, které spadají do významově širšího termínu „výtěžnost“. K tomu není dostatek informací. Víme však, že Intel nedosáhl vlastních cílů a reálné vlastnosti procesu (ať už jim budeme říkat jakkoli) dosud neoslovily žádného známého zákazníka.