Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia: CPU v AI končí, jejich potenciál byl vyčerpán. AI není bublinou.

Breaking: firma, jejíž hodnota závisí na bublině, tvrdí, že bublina není bublina a navíc že jejich produkty nejdou v bublině, co není bublina, nahradit.

+1
+22
-1
Je komentář přínosný?

Segment poroste, jestli v horizontu 5 let, to nevím, klidně pro mě za mě. Ale nejdřív přijde korekce a vyčištění trhu. Stejně jako dot com bublina vs dnešek.

+1
+4
-1
Je komentář přínosný?

"Nvidia: CPU v AI končí, jejich potenciál byl vyčerpán. AI není bublinou."

Přeložim do češtiny :
Konkurence v CPU končí, potenciál byl vyčerpán (nějaká konkurence nám nebude brát kšefty).
AI neni bublina, protože mi na tom vyděláváme.
Až na tom nevyděláme, pak vám řekneme že IA je bublina.
S pozdravem Nvidia.

+1
+11
-1
Je komentář přínosný?

Tak ještě aby to netvrdila. Dá se říct že tohle říkat dokonce musí. :D Kdyby vyráběli CPU, bude říkat že CPU čeká ještě zářná budoucnost v AI. :D :)

+1
+7
-1
Je komentář přínosný?

Zrovna v tomhle bodě má pravdu. Pokud mám výpočet, co jde celý nacpat a efektivně paralelizovat na GPU, je to fakticky extrémně výhodné. Nvidia o tom ví už dobrých 20 let, proto si dává záležet na tom, aby se CUDA držela jako industry standard (byť se podpora HIP a ROCm jako celku rozšiřuje, pořád to CUDA válcuje, zejména čím víc je daná aplikace "niche").

Čistě prakticky - dělám molekulovou dynamiku a když si srovnám výkon na cenově ekvivalentních CPU a GPU, jsou GPU výkonnostně o řád jinde. V ML je to pak ještě citelnější.

Nesouhlasím s tím, že AI není bublina. Naprostej souhlas ale s faktem, že pokud se daná aplikace dá offloadovat na GPU, plynou z toho významné výkonnostní benefity a že CUDA tady vládne všem.

+1
+1
-1
Je komentář přínosný?

ja ai nepotrebujem ku svojmu zivotu -cize ja do toho svoje love nedam
+ak toto ma na sebe nejaky vyrobok uvedene ze to ma "ai" -tak mna to demotivuje vobec kupovat
& uprednostim pri kupe vyrobky bez takejto znacky

+1
0
-1
Je komentář přínosný?

AI prostoupí takové téměř jakýkoliv obor, který používá počítač. Zrovna včera jsem s kolegyní probiral, jak moc by usnadnila lékařům kódování diagnóz a výkonů. Ušetří čas, pomůže lépe ohodnotit práci a zlepší datamining. Při tom taková blbost.

+1
+2
-1
Je komentář přínosný?

A predne AI uz tu davno je, mnoho desitek let. Jen se ted opravdu rozjela, protoze HW konecne zvlada i netrivialni ulohy a je dostatek dat na trenovani.

Vlastne to slo postupne. Rozeznavani obrazu -> OCR -> naskenovani a prevedeni vetsiny knih do textu -> jazykove modely.

+1
0
-1
Je komentář přínosný?

OCR není AI, není to ve většině případů ani strojové učení. Prostě řekneš tomu, že tohle je písmeno A, tohle je B, atd. Jednorázově tomu zadáš parametry a potom převádíš obraz s textem na text. Aby to bylo strojové učení, muselo by se to z každé další přečtené knihy učit, jenže to se neděje.

+1
-4
-1
Je komentář přínosný?

Soudíte podle sebe.

+1
+1
-1
Je komentář přínosný?

Soudím podle blbců, kteří nadšeně hýkají nad AI bublinou, která s AI nemá nic společného.

+1
0
-1
Je komentář přínosný?

Samozrejme, ze to je AI a strojove uceni. Presne tak, jak to popisujes se provadi strojove uceni. Das systemu vstup (otazku) a vystup (odpoved) a to v mnoha variantach a system se to nauci. Koneckoncu, podobne to dela i clovek....

Jasne, v uplne drevnich dobach OCR to mozna bylo trochu jinak, ale to se bavime o dobe 30+ let zpet. Take to tehdy moc dobre nefungovalo. Ale i to spadalo pod AI.

+1
+3
-1
Je komentář přínosný?

Úplně v dřevních dobách OCR někdy před 25 lety jsem vzal obrazy digitalizované knihy a vyplňoval jsem písmeno po písmenu, co to je. Teď do toho spousta fontů, ty písmena pokaždé trochu jiná, k nějakým valným výsledkům to nevedlo.
Ukázalo se, že mnohem lepší je zadat písmeno a nastavit hranici neurčitosti, nemusí se to zdlouhavě učit.
Výsledky nejsou a nikdy z principu nebudou 100%, ale ono to takhle stačí a na konci se to holt nechá opravit člověkem.
Blbý je to tam, kde potřebuješ 100%, například: že bych tu pobyl vs. že bych to pobil. Už po jedné chybě dojde ke zmatení a při dvouch je to zcela ztracené.
A už vidím, jak ochotně bych stejný princip chtěl třeba v lékařství.

Od skutečné AI jsme stovky let daleko, tahle NVidia AI bublina nakonec splaskne.

+1
0
-1
Je komentář přínosný?

AI se obecne z dalsich knih neuci a ani nemuze ucit. Vetsinou. Samozrejme, OCR system by mohl mit k ruce i jazykovy model a databazi slov. A pomoci toho se pokusit naucit nezname pismenko, nebo neznamy font a tak. Jenze, nekdo (clovek) by to musel kontrolovat a udrzovat.

Trenovani neuronove site probiha tak, ze nejdrive se uci na jednom setu dat a pak se na druhem setu dat, ktery nebyl pouzity pro uceni, testuje, zda je sit spravne naucena. Zda spravne zobecnuje a neni pretrenovana, tedy, ze umi skvele trenovaci mnozinu, ale ta testovaci uz ji tak dobre nejde. Jde totiz o to, aby sit dokazala spravne pracovat s temi neznamymi daty a ne aby perfektne zvladala ta znama data.

To je prave to umeni.... Dokazat, aby sit halucinovala, co nejmene.

+1
+2
-1
Je komentář přínosný?

Díky, tak už chápu, proč mi Google Gemini na žádost, aby mi to řeklo autobusovou zastávku, vyhazuje stanice metra. Na těch se totiž trénovala a ty umí, kdežto autobusové zastávky to nikdo neučil, takže jen halucinuje. :-)

+1
0
-1
Je komentář přínosný?

AI bude dobry sluha,ale zly pan...

+1
+3
-1
Je komentář přínosný?

Jenom bych chtel rict, do budoucna, až nas ovladne Skynet a terminatori: Slouzim ti rad ó mocny Skynete. Diky ze me nechavas zit. All hail Skynet.

Konec sdeleni.

+1
0
-1
Je komentář přínosný?

Myslím, že do toho svoje love dáš - nepřímo. AI zdraží všecko, paměti jsou už teď vesměs na čtyřnásobku ceny před nafukováním bubliny. Jsem happy, že jsem koupil 15.8. 256 GB DDR5 za mrzkých 16k a tedy nebudu mít potřebu dlouho nějakou další kupovat (ona ta deska stejně víc jak 256 GB nezvládne ;).

+1
0
-1
Je komentář přínosný?

Jestli to takhle pojede dal, prezije jenom Tyan, Supermicro a WS-modely vyrobců zakladnich desek.

ps- ta Collete je pěkná ženská .-)

+1
+2
-1
Je komentář přínosný?

Collete dělá svou práci dobře. Čumíš na ní, místo abys poslouchal, co říká. :-D

+1
+1
-1
Je komentář přínosný?

Výsledky za minulý kvartál u Nvidie rozhodně bublina jsou, téměř polovinu toho, co vykazuje, "prodala" jen účetně - nedodala a nedostala zaplacené, prostě započítala i hodnotu nevyřízených objednávek. Tohle ale jednou praskne.

+1
+6
-1
Je komentář přínosný?

Navic to udajne prodavala zcasti sama sobe. Tedy firmam, ktere vlastni a uveruje....

+1
+7
-1
Je komentář přínosný?

V minulosti by se našlo několik firem, které půjčovaly jiným, aby jim mohli prodeat své produkty.

Některé skončily hodně špatně, když třetí straně nevyšel biznis plán a nebyla shcopna úvěr splatit.

S 95% nasazení AI negenerujícími dostatečný zisk není tohle cyklické financování tak úplně bez rizik.

+1
+1
-1
Je komentář přínosný?

No prave, ta rizika jsou dost vysoka, pokud se nasazeni AI nepreklopi do vydelku. Ono se preklopi, ale je otazkou pro koho a kdy. Do te doby hodne firem pochopitelne odpadne.

Staci se podivat na jen na uzky segment vyhledavacu. Byvalo jich plno a mnohe uspesnejsi, nez Google. Ovsem Google dokazal vyhledavac monetizovat (asi jako prvy) a predstihl vsechny ostatni.

Podobne s textovymi editory, databazemi a podobne. Na pocatku jsou mraky implementaci a po nejake dobe to dospeje k nekolika silne prevazujicim....

+1
0
-1
Je komentář přínosný?

Ani jsem si nevšim, že by CPU v AI nějak začalo.

+1
-1
-1
Je komentář přínosný?

Prakticky všechno AI před érou přímé podpory GPU používalo procesory. Nejen LLM, ale i modely pro zpracování obrazu a zvuku.

+1
+7
-1
Je komentář přínosný?

Před přímou podporou v GPU pro AI (Tensor Cores) se používaly normálně výpočetní shadery v GPU. A ano ještě předtím se používaly CPU, ale to se dá napsat o všem, protože na CPU lze dělat vše že. Naopak lokální využití modelů se na CPU teprve může rozjet, protože se do nich až nedávno začaly přidávat NPU.

+1
0
-1
Je komentář přínosný?

Tady je ale řeč o serverových CPU, které žádná NPU nemají. Akcelerátory do serverových CPU dorazí, ale půjde o dost odlišné řešení, než jsou stávající NPU (s minimálně o řád vyšším výkonem). Jinak se tedy uvádí, že v loňském roce používalo GPU řešení zhruba 50 % serverů používaných k AI a ASIC / TPU jen zhruba 10 %. Pokud daný systém zpracovává obecné úlohy a AI je jenom jedna z řady zátěží, tak se prostě akcelerátory nemusí vyplatit.

+1
0
-1
Je komentář přínosný?

Potenciál pro trénování modelů už nemají CPU spoustu let. To snad není žádná novinka. To že to dává ekonomický smysl, protože tam běží i něco jiného neznamená, že to má do budoucna potenciál. Potenciál pro jejich lokální využití ještě naopak ani nezačal. Prostě jen mediální masáž o tom, že AI není bublina a ať všichni nakupijí od NVIDIE. Pokud by totiž AI bublina byla, tak by nakupování CPU potenciál naopak mělo :D.

+1
-1
-1
Je komentář přínosný?

To je tak, když někdo z finanční kanceláře mluví o technice :D
Nvidia CPU nemá, tak samozřelmě nebude tvrdit, že jsou potřeba. Prostě Nvidia = marketingová firma

+1
+3
-1
Je komentář přínosný?

Ja mám dojem, že celý svet je už len bublina. Intel tvrdí, že dopyt po procesoroch Lunar Lake a Arrow Lake prevyšuje ponuku waferov.
https://www.techpowerup.com/343713/intel-claims-lunar-lake-and-arrow-lak...

+1
0
-1
Je komentář přínosný?

Všichni jsme bublina.
Jen Huang je "letadlo".

+1
+4
-1
Je komentář přínosný?

Docela vtipný dvojsmysl toho termínu "letadlo" ;)

+1
+1
-1
Je komentář přínosný?

Aha, takže gamechanger Spark vyhořel jako papírovej čert...

+1
+2
-1
Je komentář přínosný?

Já si myslím, že bublina jsou ty astronomické peníze, které do toho tečou a návratnost je pokud jde o zisky mizivá. Dalším faktorem je, že všechny AI plány stojí na obrovských odběrech elektrické energie. Zařídit dodávky není jen otázka pár let. Už nyní kvůli tomu údajně rostou účty běžných američanů, to si myslím že může být časovaná bomba, pokud nedojde k nějakým dramatickým optimalizacím a zefektivnění fungování.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.