O téhle oblasti si rád občas přečtu něco populárně naučného. Ne že by mi to k něčemu bylo.
Podle blokového schematu a popisků se zdá, že Nervana (nyní pod křídly Intelu) na to jde klasickým přístupem (paralelní von Neumann), tzn. ANN matiku chroupou nějaká poměrně konvenční jádra, zajisté s masivně přebujelou FPU na způsob AVX/VLIW - tato jádra potřebují veliké a rychlé bago externí (off chip) RAM. Na první pohled se to moc neliší od dnešních general-purpose GPU nebo Larrabee, jenom ta FPU bude asi hodně těsně optimalizovaná na "tenzory".
Srovnejte to s IBM TrueNorth. Tenhle "neuromorfní" čip nepotřebuje externí RAM protože paměť je interní vlastností jeho neuronů, umělé neurony implementuje přímo v křemíku (nebo velmi blízko), dokonce snad běží bez hodinového taktu, emulované neurony jsou "spiking" typ = blízké biologickým CNS a energeticky úžasně efektivní, ale IMO odlišné od mnoha ANN klasické koncepce (tenzory počítané paralelní hromadou VonNeumann jader).
Návazný problém je komunikace mezi čipy = škálování, o kterémžto problému nemám moc informací (ani u TrueNorth, ani u zde pojednaných čipů Nervana/Intel).
Volně k tématu, v poslední době mě zaujal tenhle popis základního fungování ANN (klasických, bez zabředání do "spiking neurons") - jsou tam zajímavé interaktivní grafy:
Pár hezkých filmečků k relativně aktuálnímu vývoji má na YouTube nějaký "Matt Zeiler" - pokud zhruba chápete jak fungují 2D FIR filtry nad obrazovými daty, zkuste dotaz "Matt Zeiler deep learning convolutional networks". Mít dva a čas, taky bych si zkusil hrát s TensorFlow...
A pokud ji dokážete sehnat, hezké shrnutí zase trochu jiné pod-oblasti dává kniha "How to create a mind" od Raye Kurzweila. Vyvrcholení slibované v titulku se samozřejmě "jaksi nekoná", protože tak daleko prostě nejsme, ale jako přehled to vůbec není špatné čtení.
+1
+1
-1
Je komentář přínosný?
O téhle oblasti si rád občas
frr https://diit.cz/profil/frr
8. 2. 2017 - 09:58https://diit.cz/clanek/intel-lake-crest/diskuseO téhle oblasti si rád občas přečtu něco populárně naučného. Ne že by mi to k něčemu bylo.
Podle blokového schematu a popisků se zdá, že Nervana (nyní pod křídly Intelu) na to jde klasickým přístupem (paralelní von Neumann), tzn. ANN matiku chroupou nějaká poměrně konvenční jádra, zajisté s masivně přebujelou FPU na způsob AVX/VLIW - tato jádra potřebují veliké a rychlé bago externí (off chip) RAM. Na první pohled se to moc neliší od dnešních general-purpose GPU nebo Larrabee, jenom ta FPU bude asi hodně těsně optimalizovaná na "tenzory".
Srovnejte to s IBM TrueNorth. Tenhle "neuromorfní" čip nepotřebuje externí RAM protože paměť je interní vlastností jeho neuronů, umělé neurony implementuje přímo v křemíku (nebo velmi blízko), dokonce snad běží bez hodinového taktu, emulované neurony jsou "spiking" typ = blízké biologickým CNS a energeticky úžasně efektivní, ale IMO odlišné od mnoha ANN klasické koncepce (tenzory počítané paralelní hromadou VonNeumann jader).
Návazný problém je komunikace mezi čipy = škálování, o kterémžto problému nemám moc informací (ani u TrueNorth, ani u zde pojednaných čipů Nervana/Intel).
Volně k tématu, v poslední době mě zaujal tenhle popis základního fungování ANN (klasických, bez zabředání do "spiking neurons") - jsou tam zajímavé interaktivní grafy:
http://neuralnetworksanddeeplearning.com/chap4.html
Pár hezkých filmečků k relativně aktuálnímu vývoji má na YouTube nějaký "Matt Zeiler" - pokud zhruba chápete jak fungují 2D FIR filtry nad obrazovými daty, zkuste dotaz "Matt Zeiler deep learning convolutional networks". Mít dva a čas, taky bych si zkusil hrát s TensorFlow...
A pokud ji dokážete sehnat, hezké shrnutí zase trochu jiné pod-oblasti dává kniha "How to create a mind" od Raye Kurzweila. Vyvrcholení slibované v titulku se samozřejmě "jaksi nekoná", protože tak daleko prostě nejsme, ale jako přehled to vůbec není špatné čtení.https://diit.cz/clanek/intel-lake-crest/diskuse#comment-984345
+
FPGA, rychla pamet, hodne pameti....daly by se na tom pocitat bitcoiny? Efektivneji nez na grafikach?
+1
0
-1
Je komentář přínosný?
FPGA, rychla pamet, hodne
rman https://diit.cz/profil/r-man
8. 2. 2017 - 11:50https://diit.cz/clanek/intel-lake-crest/diskuseFPGA, rychla pamet, hodne pameti....daly by se na tom pocitat bitcoiny? Efektivneji nez na grafikach?https://diit.cz/clanek/intel-lake-crest/diskuse#comment-984444
+
Bitcoiny sa uz davno netazia cez GPU, ale cez specializovane ASIC minery, dnes uz X-te generacie.. Scrypt a par inych sa pouziva na tazbu altcoinov, takze tam by to mozna slo, ale aka by bola efektivita to je vo hviezdach.
+1
+1
-1
Je komentář přínosný?
Bitcoiny sa uz davno netazia
Spirit_pcf https://diit.cz/profil/spiritpcf
9. 2. 2017 - 13:04https://diit.cz/clanek/intel-lake-crest/diskuseBitcoiny sa uz davno netazia cez GPU, ale cez specializovane ASIC minery, dnes uz X-te generacie.. Scrypt a par inych sa pouziva na tazbu altcoinov, takze tam by to mozna slo, ale aka by bola efektivita to je vo hviezdach.https://diit.cz/clanek/intel-lake-crest/diskuse#comment-984948
+
Mě by jenom zajímalo, jestli kolem toho čipu bude 8 HBM2 kousků (brutalita!), nebo to znamená, že někdy v létě už bude 8mi vrstvé HBM2 a můžeme se těšit na 16GB Vegu v high-endu se dvěma HBM2 čipy.
+1
0
-1
Je komentář přínosný?
Mě by jenom zajímalo, jestli
Hrdina https://diit.cz/profil/david-baranek
8. 2. 2017 - 16:15https://diit.cz/clanek/intel-lake-crest/diskuseMě by jenom zajímalo, jestli kolem toho čipu bude 8 HBM2 kousků (brutalita!), nebo to znamená, že někdy v létě už bude 8mi vrstvé HBM2 a můžeme se těšit na 16GB Vegu v high-endu se dvěma HBM2 čipy.https://diit.cz/clanek/intel-lake-crest/diskuse#comment-984621
+
že někdy v létě.. urcite?? )) tvoje prispevky by stalo za to ukladat.
+1
-1
-1
Je komentář přínosný?
že někdy v létě.. urcite?? )
cheech chong https://diit.cz/profil/chong
9. 2. 2017 - 10:20https://diit.cz/clanek/intel-lake-crest/diskuseže někdy v létě.. urcite?? )) tvoje prispevky by stalo za to ukladat. https://diit.cz/clanek/intel-lake-crest/diskuse#comment-984873
+
O téhle oblasti si rád občas přečtu něco populárně naučného. Ne že by mi to k něčemu bylo.
Podle blokového schematu a popisků se zdá, že Nervana (nyní pod křídly Intelu) na to jde klasickým přístupem (paralelní von Neumann), tzn. ANN matiku chroupou nějaká poměrně konvenční jádra, zajisté s masivně přebujelou FPU na způsob AVX/VLIW - tato jádra potřebují veliké a rychlé bago externí (off chip) RAM. Na první pohled se to moc neliší od dnešních general-purpose GPU nebo Larrabee, jenom ta FPU bude asi hodně těsně optimalizovaná na "tenzory".
Srovnejte to s IBM TrueNorth. Tenhle "neuromorfní" čip nepotřebuje externí RAM protože paměť je interní vlastností jeho neuronů, umělé neurony implementuje přímo v křemíku (nebo velmi blízko), dokonce snad běží bez hodinového taktu, emulované neurony jsou "spiking" typ = blízké biologickým CNS a energeticky úžasně efektivní, ale IMO odlišné od mnoha ANN klasické koncepce (tenzory počítané paralelní hromadou VonNeumann jader).
Návazný problém je komunikace mezi čipy = škálování, o kterémžto problému nemám moc informací (ani u TrueNorth, ani u zde pojednaných čipů Nervana/Intel).
Volně k tématu, v poslední době mě zaujal tenhle popis základního fungování ANN (klasických, bez zabředání do "spiking neurons") - jsou tam zajímavé interaktivní grafy:
http://neuralnetworksanddeeplearning.com/chap4.html
Pár hezkých filmečků k relativně aktuálnímu vývoji má na YouTube nějaký "Matt Zeiler" - pokud zhruba chápete jak fungují 2D FIR filtry nad obrazovými daty, zkuste dotaz "Matt Zeiler deep learning convolutional networks". Mít dva a čas, taky bych si zkusil hrát s TensorFlow...
A pokud ji dokážete sehnat, hezké shrnutí zase trochu jiné pod-oblasti dává kniha "How to create a mind" od Raye Kurzweila. Vyvrcholení slibované v titulku se samozřejmě "jaksi nekoná", protože tak daleko prostě nejsme, ale jako přehled to vůbec není špatné čtení.
FPGA, rychla pamet, hodne pameti....daly by se na tom pocitat bitcoiny? Efektivneji nez na grafikach?
Bitcoiny sa uz davno netazia cez GPU, ale cez specializovane ASIC minery, dnes uz X-te generacie.. Scrypt a par inych sa pouziva na tazbu altcoinov, takze tam by to mozna slo, ale aka by bola efektivita to je vo hviezdach.
Mě by jenom zajímalo, jestli kolem toho čipu bude 8 HBM2 kousků (brutalita!), nebo to znamená, že někdy v létě už bude 8mi vrstvé HBM2 a můžeme se těšit na 16GB Vegu v high-endu se dvěma HBM2 čipy.
že někdy v létě.. urcite?? )) tvoje prispevky by stalo za to ukladat.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.