od DOC_ZENITH/XAN » ned čer 19, 2011 12:24 am
OK, ale GPU tohle nezvádaj a nebudou. Nebudou. Tečka. Co fermi? Ta umí zpracovat plně 32-bit x86. Jak je rychlá? 4x pomalejší jak Core2 duo? Kdyby GPU uměly dělat x86 a bejt v tom efektivní, byly by to CPU. K tomu aby v tom byly rycheljší jak CPU a jejich použítí by se vyplatilo, musely by na to vyčlenit asi tolik tranzistorů co maj CPU. Myslí si tady někdo že Nvidia či ATI najednou z ničeho nic bude efektivnější v exekuci x86 instrukcí než CPU čip Intelu? Ne. Nebude, bude x-násobně pomalejší, tudiž je to naprosto na nic. To samé CPU, když SW cestou renderuje 3D scénu je x-krát pomalejší než GPU. Proto tu taky ty GPU máme že, protože to CPU nestíhaly tak 3DFX měla dobrej nápad spoustu toho loadu přesunout jinam.
Čim víc o tom přemejšlim, tim víc k ničemu a jako mrhání tranzistory mi ta x86 podpora tam přijde. Nefuguje to dobře, je to pomalé, ten čip to nedává a nebude dávat. Pokud jsou tak dokonalí a udělaj čip co zpracuje x86 a zároveň to bude dobré GPU, tak se k nim začnu modlit. Ale už předem říkám že ne, nepovede se jim to. Nvidia na tom ztratila velký prachy + kus své reputace. Intel na to kapituloval a teď i AMD/ATI musí udělat svůj pokus, a bude to stejnej epic fail. Procesory se vyvíjely 20 let aby to byly out-of-order stroje co jsou optimalizovaný na zpracování x86 kódu. A neuměj nic jinýho, nemaj nic jinýho, celá ta tuna tranziustorů se soustředí na tu jednu věc, na tohle jedno použití. Nelze vzít Cell a naučit jej emulovat x86 aby ten výkon byl ok a ne jak P3 coppermine. Je nemožné vzít PowerPC a udělat to ačkoliv to jsou hrubou silou silnější čipy než x86. A také nelze vzít GPU a naučit jej to.Ano naučit se to může, ňák ten kód zpracuje, ale bude to neefektinví a pomalé, bude v tom prostě suxxovat. Je to jako provádět SW místo HW renderingu a chtít aby to mělo použitelnou rychlost.
Ne, nejde to. Jediná možnost jak využít síly GPU je napsat tu aplikaci přímo na něj, na to v čem vyniká, aby se na to ta jeho architektura chytla. A to bohužel u GPU znamená, že to poběží dobře jen na jedný rodině čipů a bude to naprosto suxxovat na všem ostatním. Tak to prostě dnes je a nevidim z toho cestu ven. Na Fermi jsou to téměř mrtvé tranzistory, užití to nenašlo. Tady to bude to samé. Stačí se jen podívat třeba na takovej Physx a jak taková amulace je "efektivní" . To bylo něco snažšího než x86, Nvidia to portla na Cudu, ten původní čip byl total pomalá kravinka do klasického PCI slotu. A přesto emulovat tohle, na GPU co jsou 100x silnější hrubym výkonem, způsobí velice citelnej performance hit. Nejde to a neni to efektivní.
GPU se už v určitejch výpočetních farmách pro určité operace používají, ale je to opět kód psanej přímo na to GPU, čistě jednoúčelovej kód. Neni to standardizovaný a nejde to momentálně standardizovat. Toť můj názor.