Největší shit od nVidie?

Obecně o problematice zobrazování 3D ;-)

Moderátoři: ps47, swarm

Která "grafická karta" od nVidie je podle vás největší shit?

RIVA 128
1
2%
Riva TNT2 Vanta LT 64 bit 8MB
8
17%
Riva TNT2 Vanta 64 bit
1
2%
Riva TNT2 M64 - 32MB 64bit
4
9%
GeForce2 MX100 32bit
4
9%
GeForce2 MX200 64bit
0
Žádná hlasování
GeForce2 MX400 DDR 64bit
4
9%
GeForce4 MX420
3
7%
GeForce 4000
10
22%
GeForce FX 5200
9
20%
GeForce PCX series
2
4%
 
Celkem hlasů : 46

Příspěvekod socket » pon dub 13, 2009 9:48 pm

tak toto musim mat, neviete o takejto klucenke ale s cipmi G200 65nm G80, R600? :D
3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
Uživatelský avatar
socket
 
Příspěvky: 1105
Registrován: stř črc 18, 2007 12:13 am
Bydliště: Slovenská republika

Příspěvekod nManJofo » úte dub 14, 2009 12:57 pm

A co takto DIY, hm?
nManJofo
 
Příspěvky: 303
Registrován: čtv dub 03, 2008 10:14 pm
Bydliště: Brno

Příspěvekod socket » úte dub 14, 2009 9:38 pm

tam je problem s odspajkovanim BGA a nevyzera to tak krasne ako "made by nvidia" :twisted:

Edit OBR: Nvidia podobné přívěsky prodává už hodně dlouho, podle situace. Stačí zapátrat v historii internetu a najdete jich několik, sám mám také takový ale s jiným jádrem. Toto není novinka, ale pěkně stará záležitost - tento konkrétní je v nabídce už od prosince 2008!


where?
3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
Uživatelský avatar
socket
 
Příspěvky: 1105
Registrován: stř črc 18, 2007 12:13 am
Bydliště: Slovenská republika

Příspěvekod no-X » úte dub 14, 2009 9:58 pm

OBR má totiž všechno a zásadně minimálně o 2 měsíce dříve, než to je vydané. Bohužel ho nikdy nenapadne se stím pochlubit, dokud to neprodá / nevrátí / nepošle nVidii / nevyhodí / neuplatí tím Ukrajince atd. a nikdy si neudělá ani jedinou fotku.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod -HoNY- » stř dub 15, 2009 9:23 am

Já myslím, že s tím začal Intel, ale ten do plastu balil kusy křemíku, takže i kdyby měl OBR první NVIDIA chip, tak nebyl první na světě s čipem na klíčích, ale první v ČR s nV čipem.

// to je strašná věta, doufám, že si rozumíme :lol:
Hlupáci kradou peníze, nVidioti myšlenky.
Uživatelský avatar
-HoNY-
Certifikovaný nVidiot
 
Příspěvky: 2115
Registrován: úte bře 01, 2005 5:34 pm
Bydliště: Brno

Příspěvekod wizzy » stř dub 15, 2009 9:31 am

To je pravda, můj děda to kdysi dostal od svého zetě (šéf pobočky v Portlandu/Oregon), viděl jsem to naposledy tak před osmnácti roky, ale byl to přívěšek s nějakou 64kB pamětí, takže to bude už hodně dávno, co s tím intel začal.
Průhledný vypouklý čtverec, uvnitř bílý čtvereček s logem intel a nějakým nápisem a vedle toho obdélníček křemíku...
W.I.Z.Z.Y. : Wolframový Inteligentní Zabíjecí Záludný Yankee
Core2DUO E4300 (1.8@2.8GHz), Zalman CNPS7700-AlCu, Asus P5W-DH Deluxe, 3GB DDR2, 2x1TB WD Black, DVD-R/W LG GSA-H55L + GSA H12N, ATi HD4850, Thermalright HR-03GT, V2 12MB Dragon, HP LP2475w 24", SB X-Fi Fatal1ty, Leadtek Winfast PxDVR3200 H, Cambridge SW 5.1, Enermax Liberty ELT 500AWT a tak...
Uživatelský avatar
wizzy
Quiz master
 
Příspěvky: 1728
Registrován: pon kvě 03, 2004 11:39 am
Bydliště: Jeseník

Příspěvekod Gringo » čtv dub 16, 2009 8:05 am

Nejlepsi privesekna klice mam ja:-) Nejaky OBR se muze jit zahrabat:-)
Gringo Joe Peter Shooter, osobne
Uživatelský avatar
Gringo
 
Příspěvky: 641
Registrován: ned úno 26, 2006 9:15 pm
Bydliště: Ostrava

Příspěvekod no-X » pát kvě 08, 2009 6:20 pm

G200 a G200b... nVidia je díky nim ve ztrátě 200 milionů, ATi má za stejný kvartál +1 milion
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod -HoNY- » pát kvě 08, 2009 10:35 pm

no-X píše:G200 a G200b... nVidia je díky nim ve ztrátě 200 milionů, ATi má za stejný kvartál +1 milion

Ano, za cenu propuštění zaměstnanců...
Hlupáci kradou peníze, nVidioti myšlenky.
Uživatelský avatar
-HoNY-
Certifikovaný nVidiot
 
Příspěvky: 2115
Registrován: úte bře 01, 2005 5:34 pm
Bydliště: Brno

Příspěvekod no-X » pát kvě 08, 2009 11:16 pm

A to zmiňuješ z jakého důvodu? nVidia se některých divizí včetně zaměstnanců zbavila už dávno. U ATi se do dostalo na pořad dne až když se kompletně dořešilo vše okolo sloučení s AMD a restrukturalizace, která z toho plynula.

Divize pro mobilní (telefonní) procesory se nVidia zbavila víc než rok před ATi. Divizi pro televizní techniku neměla nVidia vůbec. ATi tímhle de-facto jen dorovnala. Nemá smysl předpokládat, že rozdíl přes $200M se za tři měsíce vyvine jen z úspory na platech pěti procent zaměstnanců.

Spíš je problém v tom, že nVidia nemá produkty, které by byly výrobními náklady srovnatelné s produkcí ATi, přičemž by se daly prodávat za stejné nebo vyšší ceny. G200 je příliš velká pro segment kolem 5-7 korun. G92, která by byla zajímavá, už ale tolik lidí neosloví výkonem a low-end je na takové cenové úrovni, že jsou marže úplně nulové.

Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže :lol:
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod -HoNY- » pát kvě 08, 2009 11:19 pm

no-X píše:Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže :lol:

Však znáš Igora...

Jde o to, že z hlediska počtu zaměstnanců se AMD musela zmenšit, takže až krize přejde (ale to nikdo neví) nebude mít takovou výkonnost (málo týmů, málo projektů).
Hlupáci kradou peníze, nVidioti myšlenky.
Uživatelský avatar
-HoNY-
Certifikovaný nVidiot
 
Příspěvky: 2115
Registrován: úte bře 01, 2005 5:34 pm
Bydliště: Brno

Příspěvekod no-X » pát kvě 08, 2009 11:46 pm

Jak s tím souvisí krize? RV770 i G200 byly hotové i vydané ještě předtím, než přišla. Stejně tak i cena G200 (GTX260/280) šla dolů ještě předtím, že se projevily první známky krize.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod DOC_ZENITH/XAN » sob kvě 09, 2009 3:07 am

Něco mi tu nesedí. Mluvíte jako by GT200 byla ňákým fiskem nebo tak.

GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt. (dělam v czc, stavim, opravuju, testuju, navrhuju lidem sestavy a bohužel i řeším problémy. Třeba celofiremně prosnulý problém RV7xx vs Intel P45 se třeba na internetu nikde moc neřeší, nicméně tu je (chyba intelu v tomto případě, ale protože ty lidi často tu P45 chtěj, musim jim tam rvát GTX260)

A to pominu to, že když si na Referenčnim HD4870 zapnu Furmark a odejdu do práce a večer přijdu pokud nebude byt v plamecnech tak karta bude dost pravděpodbně KO. Aneb sražme výrobní náklady za každou cenu že?

Nvidia měla pokud vím probém někde jinde. A to chybovost pocházející už z návrhu ohledně G84 a G86 a všeho co z nich vychází ( i 55nm modely ) kde tepelná roztažitelnost nevhodně použitých materiálů způsobuje fyzickou destrukci čipu, projevuje se to hlavě tam kde jsou rozdíly v teplotách výrazná ala notebooky. Samotné reklamace a žaloby OEM partnerů jsou pro Nvidii ten průser, ale furt je na tom líp jak ATI a za posklední kvartál pokud vím si oproti ATI polepšila v % prodeji.

GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché. Aspoň zbyl čas jí přepracovat a obohatit jí o takové věci jako její úsporné funknce díky kterým je v idle méně žravá jak poloviční G92. Dále pak bych jeho výrobu neviděl niak černě. Mainstream čip na fungl novém procesu bude mít menší výtěžnost než velký high-end na starším, odladěném. Tenhle přešlap udělala Nvidia u NV30 a od NV40 se v těhlech kolejích drží a vychází jí to.

Všeobecně jsme ale poslední, hmm řekněme roky svědky velice (dle mého názoru) špatných trendů.

1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.

2. Rezignace ATI na highend - neúspěch R600 ala chyba v architektuře znemožňující klasické FSAA a nutící kartu do shader resolve, čímž R600 totálně přišla o jakékoliv výhody plynoucí z její paměťová propustnosti. To vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd. Současné prosazování multiGPU v highendu je nesmyslné, dokud trpí nedluhy SLI/Crissfire. Mohl by jej nahradit jiný systém, třeba širší forma Ringbusu, která by propojovala části čipu, které by mohly být fyzicky oddělené (rádoby) každý se separátní pamětí, shadery, atd, výroba těchnto menších bloků by byla levná a jejich počet téměř libovolný (i na více PCB/kartách). Framebuffer by mohl být řešen externě, mohl by mít vlastní paměť dnes třeba další generaci XDR. Aneb podobný koncept jako měl třeba 3Dlabs Wildcat 800, ale s méně složitými, menšímy GPU, ale v mnohem větším počtu.

3. Globální úpadek kvality karet. Začneme u Nvidia, u chybovosti G84 a G86 + všech jejich derivátů, dále pak bych ještě napsal o 8800 a 9800GT, které často mají nedostačující napájecí kaskádu která se přehřívá a způsobuje padání karty (stejný spoj jak má 8800GTS 512, ale jen z poloviny osazený). U ATI třeba nedostatečná napájecí kaskáda u Radeonu HD4870, která má při full load 150 Celsia a často nepřežije delší zátěž třeba furmarkem. Netýká se díky bohu HD4890, který si půjčil volteru z R600 a to je jiná třída.

Vše se zkrátka strašně tlačí na cenu. Já bych si za kvalitnější karty připlatil, ale nikdo je nenabízí.
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
 
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvekod no-X » sob kvě 09, 2009 7:57 am

XAN píše:GT200 není neúspěšný čip.

Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod Lukfi » sob kvě 09, 2009 9:37 am

XAN píše:GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt.

To, že si na něm zahraješ, bohužel neurčuje, jak je produkt úspěšný pro výrobce. Možná tak ta nekompatibilita RV770 a P45 nVidii přihrála nějaké prodeje, ale jinak to s tím vůbec nesouvisí.
GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché.

GT200 neměl být odpovědí na R600. R600 vyšla v květnu 2007 a to už byla o pár měsíců zpožděná, kdyby GT200 vyšla podle plánu, tak dříve než v listopadu by to nebylo.
1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.

Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.
To vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd.

RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší. S tím CrossFire je problém, ale možná je to holt takový business model :( (pokud by vráželi víc do vývoje multi-GPU, už by se jim zase mohlo vyplatit udělat velké GPU, nebo by jim malé čipy kanibalizovaly větší s vyššími maržemi)

no-X píše:Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů.

Myslím si, že to nemůžeš takhle srovnávat. Za posledních několik let se GPU stále zvětšují a stále relativně ke své velikosti zlevňují. R300 měla plochu přes 200 mm2, byl to high-end. RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream. Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.
Uživatelský avatar
Lukfi
Certifikovaný fanATik
 
Příspěvky: 888
Registrován: ned pro 16, 2007 8:38 pm
Bydliště: ne

Příspěvekod socket » sob kvě 09, 2009 1:02 pm

no-X píše:
XAN píše:GT200 není neúspěšný čip.

Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.

kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b) :wink:
3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
Uživatelský avatar
socket
 
Příspěvky: 1105
Registrován: stř črc 18, 2007 12:13 am
Bydliště: Slovenská republika

Příspěvekod no-X » sob kvě 09, 2009 4:16 pm

Lukfi píše:R300 měla plochu přes 200 mm2, byl to high-end.

S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV710 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).

nVidia z těchto kolejí "vyjela" až v okamžiku, kdy důsledkem primárního vývoje architektury pro gigantické čipy (G80, GT200) a absencí řadičů s podporou rychlejších pamětí nebyla schopna vytvořit čip podobných rozměrů se 128bit sběrnicí, který by byl konkurenceschopný. Takže i do low-endu už se tlačí se >200mm² čipy a 256bit sběrnicí. Nemyslím, že jim to vyhovovalo, ale spíš jim nic jiného nezbývá...

Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.

Snad vyšší mainstream (midrange).

Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.

Ano. A finanční výsledky můj názor podporovaly.

Navíc X1950PRO stála jako novinka přes 6000, cena nijak výrazně neklesala a pod 5000 se dostala teprve až v roce 2007 (a to u levnější 256bit verze). ATi navíc defektní čipy prodávala prakticky za plnou cenu na X1650XT - cenový rozdíl byl minimální.

nVidia musí defektní G200/G200b prodávat jako GTX260 za cenu stejnou, jako ATi prodává čip o polovičních rozměrech. HD4870 s 250mm² čipem a 256bit sběrnicí se cenově vyvíjela prakticky stejně, jako zmíněná X1950PRO s 230mm² a 256bit sběrnicí, takže ATi s prodejními cenami vůči výrobním nákladům téměř nehnula. nVidii šly za tutéž dobu výrobní náklady výrazně nahoru (G200 byla 3x větší, než G70) a prodejní cena výrazně dolů (G200 prodává za cenu až 3x nižší, než G70).

Je jasné, že cena čipu ≠ cena karty, ale ATi a nVidia prodávají čipy a musejí je prodávat za takové ceny, aby po přičtení nákladů na zbytek karty nebyly vyšší, než konkurenční...

socket: To nebyly neúspěšné čipy. Šlo více-méně o OC edice karet vydané jen z marketingových účelů. nVidii to naopak pomohlo, finanční výsledky měla tehdy výborné.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

Příspěvekod DOC_ZENITH/XAN » sob kvě 09, 2009 4:26 pm

S něčím souhlasím, s něčím ne:

Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.

Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění. Ty různé video konvertery v praktických testech a ne marketingových balastech ukázaly rozporuplné (slabý nárůst) až tragické (atefakty, horší kvalita videa) výsledky. Herní fyzika přes physx je stále neprosto nereálná (zachytávající se kamney uo různé oběkty, vítr protéká oběkty a ignoruje přitom zemskou gravitaci, atd. Physx bylo mrtvé už jak jej chtěla prosadit Ageia a je ještě více mrtvé teď s Nvidií, je to slepá větev, jejíž život ukončí nstup OpenCL. Ten, to ještě uvidíme, by se konečně mohl sát jistou revolucí, protože je to konečně standardizované rozhraní.

Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.


Peníze bych v tom neviděl, možná na straně ATI, ale to jen protože jí vysává AMD, toto odkoupení pořád považuji za obrovskou katastrofu. Spíš strach z neúspěchu, uvidíme co Nvidia předvede s GT300.


RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší.


Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída. Poukážu třeba u NV na G92 a GT200, jejíž přechod z 65 na 55nm neznamenal praticky nic ve spotřebě, teplotě, taktech, atd. Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.

Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.

kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b)


Ani nápad.

7800GTX512 nemohla být neúspěch protože byla něco jako 6800Ultra extreme. Aneb prakticky se téměř nevyráběla. Tudiž nemohla prodělat. Navíc byla extra drahá = vysoká marže a její vývoj nestál nic, ala byl to stejnej model jak karta pod ní, jen lepší chladič, overvolt a overclock.

Klasická 6800Ultra byla hodně úspěšná, jednak to byla první SM3.0 karta, marketing stál celý na její straně, Nvidioti také. O čip NV40 všeobecně byl až do ukončení výroby enormní zájem, u já jsem jej měl. Byl to totiž poslední a i dost výkoný AGP čip (nativně) fungoval bez problémů na všech chipsetech, což se o kartách s můstky (hlavně ATI) říci nedá. Navíc na NV40 si lze dodnes zahrát.
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
 
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvekod Lukfi » sob kvě 09, 2009 5:44 pm

no-X píše:S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV410 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).

A teď se podívej, co jsi napsal předtím:
no-X ve svém předchozím příspěvku píše:Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí?

Ta cena za "mainstreamový čip" už tak dva roky neplatí. RV630 ve verzi XT stála 4000. RV635, RV730, RV740 jsou všechno karty za 2000-2500. GT200 sice stojí tolik, co mainstream před dvěma třemi lety, ale určitě ne tolik, co 150mm2 čipy.
nVidia z těchto kolejí "vyjela" až v okamžiku, kdy důsledkem primárního vývoje architektury pro gigantické čipy (G80, GT200) a absencí řadičů s podporou rychlejších pamětí nebyla schopna vytvořit čip podobných rozměrů se 128bit sběrnicí, který by byl konkurenceschopný. Takže i do low-endu už se tlačí se >200mm² čipy a 256bit sběrnicí. Nemyslím, že jim to vyhovovalo, ale spíš jim nic jiného nezbývá...

To samé ale dělá i ATI. Tohle je prostě současný trend. Čipy se zvětšují, ale ceny zůstávají. G80 nebo GT200 nebyly při vydání dražší než R580, přestože jsou větší.
Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.

Snad vyšší mainstream (midrange).

Jo, původně, pak během roku 2007 už to sklouzlo mezi 3-4 tisíce Kč, kde byly G84 a RV630.
Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.

Ano. A finanční výsledky můj názor podporovaly.

Ale nVidia může být ve ztrátě i z jiných důvodů než kvůli GT200. Například se jim smršťuje trh pro čipsety.
nVidia musí defektní G200/G200b prodávat jako GTX260 za cenu stejnou, jako ATi prodává čip o polovičních rozměrech. HD4870 s 250mm² čipem a 256bit sběrnicí se cenově vyvíjela prakticky stejně, jako zmíněná X1950PRO s 230mm² a 256bit sběrnicí, takže ATi s prodejními cenami vůči výrobním nákladům téměř nehnula. nVidii šly za tutéž dobu výrobní náklady výrazně nahoru (G200 byla 3x větší, než G70) a prodejní cena výrazně dolů (G200 prodává za cenu až 3x nižší, než G70).

Jediný problém je to, že nVidia musí velkým čipem konkurovat menšímu. Ale GPU se obecně zvětšují. Akorát G71, kterou jsi asi měl na mysli místo G70, se vymyká.

NV40 ~ 300 mm2
G70 ~ 330 mm2
G80 ~ 460 mm2
GT200 ~ 576 mm2

R420 ~ 280 mm2
R520 ~ 290 mm2
R580 ~ 350 mm2
R600 ~ 420 mm2
Je jasné, že cena čipu ≠ cena karty, ale ATi a nVidia prodávají čipy a musejí je prodávat za takové ceny, aby po přičtení nákladů na zbytek karty nebyly vyšší, než konkurenční...

V historii bylo několik produktů, které byly očividně výrobně dražší, než co měla konkurence (GeForce 6800 GT vs. Radeon X800 XL, Radeon X1900 XT/X vs. GeForce 7900 GTX) a stejně se prodávaly. Takže si myslím, že menší plocha čipu je výhoda, ale zase ne taková, aby někoho položilo prodávat za stejné peníze větší čip.

XAN píše:Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída.

Tož samozřejmě, tam je víc faktorů výsledné ceny. Například samozřejmě nemá smysl přecházet na novější výrobní postup, pokud je zmetkovitost tak vysoká, že na starším mám z jednoho waferu více funkčních čipů (nebo méně, ale s tím, že wafer je levnější). Obecně by se ale nikdo na novější postup nehnal, kdyby to nebylo výhodné ;) i když se nezlepší charakteristiky, tak snížení plochy je pozitivní. Možná nVidia čekala, až bude 55nm dostatečně vychytaný a pak začla vyrábět GT200b - do té doby by měla více funkčních čipů z 65nm waferů.
Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.

Kdo ví, jak to je. Možná by stačilo zamakat na spotřebě podobně jako to udělala nVidia a velký čip by byl možný. Ale já si spíš myslím, že ATI nechce ztrácet čas vývojem takového produktu, který moc velkou část trhu neosloví. Jedním z úkolů high-endu je vytvářet haló efekt a to se daří i X2 kartám, i když pro mnoho lidí jsou v praxi nepoužitelné.
Uživatelský avatar
Lukfi
Certifikovaný fanATik
 
Příspěvky: 888
Registrován: ned pro 16, 2007 8:38 pm
Bydliště: ne

Příspěvekod no-X » sob kvě 09, 2009 6:04 pm

XAN píše:Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění.

Ale tady nejde o GP-GPU pro řadové uživatele, ale pro profi segment. Tam je podpora na zcela jiné úrovni a pro oba výrobce je tenhle segment důležitý, protože profi karty stojí výrazně víc, ačkoli náklady na jejich výrobu jsou jen mírně vyšší. Pokud hráči nejsou ochotni platit tolik jako dříve, je logické, že oba výrobci hledají jiné odvětví, ze kterého by nějaké peníze mohli dostat.

Utilitky pro video jsou jen marketing, který má ukázat na to, že tam něco zlepšeného je, ale pro řadové uživatele to zatím přínos nemá.

PhysX je marketing kompletně, v tom souhlasím - jediné, co nVidia chce, jsou testy PhysX her v recenzích grafických karet, kde sestavy s konkurenčním GPU musejí PhysX kód zpracovávat softwarově, přičemž kód pro softwarové zpracování přes CPU je záměrně silně zmršený, aby to běhalo opravdu nepoužitelně.

XAN píše:Herní fyzika přes physx je stále neprosto nereálná

To imho není problém API, ale problém vývojářů. Stejně, jako se s D3D nebo OpenGL vytvořit dobrá, ale i naprosto nereálná 3D grafika, tak lze s každým fyzikálným rozhraním vytvořit reálnou in nereálnou fyziku. OpenCL nebude akcelerovat fyziku, bude sloužit jen jako mezivrstva mezi Havokem a GPU (z hlediska ATi). nVidia zatím asi bude dál tlačit PhysX, je to to jediné, co momentálně má. Ale i ten umře, nebo vůči němu budou lidé lhostejní. Stejně, jako to šílenství kolem TnL, SM3.0, HDR, SLI (či později Q-SLI či 3-SLI), skalárních SPs...

Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná.

Plocha čipu je skutečně primární. Není důležitá jen proto, že s nižší plochou se z jednoho wafferu vyrobí více čipů, ale hlavně z důvodu defektů. Pokud máš např. v průměru na 600 mm² jeden defekt, tak při výrobě 150mm² čipů budeš mít poškozených 25% čipů. Při výrobě 600mm² čipů budou poškozené prakticky všechny (samozřejmě je to složitější, ale teď mi jde o základní souvislost zmetkovosti s plochou). Takže výrobní náklady s plochou čipu nerostou lineárně, ale dokonce exponenciálně.

Proto výrobci na novější procesy přecházejí jak nejdříve mohou. Jak jsi sám uvedl, přechod z 65 na 55nm neznamenal příliš výrazné snížení spotřeby, ale znamenal vyšší výtěžnost (více čipů na waffer, výrazně více funkčních čipů na waffer). Trochu problém je se 40nm, protože nVidia není se současnou podobou procesu dosáhnout nižších nákladů na čip oproti 55nm, pouze nižší spotřeby. To je důvod, proč na 40nm vyrábí zatím jen mobilní čipy.

Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.

Podobné problémy jsou obvykle řešitelné úpravou metal layers, není třeba dokonce ani respin. Spíš to vidím tak, že problém vyřešili zároveň s úpravami čipu na 55nm výrobu.

Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat.

Tady toho mícháš víc dohromady. V první řadě - spotřeba RV770 není ani v nejmenším blízká spotřebě G200. Vysokou spotřebu mají rychlé GDDR5. Pokud budeš srovnávat karty s GDDR3, tak 55nm RV770 má spotřebu o 50W nižší, než 55nm G200.

Druhá věc je, že zaměňuješ příčinu a následek. Jednou z výhod menších čipů je, že není spotřebu třeba řešit, protože neleze na takové úrovně, aby se jí vyplácelo řešit. Nikoli že by ATi nemohla vyrobit větší čip, protože by moc žral. ATi by klidně větší čipy dělat mohla, ale musela by řešit o 1 problém navíc.

Další věc je, že pokud by ATi navrhla větší čip, nemusela by spotřeba jít nahoru vůbec, protože pro dosažení stejného výkonu by stačila nižší frekvence (nVidia taky u větších čipů netaktuje základ na 800MHz, jako ATi). Spotřeba neroste lineárně s frekvencí, takže snížení taktovací frekvence o 150MHz by imho mělo výraznější vliv, než 100 mm² navíc. Větší čip má také tu výhodu, že teplo odevzdává chladiči větší plochou, takže i výsledná teplota by byla nižší. Jenže v současné situaci nemá smysl, aby kvůli pár wattům ATi tak brutálně navýšila rozměr čipu. Tuhle cestu zvolila nVidia a nevyplatilo se jí to.

I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá.

Výrobní cenu to rozhodně zvedá, hlavně to taky stálo nějaké peníze na vývoji, ale vyplatí se to z několika důvodů:

1. ATi na rozdíl od nVidie má v čipech redundantní set SPs, takže i když se zvýší pravděpodobnost výskytu defektu na čip, je reálný nárůst chybovosti cca jen poloviční oproti teoretickému (je zhruba 50% šance, že defekt zasáhne obnovitelnou část čipu).

2. Plocha čipu je o 10-12% větší, výkon je také o 10-12% vyšší (tzn. poměr výrobní náklady/výkon se možná ještě zlepšily s přihlédnutím k tomu, že paměti mají HD4870 i HD4890 stejné), ale prodejní cena karty je o 20% vyšší. Tzn. pro ATi je to výhodnější produkt.

Nemůžeš srovnávat navýšení plochy čipu u produktu, kde většímu čipu odpovídá i větší výkon a vyšší prodejní cena, oproti produktu, kde je sice čip větší, ale výkon to nepřináší téměř žádný.

Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.

To je pravda, ovšem nesmíš zapomínat, že spotřeba v klidu je nesrovnatelně níž, než u R600, takže vysoká čísla platí jen pro čas strávený ve 3D.

Je jen otázka, jestli ATi s nVidií budou čekat, zda se kvality 40nm produkce zlepší a vydají až produkty s nižší spotřebou, nebo proces využijí hned, vydají žravější produkty a spotřebu sníží postupně časem...
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
 
Příspěvky: 6909
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice

PředchozíDalší

Zpět na 3D grafika

Kdo je online

Uživatelé procházející toto fórum: Žádní registrovaní uživatelé a 1 návštěvník