Fakt, že GT200 nepodporuje GDDR5 automaticky neznamená, že některý z budoucích produktů nebude.
Co bude dál, by mě skutečně zajímalo, protože v souvislosti s ATi se říká, že nemá v plánu nic nového až do příštího roku (čekal bych leda novou revizi RV770 kolem listopadu?), přičemž od nVidie se očekává, že s něčím přijde. Možná by se to dalo vyvodit z harmonogramu vydání předešlých produktů:
GF7800GTX - 22.6. 2006 (pokud vím, podle plánu)
GF7800GTX-512 - 14.11. 2006 (backup produkt, G71 měla zpoždění)
GF7900GTX - 9.3. 2006 (zpožděná po problémech s 90nm procesem + nízká počáteční výtěžnost)
GF7900GX2 - květen 2006 (backup produkt, i když se s ní spíš počítalo)
GF8800GTX - 8.11. 2006 (podle původních informací měla vyjít už na jaře, ale jelikož se s G71GX2 počítalo ještě před vydáním single G71, tak to zřejmě byla už tehdy neaktuální informace)
GF8800Ultra - 2.5. 2007 (pojistka pro případ, že by R600 ohrozila GTX. nVidia si zřejmě do poslední chvíle nebyla jistá, jak to s R600 dopadne - možná očekávala, že ATi vytváří kouřovou clonu a R600 nakonec bude mít FSAA rychlejší)
listopad 2007 - kupodivu žádný nový high-end, v podstatě to už bylo signálem, že něco nVidii nejde podle plánu, ale to si nikdo v přetrvávající efórii z G80 nepřipouštěl, navíc nVidia vydala poměrem cena/výkon úžasnou, ale nedostupnou GF8800GT. Podle všeho už tehdy měla vyjít GT200 - nVidia slibovala podporu DP v listopadu, G92 DP nepodporovala, 1+1=...
GF9800GTX a GX2 - 18.3. 2008 / 1.4. 2008 - backup produkty zpožděné GT200, přičemž samotná G92 už byla zpožděná podle původních plánů (původně měla konkurovat HD2900PRO, která ale vinou absence funkčního AA tak výkonného konkurenta nevyžadovala)
GTX280 - 16.6. 2008 - vychází tři měsíce po high-endové G92, což dokazuje, že GT200 měla podle původních plánů vyjít dříve (stejně jako to bylo s G71)
Bylo by logické něco očekávat v listopadu. Nebude to nic revolučního - buďto přetočená GT200, nebo 55nm GT200. Jediným štěstím nVidie bylo neštěstí ATi s R600. Když se ATi vrátila zpět s RV770, je to pro nVidii hodně nepříjemné a pokud se to ATi podaří ještě jednou zopakovat (jsem ale skeptický), bylo by to pro nVidii hodně velkým problémem.
nVidii se bohužel sešly tři nepříjemnosti naráz: Dlouhodobě má problémy s předchodem na nové výrobní procesy. Zdánlivě geniální vysoce taktované shader core vyžaduje výrazné ruční zásahy při implementaci nových výrobních procesů a celkově všechny úpravy jsou problematické a jen pomalu realizovatelné (koncept je prostě neflexibilní, nVidii to stojí čas, tranzistory navíc, absenci DX10.1, absenci podpory DP - pro kterou jsou v shader core GT200 přidány samostatné DP jednotky, cílených frekvencí se zatím nepodařilo dosáhnout u žádného čipu snad krom G94). K problematickým předchodům na nové procesy a náročným úpravám shader core se ještě přidala gigantická velikost čipu (bugfixing něčeho takového musí být taktéž velmi časově náročný) a výsledkem původně zajímavého konceptu je obrovský a relativně pomalý a zastaralý čip, který nevydělává (pro zákazníka je při současných cenách velmi zajímavý, ale nVidii tahne ke dnu)
K tomu přibyly problémy s mobilními GPUs, které se odrazí hlavně ve finanční situaci. Bylo by tedy logické čekat, že nVidia vydá maximální úsilí, aby vydala produkt, který přinese lepší poměr výrobní náklady/výkon. Nejschůdnější by byla 55nm GT200 s nějakými drobnými úpravami. Jenže otázkou je, jestli se nVidia se svým konceptem paměťového řadiče vejde na čip výrazně menší, než byla GT200. Pokud ne, musela by GT200 být 384bit, což znamená, že by v případě řadiče bez podpory GDDR4/5 výrazně klesla paměťová propustnost a o 10% vyšší takty získané 55nm procesem by ji z hlediska výkonu maximálně tak kompenzovaly.
Pokud by se nVidii podařilo realizovat výraznější čistku návrhu a čip by byl ještě menší, mohl by být např. 256bitový a v takovém případě by buďto dokázal konkurovat pouze jedné RV770 (výrobně levnější náhrada za GTX260?), nebo by musel podporovat GDDR5. Pokud by čip byl 256bitový, mohla by ho nVidia použít pro GX2 (že by se historie opakovala potřetí?), což by byl asi jediný způsob, jak by bylo možné výkonnostně deklasovat HD4870X2.
Tahle situace se mi začíná líbit
