NordicHardware har hälsat på nVidia och tog med sig ett NV40 hem. Efter en uppsjö av hårda prestandatester är det idag dags att ta en titt på hur nVidias nya flaggskepp GeForce 6800 Ultra verkligen ter sig.

nVidia hamnade på efterkälken när ATi för lite drygt ett och ett halvt år sedan släppte Radeon 9700 Pro. Inte nog med att ATi lyckades leverera sitt kort långt före nVidia, det visade sig nämligen senare att när nVidia väl lanserade sitt GeForce FX 5800 Ultra så hade det knappast mycket att säga till om. Uppföljarna GeForce FX 5900 och 5950 Ultra lyckades desto bättre men i de flestas ögon var ATi’s produkter helt enkelt överlägsna både vad det gällde bildkvalité och prestanda.


ATi har alltså legat på topp inom 3D-grafik i ett och ett halvt år, för första gången i företagets karriär. Idag sätter nVidia stopp för trenden.



Kortet vi har haft den äran att inspektera de senaste två veckorna heter GeForce 6800 Ultra och bygger på nVidias helt nya NV40-arkitektur. nVidia har lämnat den, kanske inte helt lyckade, FX-serien bakom sig och har på sätt och vis återvänt till de gamla metoderna då kortet ingår i GeForce 6-serien. Redan då vi först började lyssna på nVidias presentation i San Jose för två veckor sedan började vi inse vilket monster kortet skulle bli. Med 16 pipelines (dubbelt så mycket som Radeon 9800 XT och fyra gånger så många som GeForce FX 5950 Ultra), GDDR3-minne på ~1.1+ GHz, fullt stöd för nya DirectX 9.0c (Shader Model 3.0) och en lång rad andra imponerande attribut är det svårt att inte bli imponerad.


Som vi sett förut duger det dock inte att bara titta på specifikationer. Som tur är var nVidia goda nog att skicka hem oss med ett NV40 i handen och den senaste tiden har vi hårdtestat kortet och inspekterat tekniken bakom. Vi börjar med att inspektera teoretiska fakta.


Som vi nämnde i inledningen har nVidia alltså lämnat GeForce FX-namnet och har nu återgått till sifferbenämning. Den nya serien av grafikkort kommer att ingå i GeForce 6-serien. nVidias plan är att alla grafikkort från botten till toppen ska bygga på i grunden samma teknik. Alla finesser och egenskaper ska vara i princip 100% identiska och det enda som kommer skilja korten åt är prestanda. Med tanke på att flaggskeppet GeForce 6800 Ultra har 16 pipelines, höga klockfrekvenser och en 256 bits minnesbuss är det inte svårt att se att det går att skala ner arkitekturen väsentligt. Längst ner på skalan kommer vi alltså kanske att få se GeForce 6200 med enbart fyra pipelines, relativt låga klockfrekvenser och 128 bits minnesinterface (ren spekulation från min sida, nVidia har inte utannonserat något GeForce 6200 Ultra). Vi välkomnar metoden med öppna armar då det betyder att speltillverkare snabbare kan börja arbeta mot effekter som kräver DirectX9 än vad som tidigare varit möjligt.



De två första korten vi känner till i GeForce 6-serien är GeForce 6800 och GeForce 6800 Ultra. Att döma av tidigare erfarenheter lär korten vara identiska bortsett från klockfrekvenser. Eventuellt kommer minnesmängden att variera, vi betvivlar tex. att Ultra-versionen kommer att finnas med bara 128 MB medan det är troligt att icke-Ultra-versionen finns med både 128 och 256 MB minne.




































































































Kort/Krets:

GeForce FX 5950 Ultra / NV38

Radeon 9800 XT / R360

GeForce 6800 Ultra / NV40

Tillverkningsteknik:

0.13-micron

0.15-micron

0.13-micron

Transistorer:

~130 mil.

~115 mil.

~222 mil.

GPU-hastighet:

475

412

400

Pixel Pipelines/Pixel Fillrate:

4 (8) / 1900 MP/s

8 / 3296 MP/s

16 (32) / 6400 MP/s

TMU’s/Texel Fillrate:

2 / 3800 MT/s

1 / 3296 MT/s

1 / 6400 MT/s

Minneshastighet:

950 MHz

730 MHz

1100 MHz

Typ av minne/Bandbredd:

256-bit DDR / 30,4 GB/s

256-bit DDR / 23,4 GB/s

256-bit GDDR3 / 35,2 GB/s


Pixel Shader:

2.0a

2.0

3.0


Vertex Shader:

2.0a (2 st.)

2.0 (4 st.)

3.0 (6 st.)


FSAA:

2x RGMS, 4x OGMS + MS/SS komb.

6x RGMS + Gammakorrigering


4x RGMS + MS/SS komb.

Centroid Sampling:

Nej

Ja

Ja

Aniso:

8x

16x

16x

Standardutgångar:

1x VGA, 1x DVI och 1x ”S-Video” (HDTV)

1x VGA, 1x DVI och 1x ”S-Video” (HDTV)

2x DVI och 1x ”S-Video” (HDTV)

Rekommenderat nätagg:

350w

300w

480w

Antal kortplatser:

2x

1x

1x

En snabb titt på tabellen ovan avslöjar direkt att GeForce 6800 Ultra, i alla fall på pappret, får nVidias föregångare och ATis nuvarande kort att se ut som tama budgetkort. Antalet transistorer är inget annat än makalöst; 222 miljoner transistorer gör NV40 till världens största chip tillverkad i ”nämnvärd” kvantitet. Chippet i sig bygger på 0.13 microns teknologi och tillverkas hos IBM. Att det behövs så många transistorer är knappast underligt med tanke på hur många pipelines kortet har. En annan bidragande faktor är den nya videohanteringsenheten som är inbakad i chippet, mer om denna ”enhet” längre fram.

GPU:ns hastighet ligger på 400 MHz vilket gör att det kommer upp i en imponerande fillrate både vad det gäller pixlar och texels. I den här takten dröjer det inte länge förrän vi får räkna terrapixels per sekund istället för megapixels. I praktiken betyder det här att vi kommer kunna köra ännu högre upplösningar än tidigare och att högupplösta texturer kommer att fungera utan nämnvräda prestandaförluster. Givetvis ökar en hög texel fillrate också prestanda för anisotropisk filtrering vilket vi ser fram emot.
För er som inte är riktigt insatta och undrar varför coren är 75 Mhz långsammare än 5950 Ultra är det viktigt att påpeka att corens hastighet i sig är betydelselös så länge vi inte vet hur många pipelines kortet har. 5950 Ultra har fyra (4×475) medan 6800 Ultra har sexton (16×400).

Kortet är utrustat med GDDR3 som ligger på en 1.1 GHz klockfrekvens. GDDR3 är en vidareutveckling av GDDR2 som fanns på ett par kort ur ATi och nVidias föregående grafikkortsgenerationer. Med GDDR3 har man drastiskt minskat strömförbrukningen och i ännu högre grad värmeutvecklingen. Kanske har kortet något konservativa klockfrekvenser med tanke på att det faktiskt tillverkas 1.6 Ghz GDDR3 för tillfället (i vilka kvantiteter har vi dock ingen insikt i ännu). Vid första anblicken gör det här att arkitekturen eventuellt ser lite obalanserad ut. Man har fyrdubblat kortets fillrate jämfört med FX 5950 Ultra medan bandbredden bara ökat med närmre 16 procent. nVidia har dock insinuerat att en del av deras korttillverkare kommer att lansera sina kort med högre klockfrekvenser. Hur mycket högre har vi dock inte fått nys om ännu men vi skulle gissa på att de kommer ligga på 1.2-1.4 Ghz.

Som vi nämnde i inledningen bygger GeForce 6 på en helt ny arkitektur. Revolution snarare än evolution det vill säga. De djupa och känsliga pipelinsen från GeForce FX-serien har ersatts av högpresterande parallelism. Med sina sexton pipelines och två pixel shader-enheter per pipeline finns här en råstyrka som lär bli svår att matcha.

Resterande specifikationer kommer vi att gå igenom längre fram i artikeln. Nu börjar vi med att ta en titt på själva kortet.


Vi kan tänka oss att ni är lite småsugna på att se hur ett NV40 ser ut. Vi kan börja med att berätta att bilden i inledningen var på en tidig prototyp och som ni snart kommer att få se har designen ändrats något. nVidia har ofta något roligt för sig när de ska leverera nya grafikkort. Den här gången kom kortet i en liten attacheväska i metall:








Hemligt Uppdrag-vibbar?



Härligheten själv!


Man måste ju erkänna att man kände sig ganska utvald när man öppnar den lilla väskan och inser att man som, förmodligen, enda svensk nu sitter med ett NV40 i handen (ok inte ”sitter”; dansar runt, ringer polarna och sjunger ”nä nä nä nä nä” i örat på dem).








Framsidan



Baksidan


På kortets ovansida kan man redan nu se att det är en ganska massiv kylningslösning. Nästan hela kretskortet är täckt av den stora kylaren. Det som är intressant att notera är att kortet, den stora kylaren till trots, väger ganska lite. Om vi vänder på steken är det mindre intressanta saker att titta på. Uppenbarligen sitter allt minne på ovansidan, 8 x 32 MB GDDR3 för att vara exakt.








Kylning med heatpipes



Många långa fins

Om vi tar en mer noggrann titt på kylningslösningen ser vi att den består av en massa fins istället för någon massiv metall. Fläkten skjuter ut luften längs den tunna metallen och kyler därmed effektivt ner kortet. Under själva fläkten och utblåset hittar vi en metallplatta med inbyggda heatpipes. Lösningen är ändå tämligen diskret jämfört med vad NV3x krävde tycker jag personligen.

Ljudet är en annan femma. När jag först slog på datorn efter att ha installerat kortet blev jag minst sagt missnöjd. Ljudnivån låg helt klart i klass med ”dammsugaren” FX 5800 Ultra. Men efter att ha installerat drivrutiner spinner nu fläkten ner i ”normal” hastighet så fort man kommer in i Windows. Faktum är att vi aldrig varit med om att fläkten spunnit upp snabbare annat än då man bootar datorn. Temperaturen är ”låg” och ligger på cirka 45 grader i idle och 55 grader under load. Förmodligen spinner fläkten upp när kortet blir för varmt men under den vecka vi haft kortet har det inte hänt en enda gång.
Ljudnivån är med andra ord inga problem alls.

Som vi nämnt är kortet inte identiskt med det vi visade på bilden i inledningen. Den här senare revisionen som vi testat har en kylningslösning som tar upp en extra kortplats. Inte helt optimalt men å andra sidan inte helt förfärligt. Dock sätter det ju stopp för alla som tänkt installera kortet i ett Small Form Factor-chassi. En annan sak som sätter stopp för SFF-fantaster ser vi nedan…








Utgångar



Strömförsörjning

Till vänster ser vi kortets utgångar. Här hittar vi två stycken DVI-portar. Perfekt för er som sitter med två stycken TFT-skärmar med andra ord. (Eller en TFT-skärm och en projektor med DVI-ingång tex.) Vill man ha ut vanlig analog signal går det givetvis utmärkt att använda en DVI-VGA-adapter. Längst till vänster har vi en S-Video-kontakt för TV-ut och på framtida modeller även Video In, HDTV-component-ut osv. Tyvärr kunde vi inte testa kortets TV-utkvalitet då nVidia inte skicka med någon kabel och ingen av dem vi hade hemma fungerade.

Till höger ser vi nummer två på listan av saker som förhindrar en att använda kortet i ett barebone. Kortet kräver två stycken rena 12v molexkontakter på seperata sladdar. Dessutom ska de komma från ett nätagg på 480 watt eller mer. Vi har provat med ett på 430 watt och det funkade fint så kvaliten på själva agget spelar också en vital roll. Klart står det i alla fall att kortet kräver energi som en tok.

Innan vi går vidare med några tester är det dags att gräva lite bland de teoretiska specifikationerna igen. Vi börjar med Shader Model 3.0.


Pixel och Vertex Shader 3.0 har ”funnits” i DirectX 9.0 redan sedan starten, trots att ingen hårdvara haft stöd för specifikationerna. DirectX 9.0c som släpps inom kort kommer att exponera de nya korten (och nya funktioner i de gamla korten) fullt ut för första gången. För nVidias del betyder detta att deras stöd för Shader Model 3.0 kommer att bli synligt. Vi tar därför en närmare titt på vad Shader Model 3.0 rent teoretiskt innebär och vad vi rent praktiskt tror om det. nVidia fortsätter att använda CineFX-namnet trots att de nu lämnat FX-serien bakom sig och med NV40 blir det dags att introducera CineFX 3.0. Mycket har hänt sedan sist.






Pixel Shader 3.0 i teorin

För att göra det hela mer överskådligt börjar vi med att ta upp Pixel Shader 3.0. I tabellen nedan hittar ni minimikraven för de olika versionerna av Pixel Shader 2.0 och 3.0. Vi har valt att utesluta Pixel Shader 1.x och 2.0x (2.0a och 2.0b) helt enkelt för att göra listan mer överskådlig.




















































































Pixel Shader-version

2.0

3.0

Antal instruktioner (/Texturinstruktioner):

64 / 32

512

Executed Instructions

64+32

65535

Full flyttalsprecision:

FP24

FP32


Dependent Read-begränsning:

4

Ingen


Texture Instruction-begränsning:

32

Ingen


Temporary Registers:

12

32


Constant Registers:

32

224

Instruction Predication:

Nej

Ja

Dynamic Flow Control:

Nej

Ja

Dynamic Branching:

Nej

Ja

Backface Register:

Nej

Ja

Arbitrary Swizzle:

Nej

Ja

Centroid Sampling:

Nej

Ja

FP16 textures och blending:

Nej

Ja

Multiple Render Targets:

Nej

4

Listan ovan är menlös om vi inte vet vilka kort som har stöd för vad. För att förtydliga:

  • Radeon 9500 – 9800 XT: 2.0
  • GeForce FX: 2.0(a)
  • GeForce 6: 3.0

Vi valde här att gå efter Microsofts specifikationer istället för att lista implementeringarna i olika grafikkortslösningar, vi finner det lättare att presentera informationen på detta sätt men samtidigt begränsar det oss lite då inget kort följer specifikationerna som listas ovan slaviskt. Tex. har Radeon-korten stöd för vissa saker som går utöver Pixel Shader 2.0-specifikationen medan GeForce FX å sin sida saknar stöd för vissa PS2.0-funktioner. Vi tar upp några punkter mot slutet av den här teoretiska genomgången.

Angående de olika kraven så har vi här listat minimikraven. Vissa av funktionerna som är krav i Shader Model 3.0, tex. Multiple Render Targets, är möjliga i Shader Model 2.0 men är inte ett krav och syns därför som ett ”Nej” i tabellen ovan. Tyvärr har Microsoft ingen närmare information om Pixel Shader 2.0a respektive 2.0b och den information som finns om 2.0x är så pass ofullständig att vi valt att inte ta med det i listan. Just nu listar Microsoft en version som upp till och med DirectX 9.0b kallats Pixel Shader 2.0x och specifikationen för denna version är väldigt diffus.

Som ni ser på det stora hela är Pixel Shader 3.0 ett relativt stort steg framåt från Pixel Shader 2.0. Pixel Shader 2.0a och 2.0b är ett mellanting mellan 2.0 och 3.0 med lutning mot 2.0.

En av de stora förändringarna vi har att göra med är Dynamic Branching. Tekniken innebär att Pixel Shader-program numera kan innehålla if-satser, dvs. samma metodik som används i nästan all annan programmering. Kort sagt behöver man inte längre köra ett program kodrad för kodrad utan kan istället lägga in olika satser för att dirigera vart i programmet det ska läsas. Helt klockrent är det dock inte då branching i vissa fall innebär prestandaproblem eller kanske snarare effektivitetsproblem.

Den andra uppenbara skillnaden är helt enkelt förmågan att köra längre Pixel Shader-program, med det menas att programmen nu kan innehålla fler instruktioner. Den tidigare gränsen i PS2.0, 96 instruktioner, är sprängd och numera kan man ha 512 instruktioner. Jämfört med DirectX8.1 (där Pixel Shader 1.1 hade max 8 instruktioner, 1.2-1.3 max 12 och Pixel Shader 1.4 hade max 14 instruktioner) är det här en ganska makalös siffra. Spelutvecklare rapporterade ganska kvickt att de körde in i väggen vad det gällde begränsningen på 96 instruktioner så att gränsen nu flyttas fram är ett välkommet tillägg. Givetvis lär vi inte stöta på några spel med Pixel Shader-program där man räknar instruktionsantalen vid tusental den närmsta tiden men att gränsen, ur praktisk synpunkt, nu är som bortblåst är trevligt att se.

Ett annat nytt fenomen är att minimikravet på vad som anses vara full flyttalsprecision ändrats från FP24 (96 bits) till FP32 (128 bits). Visserligen kunde FX-serien också skryta med stöd för FP32, den stora skillnaden med GeForce 6 är att man nu arbetat för fullt med att göra FP32 ”prestandastandarden”. Den dåliga prestanda som associerades med FP32 i FX-serien är alltså nu blott ett minne i GeForce 6-serien.

Ni som hållit er a jour med Half Life 2’s utveckling har förmodligen hört talas om Centroid Sampling vid det här laget. I korta ordalag lösningen på en viss typ av artifacting (grafikfel) som, ofta, uppstår då man använder MSAA. Problemet syns genom ”felfärgade” pixlar i FSAA-behandlade kanter.

Näst upp på listan har vi möjligheten att använda FP16-texturer och FP16 framebuffer blending. De mest intressanta möjligheterna här hamnar inom kategorin HDR. Digh Dynamic Range, medan det varit möjligt redan i PS2.0-hårdvara, tas till en ny nivå tack vare detta stöd. Vi talar alltså om ljussättning främst och medan (S)RGB duger (än så länge) för att representera de slutgiltiga färgerna på vår monitor så kräver interna beräkningar konstant mer precision.

Sist men inte minst finner vi MRT: Multiple Render Targets. Med multiple render targets kan per-pixel-information lagras i upp till fyra buffrar för att sedan användas för att tillsammans skapa avancerade effekter.






Pixel Shader 3.0 i praktiken

Vad betyder då allt detta för konsumenten? Kommer grafiken bli tio gånger bättre, kommer alla spel bli jättemycket snabbare? Som vanligt när det gäller den här typen av specifikationer gäller det först och främst att spel utnyttjar tekniken. Till stor del handlar det här om prestanda dock. Den stora massan av effekter som är möjliga i 3.0 är möjliga i 2.0. Kravet på FP32 i 3.0 är en av de få sakerna, förutom Centroid Sampling, som vi direkt kan knyta till bättre grafisk kvalité (i motsats till bättre prestanda dvs.). En annan sak som definitivt är värt att nämna bland de kvalitetshöjande funktionerna är möjligheten av använda texturer och frame buffer blending med partiell (FP16) flyttalsprecision. Å andra sidan fungerar det där åt båda hållen: desto bättre prestanda desto mer häftiga effekter kan man kosta på sig.
Med Pixel Shader 3.0 har vi tagit ett steg närmare offline-renderingskvalité ännu en gång.

Trots allt snack om pixels får vi inte glömma våra kära vertices; dags att ta en titt på Vertex Shader 3.0 med andra ord.


Pixel Shaders är det man oftast hör talas om när man talar om shaders, kanske för att effekterna man uppnår är så uppenbara. Vertex Shaders är dock en väldigt viktig del av dagens programmerbara grafikkort. Hittills har det till stor del handlat om prestanda men det finns också saker som är direkt relaterade till de effekter som är möjliga.






Vertex Shader 3.0 i teorin

Precis som i tabellen för Pixel Shaders har vi valt att utesluta version 1.x här.
















































Vertex Shader-version

2.0

3.0

Antal instruktioner:

256

512

Executed Instructions

65535

65535

Temporary Registers:

12

32

Instruction Predication:

Nej

Ja

Dynamic Flow Control:

Nej

Ja

Dynamic Branching:

Nej

Ja

Vertex Textures:

Nej

Ja

Vertex Stream Frequency:

Nej

Ja

Även på Vertex Shader-fronten har instruktionsantalet ökat. Maxantalet för VS 3.0 har vi inte hittat då Microsoft formulerar sig lite luddigt, minimum ligger dock på 512 vilket är en fördubbling jämfört med tidigare versioner.

Även Vertex Shader 3.0 har nu stöd för Dynamic Branching, Dynamic Flow Control och Predication precis som Pixel Shader 3.0. För detaljer kan ni läsa infon om Pixel Shader 3.0 istället för att jag upprepar mig.

Den stora förändringen kallas Vertex Textures. Vertex Shader-program kan nu läsa texturer direkt vilket kanske först och främst för tankarna till vad man skulle kunna kalla dynamisk Displacement Mapping. Med Displacement Mapping tar man tex. en gråskalig bild där de olika nyanser representerar olika höjd. Sedan tesselerar man en yta och deformerar den utefter denna height map. Metoden liknar den som används då man utför bump mapping fast med den stora skillnaden att man här faktiskt deformerar ytorna och inte bara simulerar deformationen med 2d-effekter.

En effektivitetshöjande funktion i VS 3.0 är Vertex Stream Frequency, med denna teknik kan man avgöra hur många gånger per vertex som man vill kalla en vertex shader. På så sätt kan man effektivisera arbetet genom att undvika onödiga ”calls”. Förutom att effektivisera kan det även användas för att diversifiera. Med en teknik som nVidia kallar Geometry Instancing kan man låta multipla objekt behandlas vid olika tillfällen.






Vertex Shader 3.0 i praktiken

Vad det gäller Vertex Shader 3.0 så kommer den nya specifikationen först och främst innebära bättre prestanda men tack vare Vertex Textures så öppnas också helt nya möjligheter. Displacement mapping får förhoppningsvis sitt genombrott i och med Vertex Shader 3.0.

På det stora hela är Shader Model 3.0 ett ganska stort steg framåt. Både vad det gäller prestanda och grafisk kvalité. Vi vet ett företag som snart kommer att påstå motsatsen dock. De slutgiltiga bevisen ligger i hur många spel som har stöd för tekniken helt enkelt. Vi har talat med ett par spelutvecklare och känner till femtalet spelutvecklare och åtminstånde tre, fyra specifika titlar som kommer att ha stöd för Shader Model 3.0 så faktiskt ser framtiden rätt ljus ut på denna punkt.

Vänd bladet för att läsa om mer programmerbara delar av GeForce 6.


De flesta grafikkortstillverkare idag har visat en önskan om att göra kort som är till för mer än bara 3D. GeForce 6800 Ultra fortsätter trenden genom att erbjuda en programmerbar videoprocessor i chippet.


Den nya, så att säga, sub-processorn har möjlighet att hårdvaruaccelerera encoding och decoding av en lång rad populära videoformat. MPEG, Windows Media 9, DivX och andra MPEG4-format står på listan. Förutom accelerering har vi också andra trevliga saker som realtids-post processing (dvs. effekter som appliceras på en video när den spelas upp), avancerad de-interlacing, högkvalitativ upp- och nerskalning med mera. Vad som bearbetas kan justeras beroende på vad datorn jobbar med. Vissa saker kommer förstås fortfarande att skötas av CPUn och det är fortfarande i vanligt RAM-minne som informationen lagras. Prestandaförbättringarna kan bli så stora som 60 %, tom. upp till 95% om vi får tro nVidia. Visserligen lär de flesta ha datorkraft nog att spela upp vad de vill. De stora fördelarna syns först när man multitaskar.
Förutom prestandaförbättringar har vi givetvis kvalitetsaspekten. Med med adaptiv per-pixel de-interlacing, de-blocking och andra post processing-effekter finns här potential att få video och film att se bättre ut än vad den gör idag.


Konkurerande produkter har liknande lösningar fast de går genom kortets vanliga pixel pipeline, i nVidias fall talar vi alltså om en helt egen enhet på grafikkortet som sköter video. Det som gör lösningen annorlunda är också det att den är programmerbar så att nya effekter och stöd för nya format alltid kan läggas till senare.


Det eleganta med lösningen är att nVidias drivrutiner helt enkelt "hakar på" Microsofts DirectShow, den del av DirectX som sköter video. På så vis behöver alltså tillämpningar inte ens vara medvetna om grafikkortets existens för att kunna dra nytta av dessa fördelar.


Vi skulle behöva lite mer specifik dokumentation från nVidia innan vi kan utvärdera funktionaliteten och göra regelrätta prestandamätningar men nog ser det ack så lovande ut. Det som vi däremot kan utvärdera redan idag är FSAA och Aniso, bläddra vidare för mer information.


Två finesser som är vardagsmat sedan några år tillbaka är FSAA och Aniso. Dessa två funktioner gör att man drastiskt kan höja bildkvaliten genom att reducera ”taggiga” (”pixliga”) kanter samt att öka detaljskärpan på texturer. Tillsammans gör de underverk för den slutgiltiga bilden. Allt är dock inte straight forward, det finns ett otal sätt att implementera dessa två funktioner. På denna sida går vi igenom de två teknikerna och redovisar vad de går för teoretiskt med syntetiska tester.

Den enda riktiga skillnaden i NV40 är att man numera har stöd för rotated grid antialiasing även när man kör i 4x-läget, något som tidigare bara var tillgängligt då man körde med 2x. I övrigt är det alltså samma teknik som gäller. Vi har fortfarande begränsningen på 4 MSAA samples att tampas med och för att nå högre nivåer måste man använda SSAA vilket är mycket mer krävande av grafikkortet.

Vi börjar med att förklara det här med Rotated Grid Anti Aliasing. Tekniken är knappast ny då den för första gången såg dagens ljus i Voodoo 5. För att exemplifiera skillnaderna mellan Ordered och Rotated kan vi titta på de två nedanstående bilderna:
















4x Ordered Grid










4x Rotated Grid

Ta en titt på hur många linjer som genomskärs av de två olika lösningarna (fler linjer = bättre subpixeltäckning). Rotated Grid Anti Aliasing ser bättre ut än Ordered Grid i nästan alla tänkbara fall om vi tar hela bilden i åtanke. Med 4x Ordered Grid tar NV40 4 samples per pixel med ett 2×2-subpixelmönster men med Rotated Grid kan man alltså sampla pixlarna med ett ett subpixelmönster på 4×4.
Dock är inte allt frid och fröjd med detta då man också måste ha bra positioner på dessa samples.

Ta en titt på bilderna nedan för att se hur 4x-läget utvecklats sedan sist:
















GeForce 3-FX 4x FSAA










GeForce 6
4x FSAA

Nedan har ni några jämförande bilder på ATis och nVidias samplesmönster:

















ATi 2x










ATi 4x










ATi 6x

















nVidia 2x










nVidia 4x










nVidia 8x

Som ni ser längst till vänster är ATi och nVidias samplemönster för 2x MSAA väldigt snarlika (om än roterade på olika håll). När vi går upp till 4x ändras dock bilden något. nVidia har roterat sina samples lika mycket allihopa medan ATi har till synes mer varierad positioner. Vid nVidias 8x och Atis 6x är situationen helt ny då nVidia introducerar SSAA i leken. Deras samplepattern här är långt ifrån idealiskt med tanke på att två samples tas från i princip identiska positioner. På ATi-fronten ser vi att deras FSAA-metod knappt går under kategorin Rotated Grid då dess samples är utspridda lite mer ”kaotiskt”, upplägget (om vi bortser från bristen på fler texture samples som i nVidias fall) är helt klart mer åtråvärt.

Som vi nämnt tidigare ”fattas” en sak i nVidias FSAA-implementering om vi jämför med närmaste motståndarna ATi. Den funktion vi talar om är gammakorrigering och som vanligt är det enklare att förklara principen om vi har bilder att arbeta med, var vänliga att begrunda de två bilderna nedan:
















Ej gammakorrigerad










Gammakorrigerad

Som ni ser ovan är den gammakorrigerade övergången från vitt till svart mycket mer nyanserad än den icke-gammakorrigerade. De svarta tonerna i den vänstra bilden är mer eller mindre identiska vilket gör att de om de synts längs kanten på en polygon gett ett mer ”taggigt” utseende än den korrigerade bilden till höger. nVidia har alltså valt att skippa denna, i vår mening, värdefulla funktion. Dock bör det nämnas att nVidia har stöd för gammakorrigering på andra ställen i sin GPU men alltså inte för FSAA-samples.

Slutligen har vi också Centroid Sampling som vi täckte på föregående sida. Ett problem med dagens multi sampling (i majoriteten av spel) är att samples ibland tas från fel textur i en texture atlas (en texture atlas är en stor textur med flera mindre texturer packade i den). Då detta görs blir vissa samples ”missfärgade” vilket ofta syns som alldeles för ljusa pixlar, på ”måfå” utströdda, längs en polygons kant. Med Centroid Sampling undviker man att sampla texturer som ligger utanför den polygons yta som man vill sampla.

Att bara inspektera sample patterns och teorin bakom gammakorrigering gör ingen lycklig och därför har vi också testat korten med Tommti-Systems FSAA-tester:















Ingen FSAA
















nVidia 2x










ATi 2x
















nVidia 4x










ATi 4x
















nVidia 8x










ATi 6x

Som vi ser producerar korten ganska snarlik bildkvalité när vi aktiverar 2x FSAA men tittar man noga är det ATi som kammar hem vinsten. Med 4x FSAA fortsätter trenden, ATi ligger före men marginalerna är långt ifrån stora. Även när vi aktiverar 8x på NV40 och 6x på R360 är det nVidia som åter igen får se sig besegrade vad det gäller kantutjämning. Å andra sidan har 8x-läget inslag av super sampling vilket gör att kvalitén på texturer också ökar, mer om det längre fram.
Kort sagt har nVidia gjort framsteg men de har fortfarande en bit kvar innan de kan rå på ATi.

Vi tänkte att det även vore intressant att se hur nVidias nya 4x rotated grid ser ut och har därför jämfört 4x FSAA på ett 5950 Ultra mot vårt 6800 Ultra:
















NV40 4x










NV38 4x

Mycket väl har kvalitén ökats sedan sist. Dock är förändringen lite mindre dramatisk än vad vi hoppats på.

För att summera har AA-kvalitén blivit bättre men inte bra nog jämfört med ATi. Det som fattas är med stor sannolikhet gammakorrigering och något bättre avvägda sample patterns. Bristen på MSAA-lägen över 4x gör givetvis också sig påmind. Jag kanske framstår som petig men i ärlighetens namn hade jag förväntat mig mer. FSAA-kvalitén på GeForce-korten är, med undantag för att man nu har rotated grid i 4x, i princip oförändrad sedan GeForce3-tiden.

Låt oss då ta en titt på hur det står till med kortets anisotropiska filtrering.


Vad det gäller anisotropisk filtrering har nVidia gjort två framsteg, egentligen bara ett om man ser det hela ur en hårdvarusynpunkt. Först och främst har de numera stöd för fler aniso-lägen; 6, 10 12 men främst 16x. ATi har erbjudit detta läge (16x) i flera år nu och på dem korten är skillnaderna i kvalitet mellan 8x och 16x knappt märkbar.

De andra nya lägena är inte tillgängliga i kortets kontrollpaneler (ännu?). Men en speltillverkare kan, förutsatt att drivrutinerna också har stöd för det, ställa in de nya nivåerna (6, 10 och 12x) om de så vill. För minutiösa prestandaavvägningar är det helt klart trevligt med flera val. (Om inte nVidia själva exponerar dessa lägen i sina kontrollpaneler är chansen stor att utvecklarna av så kallade ”tweakers, tex. RivaTuner, gör det ganska omgående.)

Den andra skillnaden har egentligen inget direkt med hårdvaran att göra och det är att nVidia adderat ett nytt kvalitetsläge i sina kontrollpaneler som de kallar High Quality. Med detta läge stängs all så kallad ”adaptive” texturfiltrering av och istället erbjuds det ”ren” filtrering utan några prestandaoptimeringar. Konstigt nog har vi inte märkt några skillnader mellan Quality och High Quality, dock finns det en annan ny inställning: Trilinear Optimizations vilken ger bättre bildkvalité om dem avaktiveras.

Nedan hittar ni en rad bilder där vi jämför de olika kortens AF med varandra. För er som inte är bekanta med aniso, mipmap-nivåer och sådant kanske det krävs en liten förklaring: Det som definierar en bra bild här är att färgnivåerna flyttas längre bak/in i bilden samt att övergångarna mellan de olika färgnivåerna är så jämna och smidiga som möjligt. Vi har gjort grundliga tester mellan High Quality och Quality men eftersom vi inte märkt någon skillnaden (inte en enda pixel) har vi här valt att redovisa resultaten med och utan nVidias Trilinear Optimizations (referrerade nedan till som ”TriOpt On” eller ”TriOpt Off”).

















ATi Trilinear









nVidia Trilinear TriOpt On









nVidia Trilinear TriOpt Off

Skillnaderna när vi bara använder trilinjär filtrering är knappast jättestora. ATis lösning sticket ut genom att ha något högre Level Of Detail. Med nVidias Trilinear Optimizations påslaget ser vi att gränserna mellan mipmap-nivåer är ganska skarpa. I vissa spel syns det här som band längs mipmap-nivåerna i stil med de som syns då man kör med bilinjär filtrering. Tack vare den nya inställningen kan vi dock stänga av optimeringarna och få ”vanlig” trilinjär filtrering.

















ATi 8x










nVidia 8x TriOpt On










nVidia 8x TriOpt Off

















ATi 16x










nVidia 16x TriOpt On










nVidia 16x TriOpt Off

När vi slår på anisotropisk filtrering blir skillnaderna mellan nVidias två olika lägen desto större. Som ni uppenbarligen ser på bilderna krävs det att man slår av Trilinear Optimizations för att bildkvalién ska bli jämförbar med ATis. Det är också intressant att se hur pass lik ATis nVidias nya aniso-implmementering är. Vid multiplar av 22.5 grader reduceras AF-nivån drastiskt på nVidias kort. På ATis kort händer det samma vid 25 grader. Att säga att det ena skulle vara bättre eller sämre är omöjligt.

Som bekant brukar inte spel bestå av att man tittar ner i en tunnel så därför har vi tagit några bilder på ”plan mark” också:

















ATi 8x










nVidia 16x TriOpt On










nVidia 16x TriOpt Off

Åter igen blir det uppenbart att vi måste stänga av nVidias optimeringar för att få en jämförbar bild. I alla fall i dessa teoretiska tester.

Minst lika viktigt är hur NV40 skiljer sig mot sina föregångare, nedan har vi jämfört NV40 (6800 Ultra) mot NV38 (FX 5950 Ultra):
Notera att vi tagit bilderna med de två kortens standardlägen för texturfiltreringskvalitet.

















NV38 Trilinear










NV38 8x Aniso









NV38 8x Aniso

















NV40 Trilinear










NV40 8x Aniso










NV40 8x Aniso

Den första bilden till vänster är intressant då vi kan se att övergångarna medan mipmapnivåer mer eller mindre ser orörda ut mellan de två korten. Men notera att NV38 har en något mer aggresiv filtrering vid 45 graders vinkel, precis raka motsatsen av hur det blir när man aktiverar anisotropisk filtrering på bilden i mitten. Om bilden i mitten finns det väl inte mycket att säga egentligen. Uppenbarligen är den mer ”klassiska” aniso-metoden i grunden att föredra men på sista bilden ser vi dock ett annat fenomen. Här är det NV40 som ter sig fördelaktigt istället.

I slutändan är det ett något blandat intryck. Att man som ATi numera låter aniso-kvalitén begränsas vid vissa vinklar ökar givetvis prestandan men samtidigt tär det något på bildkvalitén. Att vi numera har full kontroll över trilinjär filtrering är ett plus och det nya 16x-läget är ett välkommet tillskott även om det inte gör några gigantiska skillnader.
Som det ser ut nu är nVidias anisotropiska filtrering likvärdig med den ATi erbjuder. Hur den står sig mot äldre GeForce-kort är svårt att säga då nVidia både tagit steg fram och tillbaka på kvalitetsfronten.

Kanske är det så att det nya High Quality läget är tänkt att kontrollera vinkelberoendet? Vi vet faktiskt inte men vi anar ju att inställningen är till för något och hittills har vi inte listat ut vad. Vi bör nämna att det verkar vara någon form av bugg med inställningen. Oavsett om vi sätter den på High Quality eller Quality står den kvar på Quality i nVidias lilla tweakprogram som ligger i taskbaren.

På följande sida kommer vi att ta en närmre titt på hur de olika FSAA och aniso-lägena presterar relativt men också vilken inverkan de har på bildkvalitet i spel.


Som ni kommer att läsa längre fram gick ett av våra referenskort sönder innan vi riktigt hann påbörja recensionen. Av den anledningen har några av våra mer detaljerade tester saknat resultat från 5950 Ultra. Dessa tester var dem där vi utvärderade alla olika nivåer av FSAA och Aniso och därmed presenterar vi dessa tester på den här sidan.


Vi har kört alla tester i tre upplösningar men som ni kommer att märka nedan har många tester i 1280×1024, alla utom två för att vara exakt, uteblivit då vi stötte på problem med denna upplösning i UT2004. I högra kolumnen ser ni prestandaskillnaderna i procent:












































































Kort:

GeForce 6800 Ultra

Radeon 9800 XT

Skillnad:

Utan AA/AF:
1024×768
1280×1024
1600×1200

174.5
170.8
166.1

188.2
145.4
105.3


-7.3 %
17.5 %
57.7 %

2x AA:
1024×768
1280×1024
1600×1200
 

172.5
169.2
164.4

178
125.2
89.8


-3.1 %
35.1 %
83.1 %

4x AA:
1024×768
1280×1024
1600×1200

172.5
167.5
149.6

164.7

77.9

4.7 %

92 %

8x/6x AA:
1024×768
1280×1024
1600×1200

78
49.5
30.4

133.7

61.7


-41.6 %


-50.7 %

2x AF:
1024×768
1280×1024
1600×1200

174.4
169.8
157.9

166.4

87


4.8 %

81.5 %

4x AF:
1024×768
1280×1024
1600×1200

171.2
167
136.6

150.6

76.5


13.7 %

78.6 %

8x AF:
1024×768
1280×1024
1600×1200

170.3
162.6
126.6

140.8

73


20.9 %

73.4 %


16x AF:
1024×768
1280×1024
1600×1200

169.9
160
124.4

139.5

72.3


21.2 %

72.1 %


2xAA/4xAF:
1024×768
1280×1024
1600×1200

169.4
162.8
128.3

137

68


23.6 %

88.7 %


4xAA/8xAF:
1024×768
1280×1024
1600×1200

164
140.7
103.9

116.6

58.8


40.7 %

76.7 %


8/6xAA/16xAF:
1024×768
1280×1024
1600×1200

53.9
35.6
23.1


101.1

50.2


46.7 %

-54 %

GeForce 6800 Ultra presterar makalöst, ingen tvekan om den saken. I 1600×1200 är det cirka 80 % snabbare än ett Radeon 9800 XT i genomsnitt. I 1024×768 finns det skillnader också men de är något blygsammare. Att ett kort kan prestera nästan dubbelt så snabbt som den tidigare kungen 9800 Xt är inget annat än häpnadsväckande. Det var väldigt länge sedan vi såg så här stora prestandaökningar från ett nytt grafikkort. Senaste tillfället jag kan minnas är Radeon 9700 Pro vs. GeForce 4 Ti 4600.

Men som ni ser råkar GeForce-kortet illa ut så fort vi slår på 8x FSAA. När denna super sampling + multi sampling hybrid aktiveras störtdyker prestandan långt ner under R360’s nivå. Dock har super sampling sina fördelar då det ökar texturskärpan och minskar texture aliasing.

Vi har haft problem med att ta screenshots då FSAA var aktiverat på NV40 i fullskärmsläge och vi hade också ett problem med ATis drivrutiner i Open GL. När vi tagit alla screenshots insåg vi att det inte var någon FSAA på något av nVidias screenshots och att ATis screenshots alla var utan Aniso av någon annan outgrundlig anledning.

Tyvärr innebär detta att vidare screenshots uteblir för tillfället. Vi ämnar att rätta till detta snarast möjligast.


Inför dagens tester har vi uppgraderat testsystemet något. Förändringen är den att vi skaffat en extra Western Digital Raptor för att nu köra de två diskarna i RAID0. Allt för att få prestandaresultat som så lite som möjligt är begränsade av andra faktorer än grafikkortet.


Testsystem
Hårdvara
Processor:
AMD Athlon XP 3200+ (400) Mhz
Moderkort:
ABIT AN7 uGuru
(nForce2 400 Ultra)
RAM:
768 MB DDR400 @ 2-5-2-2 Timings:
3x 256 MB Corsair TWINX512-3200LL DDR-SDRAM
Grafikkort:

Recenserade kort:
GeForce 6800 Ultra (256 MB, 400/1100)

Referenskort:
GeForce FX 5950 Ultra (256 MB, 475/950)
Radeon 9800 XT (256 MB, 412/730)

HDD:
RAID0: 2x 37 GB Western Digital Raptor 10 000 RPM (SATA, 8 MB cache)
Ljudkort:
Creative
Soundblaster Audigy 2 ZS Platinum Pro
PSU:
Tagan TG480-U01 480w
Ethernet:

3Com 10/100

Mjukvara
Operativsystem:
Windows XP Professional (Service Pack 1 + uppdateringar)
Videodrivrutiner:
nVidia: Forceware 60.72
ATi: Catalyst 4.4
Andra drivrutiner:
nVidia ForceWare UDA Chipset Drivers v3.13
Benchmarkprogram:

Unreal Tournament 2003 (v2225)
Quake 3: Arena (v1.32)
Tomb Raider: Angel of Darkness (v.49)
Star Wars Jedi Knight: Jedi Academy (v1.1)

Battlefield 1942: Secret Weapons of World War II (demo ”1.0”)
Comanche 4 (demo ”v1.0”)
WarCraft 3: Reign of Chaos (demo ”1.0”)
Counter-Strike (v1.6)
Mafia: City of Lost Heaven (v1.1)
Halo (v1.04)
Max Payne 2: The Fall of Max Payne (v1.01)
Unreal Tournament 2004 (”v1.0”)
3DMark03 (v.340)*
D3D AF-Tester (v1.3a)

D3D FSAA Viewer (v4)

FSAA Tester (v2.3)

Vi har valt att ta med två referensprodukter idag; GeForce FX 5950 Ultra och Radeon 9800 XT. Tråkigt nog gick vårt 5950 Ultra sönder under testandet och därför har vi tre spel på listan (plus en del annat) som vi bara kunnat testa på GeForce 6800 Ultra och Radeon 9800 XT.


* Eftersom det varit en massa rabalder kring 3DMark03 och olika optimeringar har vi valt att testa 3DMark03 enbart på 6800 Ultra. Enda anledningen är för att stilla den nyfikenhet som vi vet finns bland våra läsare. Själva anser vi dessa testresultat vara relativt ointressanta i nuläget.

Eftersom vi varit begränsade både vad det gällde tid och på grund av att vårt 5950 Ultra gick sönder så har vi idag valt att bara testa kortet i vår vanliga testsvit bestående av en lång rad spel. Oturligt nog är vi begränsade till testresultat i 1280×1024 med 4x FSAA och 8x Aniso. I en framtida artikel kommer vi att publicera mer heltäckande resultat.


I samtliga tester använder vi upplösningen 1280×1024 med 4x AA (Full Scene Anti Aliasing dvs. kantutjämning) och 8x AF (Anisotropic filtering dvs. avancerad texturfiltrering) om inte annat anges. På ATIs kort använder vi Quality Aniso och på nVidias kort använder vi Trilinear Optimizations off och inställningen Quality. Vi har valt upplösningen 1280×1024 (eller 1280×960 i de spel där inte 1280×1024 erbjuds) för att detta är en rimlig inställning vad det gäller prestanda men också för att de flesta av våra läsare lär ha monitorer som klarar denna upplösning.
I de tester där 1280×1024-4xAA/8xAF visat sig vara för krävande har vi i första hand valt att sänka upplösningen till 1024×768 och sedan sänkt och slutligen stängt av AA/AF tills en spelbar prestandanivå är nådd.


Efter att vi gjort de faktiska prestandatesterna har vi spenderat cirka 30 minuter (i vissa fall mycket längre än så) med att sätta oss ner och spela spelet ordentligt för att se hur det fungerar i praktiken.
























Quake 3: Arena

Open GL-spelet Quake 3 testar vi för att utvärdera prestandan i något äldre titlar. En stor mängd titlar bygger på ”Q3”-motorn. Vi använder oss av testdemot four.dm_67 i testverktyget Q3Bench.

Spelmotor:

Open GL (DX7-klass)

Pixel Shaders:

Nej

Vertex Shaders:

Nej











6800 Ultra imponerar med 50 % bättre prestanda än vårt 9800 XT. Gamla goa 5950 Ultra ligger mitt emellan de två kämparna med sina 250 fps.

Subjektiv analys: Visst behöver man inte 300 fps för att spelet ska flyta. Men med 300 fps i genomsnitt har man också mycket högre fps även i de riktigt krävande situationerna än ett kort som har 100 fps i genomsnitt. Här finns det gott om utrymme att höja nivån av FSAA/Aniso och upplösning.
























Unreal Tournament 2003

UT2003 är ett DirectX 8-spel som pressar grafikkorten hårt med stora texturer och höga polygonantal mm. Ett flertal spel bygger på denna motor. Vi använder oss av det mer grafikkrävande flyby-testet. Vi testar spelet på banan Inferno.

Spelmotor:

Direct3D (DX8.1)

Pixel Shaders:

Ja (1.1 och 1.4)

Vertex Shaders:

Ja (1.1)










Radeon 9800 XT har legat på toppen här i flera månader, 6800 Ultra knuffar ner det med lätthet. Prestandaökningen jämfört med 5950 Ultra är inget annat än enastående!

Subjektiv analys: UT2003 är en fröjd på 6800 Ultra. Tom. i högre upplösningar flyter det helt felfritt.
























WarCraft 3: Reign of Chaos

WarCraft 3 är ett av förra årets bäst säljande spel vilket gör det till ett bra testobjekt. Trots att grafiken saknar extravagant teknik är spelet rätt så krävande. Prestandatesterna är utförda på första banan i WC3-demot med hjälp av FRAPS.

Spelmotor:

Direct3D (DX8.1)

Pixel Shaders:

Nej

Vertex Shaders:

Nej










Det är inte precis några stora skillnader i Warcraft 3, tack vare att det är CPU-begränsat till stor del väntar vi oss inte mycket här. NV40 tar ledningen men knappast med någon anmärkningsvärd marginal.

Subjektiv analys: I min mening har man föga användning av fler än cirka 30 fps i ett RTS. De flesta korten på marknaden klarar det galant och 6800 Ultra är givetvis inget undantag.

























Mafia: The City of Lost Heaven

Mafia bygger på en egenutvecklad Direct3D-motor och använder stora mängder relativt lågkvalitativa objekt för att på så vis skapa en stor detaljrikedom. Liknande spelmotorer finnes i tex. GTA-serien. För att mäta prestandan har vi kört Free Rides första bana och använt FRAPS.

Spelmotor:

Direct3D (DX8.1)

Pixel Shaders:

Ja (1.1)

Vertex Shaders:

Ja (1.1)











Som vanligt har nVidias kort väldigt svårt att hävda sig i Mafia. Vi vet inte riktigt vad de bakomliggande orsakerna är men uppenbarligen är det mer än bara rå GPU-kraft som spelar roll här. Det tål ju dock att nämnas att NV40 ändå är en markant förbättring jämfört med NV38.

Subjektiv analys: Prestandaskillnaderna mellan 9800 och 6800 är större på pappret än hur de i verkligheten upplevs. Spelet flyter fint på NV40 trots andraplatsen.
























Comanche 4

Comanche 4 bygger på en egen Direct3D-motor som använder Pixel och Vertex Shaders samt högupplösta testurer. Spelet är ett av de få som verkligen ”behöver” ett grafikkort med 256 MB. Vi testar med det nerladdningsbara demots benchmarkverktyg.

Spelmotor:

Direct3D (DX8.1)

Pixel Shaders:

Ja (1.1)

Vertex Shaders:

Ja (1.1)










I Comanche 4 är vi åter igen CPU-begränsade tyvärr. Dock inte begränsade mer än att 6800 Ultra lyckas ta förstaplatsen med en relativt god marginal för att vara detta test.

Subjektiv analys: Comanche 4 flyter givetvis bra på alla tre kort vi testat. Dock har vi större marginal att höja upplösningen på 6800 Ultra.
























Counter-Strike


Counter-Strike behöver någon direkt presentation. Dock sägs det att nya 1.6-versionen är mer krävande än föregångare och därför valde vi att testa det. Testet består i ett demo av banan de_aztec med sammanlagt 18 spelare.

Spelmotor:

Open GL (DX6-klass)

Pixel Shaders:

Nej

Vertex Shaders:

Nej










CPUn sätter gränserna igen. För CS-fantasten lär det inte spela stor roll vilket kort man väljer.

Subjektiv
analys:
CS flyter på alla korten här. Det finns inte mycket mer att säga än så.

























Battlefield 1942:
Secret Weapons of WWII


Svenskutvecklade Battlefield 1942 är fortfarande ett väldigt populärt onlinespel och känns därför viktigt att testa. Återigen använder vi verktyget FRAPS och testar det nerladdningsbara demot.

Spelmotor:

Direct3D (DX8.1)

Pixel Shaders:

Nej

Vertex Shaders:

Nej











Battlefield 1942 har varit ännu ett av Radeonseriens trumfkort hittills. NV40 sätter stopp för trenden och levererar en makalös förbättring jämfört med vad GeForce FX 5950 Ultra kunde erbjuda. Någon större skillnad mot 9800 XT är det däremot inte.

Subjektiv analys: Jämfört med 5950 Ultra är det helt underbart att spela Battlefield på vårt NV40. Om vi istället jämför med Radeon 9800 XT så är skillnaderna minst sagt minimala.
























Tomb Raider:
Angel of Darkness



Tomb Raider är det första kommersiella spelet som fullt ut använder DirectX 9.0 för sin grafik och gör det därför till ett intressant testobjekt. Testet utförs med den senaste patchens inbyggda verktyg. Banan Prague3a valdes för ändamålet.

Spelmotor:

Direct3D (DX9)

Pixel Shaders:

Ja (1.1, 1.4 och 2.0)

Vertex Shaders:

Ja (1.1 och 2.0)










Dags för ännu en gigantisk prestandaökning jämfört med föregående generation. ATis nuvarande värsting håller dock fortet och är inte särskilt berört.

Subjektiv analys: Tomb Raider flyter riktigt fint med 6800 Ultra, nästan lika bra med 9800 XT men ganska värdelöst med 5950 Ultra. De små skillnaderna till trots så är NV40 faktiskt en märkbar förbättring av det vi upplevt då vi spelat med 9800:at.
























Star Wars Jedi Knight:
Jedi Academy



Jedi Academy är uppföljaren till det populära Jedi Knight II. Det bygger på Q3-motorn men har bland annat väldigt högupplösta texturer och mer ljuseffekter. Vi har testat ett egenhändigt inspelat demo från banan Traspir där vi mötte 7 motståndare.

Spelmotor:

Open GL (DX8.X-klass?)

Pixel Shaders:

Ja? (1.x?)

Vertex Shaders:

Ja? (1.x?)










Det krävs inte ett snille för att räkna ut att vi är CPU-begränsade igen. En liten prestandaökning orkar kortet dock med.

Subjektiv analys: I Jedi Academy upplever vi inga skillnader i prestanda. För att skillnader ska göra sig bemärkta måste vi höja upplösningen ett steg förmodligen.

























Halo: Combat Evolved

Halo skulle man nog kunna kalla det första riktigt spelvärda DirectX9-spelet vilket givetvis gör det mycket intressant. Vi testar prestandan genom att lägga till kommandoraden -timedemo vilket mäter prestandan i spelets ”cutscenes” vilket ger en hyffsad bild av kortens prestanda i spelet.

Spelmotor:

Direct3D (DX9)

Pixel Shaders:

Ja (1.1, 1.4 och 2.0)

Vertex Shaders:

Ja (1.1)












Recensionens mest imponerande resultat hittar vi på i det näst sista speltestet. NV40 visar råstyrkan det besitter och fullkomligt krossar de två referenskorten utan någon nåd. NV40 är mer än dubbelt så snabbt som NV38 här. Förhoppningsvis är det här en trend vi kommer se mer av i framtida DirectX9-tester.

Subjektiv analys: Prestandaskillnaden här är väldigt markant. Spelet flyter otroligt mycket bättre på NV40 än något annat kort som är tillgängligt idag. Mer sådant här tack!
























Max Payne 2: The Fall of Max Payne

Uppföljaren till det omåttligt populära Max Payne utvecklat av finska Remedy. Vi testar spelprestandan genom att benchmarka med FRAPS i en så kallad ”cut-scene”. Spelet använder den spektakulära Havok-fysikmotorn och Pixel Shaders bland annat.

Spelmotor:

Direct3D (DX9)

Pixel Shaders:

Ja (1.1 och 1.4)

Vertex Shaders:

Ja (1.1)











Sist bland testerna är Max Payne 2 där 6800:at tar ledningen igen. Ännu en gång ser vi en markant ökning över 5950 men ett mindre drastiskt övertag över 9800.

Subjektiv analys: Bäst flyter såklart spelet på 6800 Ultra men skillnaden mot 9800 är inte särskilt stor i denna upplösning.






Avslutande ord om speltesterna

GeForce 6800 Ultra är, som väntat, det snabbaste grafikkortet vi någonsin testat på NordicHardware. Prestandaökningen över GeForce FX 5950 Ultra ligger på allt från några få procent till över 100 %. Skillnaderna lär bli mer markanta desto fler DirectX9-tester vi får in.
Skillnaderna mot 9800 XT är lite mindre dramatiska överlag men de finns där och är helt klart märbara i många tester.
Det mest imponerande är såklart de tester vi körde i 1600×1200 här har dagens kort helt enkelt inte en susning mot 6800 Ultra som inte sällan är nästan dubbelt så snabbt!

Tyvärr gick vårt 5950 Ultra sönder vilket har gjort att vi begränsats till de flesta tester vi hann köra i 1280×1024. Hade vi kört i 1600×1200 hade 6800 Ultras övertag blivit ännu större. Dock känner vi också att det är att göra läsarna en björntjänst om vi pressar för hårt på 1600×1200-resultat. Enligt våra läsarundersökningar har majoriteten av våra läsare antingen en 17-19 tums CRT eller en 17-19 tums TFT. Ingen av dessa monitorer är direkt kapabla att köra 1600×1200. Visserligen kanske några av CRT-skärmarna klarar upplösningen men då bara vid otillfredställande refresh rates.

Det som vi måste vänta på innan vi kan ge ett ordentligt utlåtande är dels de nya spelen Doom 3 och Half Life 2 som alldeles snart bör finnas tillgängliga men också ATi kommande kort. När vi fått in i alla fall två av dessa tre saker i vårt testlabb kan vi fälla en säker dom. Som det ser ut nu är i alla fall GeForce 6800 Ultra världens snabbaste grafikkort. Vi har knappt hittat något spel, oavsett inställning, som inte flyter på det här kortet. Det är verkligen bara att tuta och köra. För mig personligen betyder det 1280×1024 med 4x FSAA och 16x Aniso i alla spel jag äger, tom. nya titlar som Far Cry funkar galant med de inställningarna.

I ett kommande test kommer vi att köra fler prestandatester i olika upplösningar och med mer varierade nivåer av AA/AF. Vi kommer även att inkludera tester från tex. UT2004, Far Cry och andra populära speltitlar.

För er som sitter där hemma och bara vill veta hur många 3DMarks det här kortet kan prestera har vi också besked: 11688. Med snabbare processorer har vi sett resultat över 13k. Men tills Futuremark certifierat några drivrutiner för NV40 tar vi dessa resultat med en nypa salt.

För er som inte tycker att NV40 är snabbt nog har det nu blivit dags att testa överklockning.


Eftersom vi idag testar ett referenskort som av allt att döma inte är den slutgiltiga produkt som hamnar i affären bör ni ta våra överklockningsresultat med en nypa salt.

För överklockning använder vi Coolbits och för att testa stabilitet och leta efter så kallade artifacts använder vi Mother Nature-testet i 3DMark03. RivaTuner som vi brukar använda fungerade inte alls, om det beror på drivrutinerna eller hårdvaran vet vi inte men faktum är att inget program lyckades läsa av klockfrekvenserna korrekt. 3DMark03 tex. repporterade att vi hade en core på 0 MHz och att minnet gick i 70 MHz.

Produkt
Standard
Överklockat
Procent
nVidia 6800 Ultra
400/1100
446/1170
11.5/6.4

Som ni ser är det allt annat än imponerande resultat vi fått fram. Vänder man lite på steken så kan man se på det på följande vis:
Överklockar man coren på ett 5950 Ultra 46 MHz
så ökar man kortets pixel fillrate med 184 MP/s (4×46), när vi klockar vårt 6800 Ultra samma antal MHz får vi en ökning på 736 MP/s (16×46) istället. Men, oavsett hur man ser på det hela så är 11.5 % inget imponerande resultat.
Minnet for ännu sämre och lyckas bara hosta upp 6.4 mesiga procent extra åt oss. Förhoppningsvis blir tredjepartstillverkarna vår räddning här.

Om vi istället tar upp de positiva sidorna så är det att kortets temperatur inte påverkas nämnvärt av vår överklockning. Man kan också resonera att man inte ”behöver” överklocka ett NV40 men i ärlighetens namn är det väl inte så värst många människor som överklockar för att de ”behöver det”.

Det har blivit dags att slå igen butiken. Efter 15 sidor känner vi att det är dags att summera.


Vad blir det då för ett utlåtande?

Först och främst är det ju prestandan som imponerar här. Kortet är, som väntat, helt oslagbart i så gott som allt vi testade (med ett undantag bara). Desto mer ögongodis och desto högre upplösning desto större blir skillnaderna. Tyvärr framgick det inte 100% av vår förhandstitt eftersom vi var begränsade till 1280×1024. Kortets egentliga ”sweet spot” är 1600×1200 med 4x FSAA och 16x Aniso, i de inställningarna är det helt enkelt makalöst. Prestandaförbättringarna ligger på upp till 100 %, i vissa teoretiska tester kan man se ökningar som är ännu högre än det.
Det som imponerar mest om vi bortser från höga upplösningar med massa AA/AF är såklart DirectX9-prestandan. Som vi ser i Halo och Tomb Raider har prestandan verkligen fått sig en rejäl ökning så alla som var avskräckta av FX-seriens dåliga DX9-prestanda kan nu pusta ut.
Kort sagt GeForce 6800 Ultra är världens snabbaste grafikkort och det med råge. Den stora frågan är ju så klart om ATi kommer att kunna kontra med sitt R420, som det ser ut nu lär det blir en tuff match.
Sina extremt bra prestanda till trots finns det ändå en sak som gnager lite och det är minnets hastighet. Som vi nämnde tidigare får man lite en känsla av att kortets design är lite ur balans. De två viktigaste faktorerna traditionellt sett är bandbredd och fillrate. Medan vi sett en extrem ökning av fillrate så är bandbreddsökningen desto mer blygsam. Turligt nog har nVidia redan från starten påpekat på att det finns tillverkare som tänker ”råda bot” på detta.

Lika viktigt som prestanda är bildkvalité. Här ser vi att nVidia tagit steg framåt för att höja bildkvalitén ytterligare några snäpp. Det mest uppenbara tillägget är stöd för 4x Rotated Grid Kantutjämning. ATis lösning är fortfarande snäppet vassare i mina ögon men så fort upplösningen höjs till 1280×960 eller mer så blir skillnaderna minst sagt svåra att se. Ett steg i rätt riktning men ett steg som kunde varit längre så att säga. Det är trevligt att se nVidia behålla 8x-läget vilket kombinerar MSAA och SSAA men vi tycker det är något förbluffande att de valt bort 4xS vilket hade gett nästan lika bra bildkvalité för en bråkdel av prestandaförlusten. (Förhoppningsvis kan dock tweakers såsom RivaTuner hjälpa oss här.)
Den andra punkten är givetvis stödet för 16x Anisotropisk filtrering och det faktum att nVidia nu låter en ha full kontroll över trilinjär filtrering. Riktigt trilinjär filtrering är något som saknats ända sedan GeForce FX först introducerades och det är skönt att se att vi får en comeback med GeForce 6. Å andra sidan har nVidia valt att, som ATi, implementera en vinkelberoende aniso-lösning vilket gör att vi samtidigt som vi tar två steg framåt och tar ett steg bakåt.
De nya funktionerna i Shader Model 3.0 lär också på sikt ge oss spel med ännu snyggare effekter än vad vi hittills skådat. De demos och exempel vi sett ser i alla fall mycket lovande ut.

Om vi går över till saker som inte är direkt relaterade till 3D så har det hänt grejer här också. Först och främst är det den nya videomotorn som vi finner spännande. Med stöd för hårdvaruaccelererad post processing, encoding och decoding är det här spännande teknik vi har att göra med. Problemet är att vi inte riktigt kunnat utvärdera tekniken ännu men vi jobbar på det.
Nästa icke-3D-sak på vår lista är så simpelt som kortets outputs. Det är mycket trevligt att se att nVidia valt att göra dubbla DVI-utgångar till standard på GeForce 6. I övrigt är 2D-kvalitén på topp, likaså prestandan även om ökningen inte är i närheten av så dramatisk som den är när det gäller 3D.

Ett annat område, och nu glider vi in på sådant som inte direkt är relaterat till hårdvaran egentligen, är de nya ForceWare-drivrutinerna i serie 60.xx. Här ser vi många stora framsteg som vi verkligen gillar. Stöd för applikationsspecifika inställningar är något som vi borde haft i flera år nu så det är med glädje vi ser dem dyka upp i nVidias drivrutiner. Likaså stödet för flera monitorer har blivit mycket bättre i senare versionerna av nView. För alla AMD64-fantaster har vi också goda nyheter då nVidia har mycket i görningen på denna front. Det finns en hel del kvar att optimera i drivrutinerna och nVidia kommer fortsätta att släppa öppna betor.
Att nVidia är väldigt dedikerade till 3D-gaming (3D-glasögon, 3D-displays osv.) kanske inte rör många i ryggen men vi vet att det är det finns inbitna entusiaster som pustar ut när de får höra att nVidia har stora planer för denna teknik.

Om vi istället går över till de negativa aspekterna så rör de sig faktiskt inte om chippet i sig direkt, snarare är det de fysiska aspekterna som stör oss. Kraven på köparnas nätaggregat är galna. Visserligen funkade kortet utmärkt när vi testade det med ett 430w’s nätagg men å andra sidan hade vi bara CPU, moderkort, minne och hårddisk som slogs om strömmen. Förutom kraven på själva specifikationerna är det också kraven på två ”rena” sladdar som sitter lite som en nagel i ögat. Jag kör kortet i min personliga dator just nu och jag har helt enkelt inte två lediga sladdar över så i slutändan blev det till att koppla bort en av mina IDE-enheter. Visserligen har jag provat att koppla tillbaka IDE-enheten och låter nu den dela en av sladdarna med GeForce-kortet, hittills verkar det funka bra, men helt tryggt känns det ju inte med tanke på hur pass strikta nVidia är med sina krav.
De andra två aspekterna berör kylningen. Dels är det lite irriterande att vi inte kan komma ifrån dessa dual-slot-kylningar och sedan har vi detta med ljudnivån. Men till vår stora förtjusning är det sällan kortets fläkt spinner upp i sitt snabbare läge. Faktum är att vi i allmänhet är förvånade över hur pass svalt kortet håller sig trots att fläkten går i det tystare läget.
På det stora hela är det inga gigantiska fel vi ser. För den som vill bygga en monsterdator med den bästa tillgängliga prestandan är det nog inget snack om saken att det är värt den extra mödan.

GeForce 6800 Ultra är ett förbannat bra kort. Prestandan är extrem, bildkvalitén har gjort stora framsteg sedan GeForce FX-serien, stödet för Shader Model 3.0 imponerar och den nya ”video-enheten” är bara en av prickarna över detta i:et. Vill man ha det absolut bästa grafikkortet på marknaden idag är det nVidia som tillhandahåller det. Frågan är bara hur länge det kommer att vara gällande. När ni läser den här recensionen är jag på väg för att ta reda på det…
Hur som helst, efter en smärre miss med FX-serien är nVidia nu tillbaka och det med besked!

Leave a Reply

Please Login to comment
  Subscribe  
Notifiera vid