Sammanfattning

Den andra betan av Ashes of the Singularity påvisar ett antal tydliga mönster, likt den första beta-versionen. Skillnaderna mellan DirectX 11 och DirectX 12 är stundtals markanta och vi ser det tydligare i högre upplösning, men även hur Multi-GPU presterar beroende på vilket grafikkort som är det primära.

Analys av resultaten: DirectX 11 vs DirectX 12

Ashes of the Singularity är första spelet som utnyttjar DirectX 12 på allvar, och även spelet bara är i en betafas så ser vi redan stora skillnader mellan DirectX 12 och DirectX 11. DirectX 12 ger spelutvecklare bättre kontroll över hårdvaran vilket gör det möjligt att optimera spel redan vid utvecklingsfasen. För spelare innebär det bättre prestanda överlag tack vare bättre optimerade verktyg för spelutvecklarna. En av de stora nyheterna med DirectX 12 är också att det är betydligt bättre på att hantera stora mängder av data samtidigt, speciellt tack vare asynkrona beräkningar, det vill säga kömekanismen för hur grafikkortet hanterar inkommande data.

ashes screen 2

För AMD som har stöd för asynkrona beräkningar innebär det en otroligt bra prestandaskjuts med DirectX 12 jämfört med DirectX 11, och vi ser det tydligt i våra prestandatester. Nvidia får också en liten prestandavinst med DirectX 12 men det är bara på några enstaka bilder per sekund. AMD är den som i slutändan plockar hem prestandakronan i både 1080p och 4K. Det kommer dock bli intressant att återbesöka DX12-testerna när Nvidia lanserar sin Pascal-familj grafikkretsar, som får utökat stöd för asynkrona beräkningar och som därför kan dra bättre nytta av Directx 12.

Det är också värt att ha i åtanke att strategispel som Ashes of the Singularity, där flera saker händer och ska beräknas samtidigt parallellt, är precis den typen av rendering som gör sig bäst med de förbättringar som DX12 tillför; det är inte alls säkert att andra speltitlar, som kanske är mer linjära, kommer att få ut lika stora prestandavinster.

Multi-GPU fungerar över förväntan

Nvidia SLI och AMD Crossfire är ingen nyhet och vi har länge kunnat använda flera grafikkort i ett system för att öka prestandan, men att använda ett AMD och ett Nvidia grafikkort i ett system har inte varit möjligt i någon större utsträckning (undantaget Lucid Hydras lösning för några år sedan, som aldrig fick ordentligt fotfäste). Med DirectX 12 kan spelutvecklare redan vid utvecklingsfasen implementera stöd för Multi-GPU vilket gör det möjligt att använda grafikkorten från båda företagen samtidigt. Prestandamässigt är det jämförbart respektive tillverkares flergrafikkortslösningar och det är förvånansvärt stabilt, åtminstone vad gäller själva renderingen; ett antal gånger kraschade spelet när vi lämnade det med alt + tab, men under speltiden märkte vi inga buggar eller problem som kunde knytas till just multi GPU-lösningen. Tittar vi på prestandaresultaten ser vi att det primära grafikkortet är det som bestämmer hur bra hela systemet presterar. När Radeon Fury X är det primära kortet får vi något bättre resultet än när det är tvärtom.

När det kommer till Multi-GPU är det inte prestandan utan snarare logiken bakom det som får oss att rynka på pannan. Till att börja med så måste spelutvecklare implementera funktionen i spelet vilket vi tror kan vara ganska långsökt. För det andra så måste AMD och Nvidia fortsätta tillåta att det händer, vilket inte alls är skrivet i sten, och för det tredje så är det inte särskilt ofta man faktiskt köper två olika grafikkort från två olika tillverkare. Det är häftigt och prestandamässigt fungerar det tillräckligt bra och det är stabilt nog men vi undrar lite om det är lönt. Det hade varit kul att som konsument kunna återanvända sitt gamla grafikkort i ett nytt system och vi hoppas det blir möjligt även efter Ashes of the Singularity men vi är skeptiska och väntar på fler speltitlar innan vi uttalar oss mer om Multi-GPU.

Ashes of the Singularity släpps den 22 mars och kommer att finnas tillgänglig på bland annat Steam.

Innehåll

Annons

12
Leave a Reply

Please Login to comment
12 Comment threads
0 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
10 Comment authors
darrenjd1anny2Tony FCarl HolmbergMorkul Recent comment authors
  Subscribe  
senaste äldsta flest röster
Notifiera vid
Robertxxx
Gäst
Robertxxx

Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested.

DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon.

När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.

maxium
Medlem
maxium

+1

nILGot
Medlem
nILGot

Är det inte mer intressant vad mellanklasskorten klarar med ett extra kort? Det är väl större chans att någon skulle stoppa i ett kort till när man inte har spelbara frekvenser en att någon som det redan flyter för skulle göra det?

Flyfisherman
Medlem

Ytterligare en kombination som hade varit intressant eftersom det nog är mer vanligt:
Att kombinera ett diskret grafikkort med processorns inbyggda GPU.

Men processorn i testlabbet Intel Core i7-5960X kanske inte har inbyggd grafik?

tony f
Gäst
tony f

[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested.

DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon.

När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote]

Inte första gång det känns som NH favoriserar Nvidia

Medlem
Andreas Paulsson

Om ni nu känner oklarheter med testmetodiken, kan ni inte fråga skribenten i fråga än att bara hävda en massa. Där finns säkerligen en grundläggande tanke med metodiken, eller begränsningar som gjorde valen av grafikkort. nILGot och Flyfisherman tycker jag har intressanta tankar kring testmetodiken. [quote name=”tony f”][quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt… Läs hela »

Flyfisherman
Medlem

Det verkar som Nvidia inte har aktiverat async shading i sina drivrutiner ännu. AnandTech [url]http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/7[/url][quote]Going hand-in-hand with DX12, RTG’s cards are the only products to consistently benefit from Ashes’ improved asynchronous shading implementation. Whereas our NVIDIA cards see a very slight regression ([b]with NVIDIA telling us that async shading is not currently enabled in their drivers[/b]), the Radeons improve in performance, especially the top-tier Fury X. This by itself isn’t wholly surprising given some of our theories about Fury X’s strengths and weaknesses, but for Ashes of the Singularity performance it further compounds on the other DX12 performance gains for… Läs hela »

Morkul
Medlem
Morkul

[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] En anledning kanske är att de inte hade tillgång… Läs hela »

Carl Holmberg
Gäst
Carl Holmberg

[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] De korten togs inte med av två anledningar: begränsad… Läs hela »

Tony F
Gäst
Tony F

[quote name=”Carl Holmberg”][quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] De korten togs inte med av två… Läs hela »

Dan Bergsten
Medlem
Dan Bergsten

Är med på era argument. Men att detta inte är någon köpguide ursäktar inte ett onyanserat urval av testkort. Som nämnts tidigare så ser det vid första anblicken ut som att AMDs top of the line-enhet är enda kortet som duger från röda lägret.
Men lär man sig av sina misstag så är ingen skada skedd.

darrenj
Medlem
darrenj

Såååå where can I get the beta??