Många minns säkert ASUS ARES och MARS som var grafikkort med 2 GPU:er med både klockfrekvenser och strömförbrukning utöver det vanliga. Den här gången ser det ut som att ASUS överträffar sig själva med MARS II där man använt två fullt aktiverad GF110-kärna vi återfinner i både GTX 580 och GTX 590 fast med samma klockfrekvenser av den förstnämnda.

ASUS MARS II kommer precis som ett vanligt GTX 590 med två GF110-kärnor med samtliga 512 CUDA-kärnor aktiverade men till skillnad från GTX 590 så ska det nya grafikkortet från ASUS komma med samma klockfrekvenser som ett GTX 580. Det här är en konfiguration som säkerligen kommer att dra mycket ström vilket är varför det kommer med inget mindre än 3 st 8-pin PCI-E för strömförsörjningen av grafikkort, så i teorin kommer det kunna matas med 525W enligt ATX-standarden. Det nya grafikkortet väntas komma med 3 GB GDDR5-minne något som kommer som lite av en besvikelse då vi mycket hellre hade sett 6 GB (3GB per GPU) i ett grafikkort av denna kaliber.

ASUS_MARS_IId

Med tanke på den extrema strömförbrukning vi har att vänta oss behövs rätt kylning, kortet ser ut att vara i samma längd som ett HD 5970 fast mycket bredare och under den rödsvarta Republic of Gamers-kåpan ser vi ett okänt antal tätt packade kylflänsar i aluminium och ett okänt antal värmeledningsrör. När grafikkortet väntas landa i butik är ännu oklart men det kommer säkerligen ligga i toppen när det kommer till prestanda.

ASUS_MARS_IIa

ASUS_MARS_IIb

ASUS_MARS_IIc

ASUS_MARS_IIe

Källa: TechPowerUp!

6
Leave a Reply

Please Login to comment
6 Comment threads
0 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
6 Comment authors
KincSebbeAnton KarmehedDecrypheRogerpontare Recent comment authors
  Subscribe  
senaste äldsta flest röster
Notifiera vid
Tord Nilsson
Medlem
Tord Nilsson

Det blir bara värre och värre. Snart krävs det en separat nätdel enbart för grafikkortet. Det går ju åt fel håll. Istället för att bli strömsnålare så kräver grafikkorten mer istället. Grafikkortet ser väldigt brett(högt) ut. Snart täcker kortet hela moderkortet 🙂

Rogerpontare
Medlem
Rogerpontare

[quote name=”Viking1962″]Det blir bara värre och värre. Snart krävs det en separat nätdel enbart för grafikkortet. Det går ju åt fel håll. Istället för att bli strömsnålare så kräver grafikkorten mer istället. Grafikkortet ser väldigt brett(högt) ut. Snart täcker kortet hela moderkortet :-)[/quote]

Nja… Ingen tror väl att världens snabbaste bil ska dra lite bränsle? Fokus kommer att vara prestanda fullt ut.

Däremot så blir de vanligare bilarna snålare och smartare. (Vi har ju potenta grafikkretsar i både mobiler och i våra CPUer nu.)

Hans
Medlem
Hans

[quote name=”Rogerpontare”]Däremot så blir de vanligare bilarna snålare och smartare. (Vi har ju potenta grafikkretsar i både mobiler och i våra CPUer nu.)[/quote]
Exakt. Jag var riktigt överraskad när jag startade ett spel på mitt HD4350 för första gången. Fungerade hur bra som helst och drar 20W max (passiv kylning dessutom).

Anton Karmehed
Admin

[quote name=”Decryphe”][quote name=”Rogerpontare”]Däremot så blir de vanligare bilarna snålare och smartare. (Vi har ju potenta grafikkretsar i både mobiler och i våra CPUer nu.)[/quote]Exakt. Jag var riktigt överraskad när jag startade ett spel på mitt HD4350 för första gången. Fungerade hur bra som helst och drar 20W max (passiv kylning dessutom).[/quote]Jag hade faktiskt en liknande upplevelse när jag testade att lira Stalker på ett passivt HD5450 när mitt 5870 kastade in handduken. Det gick faktiskt helt okej när man drog ner inställningarna och upplösningen lite och grafiken var trots allt fullt acceptabel. Så pass att jag blev förvånad att kortet… Läs hela »

Sebbe
Medlem
Sebbe

Jag tror inte det är hastigheten, utan minnet på grafikkortet och systemets ramminne som kommer att avgöra hur snabbt systemet blir i fortsättningen. Kommer ihåg när man körde ramdisk på min gamla ATARI 520 ST. Då kunde man ladda ett program på mindre än 1 sek. Det går inte i dag på någon dator trots att både hårddiskar och minnen är snabbare än den datorn. Men om systemet har 8 GB grafikminne och 16-32 GB RAM så skulle det inte behövas så mycket processorkraft eftersom rätt mycket skulle kunna laddas in i ramdiskar och köras därifrån. I dag borde grafikkortsminnet… Läs hela »

Kinc
Medlem

Ang. framebuffer. Vi har testat 4st 580 med 3GB per kort i utvärderingssyfte och det det finns egentligen bara ett spel som gynans av det; Metro 2033. Utöver det så rör det sig som mest om 1% i generell prestanda det med 3600×1920 upplösning. Därför kommer vi inte att lansera ett 580 med 3GB FB eller MARS II med 3GB per GPU. Nnvidia har helt enkelt optimerat SLI til lden punkt att det itne längr skalar med mer framebuffer per gpu.