Intel Core har på väldigt kort tid tagit över allt fokus i Intels processorutbud och anledningen till detta är enkel. Core är en sällsynt lovande arkitektur och vi har kikat närmare på Core 2 Duo familjen för att se vad den verkligen erbjuder.


Det är inte ofta det sker banbrytande förändringar på processorsidan av datorindustrin. De gånger vi ser stora kliv uppåt prestandamässigt är då processortillverkarna har gått till nyare och finare tillverkningsprocesser, och därimellan mindre kliv i form av uppdaterade revisioner och steppingar. Med tre till fyra års mellanrum har det dock historiskt sett skett rejäla revolter till följd av helt nya processorarkitekturer. Med ett lugnt intågande på mobila marknaden kom Pentium M för ett och ett halvt år sedan och då började man inse att det trots allt kanske fanns en lösning på de skenande problemen som Pentium4-processorerna hade inneburit. Sedan dröjde det till början av 2006 då Intel presenterade preliminära prestandasiffror hos sin uppkommande arkitektur. Entusiastsidor och forum slog bakut – resultaten som presenterades var helt enkelt för bra för att vara sanna. I mitten av Maj blev vi inbjudna för att i lugn och ro testa de nya processorerna. Prestandasiffrorna var fortfarande de samma, men systemen var också fortfarande konfigurerade av Intel. Även fast vi vid det här laget var stort sett övertygade så skulle vi självklart känna oss säkrare på vår sak med våra helt egna installationer och tester, vilka är de vi kommer att presentera idag.






För två veckor sedan lanserade Intel officiellt sin nya serie processorer till stationära datorer som i början av utvecklingen gick under förkortningen NGMA, Next Generation Micro Architecture (rakt översatt: nästa generations mikroprocessorarkitektur) och senare det mer vida kända namnet Conroe. För att ytterligare ordentligt markera starten på en ny era har man valt att låta det minst sagt väl invanda namnet Pentium träda åt sidan till förmån för det nya ”Core 2 Duo”. Vi kommer idag att titta lite närmare på arkitekturen bakom namnet Conroe, dess olika skepnader på marknaden och prestandajämförelser mot dess konkurenter.

Vi börjar med att blicka några år tillbaka.


Nytillkomna till datorscenen idag kanske tar det som en självklarhet att Intel har satsat på höga frekvenser och AMD har satsat på mer prestanda per klockcykel, med de olika uppoffringar de innebär. Det har långt ifrån alltid varit så och för att få en bättre förståelse om hur man har resonerat när man har skapat de olika arkitekturerna kommer vi att göra en snabb historisk återblick.


P6 till NetBurst

För 6 år sedan, i början av år 2000, började det dyka upp information och Intels efterföljare till PIII-processorn, P4. PIII-processorn arbetade vid denna tidpunkt i drygt 800MHz och baserades på Intels P6-arkitektur som gjorde entré vid 150MHz. Ingenjörerna hos både AMD och Intel arbetade febrilt med att förfina tillverkningsprocessen för att kunna öka klockfrekvenserna. Just klockfrekvensen var det absolut viktigaste som vid tidpunkten gav en mycket precis indikation på prestandan i processorn, som också var jämförbar med konkurenten. Marknadsföringsmässigt var 1GHz en solklar milstolpe och hysterin tilltog mer och mer när båda tillverkarna sida vid sida lanserade produkter närmare och närmare 1GHz nivån. AMD gick vinnande ur striden vilket vi får anta inte kändes bra för Intel som laddade för fullt med sin nya arkitektur, vid namn NetBurst, som skulle öka klockfrekvenserna rejält.





NetBurst

Med NetBurst hade Intel tagit frekvensinitiativet på största allvar och det var just det man fokuserade vid konstruering av kärnan. För att kunna göra denna frekvensökning var man tvungen att kompromissa på några områden, till exempel längden på den så kallade pipeline:en. För att inte gå in allt för djupt i microprocessor-arkitekturer kan man likna en pipeline med en kö. Varje steg i denna kö förbereder data och instruktioner inför en slutgiltig beräkning. P6-arkitekturen hade en pipeline bestående av 10 steg vilket Intel inledningsvis dubblerade till 20st i NetBurst. Tack vare förfinade tillverkningsprocesser hade man lyckats öka frekvensen hos P6-processorerna från 150MHz till 1GHz (och senare även 1.4GHz med Tualatin-kärnan). Med detta i åtanke och med de förändringar man gjort till NetBurst siktade man helt sonika också här på att öka frekvensen tiofalt, alltså till 10GHz. NetBurst började sin era vid 1.4GHz och gick under utvecklingsnamnet Willamette. Trots den ökade klockfrekvensen var prestandan i bästa fall likvärdig med PIII-processorn i 1GHz, men i flera fall långsammare på grund av den längre pipelne:en.






Efterföljaren Northwood ökade på pipeline:en med ett steg till 21st och kunde med hjälp av finare tillverkningsprocess (130nm) introduceras vid 1.6GHz och skalade till slut till 3.4GHz. Allt verkade frid och fröjd och man började få fart på arkitekturen. Nu trodde man att det bara var ett antal förfiningar i tillverkningsprocessen tills man skulle nå de riktigt höga frekvenserna. Detta visade sig vara lättare sagt än gjort och redan vid övergången till 90nm tillverkningsprocess och Prescott-kärnan stötte man på seriösa fysikaliska problem i form av ökat läckage. Detta läckage gjorde att processorn blev avsevärt varmare än dess föregångare vid samma klockfrekvens och detta var raka motsatsen till vad man hade upplevt vid tidigare processförfiningar. NetBurst-eran började knaka i fogarna och den förväntade Tejas-kärnan som skulle ta över vid 4GHz skrotades helt sonika.


NetBurst och tillbaka till P6

Medans utvecklingsteamet för NetBurst arbetade febrilt med att få kontroll över den nya tillverkningsprocessen fick ett annat team inom Intel uppdraget att utveckla en mobil processor med ett krav: Extremt låg strömförbrukning. Det man initialt observerade från NetBurst-processorerna var knappast låg strömförbrukning, så man tog en arkitektur man var väl bekant med, den gamla P6-arkitekturen. Man gjorde vissa mindre justeringar och optimeringar för att spara energi, öka prestandan och öka frekvenserna. Utvecklingsnamnet för denna Pentium M-processor är långt ifrån välkänt, Banias. Dess efterföljare som förbättrades ytterligare är desto mer känd, inte minst hos entusiaster, som Dothan. Med NetBurst-arkitekturen utarmad och konstant underlägsen konkurerande produkter var det nu dags att skapa en ny arkitektur, som på sin höjd skulle få vissa minimala funktioner från NetBurst. Det var helt enkelt dags att ta lärdom av utvecklingen från de mobila processorerna och ändra inriktning och grundtanke med processorerna. Således var ”Intel Next Generation Micro Architecture” född, som nu officiellt har fått namnet Core.





Innan vi tar och går in i djupare detaljer kring arkitekturen tar vi och kikar på de produkter Intel kommer att släppa som är baserade på Core.



Tidigare har Intel till viss grad haft olika arkitekturer hos processorer avsedda för servrar, stationära eller bärbara datorer.

Skillnaderna har i vissa fall varit högst marginella medans de i fallet med Pentium M och Pentium4 stort sett endast hade namnet

Pentium gemensamt. Det Intel nu gör är att man utgår från en enhetlig processor som man sen på sin höjd ändrar mängden cache och

frekvens mellan de olika marknadssegmenten.


Laguppställning
Server Desktop Mobile
Utvecklingsnamn Woodcrest Conroe Merom
Arkitektur Core Core Core
Kärnor 2 2 2
Frekvensomfång 1.6 – 3.0GHz 1.8 – 2.93GHz 1.66 – 2.33GHz
Systembus 1333/1066 1066/800 666
L2-cache 4MB 4/2MB 4/2MB
Process 65nm 65nm 65nm
Effektutveckling 40-80W 65-80W 5-35W


Här ser vi hur Intel har tänkt sig attackera de olika marknadssegmenten. Som vi ser är det inledningsvis inte mycket som skiljer de

olika serierna åt. Alla processorer är dubbelkärniga och har 4MB L2-cache, med några enstaka undantag för de minsta modellerna till

desktop och mobile. Vidare ser vi att Woodcrest har några modeller med extra låg effektutveckling där så krävs. Conroe kommer

inledningsvis med en maximal systembus på 1066FSB, men kommer eventuellt i framtiden att innefatta en 1333FSB-version av Extreme

Edition-processorerna. Merom till mobila plattformen har förstås inte samma prestandakrav som sina större syskon utan får nöja sig

med 666FSB och lägre klockfrekvenser som uppenbart ger avsevärda vinster för effektutvecklingen. Vi kommer i den här artikeln endast

att studera de stationära processorerna, så vi tar och kikar lite närmare på dessa.


Desktop
Modell X6800 E6700 E6600 E6400 E6300
Utvecklingsnamn Conroe Conroe Conroe Allendale Allendale
Frekvens 2.93GHz 2.67GHz 2.40GHz 2.13GHz 1.86GHz
Systembuss 1066FSB 1066FSB 1066FSB 1066FSB 1066FSB
Multipel 11x 10x 9x 8x 7x
L2-Cache 4MB 4MB 4MB 2MB 2MB
Effektutveckling 80W 65W 65W 65W 65W


Som vi ser har de mindre modellerna ett annat utvecklingsnamn, Allendale. Det enda som skiljer dom åt är mängden L2-cache som

framgår av tabellen. Hög initial FSB och således också låga multiplar kommer att frambringa en hel del utmaningar när det kommer

till överklockning av dessa processorer. Lite längre fram i tiden kommer även 800FSB varianter av Allendale att lanseras i

modell-serien E4000.



Nu är det dags att se vad som döljer sig under värmeplåten.


Mer prestanda per klockcykel

Det var nu dags att ändra tankesätt helt och hållet. Den tidigare inställningen var att bygga processorn optimalt för ren och skär frekvensökning, vilket vi tidigare konstaterade inte var en speciellt lyckad strategi. Som tur är finns det fler faktorer i den teoretiska prestandafunktionen än ren frekvensskalning, nämligen Intruktioner Per Klockcykel, med den engelska förkortningen IPC.







Inte helt ologiskt ser vi här att genom att fördubbla antalet utförda instruktioner per klockcykel motsvarar att fördubbla frekvensen. Problemet är att det är avsevärt mycket svårare att öka IPC-faktorn än frekvensfaktorn då hela kärnan måste designas om, vilket är oerhört kostsamt vid kiseltillverkning. Målet här är alltså att hitta en bra avvägning mellan IPC och en uppskattad frekvensskalning hos arkitekturen.


Mindre effektutveckling

Vi pratade också tidigare om att man nu ville hålla sig till en enhetlig processorarkitektur till tre helt olika typer av plattformar, med helt olika krav på produkten. För att kunna använda arkitekturen i de mobila plattformarna var man tvungen att designa arkitekturen med hänseende till effektutveckling. Formeln för effektutveckling i en mikroprocessor ges av faktorerna frekvens, kärnspänning i kvadrat och dynamisk kapacitans.







Återigen ser vi att frekvensfaktorn kommer med i spelet, vilket är föga förvånande. Vad som dock har betydligt större inverkan är matningsspänningen till processorn, V. Effektutvecklingen beror på kärnspänningen i kvadrat och det är alltså av yttersta vikt att denna hålls låg. C betecknar processorns dynamiska kapacitans och är långt ifrån enkel att kvantifiera. Den beror på hur många transistorer som växlar läge vid varje klockcykel, vilket är olika beroende på vad för sorts beräkningar som utförs och hur processorn för tillfället utnyttjas. vad som är säkert är att denna term har en mycket nära relation till IPC-faktorn i uttrycket för prestanda. Vi kan alltså inte komma runt effektutvecklingen genom att öka IPCn och dra ner frekvensen, vilket hade varit ett trevligt scenario.






Performance / Watt

Så var Intels nya huvudinriktning fastställd, mer prestanda i förhållande till effektutvecklingen. Som vi ser i ekvationen för prestanda/watt så finns inte frekvenstermen med, vilket kan tyckas underligt till en början. Anledningen är att både prestandan och effektutvecklingen beror linjärt på frekvensen. Höjs frekvensen så ökas prestandan relativt lika mycket och även det omvända gäller.


Eftersom vi redan redan har konstaterat att man har gett upp frekvenshysterin för att åstadkomma prestanda inser vi lätt att huvudutmaningen för utvecklingen av Core var att höja IPC-värdet hos arkitekturen. Hur har man då gjort det? Läs vidare!



Vi börjar först med en schematisk översikt av de nämnda arkitekturerna, P6, NetBurst och Core. Det är stort sett bara P6-arkitekturen som Intel har släppt fullskalig information kring, medans en hel del information kring NetBurst finns tillgänglig och av förståeliga skäl minimalt detaljerad information om Core. Skissen över Core kan mer tolkas som välgrundade bedömmningar från experter inom processorindustrin tillsammans med information från Intel innehållande de förändringar man gjort från tidigare arkitekturer.








Man behöver inte vara mikroprocessorexpert för att gissa sig till urfadern bakom Core, nämligen gamla P6 som stog till grund för processorerna från Pentium Pro till och med PIII-modellerna. Här kan man tolka hela flödet från hämtning av instruktion (Instruction Fetch) till färdig beräkning som processorns pipeline. Även fast bilden kan ge sken av ungefär lika många steg så innehåller i själva verket de olika blocken flera steg som totalt ger NetBurst upp till 31 steg och Core endast 14. Just längden på pipeline:en är en mycket viktig del i processorns totala prestanda och det är här man har valt att utgå ifrån P6:ans betydligt kortare version på endast 10 steg. Dessa har man sedan alltså utökat till 14 för att tillåta ytterligare frekvensskalning. Vidare är också Core från grunden designad som en dubbelkärnig processor och för att ge en fullständig schematisk skiss över dess struktur är denna bild mer lämplig.








Vi inser redan nu att Core gör ett avsevärt kliv framåt prestandamässigt, men också ett rejält kliv neråt när det gäller effektutvecklingen tack vare den kortare pipeline:en. Vi går vidare och kikar på några av de stora förändringarna sedan tidigare arkitekturer.


Wide Dynamic Execution

Wide Dynamic Execution är en flashig benämning för den generella bredning man har gjort av arkitekturen. Trots att det skiljer rätt mycket mellan tidigare arkitekturer från både AMD och Intel så har dom en sak gemensamt – möjligheten att maximalt hantera 3st instruktioner på samma gång. Till Core har man lagt till en X86-avkodare och således utökat denna förmåga till 4st. Rent teoretiskt innebär detta helt enkelt 33% mer prestanda.








För att ytterligare öka prestandan har man tagit med något man introducerade till Pentium-M-processorerna, Micro-OP Fusion. Denna teknik går ut på att processorn i gynsamma fall kan beräkna två mikroinstruktioner på samma gång i beräkningsenheten. Vad man ytterligare har lagt till i Core utöver detta är Macro-OP Fusion. Macro-OP Fusion används innan avkodarna och har då i vissa fall möjlighet att sammanfoga två X86-instruktioner till en enda för att ytterligare snabba på beräkningshastigheten. Tack vare Macro-OP Fusion kan alltså Core i ideala fall avkoda 5st X86-instruktioner som följdaktligen ger en avsevärt prestandaökning.


Advanced Digital Media Boost

Advanced Digital Media Boost (ADMB) är kanske den allra mest vaga benämningen på innovationer man gjort i den nya arkitekturen. Återigen är det frågan om att göra exekveringsenheten bredare för att i större mån slippa dela upp instruktioner och på så vid snabba upp beräkningar. Just ADMB är ett samlingsnamn för de tillägg man har gjort i form av instruktionsuppsättningen SSE4 och anpassningar i kärnan för snabbare beräkningar av dessa, och tidigare generationer av SSE. Kopplingen till namnet ADMB kommer av att flertalet av dessa instruktioner används kraftigt vid kodning och avkodning av film och musik. För att öka exekveringshastigheten av dessa har man gjort så att Core kan beräkna upp till 128 bitar långa instruktioner per klockcykel till skillnad mot tidigare generationer som var tvungna att dela upp dessa i två 64 bitars instruktioner, som alltså tar dubbla antalet klockcykler att beräkna. I exekveringsenheten har man dessutom lagt till 2st SSE-enheter till ett totalt antal av 3st, jämfört mot endast 2st i AMDs K8 och 1st i tidigare generationer Intelprocessorer.


För att summera vad dessa två förändringar tillför prestandamässigt kan vi säga att vi i generella fall har en teoretisk prestandaökning på 33% och i allra bästa fall vid tunga SSE-beräkningar en sexfaldig prestandaökning jämfört med tidigare generationer. Vi går vidare och tittar på cache-strukturen.


Advanced Smart Cache

Core var från början designad som en dubbelkärnig processor vilket öppnade upp för en helt ny implementering av L2-cachen. Tidigare dubbelkärniga processorer från Intel har helt enkelt varit två vanliga processorkärnor vid sidan av varandra. Detta är en mycket simpel lösning som dock har ett flertal nackdelar. Det är inte alls ovanligt att de olika kärnorna arbetar med gemensam data, vilket i detta fall innebär att data för dessa beräkningar måste finnas tillgängligt i båda processorernas L2-cache. Med Intels tidigare design innebär det att data måste kopieras och uppdateras via en jämförbart långsamma systembussen. AMD använder i sina processorer en dedikerad bus där de två olika kärnorna kan kommunicera med varandra. Problemet är långt ifrån löst då data fortfarande måste hållas uppdaterat i respektive cache och en avsevärd trafik förekommer för att kontrollera vilka data som har ändrats och inte. Intels lösning på detta kallar man Advanced Smart Cache (ASC) som går ut på att båda kärnorna delar en stor gemensam cache. Detta har flera uppenbara fördelar: Data måste inte duplikeras, vilket innebär att en större mängd cache finns tillgänglig till kärnorna. Ingen kontroll av huruvida data är uppdaterat eller ej måste förekomma, båda kärnorna har direkt tillgång till färsk data. Då enkeltrådiga program körs upplever programet en processor med den totala mängden cache tillgängligt, i Conroe’s fall hela 4MB.







Smart Memory Access

Det är inte på många områden vi ser direkta tekniker från NetBurst dyka upp i Core, men just tidigt i pipeline:en har man tagit stora lärdomar från den. NetBurst var extremt beroende av god planering av beräkningar i ett tidigt stadium och man lade ner en avsevärd mängd tid på att utveckla det man kallar Prefetchers i processorerna. Rakt översatt betyder Prefetch ”för-hämtare”, och går alltså ut på att förutspå vad för data processorn kommer att efterfråga. Tillsammans med processorns Branch Prediction Unit, en enhet som statisktiskt förutspår hopp i programkoden, analyseras strömmarna av data för att med god framförhållning kunna hämta in data dels från systemminnet in till den delade L2-cachen och dels från L2-cachen till L1-cachen hos respektive kärna. Detta leder till att man utnyttjar systembussen på ett effektivare sätt och processorn har snabbare tillgång till korrekt data.



De punkter vi har gått igenom har hittills till största del gett utökad prestanda, om än med strömförbrukningen i tanken hela tiden. Intel har dock också gjort flertalet förbättringar på logiknivå för att ytterligare sänka strömförbrukningen, vilket vi pratar om på nästa sida.


Intelligent Power Capability

Vi har hittills bara pratat om de prestandaökande elementen i Core, men som vi pratade om tidigare har Intel också haft effektutvecklingen i baktanken hela tiden. Som vi konstaterade då var det av yttersta vikt att spänningen till processorn hölls på en låg nivå och för att åtstadkomma det har man först och främst använt sig av sin väl kalibrerade 65nm tillverkningsprocess för att på en fysikalisk nivå använda effektivare transitorer. Tack vare den bredare arkitekturen har man också möjligheten att sänka de initiala klockfrekvenserna som i sig leder till minskad energiförbrukning. Man har också tagit till vara på att en processor designas i form av block som vi kan ses på bilden nedan. Då det är sällan all sorts logik i en processor arbetar hela tiden har man gett processorn möjlighet att stänga av inaktiva delar för att på så sätt minska strömförbrukningen. Ytterligare förbättringar har även gjort till EIST (Enhanced Intel Speedstep technology) för att vid låg belastning automatiskt gå ner till 6x multipel hos processorn och således minska klockfrekvensen.





Sammanfattning

Intel vill inte gå ut med officiell information hur mycket alla de olika huvudförändringarna vi har prestenterat har bidragit till slutprestandan men man implicerade att de ungefär står för en fjärdedel var. Rent prestandamässigt är det helt klart den bredare beräkningsenheten som är huvudavgörande, men för att förse den med data krävs smartare minnesaccess och för att ge skalbar prestanda med dubbla kärnor krävdes en delad L2 cache. Alltså är alla förändringar kraftigt beroende av varandra.



Det är inte ofta man ser ens teoretiska prestandaökningar så rigorösa som de Intel har jobbat fram i Core-arkitekturen. Intel hävdar en generell prestandaökning på 40% för desktopseriens processorer samtidigt som man hävdar att effektutvecklingen har minskat med lika mycket, 40%, jämfört med tidigare generationens processorer. Det är onekligen tunga påståenden, och det ska bli intressant om processorerna verkligen kan leva upp till detta.



Vi inleder testningsfasen med att presentera testsystemet.



















































Hårdvara
Testsystem
Referenssystem
Moderkort Intel D975XBX ”BadAxe” Asus M2N32-SLI Deluxe
Processor Intel Core 2 Extreme X6800
Intel Pentium Extreme Edition 955
AMD Athlon64 FX-62 AM2
Minne Corsair XMS2 6400 (2x1024MB)
Grafikkort nVidia GeForce 7950GX2
Nätaggregat OCZ PowerStream 520W
Mjukvara
Operativsystem Windows XP (SP2)
Chipsetdrivrutiner Intel Chipset Driver 7.3.1.1013 nVidia nForce 9.35 (x16)
Grafikdrivrutiner nVidia ForceWare 91.31
Testprogram SiSoft Sandra 2005 SR3

3DMark2001 3.3.0

3DMark03 3.6.0

3DMark05 1.2.0

3DMark06 1.0.2

PCMark05 1.1.0
AquaMark 3

WinRAR 3.60

cinebench 9.5

Lame 3.97

VirtualDub 1.6.10, XviD 1.0.3

FarCry 1.33
Doom 3
Quake 4
Prey
Need For Speed: Most Wanted



Tack vare olåsta multiplar på X6800-processorn har vi möjlighet att simulera prestandan i E6700 och E6600-modellerna, då dessa i

övrigt delar exakt samma specifikationer. Som referens använde vi oss av en FX-62 som är AMDs snabbaste dubbelkärniga processor i

dagsläget, tillsammans med dess AM2 plattform. För att göra jämförelsen så likartad som möjligt körde båda systemen minnet i

400MHz/800DDR2 med minnesinställningarna 4-4-4-12.



Vi hoppar och går direkt till de syntetiska testerna.



















Rent teoretiska siffror säger långt ifrån allt om hur processorn presterar i vardagliga fall, men ger ändock en bild av vad för

sorst prestanda som finns tillgänglig. Förutom en seger för 955XE-processorn i ett av testen så vinner X6800 och E6700 utan

problem. AMDs värstingmodell får kämpa för att hinna med E6600-modellen, trots ett frekvensövertag på 400MHz.

Vi går vidare till några mer praktiska testprogram.















WinRAR är i sin senaste tappning kraftigt flertrådad och Core är ohotad i toppen, följt av 955XE som tack vare HyperThreading

klarar att besegra FX-62:an. Cinebench är inte heller några problem och X6800 och E6700 är fortfarande ohotade. FX-62:an klämmer

därefter in sig strax efter E6600-modellen. Anledningen till den till synes osannolika prestandaökningen från enkeltrådad rendering till flertrådad för 955XE beror återigen på HyperThreading.


Vi tar och kikar lite på några vanliga mediakonverteringar.















Resultaten talar sitt tydliga språk och Core plockar utan problem hem vinsten i alla olika tester. Vi har använt samma skalor i de enkel och flertrådiga diagramen för att tydligt visa vilken skillnad dubbla kärnor gör, även i användbara icke-syntetiska applikationer.


Näst ut är föga okända 3DMark och AquaMark.























Nog för att 3DMark, specifikt 3DMark2001, kan börja anses som utfasad ger den ändå en klar indikation på att datorkraften ökar med våldsam fart. Över 46000 poäng med ett system helt i orginalfrekvenser, utan några som helst mjukvaruoptimeringar, är minst sagt respektingivande och var helt otänkbart för ett år sedan. Core är helt i en klass för sig där FX-62 endast kan hävda sig mot E6600 i två av testerna.


Vi tar och detaljstuderar processorprestandan i 3DMark och ser hur processorerna presterar i PCMark05






















Resultaten är fortfarande i kraftig övervikt till Core’s fördel och E6600 fortsätter att i de flesta fallen hålla ryggen fri om

sig och sina större syskon.


Vi går vidare och testar om prestandan kan upprätthållas även i spel.























Alla speltester kördes med maximal bildkvalité och i 1280×1024 i upplösning, alltså ett mycket troligt användarscenario. Core fortsätter att dominera och vinner utan några som helst problem alla olika tester. I Prey fick vi inget utslag mellan de olika systemen vilket tyder på att grafikkortet, ett 7950GX2, är den begränsande faktorn. När vi ställde ner upplösningen till 1024×768 var det bara 955XE-processorn som tappade lite mark mot de andra genom att inte kunna mätta grafikkortet. En viktig sak att påpeka här är att om vi skulle öka upplösningen mer och aktivera tunga bildförbättringar i form av kantutjämning och anisotropisk filtrering skulle grafikkortet snabbt bli en flaskhals, trots att vi använder oss av marknadens snabbaste kort i dagsläget.


Prestandan är det som synes inget fel på, men hur är det då med värmeutvecklingen som har varit en stor akilleshäl för Intels tidigare generationer?



Vi mätte systemets totala effektutveckling med en amperemeter kopplad innan nätaggregatet. Således är det alltså hela systemets effekt som tas med. För att belasta processorn till load-testerna använde vi oss av flera instanser av Prime. Anledningen till att vi inte har med några effektangivelser för FX-62-systemet är att vi fick onormalt höga siffror med den hårdvaran vi använde oss av. Då det skiljer mycket mellan de olika moderkorten valde vi således att utelämna denna siffra. 955XE-processorn användes däremot i exakt samma moderkort som de olika Core 2 Duo-processorerna, med exakt samma specifikationer på systemet i övrigt.











955XE är känd som en väldigt varm processor och vi ser att Core har ett tydligt övertag på den här fronten. Den totala systemeffekten är 20% högre med 955XE-processorn i ecakt samma system och vi ser att det faktiskt skiljer mer i faktiska watt mellan processorerna under belastning än vad deras specifikationer antyder. Huruvida det är 955XE-processorn som överstiger sin angivelse, eller X6800 som utvecklar mindre kan vi dock inte svara på. Om vi hade möjligheten att mäta processorernas effektutveckling skulle den relativa skillnaden bli större.


Vi tar och sammanfattar våra upplevelser med Core i slutledningen.


Överklockning

Trogna läsare vet säkert redan om att vi redan har överklockat denna processor rätt kraftigt, vilket går att läsa om här. Vi kommer att publicera en helt fristående

detaljerad artikel med överklockning av Core 2-processorena inom en snar framtid. I den artikeln kommer vi att noggrant klargöra vad

man kan förvänta sig för överklockningsmarginal med allt från orginalkylaren till vattenkylning och betydligt kraftigare

kylanordningar.


Prestanda

Det var knappast någon som accepterade de siffror som Intel presenterade för ett halvår sedan, helt enkelt för att dom var för bra

för att vara sanna. Med facit i hand ser vi att just detta var fallet. Intel har med sin nya Core-arkitektur tagit ett stort steg

framåt genom att ta ett steg tillbaka, till en av sina tidigare mest lyckade arkitekturer. Core 2 Extreme X6800 och Core 2 Duo E6700

vinner utan problem alla tester jämfört mot AMDs FX-62. Core 2 Duo E6600 gör också den i flertalet fall väldigt bra ifrån sig. Vi

ser också att prestandanledning är jämnt fördelad över en stor variation av tester och de båda konkurerande processorserierna från

Intel och AMD uppvisar mycket mer likvärdig prestanda jämfört mot Netburst som i ena stunden kunde glänsa i vissa tester samtidigt

som det i vissa tester kunde vara helt hopplöst. Rent prestandamässigt är Core 2 Extreme och Core 2 i dagsläget ohotade.


Effektutveckling

Med grundidén att skapa en gemensamt övergripande arkitektur i de tre olika marknadssegmenten server, desktop och mobile, var Intel

tvungna att skapa en energisnål arkitektur från början. Mycket av detta arbetet var väl påbörjat i samband med utvecklingen av

Pentium-M processorerna och till Core fortsatte man att utveckla dessa tekniker. Jämfört med de tidigare desktop-modellerna har

processorerna fått aggressivare strömsparfunktioner där processorerna klockar ner mer vid låg belastning. På logiknivå har man gett

kärnan möjlighet att dynamiskt anpassa sig efter belastningen och stänga av delar som för närvarande inte används. Intel anger att

man har sänkt effektutvecklingen jämfört med sin tidigare desktop-arkitektur med så mycket som 40% vid liknande modeller, vilket vi

i våra egna tester inte har några som helst problem att misstro. Mellan de nya och de tidigare toppmodellerna uppmätte vi en

effektskillnad på 50W med i övrigt identiska system. Med effektangivelser på 80W respektive 130W hos toppmodellerna stämmer detta

direkt med våra resultat.


Performance/Watt

Med förbättrad prestanda och samtidigt minskad effektutveckling får vi ett annu kraftigare utslag när vi jämför de konkurerande

processorerna. Inte nog med att det går 25% snabbare med Intels toppmodell att komprimera ihop en AVI-film till DivX, för att ta ett

exempel, så drar den runt 20% mindre effekt under denna tid. I prestanda/effekt är således Intels processor upp till 40% snabbare i

detta fall. Detta är inte bara begränsat till detta fall utan något vi ser i alla de tester vi har kört.


Prestanda/Pris och tillgänglighet

Tillgängligheten på de nya processorerna på världsmarknaden är helt klart begränsade och det finns anledning att tro att de stora

systembyggarna kommer att suga upp en avsevärd andel av de processorer som Intel lyckas producera. På svenska marknaden har vi än så

länge inte sett några modeller i lager. AMD håller också på med kraftiga prissänkningar nu i dagarna för att göra sina processorer

forsatt attraktiva för konsumenter. Det är således väldigt svårt att i dagsläget göra någon bedömning av hur mycket prestanda man

får per krona hos de båda tilverkarna.


Kompatibilitet

Ett stort diskussionsämne under våren har varit just till vilken plattform Core 2 kommer att fungera. Teoretiskt skulle en hel del

av Intels senaste chipset kunna stödja Core 2, men problemet ligger inte i själva chipset:et. Intel har valt att uppdatera

specifikationerna i kravmallen för spänningsdelarna på moderkorten, vilket har gjort att stort sett alla befintliga moderkort har

blivit inkompatibla. Det senaste chipset:et, P965, har genuint stöd för Core 2 medans äldre kort med i975X kräver fysiska

uppdateringar för att fungera, som rent pratiskt innebär helt nya moderkort. Vi hoppas att tillverkarna kommer att vara tydliga när

det kommer till stödet för processorerna. Om vi blickar in en sväng i framtiden har vi blivit demonstrerade att Intel uppkommande

processorer med fyra kärnor, som förväntas komma kring årsskiftet 2006/2007, kommer att fungera utan problem i moderkort som stödjer

Core 2.


Sammanfattning

Vad får man då för sorts processor med en kraftigt utvecklad P6-arkitektur i botten tillsammans med hastighetsoptimeringar från

Netburst? Svaret är ett fullblodsmonster.











Intel Core 2 Extreme och Core 2 Duo


+ Bäst prestanda oavsett testmiljö


+ Låg effektutveckling och bra energisparfunktioner


+ Stöd för framtida Quad-core processorer



– Tillgänglighet


– Vissa oklarheter i moderkortsstöd




Till sist vill vi tacka Intel för att ha bistått med ett testexemplar av processor och moderkort.

Leave a Reply

Please Login to comment
  Subscribe  
Notifiera vid