Intel har visat upp en ”processor” med över 50 kärnor, som är del i deras MIC-arkitektur. Processorn eller instickskortet är indirekt ämnad att konkurrera mot AMD och NVIDIA:s grafikkretsar på den professionella marknaden, och ska göra detta med hjälp av x86.

De flesta känner till Intel Larrabee, som var företagets försök till att konkurrera mot AMD och NVIDIA på grafikkortsmarknaden. Larrabee var löst baserat på deras väl beprövade Pentium-kärna och fick fyrvägs Hyper-threading-stöd.

Projektet fick senare skrotas då företaget insåg att det inte skulle lyckas på spelmarknaden, men i verkligheten så bytte man bara namn. Larrabee blev Intel MIC (Many Integrated Core) och man hade fortfarande planer på att göra det till en processor för att ta hand om högt parallelliserade uppgifter – likt ett grafikkort från AMD och NVIDIA som förlitar sig på flera hundra, till och med tusen kärnor.

Intel har tidigare skeppat deras MIC-processor i form av en 45nm-version med 32 kärnor till intresserade parter och utvecklare, men det är inte först nu det ska bli en kommersiell produkt. Deras Knights Corner ska byggas på 22nm, och få ”över 50 kärnor” som är x86-kompatibla. Knights Corner blir ett PCI Express-instickskort och övertaget Intel får mot AMD och NVIDIA är att den kommer att fungera på redan väletablerat x86-kod, till skillnad från AMD och NVIDIA:s lösningar där koden måste skrivas om för att fungera optimalt, om ens fungera.

Knights_CornerPrestandan i Knights Corner ska ligga på 1 TFLOPS i dubbelprecisions-flyttal kontinuerligt. Detta kan jämföras med AMD HD 6970 och NVIDIA GTX 580 som har 675 respektive 791 GFLOPS teoretisk prestanda. Knights Corner blir alltså Intels första produkt för försäljning baserat på deras Larrabee-projekt (numera MIC), och det låter som att de har rätt förutsättningar. Med både högre prestanda än konkurrensen, ihop med kompatibilitet med äldre kod så behöver programmerare inte lära sig ett nytt språk för att få det mesta ur Knights Corner.

Medan Knights Corner enbart är en produkt för arbetsstationer, servrar, superdatorer och överlag den professionella marknaden ska det bli intressant att följa och se om Intel kan slå NVIDIA och AMD på deras hemmaplan.

Källa: Dailytech

Relaterade nyheter:

Annons

6
Leave a Reply

Please Login to comment
6 Comment threads
0 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
5 Comment authors
thisdlq84lindénJacob HugossonSwedish Berserk Recent comment authors
  Subscribe  
senaste äldsta flest röster
Notifiera vid
this
Medlem
this

Tack vare att Intel har tillgång till 22nm nod så har de vissa fördelar, men jag kan tänka mig att AMD kommer att ha liknande prestanda i 7970 i och med GCN arkitekturen + 28nm. Den allra största fördelen med Knights Corner är väl dock att den kan köra x86 kod.

Men en fråga till dig Jacob, var har du läst att GTX580 har högre Double Precision prestanda än 6970? vad jag vet så har Nvidia lägre prestanda än AMD på det planet. Även sett tester som visat detta.

Svensken
Medlem
Svensken

Jo Intel har helt klart fördelar nu med sin 22nm nod. Men som du säger this så kommer tex GCN arkitekturen vara en förbättring förhoppningsvis. Om jag kommer ihåg rätt skulle AMD satsa mer på cache och sånt i GCN likt en CPU?

lindén
Medlem
lindén

Är det ett kort att köra folding på?

Daniel Lundqvist
Medlem
Daniel Lundqvist

[quote name=”lindén”]Är det ett kort att köra folding på?[/quote]

”Befintlig x86-kod kan köras på den”.. you do the math.

this
Medlem
this

[quote name=”smartidiot89″][quote name=”this”]Men en fråga till dig Jacob, var har du läst att GTX580 har högre Double Precision prestanda än 6970? vad jag vet så har Nvidia lägre prestanda än AMD på det planet. Även sett tester som visat detta.[/quote]Det här är teoretisk Double-precision floating point-prestanda. I single-precision är det dock omvänt då AMD 2,7 TFLOPS medan NVIDIA ligger på endast 1,58 TFLOPS. Återigen teoretiskt, då de båda arkitekturerna har sina för- och nackdelar mot den andra. Det finns tester som vi ser att AMD är bättre på, och i vissa fall är det NVIDIA. Vad Intel säger är att… Läs hela »