G-Sync är som det mesta Nvidia utvecklar en proprietär teknik. Ett extra smärtsamt faktum när jag efter en knapp timmes bekantskap inser att jag precis sett framtiden. Inte bara för datorspel och skärmar utan kanske även för TV-apparater, mobiltelefoner och surfplattor.

Nvidias överraskande tillkännagivande av kombinerade GPU- och skärmtekniken G-Sync förra veckan gav eko inom spelcommunityn. De första mediarapporterna var smått lyriska och Nvidia bjöd på en kavalkad av sprudlande glädjecitat från alla de stora namnen inom spelutvecklingsvärlden.

När Nvidias inbjudan damp ner i inkorgen 23.30 i onsdags kväll satt jag och slet med recensionen av huvudkonkurrentens nya flaggskepp Radeon R9 290X. Inte direkt optimal tajming att ta beslut på en snabbvisit till London två dagar senare. Men trots ett pressat schema och härligt kort varsel övervägde jag alternativen och beslutade mig tidigt dagen efter för att faktiskt ta chansen. Hypen hade blivit för stor och om det var någon teknik man borde se live innan man uttalar sig om densamma var det G-Sync.

Nu står jag här vid en laddstation på Heathrow och väntar på ett försenat flyg hem till Köpenhamn och en efterlängtad helg. Just nu är det däremot tankarna kring G-sync som far runt i skallen och behöver komma ut på pränt eller åtminstone i text.

Det är inte omöjligt att vi i ett senare skede publicerar en mer detaljerad teknikartikel men hela poängen med G-Sync handlar om din personliga upplevelse när du spelar. I detta fallet väljer jag därför att fokusera på min egen upplevelse snarare än tekniken i sig, även om vi nog gör bäst i att börja i den tekniska änden.

Problemen med alla digitala skärmar

Problemet med datorspel och digitala skärmar är att våra datorer och grafikkort skickar ut ett varierande antal bildrutor varje sekund (fps) medan våra skärmar målar upp bildrutorna efter en fast uppdateringsfrekvens varje sekund (hertz).

En skärm med 60 hertz uppdateringsfrekvens målar upp en ny bild på sin panel med ett fast intervall på 16 millisekunder, varje bildruta målas fram uppifrån och ner. För att ge en perfekt och följsam spelupplevelse krävs det att grafikkortet levererar minst 1 bildruta var 16:e millisekund så att varje ny bild skärmen målar upp stämmer överens med de bildrutor grafikkortet levererar. Detta är ett scenario som egentligen aldrig uppstår då grafikkortet oftast antingen levererar för få eller för många bildrutor per sekund. Detta ger så kallad ”tearing” där en uppmålad bild på skärmen i själva verket kan bestå av två eller flera separata bildrutor som matas in av grafikkortet och kraftigt stör spelinlevelsen.

tearing

Med tekniken  V-Sync låser man leveransen av bildrutor från grafikkortet till skärmens uppdateringsfrekvens. Detta stoppar i stort problemen med tearing men skapar istället problem med lagg och stutter när ditt grafikkort inte hinner rendera en bildruta var 16 millisekund, det som behövs för att matcha skärmens uppdateringsfrekvens.

vsyncon

Lösningen – Grafikkortet i förarsätet

Detta är fenomen och problem som funnits i alla tider och som nu Nvidia säger sig ha löst med G-Sync. En teknik som kort och gott sätter grafikkretsen i förarsätet och placerar skärmen på passagerarplats. Dit grafikkortet kör följer skärmen efter.

I tekniska termer betyder det att skärmens uppdateringsfrekvens styrs helt av grafikkortets renderingsfrekvens. Skärmen uppdateras varje gång en ny bildruta skickas från grafikkortet och vi får på detta sätt en perfekt synkronisering mellan grafikkort och skärm som följd av en variabel uppdateringsfrekvens.

gsync

Resultatet blir ett flyt och en spelinlevelse som varken jag, eller någon annan för den delen upplevt tidigare. 

20
Leave a Reply

Please Login to comment
20 Comment threads
0 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
13 Comment authors
Michael.SGuuFi3D-BlasterMorkulAnton Karmehed Recent comment authors
  Subscribe  
senaste äldsta flest röster
Notifiera vid
3D-Blaster
Medlem
3D-Blaster

Välformulerat Anton!
V-sync är inget bra alternativ idag, och med det off inte heller optimalt.
Det känns ju fantastisk men om vi nu köper nya monitorer till våren kommer det nya till hösten med A-Sync? (AMD 🙂 inge bra upplägg för framgång.
Här kommer dock en person som verkligen gillar och förstår G-Sync John Carmack och förklarar mer än Nvidia vill att han ska göra.
http://www.youtube.com/watch?v=gbW9IwVGpX8
MVH
/Janne

gustav II
Medlem
gustav II

Jag är inte lika övertygad, ännu bättre är det ifall grafikkortet klarar av att hålla skärmens uppdateringsfrekvens, då klockar jag hellre grafikkortet 30% och slår på Vsync.

Blaxxor
Medlem
Blaxxor

Läste igenom artikeln lite snabbt men hittar ingentstans om det krävs en speciell bildskärm för detta eller lirar det bra med valfri skärm?

Intressant teknik dock. Skulle gärna se det i verkligheten då det är svårt att se det bra på film. Även om jag tycker mig se lite skillnad iaf.

Tripptrapptrull
Gäst
Tripptrapptrull

Hur stora problem har folk med tearing med mera? För mig har problemet varit så obefintligt att jag knappt vet vad det är. Visst har det laggat när grafikinställningarna jag haft varit för höga, men jag kanske har för dåliga grejer och brukar dessutom alltid vrida ner inställningarna för att få det att flyta.

3D-Blaster
Medlem
3D-Blaster

Anton vet du om man även kunde använda G-sync till video uppspelning?

flopper
Medlem
flopper

30fps?
pratar vi konsol spel eller?
Kanske Nvidia behöver kraftigare grafikkort för bättre spel värde?
så skärmen kostar mer, lär vara bunden till Nvidia kort och kräver ett grafikkort i 1000krs klassen för att utnyttjas för att märka skillnad.
Orsaken som han säger är att med svagare kort så kan tekniken påvisas ha fördelar då det märks där.

3D, PhysX, G-sync etc..vad är nästa pryl?

Morkul
Medlem
Morkul

[quote name=”Anton Karmehed”].
I min värld finns det inte på kartan att vi inte får se motsvarande lösningar överallt i framtiden, jag hoppas bara inte det blir ett jäkla mekk med olika standarder osv.[/quote]

SOm jag sade i artikeln om G-Sync så gillar jag hela iden men den kommer att bli föråldrad väldigt fort.

Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) lägg där till att dynamisk refrech ticker styrs ifrån källan. Källan kan alltså vara ett grafikkort, BR-spelare, etc etc..

-Tjalve-
Gäst
-Tjalve-

[quote name=”Morkul”][quote name=”Anton Karmehed”].I min värld finns det inte på kartan att vi inte får se motsvarande lösningar överallt i framtiden, jag hoppas bara inte det blir ett jäkla mekk med olika standarder osv.[/quote] SOm jag sade i artikeln om G-Sync så gillar jag hela iden men den kommer att bli föråldrad väldigt fort. Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) lägg där till att dynamisk refrech ticker styrs ifrån källan. Källan kan alltså vara ett grafikkort, BR-spelare, etc etc..[/quote] Jag tror du… Läs hela »

spejr
Gäst
spejr

Det här känns ju så sjukt självklart som du säger. Varför skulle man inte synka så att skärmen levererar en hel bild direkt det finns en hel bild. Jag tänker mer på vad det kan göra för energisparande. Om grafikkretsen bara levererar bilder när bilden förändras, behöver inte skärmen heller uppdateras förrän då. Det innebär ju att om man läser en text exempelvis kanske varken skärmen eller grafikkortet behöver uppdatera på flera minuter vilket borde spara en del ström. Det går mot att datorer blir mer dynamiska, alltså att strömförbrukningen är linjärt beroende vad den egentligen behöver göra, istället för… Läs hela »

Xtreme-G
Medlem
Xtreme-G

[quote name=”Morkul”]
Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) [/quote]

Intressant, det skulle ju eliminera behovet av denna teknik. Med nuvarande teknik ser jag dock G-sync som enda vettiga möjligheten att ta del av 4K-upplösning i krävande spel på ett smärtfritt sätt nu när grafikkortsutvecklingen har börjat bromsa in. Att slippa både tearing och delay blir en win-win.

Jacozz
Gäst
Jacozz

Bra artikel Anton!
Jag fattar precis vad du menar med känslan av ”flyt” och spelupplevelse som överglänser det vi har nu. Jag har alltid varit irriterad på tearing och stutter/mikrostutter, vilket gjort att jag konsekvent dragit ner grafikinställningarna för att aldrig komma under 16 ms. Trots det, stör jag mig fortfarande på ojämna animationer…

Kudos till Nvidia som satsar på att förbättra spelupplevelsen och inte bara jagar fps.
Men….
Risken är ju betydande att man ju gör som vanligt och att det blir ett nytt PsysX och låser in användaren till Nvidiakort, men det är väl iofs tanken 😕

Morkul
Medlem
Morkul

[quote name=”Anton Karmehed”]Jag ska rota bland inspelningarna från pressmötet men jag vet att OLED kom på tal och att G-Sync skulle fungera även där. Hur stor effekt och fördel man får av det är väl svårare att säga ännu men det ska ju bli jäkligt intressant att se. :)[/quote] Det skulle vara kul att läsa om. Speciellt eftersom oled redan har en teknik som är extremt lik G-Sync plus den extrema uppdateringsfrekvensen gör att G-Sunc borde inte spela någon roll. Ska vara lösningar med dubbla grafikkort då men även där har jag svårt att se större nytta. Men som sagt… Läs hela »

3D-Blaster
Medlem
3D-Blaster

http://www.youtube.com/watch?v=GtYqG7Xl-SU

V-Sync förklaring och allt det andra 😉

GuuFi
Medlem
GuuFi

Yay, bara att köpa nya skärmar för 4-5k styck och hoppas på att det slår igenom och blir en standard.

Det som är mer intressant för mig är, hur bra eller mycket bättre är detta än att ha en rigg som klarar av 60+ FPS eller t.om. 120+ FPS stabilt, märker man någon skillnad?

En annan intressant grej är väl musrörelser i spel i förhållande till FPS, i vissa spel blir det segt som sirap när FPS går ner.

Michael.S
Gäst
Michael.S

alltså det med med fps o vsync och tearing….jag kör tex battlefield och upplever tearing vid stora variationer av fps och stutter vid för låg fps eller åtminstonde vid en kraftig snabb dipp i fps.men jag har alltid gjort så att jag cappar maxf-fps:en och försöker bibehålla en fps som matchar skärmens uppdateringsfrekvens. med en ganska kraftig dator så kör jag nu allt på high i bf3 och går aldrig under 100fps och heller aldrig över = aldrig någon tearing, allt flyter nått gränslöst! kan tillochmed tillåta mig själv att köra allt på ultra och få dippar nedåt 90 (hilltop… Läs hela »