Trinity_inled

Intro

Trinity, uppföljaren till första generationens A-serie är här och nu kan vi lägga alla korten på bordet och berätta hela historien. Den integrerade grafiken imponerar i våra tester och sätter ännu en gång ny standard på marknaden, men CPU:n tar både ett steg framåt och ett steg bakåt.

– Ta mig direkt till testets sammanfattning –

AMD Llano och A8-3850 lanserades för mer än ett år sedan och satte en helt ny ribba på marknaden med en integrerad grafikkrets som faktiskt var duglig för att spela många av de senaste spelen, självklart med kompromisser på inställningarna. Sedan dess har Intel lanserat sin tredje generations Core i-processor vid namn Ivy Bridge och den integrerade HD 4000 som många gånger ligger AMD hack-i-häl på det här avseendet.

Med företagets ess i rockärmen hotat lanserades Trinity för bärbara datorer datorer tidigare än planerat, ganska exakt 11 månader efter introduktionen av Llano för bärbara. Vi såg ännu en gång att AMD satte ny standard sett till integrerad grafikprestanda och även om CPU-prestandan inte var ett avsevärt lyft framåt mot Llano, såg vi överlag en ökning. Framförallt i enkeltrådad prestanda där den nya Turbo-tekniken kunde sträcka ordentligt på benen. Medan CPU-prestandan inte är särskilt imponerande, är Trinity för bärbara datorer en väl balanserad lösning.

Varför har lanseringen av Trinity dröjt?

Strax därefter lanserades Trinity på sätt och vis för stationära datorer. Trinity började skeppas exklusivt i datorer från datortillverkare. Anledningen för detta berodde på att företaget inte ville göra om samma misstag som de gjorde vid lanseringarna av Brazos och Llano. Vid båda fallen tog AMD fram en lösning som datortillverkarna visade ovanligt stort intresse för och tillverkningskapaciteten räckte inte till för att mätta marknaden.

System baserade på Brazos, respektive Llano, var så gott som omöjliga att få tag på under en längre tid. Det är därför Trinity har skjutits upp flera månader för entusiaster och detaljmarknaden, då AMD ville vara helt säkra på att de hade kapaciteter som räckte för såväl bärbara datorer, stationära system från datortillverkare och slutligen detaljmarknaden.

42 KOMMENTARER

  1. [quote name=”SebbesApa”]Med tanke på Trinitys låga strömförbrukning i idle och OK prestanda, så ser jag faktiskt att den skulle passa rätt bra för desktops i kommuner ex…[/quote]
    Ja där skulle den mycket väl kunna fungera. Min tanke var också att Trinity hade varit perfekt för Hem-PC konceptet. En tillräckligt kompetent CPU för att driva en familjedator samt en GPU som gjort det möjligt för barn och ungdomar att spela lite spel. Allt för en riktigt rimlig peng.
    Synd bara att Hem-PC reformen gick i graven för ett par år sedan. 😛

  2. [quote name=”Viking1962″]Varför skriver ni på svengelska? “Testsystem och metod current position”[/quote]
    Det är inte vi som skriver, det är vårt underliggande webbsystem som av någon underlig anledning försöker berätta för dig vilken sida du är på “current position”. Men ska se till att få det löst!

  3. Bra recension!

    Ser riktigt bra ut! Hade varit något att ersätta Athlon II X4 620 – ATI HD4770 kombon man har i sin arbetsdator. Då kunde man använt den integrerade grafiken den ligger i en väldigt hög klass. 🙂

  4. [quote name=”Tempel”]Med tanke på antalet Sata, stöd för Raid 5 så är ju A85 en plattform för en nas deluxe, får man titta på vilka trinitys som drar riktigt lite kräm :D[/quote]

    Nu har ju jag en förkärlek för lagring, men jag håler med om att detta är ytterst intressant. 8st SATA 6Gbps är ju grymt. Om vi får se det på Uppföljaren till Brazos så är jag såld!

  5. Känns inte som om denna hör hemma på desktop riktigt, inte ens i enklare arbetsdatorer, då känns den lite väl dyr och man kan lika gärna köra på nån s1155 Celeron eller Pentium.

    Däremot i bärbara så vore den ju toppen! Låg strömförbrukning och stöd för 3 skärmar och bra integrerad grafik, ge mig! Stör mig på att min nya fina i7 baserade laptop från Dell inte har stöd för 3 skärmar då jag verkligen skulle vilja ha det på jobbet. Dessutom så skulle inte lite kraftfullare grafik skada när man är på konferens så man kan spela lite. Hade lätt valt denna!

  6. Först och främst tack för en bra artikel.

    Sedan:
    Ni nämner att grafiken är starkt beroende på bandbredden på minnet. Provade ni endast 1600 MHz eller körde ni även 1866MHz? Blev osäker på vad som gällde då ni nämnde 1866MHz några gånger men testhårdvaran hade 1600MHz.

    Ni nämner att det inoffeciella stödet är 2400 MHz. Finns det någon chans att ni skulle kunna göra ett senare test och se vad det innebär?

  7. Idle W imponerar men load var mindre kul läsning. 147W med endast belastning på cpu blir på tok för mycket när grafiken får börja jobba, för en pico-psu det vill säga. Mina planer på en minimal spelburk blir nog inte förverkligad med trinity. Undrar om inte nedvoltad ivy bridge med lågprofil 6670 är ett bättre val.

  8. [quote name=”robjoh”]Först och främst tack för en bra artikel.

    Sedan:
    Ni nämner att grafiken är starkt beroende på bandbredden på minnet. Provade ni endast 1600 MHz eller körde ni även 1866MHz? Blev osäker på vad som gällde då ni nämnde 1866MHz några gånger men testhårdvaran hade 1600MHz.

    Ni nämner att det inoffeciella stödet är 2400 MHz. Finns det någon chans att ni skulle kunna göra ett senare test och se vad det innebär?[/quote]
    Tanken var att kunna köra skalningstester med olika minnesfrekvenser. Precis som vi gjorde med Llano. Tyvärr hade vi inga riktigt vassa DDR3-minnen i testlabbet och tidsbegränsningen var för stor. Men jag skulle kunna köra några snabba kompletterande tester på 1333, 1600, 1866 i alla fall. Tror tyvärr inte våra benchminnen går till mycket högre än så. Något vi givetvis får åtgärda! 🙂

    [quote name=”Calathea”]Idle W imponerar men load var mindre kul läsning. 147W med endast belastning på cpu blir på tok för mycket när grafiken får börja jobba, för en pico-psu det vill säga. Mina planer på en minimal spelburk blir nog inte förverkligad med trinity. Undrar om inte nedvoltad ivy bridge med lågprofil 6670 är ett bättre val.[/quote]
    Tänk på att det fortfarande sitter ett diskret grafikkort (6970) i maskinen när vi gör dessa tester Cala.
    Jag körde precis samma load-test med bara IGP och då låg hela systemet på 120 watt. Fortfarande lite svettigt för Pico-psu såklart, men i alla fall betydligt lägre än med diskret grafikkort.

  9. [quote name=”Anton Karmehed”]
    Tanken var att kunna köra skalningstester med olika minnesfrekvenser. Precis som vi gjorde med Llano. Tyvärr hade vi inga riktigt vassa DDR3-minnen i testlabbet och tidsbegränsningen var för stor. Men jag skulle kunna köra några snabba kompletterande tester på 1333, 1600, 1866 i alla fall.
    [/quote]

    Det hade uppskattats! Hade varit intressant att se hur mycket minnet begränsar grafiken.

  10. Ser ut att passa utmärkt till en hemma dator ala HTPC/surfa i soffan/spela lite lättare spel.

    Har redan en HTPC med den gamla A6-3500 i som redan den gör ett strålande jobb som detta (dock med betoning på “lättare” spel) men A10an ser riktigt trevlig ut som en eventuell ersättare.

  11. [quote name=”PsynoKhi0″]Bra artikel, objektiva slutsatser 🙂

    Känner ni till några mjukvaruuppdateringar på gång som skulle passa modularkitekturen bättre/använda grafikdelen mera (GPGPU)?[/quote]
    Mest nämnvärda enligt mig är Handbrake, som ska ha GPGPU-stöd. Lansering av mjukvaran i skarp version ska ske i början på nästa år. Annars har vi Photoshop och GIMP. Tog upp det mer i vår bärbara recension, men det har inte hänt så mycket sedan dess: https://www.nordichardware.se/barbara-datorer/45866-amd-a8-4500m-trinity-goer-entre-pa-mobil-front.html?start=7#content

  12. [quote name=”Oldvikingschool”]Med krympt teknik inför Steamroller, hade varit ballt ifall de klämde in en HD7750/-70 och kanske en Tri-fire stöd med 2xHD7770+APU.

    Borde inte vara helt omöjligt.[/quote]
    8 Compute Units, dvs. 512 Radeon-kärnor som finns i HD 7750 är redan bekräftat sedan Analyst Day tidigare i år 🙂 Klockfrekvenserna måste ligga på ~900 megahertz om de ska uppnå sitt utlovad GFLOPS-värde. Så den stora frågan är egentligen hur stor begränsning minnesbandbredden kommer bli.

  13. [quote name=”-Tjalve-“][quote name=”Tempel”]Med tanke på antalet Sata, stöd för Raid 5 så är ju A85 en plattform för en nas deluxe, får man titta på vilka trinitys som drar riktigt lite kräm :D[/quote]

    Nu har ju jag en förkärlek för lagring, men jag håler med om att detta är ytterst intressant. 8st SATA 6Gbps är ju grymt. Om vi får se det på Uppföljaren till Brazos så är jag såld![/quote]

    Mmm, nja… du kanske får 8 st SATA 6Gbps portar direkt från chipsettet på mdermodemet, men frågan är om du får 8 st BRA SATA 6Gbps portar. Intels ICH-kontrollers är jävligt kompetenta. Oftast bättre än de som sitter på raid-kort och liknande. I de jämförelser jag sett (gamla nu) var Intels kontrollers way way WAY ahead of AMDs i saker som latency och även ren prestanda. Typ att i latency var Intels 3 Gbit SATA snabbare än 6 Gbit (eller om det var 1.5 vs 3?) och i throughput var de typ 20-30% bättre. För att inte tala om att de har stöd för saker som Matrix-raid, SRT osv.

    Jag är också intresserad av lagring och det är en av de sakerna jag önskar NÅN site på nätet testade. Istället finns nu 100 olika tester som testar exakt samma saker. Lite videokomprimering, lite spel osv osv men ingen som bryr sig om testa skillnaderna i features och prestanda mellan olika chipset och lösningar, men det är nog för inte så många är intresserade av det.

    Men jag skulle säga; hellre 2 st BRA 6 Gbit portar och 4 st BRA 3 Gbit portar än 8 st pissiga 6 Gbps portar, jag VET dock inte om AMDs fortfarande är dåliga, misstänker bara det.

  14. [quote name=”Jacob Hugosson”][quote name=”Oldvikingschool”]Med krympt teknik inför Steamroller, hade varit ballt ifall de klämde in en HD7750/-70 och kanske en Tri-fire stöd med 2xHD7770+APU.

    Borde inte vara helt omöjligt.[/quote]
    8 Compute Units, dvs. 512 Radeon-kärnor som finns i HD 7750 är redan bekräftat sedan Analyst Day tidigare i år 🙂 Klockfrekvenserna måste ligga på ~900 megahertz om de ska uppnå sitt utlovad GFLOPS-värde. Så den stora frågan är egentligen hur stor begränsning minnesbandbredden kommer bli.[/quote]

    Skulle då inte vilja ha en prestandaförbättring utan bara att apun eliminerar microstuttering. Bara det hade varit attraktivt för mig.

  15. Wow. Ni har alltså utvecklat en särskild testmetod för att testa processorer med inbyggd grafik och kommit fram till att ni på 16 egentliga testsidor ska använda totalt en (1) sida för APU-test och en sida för att testa gpgpu-prestanda, fast utan att faktiskt testa gpgpu-prestandan. Samtidigt använder ni 14 (15 om man räknar sidan där ni skulle ha tittat på gpgpu-prestanda) till att gå igenom processordelen.

    Jag hade sett fram emot den här recensionen, men är inte så imponerad av genomförandet. När ni ändå lägger ner så mycket tid på att testa hade det inte varit bättre med lite mer fokus på hur den faktiskt är tänkt att användas?

  16. [quote name=”Jacob Hugosson”] Så den stora frågan är egentligen hur stor begränsning minnesbandbredden kommer bli.[/quote]

    En fråga om minnesbandbredd. Skalar den automatiskt med hastigheten eller finns det andra flaskhalsar?

    Exempelvis, om vi går från 1600->2400MHz innebär det att bandbredden ökar med 50%?

    Sedan kommer nästa fråga: Det verkar vara mer regel än undantag att grafikkort som får DDR3 istället för GDDR5 gör mycket dåligt ifrån sig. Exempelvis Nvidia GT640 DDR3 ansågs prestera mycket sämre än möjligt pga minnesvalet. Hur mycket bandbredd kan DDR3 teoretiskt ge?

    Frågan är alltså hur mycket snabbare grafik kan introduceras innan minner kommer bli för stor flaskhals?

  17. [quote name=”mcnaldo”]Wow. Ni har alltså utvecklat en särskild testmetod för att testa processorer med inbyggd grafik och kommit fram till att ni på 16 egentliga testsidor ska använda totalt en (1) sida för APU-test och en sida för att testa gpgpu-prestanda, fast utan att faktiskt testa gpgpu-prestandan. Samtidigt använder ni 14 (15 om man räknar sidan där ni skulle ha tittat på gpgpu-prestanda) till att gå igenom processordelen.

    Jag hade sett fram emot den här recensionen, men är inte så imponerad av genomförandet. När ni ändå lägger ner så mycket tid på att testa hade det inte varit bättre med lite mer fokus på hur den faktiskt är tänkt att användas?[/quote]
    Vi använder sex stycken IGP-tester på den sidan, medan vi på övriga sidor har ett test per sida… Ska vi dela upp IGP-testerna på en varsin sida så att [i]”det ser ut att vara mer”[/i] 🙂 ? Samma sak kan sägas om Dual Graphics, som består av fem tester. Bara här kan vi enkelt förvandla 2 sidor till 11, om det är antalet sidor som räknas.

    Om du läser vår sammanfattning, så ser du hur vi resonerar kring användningsområdena för Trinity. Hur den är tänkt att användas är svårt att testa och demonstrera i konkreta siffror, det krävs text för att beskriva användarupplevelsen. Det är även hur den är tänkt att användas och pris/prestanda-förhållandet, som gav A10-5800K en rekommendation från oss.
    [quote name=”robjoh”][quote name=”Jacob Hugosson”] Så den stora frågan är egentligen hur stor begränsning minnesbandbredden kommer bli.[/quote]

    En fråga om minnesbandbredd. Skalar den automatiskt med hastigheten eller finns det andra flaskhalsar?

    Exempelvis, om vi går från 1600->2400MHz innebär det att bandbredden ökar med 50%?

    Sedan kommer nästa fråga: Det verkar vara mer regel än undantag att grafikkort som får DDR3 istället för GDDR5 gör mycket dåligt ifrån sig. Exempelvis Nvidia GT640 DDR3 ansågs prestera mycket sämre än möjligt pga minnesvalet. Hur mycket bandbredd kan DDR3 teoretiskt ge?

    Frågan är alltså hur mycket snabbare grafik kan introduceras innan minner kommer bli för stor flaskhals?[/quote]
    Det är en bra fråga, ser vi till skalning ger inte 1 600 – 2 400 megahertz en 50 procentig ökning, men en stor skillnad blir det. Det är inte bara minnesfrekvensen som avgör, Trinitys interna bandbredd är bättre än Llano.

    Regeln är väl att kraftfullare grafikkretsar kräver högre bandbredd, vilket är varför GT 640 presterar så “dåligt” med DDR3-minne. Det är därför prestandakort numera enbart kommer med GDDR5-minne, prestandan skulle vara abysmal i jämförelse med DDR3.

    För framtida APU:er finns det alternativ för att lösa det. Intel har bland annat valt att koppla deras L3-cacheminne till GPU-delen, så det är därför deras inbyggda grafik inte är riktigt lika beroende av att använda snabbt minne. Grafikdelen i Kaveri kommer i teorin vara kraftfullare än ditt exempel GT 640, tyvärr vet vi inte hur AMD kommer se till att Radeon-kärnorna får tillräckligt med bandbredd och inte behöver andas genom ett sugrör. Vi vet i alla fall att Kaveri kommer använda sig av tvåkanals DDR3-minne precis som Trinity, så det kommer krävas att det trixas i själva arkitekturen.

  18. [quote name=”mcnaldo”]Wow. Ni har alltså utvecklat en särskild testmetod för att testa processorer med inbyggd grafik och kommit fram till att ni på 16 egentliga testsidor ska använda totalt en (1) sida för APU-test och en sida för att testa gpgpu-prestanda, fast utan att faktiskt testa gpgpu-prestandan. Samtidigt använder ni 14 (15 om man räknar sidan där ni skulle ha tittat på gpgpu-prestanda) till att gå igenom processordelen.

    Jag hade sett fram emot den här recensionen, men är inte så imponerad av genomförandet. När ni ändå lägger ner så mycket tid på att testa hade det inte varit bättre med lite mer fokus på hur den faktiskt är tänkt att användas?[/quote]
    Detta är ingen ny testsvit för CPU:er, den är fortfarande under utveckling och kommer förhoppningsvis i höst.
    Däremot är denna artikeln mer skruvad mot CPU-tester än vad vi hade tänkt oss. Det handlar dock mer om en presentationsfråga än något annat.
    Tanken var att köra testerna med HD6970 på en sida och istället bryta upp IGP-testerna på enskilda sidor. Men det blev en äldre mall vi använde oss av, därför att det SER ut att vara mer fokus på tester med externt grafikkort än med integrerat.
    Vi skulle också kunna bryta loss Dual Graphics testerna på flera sidor för att få artikeln att ha “fler sidor relaterade till IGP”.

    Men visst, det finns mycket att göra för att optimera testsviten för den nya generationens processorer med integrerade grafikdelar.
    Samtidigt vore det inte heller rätt att bara växla om till tester som utvärderar grafikdelarna om de inte är bundna till verkliga användningsscenario.

    Problemet är att det tar ett par dagar att testa en ny CPU. När vi väl spikat en ny svit tar det veckor för oss att testa om allt, så även om det går mycket tid redan idag är det ett rejält projekt att göra om testsviten eller ens lägga till enstaka applikationer.
    Med det sagt är det något vi jobbar på så kom gärna med tips och idéer på tester vi kan köra framöver!

  19. [quote name=”Anton Karmehed”]Detta är ingen ny testsvit för CPU:er, den är fortfarande under utveckling och kommer förhoppningsvis i höst.
    Däremot är denna artikeln mer skruvad mot CPU-tester än vad vi hade tänkt oss. Det handlar dock mer om en presentationsfråga än något annat.
    Tanken var att köra testerna med HD6970 på en sida och istället bryta upp IGP-testerna på enskilda sidor. Men det blev en äldre mall vi använde oss av, därför att det SER ut att vara mer fokus på tester med externt grafikkort än med integrerat.
    Vi skulle också kunna bryta loss Dual Graphics testerna på flera sidor för att få artikeln att ha “fler sidor relaterade till IGP”.

    Men visst, det finns mycket att göra för att optimera testsviten för den nya generationens processorer med integrerade grafikdelar.
    Samtidigt vore det inte heller rätt att bara växla om till tester som utvärderar grafikdelarna om de inte är bundna till verkliga användningsscenario.

    Problemet är att det tar ett par dagar att testa en ny CPU. När vi väl spikat en ny svit tar det veckor för oss att testa om allt, så även om det går mycket tid redan idag är det ett rejält projekt att göra om testsviten eller ens lägga till enstaka applikationer.
    Med det sagt är det något vi jobbar på så kom gärna med tips och idéer på tester vi kan köra framöver![/quote]

    Man brukar väl säga att första intrycket är det viktigaste och när man tittar på det här testet och ser sida efter sida där den hamnar i botten av graferna, spelar det inte så stor roll att ni ger den en “rekommenderar”-stämpel. Jag tror inte att någon förväntade sig att Trinity skulle leverera klassledande CPU-prestanda eller GPU-prestanda. Den är till för att ge “tillräcklig” prestanda för både CPU- och GPU-delen. Det hade räckt med några kortare tester för att se generell prestanda för respektive del. Ungefär som ni faktiskt gjorde med GPU-delen.

    Det jag helst hade velat se är en mer direkt jämförelse av APUer mot varandra. AMDs APUer har ju mer fokus på grafikprestanda än vad Intels har och får ju där med mindre fokus på CPU-prestanda. Vad jag vill veta är vilken ni trivs mest med vid generellt dagligt användande. Alltså utan något diskret grafikkort. Fler och fler program anpassas också för att kunna accelereras av grafikkort och det vore intressant att se hur dessa presterar på respektive arkitektur.

    För att jämföra med bilar: En volvo får storstryk av en F1-bil på bana och klarar inte av terrängkörning alls på samma nivå som en HumVee, men fungerar betydligt bättre än båda vid normal användning. Du kommer nog inte att få läsa om hur nästa V70 klarar sig på racingbanan eller om den kan ta sig upp för Hammarbybacken. Min poäng är att för att det ska bli intressant att läsa, behöver ni använda test som är lämpliga för produkten ni testar.

    o/t intressant översättning med att jag har “x Symbol vänster” att använda till det här inlägget…

  20. [quote name=”mcnaldo”]
    Man brukar väl säga att första intrycket är det viktigaste och när man tittar på det här testet och ser sida efter sida där den hamnar i botten av graferna, spelar det inte så stor roll att ni ger den en “rekommenderar”-stämpel. Jag tror inte att någon förväntade sig att Trinity skulle leverera klassledande CPU-prestanda eller GPU-prestanda. Den är till för att ge “tillräcklig” prestanda för både CPU- och GPU-delen. Det hade räckt med några kortare tester för att se generell prestanda för respektive del. Ungefär som ni faktiskt gjorde med GPU-delen.

    Det jag helst hade velat se är en mer direkt jämförelse av APUer mot varandra. AMDs APUer har ju mer fokus på grafikprestanda än vad Intels har och får ju där med mindre fokus på CPU-prestanda. Vad jag vill veta är vilken ni trivs mest med vid generellt dagligt användande. Alltså utan något diskret grafikkort. Fler och fler program anpassas också för att kunna accelereras av grafikkort och det vore intressant att se hur dessa presterar på respektive arkitektur.
    [/quote]
    Faktum är att andelen som faktiskt tittar igenom varje sida i recensionen är en minoritet. Nästan alla tar sig direkt till sammanfattningen, där har vi varit tydliga med vilka Trinity passar och hur den upplevs att använda. I mina ögon kan vi inte vara mycket tydligare än vad vi varit, genom i princip hela recensionen har vi haft konsumentmålgrupper åtanke.

    Ser vi till dom användare som tar sig tiden att läsa igenom varje sida (stort tack till er som faktiskt gör det!), så är dem med största sannolikhet tillräckligt insatta/kunniga att ta med priset i beräkningarna och veta vilken målgrupp produkten riktar sig mot. I våra kommenterar om varje test/diagram jämförde vi [b][u]aldrig[/u][/b] mot en markant dyrare processor eller en fyrkärnig variant från Intel, av den enkla anledning, att dessa ligger i en helt annan prisklass Trinity helt enkelt inte konkurrerar i prismässigt.

    Säg gärna vilka tester du föreslår representerar [i]”generell prestanda”[/i], så ska vi ha det i åtanke när vi syr om testsviten. Alla förslag är välkomna. Min personliga åsikt är att det bästa [i]”testet”[/i] för att beskriva användarupplevelsen, är att skriva om hur det upplevs och inte att presentera några tillintetsägande siffror i ett diagram – återigen någonting i princip hela sammanfattningen går ut på.

  21. [quote name=”Laglord3n”][quote name=”-Tjalve-“][quote name=”Tempel”]Med tanke på antalet Sata, stöd för Raid 5 så är ju A85 en plattform för en nas deluxe, får man titta på vilka trinitys som drar riktigt lite kräm :D[/quote]

    Nu har ju jag en förkärlek för lagring, men jag håler med om att detta är ytterst intressant. 8st SATA 6Gbps är ju grymt. Om vi får se det på Uppföljaren till Brazos så är jag såld![/quote]

    Mmm, nja… du kanske får 8 st SATA 6Gbps portar direkt från chipsettet på mdermodemet, men frågan är om du får 8 st BRA SATA 6Gbps portar. Intels ICH-kontrollers är jävligt kompetenta. Oftast bättre än de som sitter på raid-kort och liknande. I de jämförelser jag sett (gamla nu) var Intels kontrollers way way WAY ahead of AMDs i saker som latency och även ren prestanda. Typ att i latency var Intels 3 Gbit SATA snabbare än 6 Gbit (eller om det var 1.5 vs 3?) och i throughput var de typ 20-30% bättre. För att inte tala om att de har stöd för saker som Matrix-raid, SRT osv.

    Jag är också intresserad av lagring och det är en av de sakerna jag önskar NÅN site på nätet testade. Istället finns nu 100 olika tester som testar exakt samma saker. Lite videokomprimering, lite spel osv osv men ingen som bryr sig om testa skillnaderna i features och prestanda mellan olika chipset och lösningar, men det är nog för inte så många är intresserade av det.

    Men jag skulle säga; hellre 2 st BRA 6 Gbit portar och 4 st BRA 3 Gbit portar än 8 st pissiga 6 Gbps portar, jag VET dock inte om AMDs fortfarande är dåliga, misstänker bara det.[/quote]

    Ett av problemen med att mäta SATA hastigheter/latens/etc är att olika moderkort kan prestera olika. Men jag håller med om en separat recension med chipset jämförelse gärna med RAID skulle vara intressant.
    De enda jag vet gör något rätt intressanta jämförelser är techreport men tror inte de jämför latenser etc…
    Som exempel är som du säger Intels lösning är snabbare än AMDs (generellt sett) http://techreport.com/review/21207/llano-motherboards-from-asus-gigabyte-and-msi/7

    Trevlig recension skulle även jag tycka en generell jämförelse från billigaste bargin bin till dyraste “state of the art” skulle vara trevligt. Kanske “Blender” och något tungt spel. “Strömförbrukning” är självklart, kanske något prestanda/kr diagram.
    Dock svårt att få till utan att det blir “plottrigt” kanske även med indelning “2011” “2012” med någon sådan där snygg knapp för att växla mellan under rutan 🙂

    PS. Är det mina lässvårigheter/stavningskunskaper som spökar eller borde det inte vara “populärt” i beskrivningen av bla. WinRAR “poplärt” är vad jag vet inte ett ord.

  22. [quote name=”SebbesApa”]Med tanke på Trinitys låga strömförbrukning i idle och OK prestanda, så ser jag faktiskt att den skulle passa rätt bra för desktops i kommuner ex…[/quote]

    Va? Desktop för te.x kommuner så passar ju I3 bättre då den har betydligt lägre strömförbrukning.

    Man kan fråga sig va NH har gjort under sin idle mätning av processerna för de är extremt höga över lag. Min NAS som är en I3 2120, samma som i testet, drar 29W i idle.

    Edit: 29W mätt ifrån vägguttag.

  23. [quote name=”Jacob Hugosson”]Sådär, nu har vi lagt till frekvensskalning med snabbare minnen! Kontentan är enkel, det är en dödssynd att inte använda snabba minnen med Trinity: https://www.nordichardware.se/test-lab-cpu-chipset/46657-amd-trinity-a10-5800k-grafikprestanda-fuer-alles.html?start=21#content%5B/quote%5D

    Vill tacka så mycket för uppdateringen. Det var intressant läsning. Känns verkligen som att gpun är begränsad av bandbredden. Ska bli kul att se hur AMD löser den frågan till nästa generation APU.

  24. [quote name=”Dravond”][quote name=”Laglord3n”][quote name=”-Tjalve-“][quote name=”Tempel”]Med tanke på antalet Sata, stöd för Raid 5 så är ju A85 en plattform för en nas deluxe, får man titta på vilka trinitys som drar riktigt lite kräm :D[/quote]

    Nu har ju jag en förkärlek för lagring, men jag håler med om att detta är ytterst intressant. 8st SATA 6Gbps är ju grymt. Om vi får se det på Uppföljaren till Brazos så är jag såld![/quote]

    Mmm, nja… du kanske får 8 st SATA 6Gbps portar direkt från chipsettet på mdermodemet, men frågan är om du får 8 st BRA SATA 6Gbps portar. Intels ICH-kontrollers är jävligt kompetenta. Oftast bättre än de som sitter på raid-kort och liknande. I de jämförelser jag sett (gamla nu) var Intels kontrollers way way WAY ahead of AMDs i saker som latency och även ren prestanda. Typ att i latency var Intels 3 Gbit SATA snabbare än 6 Gbit (eller om det var 1.5 vs 3?) och i throughput var de typ 20-30% bättre. För att inte tala om att de har stöd för saker som Matrix-raid, SRT osv.

    Jag är också intresserad av lagring och det är en av de sakerna jag önskar NÅN site på nätet testade. Istället finns nu 100 olika tester som testar exakt samma saker. Lite videokomprimering, lite spel osv osv men ingen som bryr sig om testa skillnaderna i features och prestanda mellan olika chipset och lösningar, men det är nog för inte så många är intresserade av det.

    Men jag skulle säga; hellre 2 st BRA 6 Gbit portar och 4 st BRA 3 Gbit portar än 8 st pissiga 6 Gbps portar, jag VET dock inte om AMDs fortfarande är dåliga, misstänker bara det.[/quote]

    Ett av problemen med att mäta SATA hastigheter/latens/etc är att olika moderkort kan prestera olika. Men jag håller med om en separat recension med chipset jämförelse gärna med RAID skulle vara intressant.
    De enda jag vet gör något rätt intressanta jämförelser är techreport men tror inte de jämför latenser etc…
    Som exempel är som du säger Intels lösning är snabbare än AMDs (generellt sett) http://techreport.com/review/21207/llano-motherboards-from-asus-gigabyte-and-msi/7%5B/quote%5D

    Det finns ju poänger i det ni säger. AMDs ICH (eller vad de nu kallar den) har historiskt sett inte varit lika bra som Intels. Därav amledningen att vi (och alla andra?) testar SSD på just Intels chipset.

    Detta är något som jag haft i huvudet ett tag och jag hoppas att jag ska kunna göra ett litet test med raidkort och några moderkort. Om jag skulle göra ett sådant test så tar jag gärna emot förlag på vad ni vill se i en sådan artikel. Det ligger dock en stund fram i tiden då jag sitter upptagen med en stor SSD-roundup just nu.

  25. [quote name=”Morkul”]Varför står inte nätagget specificerat under Testsystem?

    Med tanke på vilka siffror som redovisas på samtliga CPUs så känns det som att det är helt osertifierat agg som inte är speciellt bra.[/quote]

    Bra tanke. Tror att det är AX1200 som använts, men Anton är den som kan svara på det. Ett 1200W agg som belastas med så lite som 100-150W (~10% av kapacitet) ger mycket riktigt en dålig verkningsgrad och onödigt hög effektförbrukning vid väggen.

  26. [quote name=”Jacob Hugosson”]Faktum är att andelen som faktiskt tittar igenom varje sida i recensionen är en minoritet. Nästan alla tar sig direkt till sammanfattningen, där har vi varit tydliga med vilka Trinity passar och hur den upplevs att använda. I mina ögon kan vi inte vara mycket tydligare än vad vi varit, genom i princip hela recensionen har vi haft konsumentmålgrupper åtanke.

    Ser vi till dom användare som tar sig tiden att läsa igenom varje sida (stort tack till er som faktiskt gör det!), så är dem med största sannolikhet tillräckligt insatta/kunniga att ta med priset i beräkningarna och veta vilken målgrupp produkten riktar sig mot. I våra kommenterar om varje test/diagram jämförde vi [b][u]aldrig[/u][/b] mot en markant dyrare processor eller en fyrkärnig variant från Intel, av den enkla anledning, att dessa ligger i en helt annan prisklass Trinity helt enkelt inte konkurrerar i prismässigt.

    Säg gärna vilka tester du föreslår representerar [i]”generell prestanda”[/i], så ska vi ha det i åtanke när vi syr om testsviten. Alla förslag är välkomna. Min personliga åsikt är att det bästa [i]”testet”[/i] för att beskriva användarupplevelsen, är att skriva om hur det upplevs och inte att presentera några tillintetsägande siffror i ett diagram – återigen någonting i princip hela sammanfattningen går ut på.[/quote]

    Jag kan inte se att ni går igenom hur Trinity upplevs att använda. Det enda ni säger är att den presterar bra mot i3-2100, men antagligen kommer få stryk av i3-3xxx. Det jag hade velat se var en beskrivning av hur det upplevs att använda den jämfört mot t.ex. i7-3770k eller i7-2700k vid dagligt användande utan diskret GPU. Upplevs den betydligt långsammare i officeprogram, photoshop, browsers, etc. eller hjälper den allt vanligare GPU-accelereringen av program till att få Trinity att upplevas snabbare? Vilka vardagsprogram funkar Trinity bra i och vilka funkar den dåligt i? Av de program ni använder till era benchmarks är det ju egentligen bara spelen eller möjligtvis omkodningsprogrammen och WinRAR som det är någorlunda rimligt att man skulle använda dagligen. Det var ganska länge sedan (har aldrig hänt) jag kände behov av att rendera en avancerad 3d-scen med raytracing…

    Jag förstår att vissa delar av en sådan genomgång skulle bli mer subjektiv och svårare att visa upp i fina diagram, men är just det jag egentligen är ute efter. Vilket system upplevs snabbast i vardagen?

  27. [quote name=”Calathea”][quote name=”Morkul”]Varför står inte nätagget specificerat under Testsystem?

    Med tanke på vilka siffror som redovisas på samtliga CPUs så känns det som att det är helt osertifierat agg som inte är speciellt bra.[/quote]

    Bra tanke. Tror att det är AX1200 som använts, men Anton är den som kan svara på det. Ett 1200W agg som belastas med så lite som 100-150W (~10% av kapacitet) ger mycket riktigt en dålig verkningsgrad och onödigt hög effektförbrukning vid väggen.[/quote]

    Att använda så pass kraftigt nätagg är inte bara dumt sätt ur verkningsgrads-synpunkt. Beroende på bland annat på hur pass varmt agget är på varierar verkningsgraden kraftigt vid så låg belastning. Det betyder att värme som eventuellt har blivit kvar efter att ni har testat med tung last kommer att påverka testerna med låg belastning. Till och med ventilationen i rummet kan i detta fall vara av betydelse då rummet under dagen kanske har blivit varmare vilket förändrar effektiviteten.

    Men även era tester under maximal belastning blir helt fel med ett så pass kraftigt nätagg! Till och mer ännu mer felaktigt skulle jag vilja påstå. Ett agg med gold certifiering har under belastningen 20% ett grav på 88% effektivitet. Under 20% så är det osecifierat eftersom det inte finns något krav, dock så är det lägre än 88%. Vid 50% last så är det ett krav på 92%.

    Har man då ett agg på 1200W och har belastning under 240W så kommer du inte ens komma upp i 88%. Tittar man sedan på ert förbruknings test inser man snabbt att det är näst intill poänglöst, om det nu är så att ni använder ett 1200W agg.

    Det skulle varit betydligt bättre om ni använd 450W-500W agg!

  28. [quote name=”mcnaldo”]
    Jag kan inte se att ni går igenom hur Trinity upplevs att använda. Det enda ni säger är att den presterar bra mot i3-2100, men antagligen kommer få stryk av i3-3xxx. Det jag hade velat se var en beskrivning av hur det upplevs att använda den jämfört mot t.ex. i7-3770k eller i7-2700k vid dagligt användande utan diskret GPU. Upplevs den betydligt långsammare i officeprogram, photoshop, browsers, etc. eller hjälper den allt vanligare GPU-accelereringen av program till att få Trinity att upplevas snabbare? Vilka vardagsprogram funkar Trinity bra i och vilka funkar den dåligt i? Av de program ni använder till era benchmarks är det ju egentligen bara spelen eller möjligtvis omkodningsprogrammen och WinRAR som det är någorlunda rimligt att man skulle använda dagligen. Det var ganska länge sedan (har aldrig hänt) jag kände behov av att rendera en avancerad 3d-scen med raytracing…

    Jag förstår att vissa delar av en sådan genomgång skulle bli mer subjektiv och svårare att visa upp i fina diagram, men är just det jag egentligen är ute efter. Vilket system upplevs snabbast i vardagen?[/quote]

    Nu ber du NH att göra subjektiva bedömningar vilket i alla fall jag vill att de håller sig borta ifrån.

    Dessutom är det extremt svårt att göra mätbara tester utav den typ som du efterfrågar. För att ett test ska vara meningsfullt ska resultaten vara möjliga att återskapa med näst intill exakt samma resultat flertalet gånger.Att mäta tiden för att te.x starta upp ett program kommer aldrig att ge säkra test data, samma sak gäller att te.x öppna en viss hemsida.

    Den typ av tester du frågar efter är i stort sätt endast CPU belastande, ingen av GPUerna i testen kommer få jobba speciellt hårt med undantag för Photoshop. Vilket betyder att du bör titta på CPU belastnings testerna för att få en uppfattning av “generell användning”

  29. [quote name=”mcnaldo”]
    Jag kan inte se att ni går igenom hur Trinity upplevs att använda. Det enda ni säger är att den presterar bra mot i3-2100, men antagligen kommer få stryk av i3-3xxx. Det jag hade velat se var en beskrivning av hur det upplevs att använda den jämfört mot t.ex. i7-3770k eller i7-2700k vid dagligt användande utan diskret GPU. Upplevs den betydligt långsammare i officeprogram, photoshop, browsers, etc. eller hjälper den allt vanligare GPU-accelereringen av program till att få Trinity att upplevas snabbare? Vilka vardagsprogram funkar Trinity bra i och vilka funkar den dåligt i? Av de program ni använder till era benchmarks är det ju egentligen bara spelen eller möjligtvis omkodningsprogrammen och WinRAR som det är någorlunda rimligt att man skulle använda dagligen. Det var ganska länge sedan (har aldrig hänt) jag kände behov av att rendera en avancerad 3d-scen med raytracing…

    Jag förstår att vissa delar av en sådan genomgång skulle bli mer subjektiv och svårare att visa upp i fina diagram, men är just det jag egentligen är ute efter. Vilket system upplevs snabbast i vardagen?[/quote]
    Som sagt, du är välkommen att komma med förslag på vilket test vi ska använda som representerar det här. Verkligheten är att inga siffrar kan beskriva hur någonting [i]”känns att använda”[/i], det måste vara subjektivt. Utan en subjektiv bedömning är siffror bara siffror som betyder olika saker för alla. Vi skrev vilka målgrupper Trinity passar, exakt samma sak som det du efterfrågar enligt mig.

    [b]Kort svar[/b]: man märker ingen skillnad på olika processorer idag vid så kallat vardagsbruk. Jämförelsen med Core i7-3770K och A10-5800K, är alltså exakt densamma som Intel X mot AMD Y ett antal generationer tillbaka i tiden. Situationen är alltså helt oförändrad och jag utgår ifrån att våra läsare vet om att så är fallet.

    Däremot är det på sin plats att tjata sönder ämnet ytterligare i hur någonting känns att använda i vardagsbruk om man testar budgetplattformar som AMD Brazos alternativt Intel Atom, där man faktiskt kan märka av en skillnad.

  30. [quote name=”Jacob Hugosson”]Som sagt, du är välkommen att komma med förslag på vilket test vi ska använda som representerar det här. Verkligheten är att inga siffrar kan beskriva hur någonting [i]”känns att använda”[/i], det måste vara subjektivt. Utan en subjektiv bedömning är siffror bara siffror som betyder olika saker för alla. Vi skrev vilka målgrupper Trinity passar, exakt samma sak som det du efterfrågar enligt mig.

    [b]Kort svar[/b]: man märker ingen skillnad på olika processorer idag vid så kallat vardagsbruk. Jämförelsen med Core i7-3770K och A10-5800K, är alltså exakt densamma som Intel X mot AMD Y ett antal generationer tillbaka i tiden. Situationen är alltså helt oförändrad och jag utgår ifrån att våra läsare vet om att så är fallet.

    Däremot är det på sin plats att tjata sönder ämnet ytterligare i hur någonting känns att använda i vardagsbruk om man testar budgetplattformar som AMD Brazos alternativt Intel Atom, där man faktiskt kan märka av en skillnad.[/quote]

    Jag tror att just det du skriver om att processorer från helt olika prissegment känns likadant att använda kan vara självklart för de initierade, men är nog inte det för de flesta andra. Om man läser grundligt skriver ni visserligen att “I de flesta vardagssysslorna kommer man inte märka någon skillnad på CPU-prestandan mot en markant dyrare modell, men begränsningarna kommer bli tydliga om man ofta sitter med krävande applikationer.” Problemet är just brasklappen. Vad är en krävande applikation? Om man inte vet det kanske man av ren osäkerhet köper en dyrare processor än man egentligen behöver. Generellt är t.ex. excel inte särskilt krävande, men kan bli det om man arbetar med stora kalkylblad/arbetsböcker. Samma sak om man arbetar paralellt i flera olika program, som normalt inte är så krävande. Jag har inget speciellt benchmark att föreslå, men skulle vilja se ett som mer speglar prestandan i vardagsprogram. Ett excel-benchmark vore dock väldigt enkelt att bygga själv genom att bara skapa en väldigt stor excel-fil fylld med olika beroende formler. Nu spånar jag bara, men på samma sätt som man till större spel kan se vilken GPU (eller i en del fall GPU+CPU) som krävs för att man ska kunna driva det på vissa inställningar, skulle det vara intressant med en databas som indikerar vad för processor som krävs för att driva olika nyttoprogram tillräckligt snabbt.

  31. Vi får titta närmare på det men återigen kommer inget benchmark/test kunna spegla hur någonting “känns” att använda. För den biten krävs en subjektiv bedömning i text. Inget test kommer kunna fylla den rollen, oavsett hur grundligt och väl utarbetat det är.

    Du är som sagt välkommen att komma med förslag om du kommer på något, det där med Excel låter faktiskt intressant. Får du fler idéer kontakta oss gärna via formuläret så är chansen större att vi uppmärksammar det 🙂 https://www.nordichardware.se/kontakt.html

  32. Trevlig artikel.

    Layoutmässigt skulle man önska sig att artikel index motsvarade sidnumret. Kanske ta bort framsidan från artikel index och ha den som sidnummer 0?

    Varför testades Mafia II (ihop med ett 6970) på Low Details 0xAA 0xAF, medans de övriga titlarna testades i Ultra, max details och liknande? Känns mer som ett test av grafikkortet (6970) än CPUerna.

    Sen undrar jag om valet av upplösning 1366×768 för testerna av IGPn.

    Visst, hos Webhallen som annonserar här så erbjuds visserligen en monitor med den upplösningen för 849:-, men samtidigt finns det en 1920×1080 21.5″ monitor för 990:-. Såvida de extra 150:- verkligen verkligen inte existerar så finns det väl ingen som inte väljer monitorn med 1920×1080 upplösningen.

    1366×768 känns mer som ett lämpligt val vid test av billiga bärbara än för stationära alternativ. Jag hade nog hellre sett 1920×1080 eller 1680×1050 som alternativ. Det känns som rimligare alternativ om man köper en stationär dator i dagsläget.

    Till sist, och jag tror jag har skrivit detta förut, jag skulle gärna se att ett utav dessa bildrenderingstester byts ut mot ett kompileringstest av något större fri källkodsprojekt.

    I övrigt så var det en bra artikel av en produkt som förefaller vara lämplig för ganska många. 🙂

  33. [quote name=”Morkul”]Att använda så pass kraftigt nätagg är inte bara dumt sätt ur verkningsgrads-synpunkt. Beroende på bland annat på hur pass varmt agget är på varierar verkningsgraden kraftigt vid så låg belastning. Det betyder att värme som eventuellt har blivit kvar efter att ni har testat med tung last kommer att påverka testerna med låg belastning. Till och med ventilationen i rummet kan i detta fall vara av betydelse då rummet under dagen kanske har blivit varmare vilket förändrar effektiviteten.

    Men även era tester under maximal belastning blir helt fel med ett så pass kraftigt nätagg! Till och mer ännu mer felaktigt skulle jag vilja påstå. Ett agg med gold certifiering har under belastningen 20% ett grav på 88% effektivitet. Under 20% så är det osecifierat eftersom det inte finns något krav, dock så är det lägre än 88%. Vid 50% last så är det ett krav på 92%.

    Har man då ett agg på 1200W och har belastning under 240W så kommer du inte ens komma upp i 88%. Tittar man sedan på ert förbruknings test inser man snabbt att det är näst intill poänglöst, om det nu är så att ni använder ett 1200W agg.

    Det skulle varit betydligt bättre om ni använd 450W-500W agg![/quote]
    Du har helt klart en poäng Morkul. I en perfekt värld hade vi haft nätaggregat som är optimalt anpassade för varje testtillfälle. Men för oss som testar system med förbrukning på mellan 100-800 watt behöver vi nätdelar med hög kapacitet. Vi har ingen möjlighet att byta nätdel för varje testtillfälle, samtidigt skulle inte heller dessa siffror bli jämförbara.
    Det vi kunnat konstatera är att även om det finns en felprocent pga effektivitet, värmeförluster osv så är våra mätningar utförda flera gånger och ger konsekventa resultat.
    Det är däremot mer ett riktmärke än en 100-procentig sanning och sedan skiljer det ju mellan CPU och CPU så resultaten vi får kan aldrig till 100% jämföras med dina eller någon annans system.

    [quote name=”xemacs”]Trevlig artikel.

    Layoutmässigt skulle man önska sig att artikel index motsvarade sidnumret. Kanske ta bort framsidan från artikel index och ha den som sidnummer 0?

    Varför testades Mafia II (ihop med ett 6970) på Low Details 0xAA 0xAF, medans de övriga titlarna testades i Ultra, max details och liknande? Känns mer som ett test av grafikkortet (6970) än CPUerna.

    Sen undrar jag om valet av upplösning 1366×768 för testerna av IGPn.

    Visst, hos Webhallen som annonserar här så erbjuds visserligen en monitor med den upplösningen för 849:-, men samtidigt finns det en 1920×1080 21.5″ monitor för 990:-. Såvida de extra 150:- verkligen verkligen inte existerar så finns det väl ingen som inte väljer monitorn med 1920×1080 upplösningen.

    1366×768 känns mer som ett lämpligt val vid test av billiga bärbara än för stationära alternativ. Jag hade nog hellre sett 1920×1080 eller 1680×1050 som alternativ. Det känns som rimligare alternativ om man köper en stationär dator i dagsläget.

    Till sist, och jag tror jag har skrivit detta förut, jag skulle gärna se att ett utav dessa bildrenderingstester byts ut mot ett kompileringstest av något större fri källkodsprojekt.

    I övrigt så var det en bra artikel av en produkt som förefaller vara lämplig för ganska många. :-)[/quote]
    Tack för påpekandet. I mafia II är det faktiskt fel på diagrammet. Vi har kört med max grafikinställningar även där med HD6970. Ska se till att fixa det.

    För att göra en lång historia kort. Vi hade samma diskussion för ett drygt år sedan, när den nuvarande testsviten spikades för IGP:er. Då var 1080p en för tung upplösning för merparten av kretsarna och vi kunde inte rekommendera någon att köra dessa upplösningar på en IGP. Detta trots att 1080p skärmar redan var väldigt vanliga.
    Nu börjar läget bli annorlunda dock och i nästa testsvit kommer vi se över detta och troligtvis köra 1080p istället men kanske lite lägre grafikinställningar. Tro mig det hade gjort vårt jobb lättare också. 🙂

    Så även här är vårt testupplägg ett offer för tiden och marknadens snabba utveckling. Men åtgärder är under utveckling! 😉

  34. [quote name=”-Tjalve-“]Om jag skulle göra ett sådant test så tar jag gärna emot förlag på vad ni vill se i en sådan artikel. Det ligger dock en stund fram i tiden då jag sitter upptagen med en stor SSD-roundup just nu.[/quote]

    Det tycker jag helt klart vore väldigt intressant. Vad man ska testa?

    I princip exakt samma testmetodologi som du använder för SSD-erna, fast istället för att variera olika SSDer så varierar man chipset/moderkort istället bara.

    Så man tar den snabbaste SSDn, eller kanske en som är väldigt vanligt (typ Intel, Samsung) och sen testar man den på två eller kanske 4 olika chipset med “latest drivrutiner” installerade. Alternativt tar man en SSD och en hårddisk fast bara två chipset då; A85 och Z77

    och tar upp skillnader/likheter och prestanda. Flera 6 Gbps vs. Matrix Raid, Ram-disk vs. SRT osv osv

    Man bör kanske välja moderkort som är (relativt) “rena” från extra påhäng?

    Det vore som sagt intressant skulle jag tycka då, men kanske inte alla som håller med 🙂

LÄMNA ETT SVAR