Snabbtest: Deus Ex: Mankind Divided i DirectX 12

Permalänk
Medlem

@Söderbäck: Fast pratar man ren prestanda så är det tyvärr underläge, priset på Fury X är inte så roligt heller för den delen med tanke på att billigaste Fury X på prisjakt landar på 5309 och billigaste 1070 landar på 4140. Med andra ord levererar 1070 betydligt mer prestanda per krona idag än Fury X eller får du den ekvationen till något annat?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Hedersmedlem
Skrivet av tellus82:

@Söderbäck: Fast pratar man ren prestanda så är det tyvärr underläge, priset på Fury X är inte så roligt heller för den delen med tanke på att billigaste Fury X på prisjakt landar på 5309 och billigaste 1070 landar på 4140. Med andra ord levererar 1070 betydligt mer prestanda per krona idag än Fury X eller får du den ekvationen till något annat?

Du har väldans gröna brillor på dig. Glaset är halvfullt om det är nvidia och halvtomt om det är AMD. Så enkelt är det inte.
Det finns en del situationer där det du säger passar in i sammanhanget och så finns det andra situationer där förhållandena är motsatta.

Det kan alltså vara på flera sätt och du använder ett exempel som främjar din poäng. Fine so far. Men det innebär ju inte att det är hela sanningen.

När jag valde ett r9 390 framför ett gtx 970 för något år sedan så kostade faktiskt mitt kort aningen mindre. Och de presterade snarlikt båda två. Det valet gjordes inte för att jag ville ta det sämre kortet som jag i framtiden hoppades skulle bli bättre. Det var helt andra kriterier som avgjorde. Jag är inte ute efter att hitta någon vinnare eller säga att ena märket är bättre än det andra. Det enda jag vill få fram är det här:

Citat:
Skrivet av tellus82:

@HenrikM:
Så du sitter hellre med sämre prestanda under hela kortets livslängd för att få lite bättre prestanda precis innan du uppgraderar nästa vända?

Det låter mindre troligt.
Ett rimligare antagande är väl att båda konkurrenternas kort levererar snarlik prestanda per krona i stort sett från start för olika prisintervall.
Därefter kan den ena konkurrentens kort förbättras mer över tid än den andra. Behöver ju inte innebära att man startat i underläge ;).

För så kan det ju också vara.

Edit: Fast nu såg jag att det gällde fury x specifikt. Det förändrar det hela. My bad!

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Söderbäck:

Du har väldans gröna brillor på dig. Glaset är halvfullt om det är nvidia och halvtomt om det är AMD. Så enkelt är det inte.
Det finns en del situationer där det du säger passar in i sammanhanget och så finns det andra situationer där förhållandena är motsatta.

Det kan alltså vara på flera sätt och du använder ett exempel som främjar din poäng. Fine so far. Men det innebär ju inte att det är hela sanningen.

När jag valde ett r9 390 framför ett gtx 970 för något år sedan så kostade faktiskt mitt kort aningen mindre. Och de presterade snarlikt båda två. Det valet gjordes inte för att jag ville ta det sämre kortet som jag i framtiden hoppades skulle bli bättre. Det var helt andra kriterier som avgjorde. Jag är inte ute efter att hitta någon vinnare eller säga att ena märket är bättre än det andra. Det enda jag vill få fram är det här:

För så kan det ju också vara.

Men du, nu pratar vi Fury X vs 1070 och eventuell vinst av att köpa ett fury x som du hittar längre bak i tråden, hur du blandar in helt andra kort vet jag inte så prat om brillorna kan vi lämna där hän...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Hedersmedlem
Skrivet av tellus82:

Men du, nu pratar vi Fury X vs 1070 och eventuell vinst av att köpa ett fury x som du hittar längre bak i tråden, hur du blandar in helt andra kort vet jag inte så prat om brillorna kan vi lämna där hän...

Yes! Det hade jag inte alls tagit med i beräkningen. Jag fick för mig att det var en generell inställning vilket fick in mig på helt fel spår. You are right dewd and i am not!

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av UncleDirty:

Som det ser ut idag så köper jag hellre ett FuryX en ett 1070, mer Vulcan och DX12 plx!

Så då gjorde jag rätt när greppade ett Sapphire Nitro R9 Fury 😀

Jag tror att man med DX12/Vulkan börjar se skillnad i hur de båda lagen designat sin hårdvara. Nvidia klar ledare i DX11 medan det blir till vissdel annorlunda i DX12 då AMD med sin "Compute Engine" kan hantera "fler trådade" grafikmotorer bättre än Nvidia.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av UncleDirty:

Som det ser ut idag så köper jag hellre ett FuryX en ett 1070, mer Vulcan och DX12 plx!

Ok? Ja du gör väl som du vill.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Provade precis första 30min av spelet. flyter på bra i 2560x1440 för mig, osäker på om crossfire funkar (kollade inte gpu användning).

Men jag vet inte om jag tycker att det är vidare snyggt.

Spelet verkade dessutom inte vilja stänga av sig riktigt, blev att döda processen efter minuter av väntande.

Visa signatur

AMD 5700X@Vatten | asus prime x370pro | Asus 2080 Strix | 2x16GB Kingston Fury Renegade RGB DDR4 3.6GHZ | Lian Li O11d EVO + 2x240 EKWB RAD + 6 Lian Li AL120 | CoolerMaster V850 | NVME 2TB Seagate Firecuda 510 + NVME 1TB WD BLACK + 3 SSD | Samsung Odyssey 49" G9| DELL 2713HM | Varmilo VA69 Clear/brown | Logitech G502 2016.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Permalänk
Medlem
Skrivet av tellus82:

@HenrikM:
Så du sitter hellre med sämre prestanda under hela kortets livslängd för att få lite bättre prestanda precis innan du uppgraderar nästa vända?

Inte så jag menar.
Jag köpte mitt fury x för ett år sedan och valet låg mellan det och 980ti. Nu ligger fury x fortfarande bra till i prestandan medan 980 ti börjar falla efter. Och om 290 x är något att titta tillbaka på så lär mitt fury x fortsätta leverera högre prestanda medan 980 ti kommer att glömmas bort.

Permalänk
Medlem
Skrivet av DeluxXxe:

Men jag vet inte om jag tycker att det är vidare snyggt.

Jaså? Jag tycker det är ett av de snyggaste spelen jag sett. Vad kör du på för inställningar?

Visa signatur

We are the music makers, and we are the dreamers of dreams.
Youtube | Spotify Playlists | Soft | Rapp | Rytm | Kött | Kalas |

Permalänk
Medlem
Skrivet av Cloudstone:

Jaså? Jag tycker det är ett av de snyggaste spelen jag sett. Vad kör du på för inställningar?

Allt på high och 2560x1440. Jag har ju iofs inte tagit mig igenom mer än 20min så det kan ju vara miljöerna som är lite trånga och tråkiga.

Visa signatur

AMD 5700X@Vatten | asus prime x370pro | Asus 2080 Strix | 2x16GB Kingston Fury Renegade RGB DDR4 3.6GHZ | Lian Li O11d EVO + 2x240 EKWB RAD + 6 Lian Li AL120 | CoolerMaster V850 | NVME 2TB Seagate Firecuda 510 + NVME 1TB WD BLACK + 3 SSD | Samsung Odyssey 49" G9| DELL 2713HM | Varmilo VA69 Clear/brown | Logitech G502 2016.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Permalänk
Datavetare
Skrivet av PalmiNio:

Mest imponerande är att folk glömmer så himla lätt att samma sak hände när DX11 kom.

Det klagades även då på hur mycket de första spelen gick sämre mot DX9/DX10.

Tog runt 3 år innan katalogen kändes vettig och de stora titlarna byggdes för DX11, inte patchades in.

Här är från DiRT 2 som var en av de första:
http://www.tomshardware.com/reviews/dirt-2-performance-benchm...

"The answer is no. Enabling DirectX 11 has a massive impact on performance. The Radeon HD 5750 and 5770 can easily handle the high 2560x1600 resolution in DirectX 9 mode, but in DirectX 11 mode things become very choppy."

Bara läsa gamla DX11 vs DX9 inlägg från 2009-2010 för att inse det är samma gnäll om DX12 vs DX11 idag.

Och ingen gnäller direkt på DX11 idag och blir arg för att DX9 försvann.

Skickades från m.sweclockers.com

Den insikten verkar i det närmaste totalt lysa med sin frånvaro i de flesta teknikforum. Skulle man tro på det som skrevs på forumen i samband med lanseringen av Win10 och DX12 för ett år sedan så borde alla spel idag köra DX12 med en prestanda som får DX11 att blekna.

Historiskt sett har det tagit runt tre år från att en ny DX-version lanserats till dess att den faktiskt tillför något och är den vanligast förekommande versionen.

DX12 är speciellt på två sätt

1. DX12.0 lanserades ihop med DX11.3. Finns inget man rent grafiskt kan göra i DX12.0 som inte kan göras i DX11.3, de har båda identisk s.k. "feature-level" stöd. I tidigare uppdateringar har det alltid kommit en rad nya funktioner som möjliggjort nya renderingstekniker.

2. DX12 lägger långt mer av ansvaret för optimeringar och kretsspecifika anpassningar i knät på spelutvecklarna jämfört med tidigare version (övergången från Direct3D i DX3 till DX5 kan möjligen ses som det motsatta, en övergång från något relativt "low-level" till betydligt mer "high-level"). Har kvarstår ju att se om "low-level" API är vettig på PC. Finns fördelar och nackdelar med både med "low-level" och "high-level" APIer.

Råder inget tvivel om att "low-level" är rätt väg för konsoler, inte lika självklart på PC då en av de största nackdelarna med "low-level" APIer är att det försvårar hanteringen av heterogen maskinvara. PC-spelmarknaden har en väldigt heterogen flora av maskinvara att jobba mot.

Råder inte heller några tvivel om att DX11 är omodernt, det är en dålig abstraktion av dagens GPUer. Tror en av två saker kommer hända med DX12/Vulkan. Endera får vi DX13/Vulkan2 som är mer "high-level" så de mest HW-specifika delarna åter flyttar in i drivers. Alternativt så skapas något form av mellanlager med ett väldefinierat API där AMD/Nvidia kan stoppa in kretsspecifika optimeringar som i DX11 skulle ha hamnat i drivers.

Naturligtvis kan man tänka sig att kretsspecifika optimeringar hamnar direkt i de stora spelmotorerna, men det är dåligt på flera sätt. T.ex. kan man inte enkelt uppdatera sådan kod separat (förbättringar i en driver förbättrar ju alla spel), vidare måste då samma jobb göra på flera ställen vilket är dåligt.

Skrivet av Ratatosk:

Jag tänker säga emot.

Varför skall det anses att ett spel som går bra på AMD:s hårdvara under Gaming Evolved är snedvridet medan ett som går bra på Nvidia under Gameworks inte är det?

Spelet verkar flyta fint även på Nvidias hårdvara, Hitman som gärna döms ut för att det går fint på AMD och är ett Gaming Evolved spel, flyter fint på Nvidia och är skitsnyggt, Hitman har samma spelmotor som Deus Ex.

Anser man att Gameworks spel som RoTR, Fallout och Assassin's Creed är relevanta, då bör man i ärlighetens namn även acceptera spel som Hitman och Des Ex.

Som AMD ägare får jag ofta spela spel som är optimerade för Nvidia, varför skall en del börja gnälla och försöka baktala spel så fort de är optimerade för AMD?

Se på Steams forum för Hitman, finns massor av nöjda Nvidia-ägare som spelar med fint flyt och njuter av bra grafik, att det går lite bättre på AMD skiter de i, de vet ju att deras kort går lite bättre i andra titlar, man får ta och ge.

Inte helt på det klara vad du säger emot, men gissar att det har något med vad jag skrev ovan. Om så är fallet missades nog min poäng totalt.

Säger ju specifikt att även spel som kraftigt föredrar Nvidia, som t.ex. Project CARS, är en snedvridning. Om med det menar jag: det är lika fel att peka på Project CARS för att dra slutsatsen att 960 minsann drar jämnt med 290 som det är att peka på Hitman och dra slutsatsen att 380X drar jämnt med 970.

Det är sant specifikt i dessa spel, men det är inte en indikation på någon generell trend eller vad man ser i genomsnitt.

Min andra poäng är att folk står under fel träd och gläfser när de tror att Gamework på något sätt är ett problem. Är nog så att spel som har Gamework-stämpel generellt lutar mot Nvidia-kort, men det beror med största sannolikhet långt mer på att speltillverkaren har jobbat tätt ihop med Nvidias organisation som fokuserar just på speloptimering än Gameworks i sig.

Om man tittar på lite olika tekniker i Gameworks

  • FXAA: är i.o.f.s. så pass billigt att det kvittar, men är en post-processing AA, något som främst lastar shaders och normalt gynnar GCN mer än Nvidias kort

  • HBAO+: är till att börja med den teknik för Ambient Occlusion med högst rendersingskvalité, så det är beräkningsmässigt dyrt. Lite svårare att säga vem som gynnas mest. Är pixel-shader intensivt (gynnar GCN) men också triangelintensivt (gynnar Nvidias GPUer). Rent praktiskt får alla kort fullt mätbar minskning i FPS, men det ser också bättre ut

  • Hairworks: triangelintensivt då det bygger på tesselering. Dock är det helt upp till spelutvecklaren att välja nivå på tesselering då det är en parameter i APIet. Här är det väldigt underligt varför Witcher 3 inte gjorde nivån ställbar då det rent tekniskt är trivialt.

  • Waveworks: så här långt den teknik med bäst renderingskvalité av vatten, det utan att vara speciellt dyrt på något kort (används till och med på konsolerna i Just Cause 3). Är främst en shader-teknik, men för bästa resultat av hur ljus reflekteras bör detta kombineras med tesselering. Dock kan man köra Waveworks både med och utan tesselering, vilket JC3 också tillåter.

  • VXAO, Volumetric Lighting, Hybrid Frustum Traced Shadows: kräver "feature level 12.1" så fungerar så här långt bara på Maxwell/Pascal. Så påverkar aldrig rena FPS-jämförelser, men är något man kan slå på om man tycker ökningen i renderingskvalté är värt kostnaden på kort som har stöd.

Notera dock att generell användning av tesselering har inget att göra med Gameworks. Tesselering är en standardfunktion i DX11/DX12, Hairworks och Waveworks använder sig av denna standardfunktion.

Sedan är det väl självklart att titlar där AMD jobbat mest med utvecklarna tenderar att föredrar kort from AMD medan det omvända gäller i de titlar Nvidia jobbat mest med utvecklarna.

Tvivlar dock på att någon aktivt saboterar för den andra, inte mer än om det finns två sätt att göra något där det ena är väldigt bra för de egna kretsarna men rätt dåligt för konkurrentens kretsar och det andra sättet är helt OK på båda så lär man välja den första metoden. Det är ju självklart för mig i alla fall att man prioriterar så.

Ser inte riktigt hur man som PC-gamer kan klaga på Gameworks. En av huvudkriteriet för Gameworks design är att det ska vara relativt enkelt att lägga till grafiska effekter i existerande motorer. Siktet har ju väldigt mycket varit inställt på det faktum att de flesta stora speltitlar utvecklas i första rummet mot konsoler. Tanken med Gameworks är att kunna lägga till mer avancerade effekter när man portar spelet till PC.

Men naturligtvis finns en vridning mot att fokusera på tekniska lösningar som rullar optimalt på Nvidias kort, ser dock inget som pekar på att man någonstans aktivt saboterat för GCN i dessa bibliotek.

Skrivet av HenrikM:

Inte så jag menar.
Jag köpte mitt fury x för ett år sedan och valet låg mellan det och 980ti. Nu ligger fury x fortfarande bra till i prestandan medan 980 ti börjar falla efter. Och om 290 x är något att titta tillbaka på så lär mitt fury x fortsätta leverera högre prestanda medan 980 ti kommer att glömmas bort.

Jämför man prestandaindex från förra hösten med idag så har relativ prestanda i 1920x1080 samt 2560x1440 mellan Fury X och 980 Ti inte ändrats på något relevant sätt. Vidare gissar jag att valet inte stod mellan Fury X och 980 Ti referens, 980 Ti tillsammans med 950 är de modeller med störst skillnad mellan referens och modeller med 3:e-partskylare.

Det är absolut sant att Kepler kretsarna tappat mot både GCN och Maxwell/Pascal i nyare spel. Dock ser det väldigt mycket ut att vara just kretsen Kepler som är den kritiska punkten, inte att Nvidias kretsar generellt tappar med tiden.

Är inte heller så att man saboterat specifikt för Kepler, finns lite tester där man kört om samma uppsättning spel man körde när 780 Ti lanserades och jämfört med dåtidens drivare och dagens drivare. I det fallet ser man ett litet prestandalyft med nya drivare på några enstaka procent. Samma sak gjordes också med 290X och även där var det ett prestandalyft på några enstaka procent med nya drivare.

Det specifika problemet för Kepler är att tekniken i spel utvecklades i en riktning som passade den kretsen otroligt illa.

Det positiva för AMD är att även med DX11 har speltekniken gått i en riktning som spelar mer på styrkorna i GCN än svagheterna. Även 290X nämns, där finns en till vink om att problemet är specifikt till Kepler då 290X och 970 har i princip identisk prestandaindex kvot idag som de hade när 970/980 lanserades, däremot har 780 Ti absolut tappat (vilket beror på att man successivt byt ut spelen så andel spel med renderingstekniker som passar Kepler illa ökat).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare

Verkar vara väldigt få i denna tråd som läst TechReports utmärkta test av denna titel.

Framförallt är deras slutsats kring hur genomsnittlig FPS kan vara totalt missvisade i hur den faktiskt upplevelsen blir väldigt viktig. De säger att i DX11 rullar spelet bra på både AMD och Nvidia, men bilden under DX12 är inte speciellt rosig.

Båda lagen får en sämre upplevelse i DX12, men tvärt emot vad genomsnitt FPS antyder så är det på AMDs, inte Nvidias, GPUer som spelet fungerar klart sämst. Man skriver t.ex. detta:

"The GTX 1070 has a much better time of it in Deus Ex's DX12 mode. The card spends only a hair's breadth of time past the 33.3-ms mark, and it spends 34% less time working on frames that would drop the frame rate below 60 FPS than the Fury X does. I had to double-check whether the GTX 1070 was actually performing this well compared to the Radeons, but the numbers don't lie. It's the performance champion in DXMD's DX12 mode with these settings, and not by a small margin."

D.v.s. i DX12 så är det GTX 1070 som är det kort som är bäst, eller minst dåligt kanske är en bättre beskrivning i denna titel. Man skriver att rent objektivt är rullar spelet bättre på 1060 än på 480 och Fury X (som objekt presterar väldigt likvärdigt). En ren katastrof för Fury X alltså, tvärt emot vad man förleds att tro när man tittar på genomsnittlig FPS. Förklaringen syns nog bäst i denna graf

Förhoppningsvis är inte denna titel alls representativ för vad man kan förvänta sig av DX12 i framöver. Men den borde i alla fall vara en vink om att "low-level" APIer ger utvecklare rätt mycket rep och osäkrade hagelgevär... Vissa kommer med stor sannolikhet göra rejält coola saker med detta, men frågan är hur stor andel utvecklare som mest kommer skjuta sig i fötterna och hänga sig...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Angående Nvidia vs Amd
Så här uppfattar jag saken.
Nvidia är duktiga på att släppa kort som är anpassade och optimerade för de spel och benchmarks som finns när de släpps. AMD släpper kort som är mer framtidsinriktade och som oftast presterar sämre i de spel och benchmarks som finns vid tidpunkten när de släpps.

Spola fram nåt år eller två och förhållandet är ofta ombytt. Dock finns det säkert exempel där det inte är så, men i stora drag hävdar jag att AMD:s kort tenderar att bli "bättre" med tiden och Nvidias kort "sämre". Detta beroende på att de nyare spelen som testas senare i kortens livscykel utnyttjar modernare renderingstekniker.

Exempel, GCN/Kepler,
7970 vs 680. 290x vs 780ti.

Om man tittar på de DX12 och Vulkantitlar som hittills kommit ut, även om de flesta av dessa inte är färdigoptimerade, ser det ut som att de gamla GCN-korten står sig mycket bättre mot de nyare Maxwell-korten. Också här tycks AMD:s kort bli "bättre" med tiden.

Slutsats.
Vill man ha det absolut bästa nu och är beredd att uppgradera igen om ett år, köp Nvidia.
Vill man att grafikkortet ska hålla längre tid än ett år, köp AMD.

Det är ju ingen tvekan om vilken marknadsmodell som lyckats bäst. Inte nog med Att Nvidia har ca: 70% av marknaden. Man ser också listigt till att konsumenterna med glädje och stolthet uppgraderar oftare också.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Hmm intressant läsning. AMD hamnar i blåsväder igen. Bra genomsnittlig FPS men dålig upplevelse pga stor variation i renderingstider. Kanske kan AMD förbättra det med nya drivisar men vem vet?
Det blir allt svårare att välja ett grafikkort som man kan ha nått/några år för det ej finns pengar att köpa ett nytt varje år.

Skickades från m.sweclockers.com

Permalänk
Medlem

Tills DX12 fungerar bättre, så spelar det inte någon större roll at AMD vinner faktiskt...

AMD kanske fårr ut mer än Nvidia på DX12, men du får ut mycket mer från DX11 med Nvidia ändå, så varför ska man använda DX12? Där är inte någon riktig fördel med det just nu.

Det kanske spelar större roll längre fram, men vi är inte där än, och Nvidia jobbar ju så klart med att förbättra prestandan i DX12. När DX12 faktiskt fungerar bra och stabilt, så kanske det är en helt annan historia.

Permalänk
Avstängd
Skrivet av TappadBakom:

Det står ju att det är en bugg för nvidia korten.
Snålat med RAM? Vilka AMD kort har 8gb RAM?
Topkorten från amd har 4gb. Tycker det känns som amd har snålat med RAM

Skickades från m.sweclockers.com

480, 470, 390x, 390. 8GB.

och första generationen av HBM kunde inte byggas i mer än 4gb.

§1
Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Hevin:

Tills DX12 fungerar bättre, så spelar det inte någon större roll at AMD vinner faktiskt...

AMD kanske fårr ut mer än Nvidia på DX12, men du får ut mycket mer från DX11 med Nvidia ändå, så varför ska man använda DX12? Där är inte någon riktig fördel med det just nu.

Det kanske spelar större roll längre fram, men vi är inte där än, och Nvidia jobbar ju så klart med att förbättra prestandan i DX12. När DX12 faktiskt fungerar bra och stabilt, så kanske det är en helt annan historia.

Har gåt för lång tid för att tro att Nvidias 900 och 1000 kommer att ha någon glädje av Nya DX12. Har du eller funderar på att köpa Nvidia kort så får du använda gamla DX11. Stödet för DX11 kommer snabbt bara bli sämre och sämre då alla ny spel görs för DX12. Ska du köpa nytt kort idag så är det AMD du ska titta på eller vänta på Nvidias 1100 serie och hoppas att den blir bättre

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Har gåt för lång tid för att tro att Nvidias 900 och 1000 kommer att ha någon glädje av Nya DX12. Har du eller funderar på att köpa Nvidia kort så får du använda gamla DX11. Stödet för DX11 kommer snabbt bara bli sämre och sämre då alla ny spel görs för DX12. Ska du köpa nytt kort idag så är det AMD du ska titta på eller vänta på Nvidias 1100 serie och hoppas att den blir bättre

Fast att blanda in pascal med Maxwell i det resonemanget rimmar väl ändå ganska illa?

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Yoshman:

Verkar vara väldigt få i denna tråd som läst TechReports utmärkta test av denna titel.

Framförallt är deras slutsats kring hur genomsnittlig FPS kan vara totalt missvisade i hur den faktiskt upplevelsen blir väldigt viktig. De säger att i DX11 rullar spelet bra på både AMD och Nvidia, men bilden under DX12 är inte speciellt rosig.

Båda lagen får en sämre upplevelse i DX12, men tvärt emot vad genomsnitt FPS antyder så är det på AMDs, inte Nvidias, GPUer som spelet fungerar klart sämst. Man skriver t.ex. detta:

"The GTX 1070 has a much better time of it in Deus Ex's DX12 mode. The card spends only a hair's breadth of time past the 33.3-ms mark, and it spends 34% less time working on frames that would drop the frame rate below 60 FPS than the Fury X does. I had to double-check whether the GTX 1070 was actually performing this well compared to the Radeons, but the numbers don't lie. It's the performance champion in DXMD's DX12 mode with these settings, and not by a small margin."

D.v.s. i DX12 så är det GTX 1070 som är det kort som är bäst, eller minst dåligt kanske är en bättre beskrivning i denna titel. Man skriver att rent objektivt är rullar spelet bättre på 1060 än på 480 och Fury X (som objekt presterar väldigt likvärdigt). En ren katastrof för Fury X alltså, tvärt emot vad man förleds att tro när man tittar på genomsnittlig FPS. Förklaringen syns nog bäst i denna graf
http://techreport.com/r.x/dxmdpreview/dx12-33.png

Förhoppningsvis är inte denna titel alls representativ för vad man kan förvänta sig av DX12 i framöver. Men den borde i alla fall vara en vink om att "low-level" APIer ger utvecklare rätt mycket rep och osäkrade hagelgevär... Vissa kommer med stor sannolikhet göra rejält coola saker med detta, men frågan är hur stor andel utvecklare som mest kommer skjuta sig i fötterna och hänga sig...

1000ms=1 sekund. Om det stämmer så skulle spelet ha en bild/s=ospelbart med ett Fury X. Hade så varit fallet så skulle även Sweclocker nämna detta.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Kan det ha att göra med att Swelockers kör en i5a medans Techreport kör med en i7a? Techreport har knappast fifflat med siffrorna dom kom fram till.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av tellus82:

Fast att blanda in pascal med Maxwell i det resonemanget rimmar väl ändå ganska illa?

Skickades från m.sweclockers.com

Jag vet inte. Men Det ser riktigt illa ut för alla Nvidias kort. Nvidia har vetat om DX12 länge minst 2 år så varför ska man tro att det ska komma en haleluja drivrutin till Nvidias grafikkort det har aldrig hänt förut Se bara 7970 VS 680, 290X VS 780TI

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

@sesese: Läs på lite mer om skillnaden mellan maxwell och pascal så kanske du förstår vad jag menade.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av sesese:

1000ms=1 sekund. Om det stämmer så skulle spelet ha en bild/s=ospelbart med ett Fury X. Hade så varit fallet så skulle även Sweclocker nämna detta.

Hade du läst artikeln hade det förhoppningsvis varit uppenbart vad staplarna visar.

Längden på staplarna är INTE scentider, det är under hur lång tid i den ca 60 sekunders testsekvens som respektive kort har scentider som är 33,3 ms eller mer (d.v.s. hur lång tid de spenderar med att rendera scener under 30 FPS).

Tanken med dessa tester är att visa hur ofta den som spelar kommer uppleva "lagg".

Fury X dippar däremot aldrig under 20 FPS (50 ms) medan 480 har en bildruta över 50 ms (480 spenderar 58 ms under detta, så kan bara vara en bildruta).

En enstaka bildruta bör ignoreras, så det betyder att dippar för Fury X och 480 ligger mellan 20 till 30 FPS.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Hade du läst artikeln hade det förhoppningsvis varit uppenbart vad staplarna visar.

Längden på staplarna är INTE scentider, det är under hur lång tid i den ca 60 sekunders testsekvens som respektive kort har scentider som är 33,3 ms eller mer (d.v.s. hur lång tid de spenderar med att rendera scener under 30 FPS).

Tanken med dessa tester är att visa hur ofta den som spelar kommer uppleva "lagg".

Fury X dippar däremot aldrig under 20 FPS (50 ms) medan 480 har några enstaka bildrutor över 50 ms
http://techreport.com/r.x/dxmdpreview/dx11-50.png

Det han säger att Sweclockers borde nämnt något om det är dock sant. Dom skriver t.om "I det stora hela fungerar dock gränssnittet förvånansvärt bra, utan något konstigt hackande eller oflyt" vilket dom borde känna? Har du någon aning vad det kan bero på att Techreport får såna problem medans Sweclockers inte får det, mer än att DX12 implementationen verkar vara i något betastadie fortfarande.

Edit: Sweclockers kör en inbyggd testslinga medans Techreport verkar spela spelet själva med alla kort, kanske därför?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Avstängd
Skrivet av Cooling23:

Ser mörkt ut för DX12.

Snarare ser mörkt ut för Nvidia om de inte gör något drastiskt.

Skrivet av serverfel:

Skämtar du? Det är säkert drivrutiner som måste redas ut...

Jag har alltid gillat amd och de flesta datorer i familjen är baserade på deras cpuer. Men nVidias grejjer är en generation före amds i prestanda.

Varierar från generation till generation. Däremot att påstå att detta har med drivrutiner att göra när DX12 lägger kraven snarare på utvecklaren än på drivrutinerna går inte. Det är helt enkelt så att Nvidias kort inte kommer till sin rätt med DX12.

Skrivet av Jockew1989:

Fast så länga det får att köra i dx11 med spelar det ju ingen större roll om dx12 är lite broken, vore värre om hela spelet var paj, men de e ju bara byta till dx11 om man kör Nvidia

Skickades från m.sweclockers.com

För det rimmar ju bra med PR som "Fullt DX12 stöd..".

Skrivet av ClintBeastwood:

Det är väl lite det som är grejen, ge och ta. En hel del namn känner man igen här i tråden som kastar skit på Gameworks så fort dom får chansen men sedan hyllar dom Gaming Evolved och titlar som lutar åt AMD. Det är hyckleri på hög nivå. Jag vet inte om dessa användare ser det själva. men jag tror tyvärr inte det.

Samma finns för Nvidia. En nackdel som man får acceptera på hårdvarurelaterade forum och det är att det kryllar av fanboys. Har själv erfarenhet av både Nvidia och AMD kort och problem dyker upp beroende på generation från båda tillverkarna. Däremot har Nvidia historia av att fuska lite mer (har antagligen med deras ställning på marknaden att göra) så som hav som måste renderas under kartorna, HBO+ som flaskar sönder AMD GPU:er, PhysX som låses in etc. Som tur var gäller detta bara ett fåtal spel. Har inga som helst problem med Gameworks titlar generellt eller Gaming Evolved för den delen.. Varken med mitt GTX 970 eller mitt gamla HD6950.

Skrivet av TappadBakom:

Det står ju att det är en bugg för nvidia korten.
Snålat med RAM? Vilka AMD kort har 8gb RAM?
Topkorten från amd har 4gb. Tycker det känns som amd har snålat med RAM

Skickades från m.sweclockers.com

RX 480 kommer med 4 och 8 GB ram. 390X likaså. Det är först nu som Nvidia kommer med 8GB vram på sina mer bekostade kort.. Så din känsla är direkt felaktig.

Skrivet av Ruzikx:

tror han syftar på Fury-serien. "topkort"

Även det blir fel eftersom det handlar om HBM minne som i sin tur begränsades tekniskt.. Då kan man ju lika gärna påstå att Nvidia snålar för att de inte har ett kort med HBM minnen för mainstreamkonsumenter ännu.

Skrivet av Exxovion:

Direct X 12 verkar än så länge vara långt ifrån den revolution som det ryktades om.

Kan bero på att det handlar om spel som kodats i DX11 och sedan fått DX12 patchat in.. De första rena DX12 spelen kommer antagligen någon gång nästa år.. Däremot så är det en fråga om det blir någon skillnad mellan Nvidia och AMD. Båda börjar säkert prestera bättre men AMD verkar ha kort som är bättre lämpade för DX12.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Datavetare
Skrivet av ClintBeastwood:

Det han säger att Sweclockers borde nämnt något om det är dock sant. Dom skriver t.om "I det stora hela fungerar dock gränssnittet förvånansvärt bra, utan något konstigt hackande eller oflyt" vilket dom borde känna? Har du någon aning vad det kan bero på att Techreport får såna problem medans Sweclockers inte får det, mer än att DX12 implementationen verkar vara i något betastadie fortfarande.

Edit: Sweclockers kör en inbyggd testslinga medans Techreport verkar spela spelet själva med alla kort, kanske därför?

En i sammanhanget kritisk skillnad, givet resultaten ComputerBase fick, är CPU.

SweClockers kör med en överklockad i5-6600K medan TechReport använder en i7-6950X i stock-clock. Vidare kör TechReport enbart 2560x1440.

Jämför man lägsta FPS i DX11 så är de väldigt nära de resultat TechReport får i deras 99 % percentil. I DX11 presterar AMDs kort bättre än motsvarande Nvidia (jämfört hur det brukar se ut i andra DX11 titlar)

@JonasT och @Kenneth borde veta hur man beräknat lägsta FPS. Är det 99 % percentilen eller beräknas det på något annat sätt?

Det ComputerBase såg var att CPUer med många kärnor fick totalt havererad prestanda i DX12, precis som TechReport såg man ett större prestandafall på AMDs GPUer med många kärnor.

Angående att prestanda dyker med flera kärnor. Min gissning är att spelet har grava problem med något som kallas "false sharing". Har man detta problem skulle man se ett större ras på FX-83xx jämfört med Intel CPUer med ett likartat antal kärnor, vilket är precis vad ComputerBase ser.

Har kan man ställa sig frågan: hur många spelprogrammerare har ens hört talas om "false sharing"? Och vidare, av de som trots allt hört talas om det, hur många vet hur man kan orsaka detta rent konkret och hur många har en känsla för prestandapåverkan?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Tumnus:

För det rimmar ju bra med PR som "Fullt DX12 stöd..".

För "fullt DX12 stöd" krävs det en drivare för DX12 samt en GPU som stödjer minst "feature level 11.0". Alla kort som fått en DX12 drivare uppfyller detta.

Det AMD pratar om i form av "async shaders" är överhuvudtaget inte något som DX12 (eller Vulkan för den delen) kräver eller ens definierar. Däremot har båda dessa APIer en koncept där man kan posta jobb på en kö som är en delmängd av grafikkön, det är beräkningskön.

Vad DX12/Vulkan specificerar är att alla implementationer har möjlighet att behandla jobb som postas i grafikkön och jobb som postas i beräkningskön som oberoende på tidsaxeln, de är asynkrona. En sak man kan utnyttja detta till är att köra jobb från olika köer parallellt, men det är alltså absolut inget som står i specifikationen för DX12/Vulkan utan är en implementationsdetalj.

Det Nvidias PR-avdelning menar med "fullt DX12 stöd" är att Maxwell var först med idag högsta "feature level", version 12.1. Inom DX11/DX12 specifikationen finns en rad valbara funktioner definierade, de krävs alltså inte för DX12 stöd men specifikationen beskriver hur de ska fungera om de är implementerade.

Då det är komplicerat att testa varje valbar finess för sig definierar DX också grupper av valbara finesser, man stödjer bara en "feature level" om man implementerar alla valbara finesser på den nivå.

Notera att ett kort som implementerar den idag högsta definierade nivå, 12.1, behöver fortfarande inte stödja alla definierade valbara finesser som finns i DX12. Dessa kommer att ingå i framtida feature levels ovanför 12.1.

Idag är det Maxwell, Pascal och Skylake som implementerar feature level 12.1. Vissa finesser i Gameworks, som t.ex. VXAO, kräver feature level 12.1 då teknikerna bygger på saker som måste implementeras där.

Skrivet av Tumnus:

Däremot har Nvidia historia av att fuska lite mer (har antagligen med deras ställning på marknaden att göra) så som hav som måste renderas under kartorna, HBO+ som flaskar sönder AMD GPU:er, PhysX som låses in etc.

Och här skälls det under fel träd... Hav som renderas under kartor och betongblock med löjlig tesseleringsnivå har absolut ingenting att göra med Gameworks.

Båda är exempel på usel optimering, tesselering är en standardfunktion i DX11/DX12 så överanvändning av detta är inget man kan skylla på Gameworks.

HBAO+ gör saker som är beräkningsmässigt dyrt, det kostar på ALLA kort och vad jag sett så är inte kostnaden värre på AMD-kort än på Nvidia-kort. Finns billigare sätt att göra AO, men idag finns inget som ger ett bättre grafiskt resultat än HBAO+ (eller jo, VXAO blir ännu bättre men det kräver som sagt "feature level 12.1" så är idag aldrig något som pajar FPS på AMD-kort).

Skrivet av Tumnus:

Båda börjar säkert prestera bättre men AMD verkar ha kort som är bättre lämpade för DX12.

Baserat på vad? Tittar man på korten kapacitet och antal transistorer så borde ett 480 prestera ungefär 30 % bättre än 1060.

Man läser gång på gång ser hur "Nvidia har problem med DX12, de får inte samma boost som AMD". Men hur är det att ha problem när man har så putsade DX11 drivare att det helt enkelt inte finns mer kraft att hämta? Är det inte AMD som fortfarande har ett problem i då inte ens DX12 räcker för att komma lika nära kretsens kapacitet som Nvidia gör?

Och innan något sätter Nvidia-fanboy-stämpeln på stycket ovan, det är inte tyckande utan något som enkelt kan ses i hårda siffror. Vidare, min nästa GPU blir från AMD i form av PS4 Pro...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av jacozz:

Så här uppfattar jag saken.
Nvidia är duktiga på att släppa kort som är anpassade och optimerade för de spel och benchmarks som finns när de släpps. AMD släpper kort som är mer framtidsinriktade och som oftast presterar sämre i de spel och benchmarks som finns vid tidpunkten när de släpps.

Fast ser du det inte lite onödigt positivt här? Kan det inte vara så att den där framtidsinriktningen inte är en avsiktlig strategi utan snarare är en effekt som har uppstått då man (hittils) efter några månader har lyckats fixa de allvarligaste bristerna i mjukvaran? Kan man verkligen lita på att det kommer fungera i framtiden?

Permalänk
Medlem
Skrivet av tellus82:

@Söderbäck: Fast pratar man ren prestanda så är det tyvärr underläge, priset på Fury X är inte så roligt heller för den delen med tanke på att billigaste Fury X på prisjakt landar på 5309 och billigaste 1070 landar på 4140. Med andra ord levererar 1070 betydligt mer prestanda per krona idag än Fury X eller får du den ekvationen till något annat?

Jag utgår från mig själv, jag skiter i vad spelen presterar i dx11, spelen jag spelar idag driver mitt GTX 650TI godkänt, som du då förstår byter jag inte kort ofta och då är Vulcan och dx12 hyper intressant då det kommer sitta i burken säkerligen 3+ år.

I det fallet är det helt solklart för mig att välja FuryX framför 1070!

Permalänk
Medlem
Skrivet av UncleDirty:

Jag utgår från mig själv, jag skiter i vad spelen presterar i dx11, spelen jag spelar idag driver mitt GTX 650TI godkänt, som du då förstår byter jag inte kort ofta och då är Vulcan och dx12 hyper intressant då det kommer sitta i burken säkerligen 3+ år.

I det fallet är det helt solklart för mig att välja FuryX framför 1070!

Fast det vet man inte heller egentligen, att göra köp baserat på eventuell prestanda om 3 år eller mer kräver en fungerande kristallkula. Som andra nämnt kan det sluta med att dx12 uppföljaren får ett lager för att återgå mer till drivarhanterad optimering snarare än att utvecklare ska hålla reda på flera generationers gpuer och deras funktioner och hur man bör koda till varje. Redan nu ser vi att de som kodar för dx12 och vulkan måste optimera för varje specifik krets och det skapar problem. Personligen tror jag det är ett enormt misstag att lägga över de jobbet på utvecklarna, det funkar på konsoler men på PC sidan finns det extremt många fler konfigurationer. Så skulle det bli en tillbakagång så ligger plötsligt nVidia bättre till rent historiskt sett.
Att säga hur någonting kommer eller ens kan komma att prestera är otroligt vanskligt, än mer så om man baserar sina antaganden på mindre än fem spel.
Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::