Nästa AMD-grafikkort väntas få mindre ray tracing-lyft

Permalänk
Medlem

Raytracing idag är mest en gimmick anser jag. I moderna spel är det bara vissa delar som använder sig av det. Har testat själv och det är inte så man svimmar när man ser det direkt.

Så en tid framöver kommer det inte betyda så mycket förutom för alla supernördar. gammal hederlig rasterering kommer nog få hänga med ett bra tag till tills hårdvaran klarar att göra ALLT med raytracing och inte bara vissa utvalda delar.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Snabbt_o_Hårt:

Hm, så när blir AMD omsprungna av Intel i ray tracing?

Detta!

Intel kommer snart springa åttor runt Radeon Group i RT och uppskalning. Det är bara känslan jag har. Intel är bäst när det kommer till att bygga specifika hårdvaruaccelererade prylar.

Skulle inte förvåna mig alls om det är Intel som ser och tar tillvara på de nya möjligheterna här.

Men sen är ju 25 % bättre raytracing-prestsnda inte dåligt heller. AMD är i klass med Nvidias 3000-serie nu i RT (i de flesta fall). 25 % på det och rätt prislapp och det kan bli riktigt bra mellanklasskort.

Nvidia skiter fullständigt i gaming nu i några år, fram tills dess att A.I tas över av ändamålsmässigt byggda kretsar som inte har något med vanliga GPUer att göra så passar Nvidia på att trycka 💰💰💰💰.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av Swedishchef_90:

Det är två helt olika saker att köpa bästa produkt din budget kan ge dig, här vinner amd väldigt ofta.

Eller jämföra produkter i samma prestanda segment.

Att priser sänks markant på ca ett år tyder på oattraktiv produkt jämfört med bolagets prognos

Jag köpte mitt 7900xtx vid release och det kostade 11995:-. Det billigaste idag kostar 11657:-. Jag tycker inte det är så farligt med en sänkning på 338:-.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem
Skrivet av Rebben:

Jag köpte mitt 7900xtx vid release och det kostade 11995:-. Det billigaste idag kostar 11657:-. Jag tycker inte det är så farligt med en sänkning på 338:-.

Du får kika mellan vissa modeller, hellhound låg runt 14k och nu funnits runt 10 900 ish (kan varit Inet drop för prisjakt säger 11 490) som ett exempel

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av heatm:

Detta!

Intel kommer snart springa åttor runt Radeon Group i RT och uppskalning. Det är bara känslan jag har. Intel är bäst när det kommer till att bygga specifika hårdvaruaccelererade prylar.

Skulle inte förvåna mig alls om det är Intel som ser och tar tillvara på de nya möjligheterna här.

Men sen är ju 25 % bättre raytracing-prestsnda inte dåligt heller. AMD är i klass med Nvidias 3000-serie nu i RT (i de flesta fall). 25 % på det och rätt prislapp och det kan bli riktigt bra mellanklasskort.

Nvidia skiter fullständigt i gaming nu i några år, fram tills dess att A.I tas över av ändamålsmässigt byggda kretsar som inte har något med vanliga GPUer att göra så passar Nvidia på att trycka 💰💰💰💰.

Intressant resonemang, jag tror faktiskt att Intel överväger att lägga ner sina separata grafikkort. Blir förvånad om vi någonsin får se "Battlemage", de har inte resurserna eller kompetensen att tävla med AMD eller Nvidia.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem

RT behöver optimeras ytterligare och göras mer tillgängligt med vettigare priser på gpuer. Innan dess kommer det inte prioriteras till den nivå Alan wake 2 eller cyberpunk gjort. Kanske när PS6 kommer att vi nått någon slags sann tröskel för brett nyttjande av RT i spel med meningsfull grafisk skillnad som följd utan fps caps @ 30 fps eller liknande.

Det potentiellt positiva med RDNA4 är ju att det kanske hjälper till lite med accessibility för RT om priset är rätt. De flesta vill ju ändå köpa gpuer som åtminstone kostar mindre än en hel spelkonsol.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Hedersmedlem
Skrivet av Aeig:

Intressant resonemang, jag tror faktiskt att Intel överväger att lägga ner sina separata grafikkort. Blir förvånad om vi någonsin får se "Battlemage", de har inte resurserna eller kompetensen att tävla med AMD eller Nvidia.

Mvh

Resurser har de väl ändå... Intel har 5x så många anställda som AMD, 2.4x större inkomst (revenue) och lägger c:a 3x så mycket pengar på R&D.

Jag skulle gissa på att det handlar mycket om hur mycket de törs satsa. Satsar de mycket och det läggs ner blir det ju inte bra... men satsar de inget alls kommer de ingen vart.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Buulaa:

Ray tracing kommer fortsatt vara en gimmick tills prestandaförlust inte blir en faktor längre.

Allt nytt blir ju en gimmick med den logiken.

Tur att jensen inte har sweclockersmedlemmar som rådgivare då hade vi nog varit kvar i tetrisstadiet när det kommer till grafik.

Permalänk
Medlem
Skrivet av Sjoooberg:

Absolut, men världen är inte redo. Forska på RT/PT tills dess att det går att använda utan gigantiska prestandaförlusten som man får i dagsläget

Det kostar pengar att forska. Såhär är det med allt, du kan inte få en perfekt produkt från dag ett.

Nvidia testar en ny grej, det visar sig att det finns intresse samt uppenbara fördelar när teknologin blir ännu mer mogen och då går det att motivera utvecklingskostnaden. Så enkelt är det, ingen kommer stå och vänta vid startlinjen tills "det är redo"
Det gäller utvecklare av spel, spelmotorer och grafikkort.

Permalänk
Datavetare

Angående mobilerna och raytracing. Här är en notervärd datapunk att prestandaförlusten med raytracing verkar mindre hos GPU-kretsarna med TBDR jämfört med RDNA2 som kör traditionell rendering pipeline

Också värt att notera att det är ARMs Mali som verkar klara sig absolut bäst (historiskt har Mali fått se sig slagen av de andra), medan Apple och Qualcomm ligger väldigt nära varandra (sen är Adreno extra speciellt i att den både stödjer TBDR och "traditionell" rendering, det senare är ett krav för att fungera ihop med DX12). Sedan rätt stort hopp ned till RDNA2 (sitter i S22).

Det som testas i detta fall är

Kanske blir mobilerna som först tar raytracing till verklig mainstream... En förmildrande omständighet för mobilerna är att TBDR har sina fördelar i att den mer effektivt hanterar hög upplösning, medan traditionella designen mer effektivt hanterar stor mängd trianglar. Kostnaden för raytracing är i stort sätt oberoende av upplösning, men går upp med ökad komplexitet i geometri.

Men även för PC och konsoler får man ha i bakhuvudet: för bara något år sedan var raytracing något som behövdes adderas separat. Idag är det en standardfunktion i de populära spelmotorerna, så lär användas allt mer framåt oavsett vad man anser om tekniken.

Klicka för mer information

Tycker Qualcomms demos rätt bra visar vad raytracing lägger till. Är möjligt att få liknande effekter med "fuskmetoder", men det kräver rätt mycket jobb medan raytracing-effekten faller ut "automagiskt". Blir riktigt kul att se kommande Snapdragon X Elite (ARM64 specifikt designad för Windows laptops) och om detta följer med till DX12 på Windows.

Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Leiri:

Nvidia driver problems: 11 miljoner resultat
Amd driver problems: 22.4 miljoner resultat

Söker man dessutom på reddit så är det nästan bara amd, framförallt om man fokuserar på närtiden, så 2022 tills idag.

Nvidias kontrollpanel återställer inte ens inställningar varje gång drivrutinen återhämtar sig från en krasch. Det gör däremot adrenaline så du får göra exempelvis en ny fläktkurva varje gång, sålänge din .xml inte gått sönder och blivit oläsbar av adrenaline, vill du även ha full kontroll över allt i adrenaline så behöver du starta om datorn också.

Nvidia orsakar såvitt jag vet inte att folk blir bannade i onlinespel för att tillverkaren tvunget lagt in en feature som pillar runt i spelkoden.

Båda gör bra hårdvara men den ena gör mycket bättre drivrutiner ovanpå detta.

I samma veva som AMD lyckades få folk bannade lyckades Nvidia göra precis samma sak. Men det blev hyschhysch väldigt fort

https://videocardz.com/newz/gamers-using-geforce-now-to-play-...

Permalänk
Medlem
Skrivet av Yoshman:

Angående mobilerna och raytracing. Här är en notervärd datapunk att prestandaförlusten med raytracing verkar mindre hos GPU-kretsarna med TBDR jämfört med RDNA2 som kör traditionell rendering pipeline

<Uppladdad bildlänk>

Också värt att notera att det är ARMs Mali som verkar klara sig absolut bäst (historiskt har Mali fått se sig slagen av de andra), medan Apple och Qualcomm ligger väldigt nära varandra (sen är Adreno extra speciellt i att den både stödjer TBDR och "traditionell" rendering, det senare är ett krav för att fungera ihop med DX12). Sedan rätt stort hopp ned till RDNA2 (sitter i S22).

Det som testas i detta fall är
https://youtu.be/XfwVM8NYlPU

Kanske blir mobilerna som först tar raytracing till verklig mainstream... En förmildrande omständighet för mobilerna är att TBDR har sina fördelar i att den mer effektivt hanterar hög upplösning, medan traditionella designen mer effektivt hanterar stor mängd trianglar. Kostnaden för raytracing är i stort sätt oberoende av upplösning, men går upp med ökad komplexitet i geometri.

Men även för PC och konsoler får man ha i bakhuvudet: för bara något år sedan var raytracing något som behövdes adderas separat. Idag är det en standardfunktion i de populära spelmotorerna, så lär användas allt mer framåt oavsett vad man anser om tekniken.

Klicka för mer information

Tycker Qualcomms demos rätt bra visar vad raytracing lägger till. Är möjligt att få liknande effekter med "fuskmetoder", men det kräver rätt mycket jobb medan raytracing-effekten faller ut "automagiskt". Blir riktigt kul att se kommande Snapdragon X Elite (ARM64 specifikt designad för Windows laptops) och om detta följer med till DX12 på Windows.

https://youtu.be/kVPO5jpLbc8

https://youtu.be/m1vxEOwgWhc

https://youtu.be/CFuSR4rVWg4

Visa mer

Väldigt bra videos, speciellt den i mitten av skillnaderna mellan av/på.
För oss som tar oss tid att njuta av detaljer så är reflektionerna den största skillnaderna

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Kimkimone:

I samma veva som AMD lyckades få folk bannade lyckades Nvidia göra precis samma sak. Men det blev hyschhysch väldigt fort

https://videocardz.com/newz/gamers-using-geforce-now-to-play-...

Och det var löst dagen efter om du läser artikeln, felet var på cod sidan som också står i artikeln

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Aeig:

Intressant resonemang, jag tror faktiskt att Intel överväger att lägga ner sina separata grafikkort. Blir förvånad om vi någonsin får se "Battlemage", de har inte resurserna eller kompetensen att tävla med AMD eller Nvidia.

Mvh

Vi får se. Jag ser bara en nedläggning om Intel ser att framtiden ligger i A.I-prestanda. D.v.s. att A.I kommer bli en generell lösning på hur man renderar grafik (texturer, belysning o.s.v), men också mycket annat i spel, men också utanför datorn.

Folket som gör GPU:er kan kanske tjäna bolaget mer pengar på annat håll idag.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av Kimkimone:

I samma veva som AMD lyckades få folk bannade lyckades Nvidia göra precis samma sak. Men det blev hyschhysch väldigt fort

https://videocardz.com/newz/gamers-using-geforce-now-to-play-...

Du kan ju inte jämföra geforce now mot en drivrutin.

Permalänk
Medlem
Skrivet av Aeig:

Intressant resonemang, jag tror faktiskt att Intel överväger att lägga ner sina separata grafikkort. Blir förvånad om vi någonsin får se "Battlemage", de har inte resurserna eller kompetensen att tävla med AMD eller Nvidia.

Intel lär överväga det, men Battlemage kommer. Den är i 4060-klass eller så, men den kommer. Vi lär vara uppe på Druid innan de ens kommer upp till Nvidia’s x70-klass.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Aeig:

Intressant resonemang, jag tror faktiskt att Intel överväger att lägga ner sina separata grafikkort. Blir förvånad om vi någonsin får se "Battlemage", de har inte resurserna eller kompetensen att tävla med AMD eller Nvidia.

Mvh

Tror verkligen Battlemage redan är klar och börjat produceras så den kommer oavsett vad

Men efter det håller jag med om att det är sjukt osäkert att det blir mycket mer. Raja lurade ju dem på många miljarders budget för att leverera detta, inte direkt kanske där man vill vara

Permalänk
Medlem

Arc Xe2/Battlemage Skall släppas 2024. För desktop bör det bli 64 Xe cores (dubbelt mot A770) och PCI-E 75W + 150W via kabel från nät agg. Arc Alchemist använde TSMC's 6nm, men Arc Battlemage förväntas använda TSMC's 4nm.

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem
Skrivet av Leiri:

Nvidia driver problems: 11 miljoner resultat
Amd driver problems: 22.4 miljoner resultat

Söker man dessutom på reddit så är det nästan bara amd, framförallt om man fokuserar på närtiden, så 2022 tills idag.

Nvidias kontrollpanel återställer inte ens inställningar varje gång drivrutinen återhämtar sig från en krasch. Det gör däremot adrenaline så du får göra exempelvis en ny fläktkurva varje gång, sålänge din .xml inte gått sönder och blivit oläsbar av adrenaline, vill du även ha full kontroll över allt i adrenaline så behöver du starta om datorn också.

Nvidia orsakar såvitt jag vet inte att folk blir bannade i onlinespel för att tillverkaren tvunget lagt in en feature som pillar runt i spelkoden.

Båda gör bra hårdvara men den ena gör mycket bättre drivrutiner ovanpå detta.

"Nvidia driver problems: 11 miljoner resultat
Amd driver problems: 22.4 miljoner resultat

Söker man dessutom på reddit så är det nästan bara amd, framförallt om man fokuserar på närtiden, så 2022 tills idag."

Snaka om att greppa efter halmstrån, båda tillverkare har problem med drivrutiner.
Detta är ju ett halmgubbe argument om något.

"Nvidias kontrollpanel återställer inte ens inställningar varje gång drivrutinen återhämtar sig från en krasch. Det gör däremot adrenaline så du får göra exempelvis en ny fläktkurva varje gång, sålänge din .xml inte gått sönder och blivit oläsbar av adrenaline, vill du även ha full kontroll över allt i adrenaline så behöver du starta om datorn också."

Har inte haft dessa problem själv, vilket inte säger något, men betyder dock att inte att alla har problemet, som sagt alla tilverkare har sina problem.

"Nvidia orsakar såvitt jag vet inte att folk blir bannade i onlinespel för att tillverkaren tvunget lagt in en feature som pillar runt i spelkoden."

Så vitt jag vet så är detta fixat! alla har haft sina buggar.

"Båda gör bra hårdvara men den ena gör mycket bättre drivrutiner ovanpå detta."

Enligt dig ja, håller inte med dig här.

Skrivet av SCORPIUS:

Jag har själv länkat den där flera gånger här, sagt samma sak om o om igen.
Men en del vill inte ge sig. Dom är förlorade i sin simpla mentalitet och klarar inte att förstå bättre.
Sorgliga människor.

Man kan inte göra mer än att informera! sen får människor gör vad dom vill med det.

Permalänk
Medlem
Skrivet av Oaktree:

"Nvidia orsakar såvitt jag vet inte att folk blir bannade i onlinespel för att tillverkaren tvunget lagt in en feature som pillar runt i spelkoden."

Så vitt jag vet så är detta fixat! alla har haft sina buggar.

Nej amd anti lag + vart borttaget och är inte återinfört ännu..

Med en tweet frön amd som säger "soon"

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Raytracing blir nog bra när kortens prestanda ökat med en säg 4x plus på den punkten.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Skrivet av Maximo:

Precis som Intel då, den taktiken gick ju bra.

Historiskt har väl inte Intel haft bättre teknik än Amd under några längre perioder?

Och jag var inte medveten om att Intel har haft som strategi att "svälta ut" Amd. Du kanske åsyftar de marknadsbegränsande exklusivitetsavtalen som Intel nyttjade för en herrans massa år sedan?

Visa signatur

You have earned my respect and my friendship.

Permalänk
Medlem
Skrivet av KAN1N:

Det blir ju dyrare ju större och mer komplicerad krets det är, så är inte så konstigt egentligen. Kommer det inte någon banbrytande teknik som gör det ”lättare” att köra bättre grafik med bättre upplösning så kommer priserna bara gå upp mer och mer. T.ex. som frame gen och upscaling mm.

Korten som ska köra 4k ultra ray tracing i 120+ fps är så sjukt långt ifrån världens mainstream gaming.

Kan man tjäna mycket mer på AI boomen så gör man ju såklart det tyvärr. Pengarna för utveckling och investeringar måste ju komma någonstans ifrån.

Absolut, men jag tror att det även handlar ganska mycket om att Nvidia kan ta väldigt bra marginal på sina produkter som resultat av sin dominanta ställning på marknaden.

Visa signatur

You have earned my respect and my friendship.

Permalänk
Hedersmedlem
Skrivet av Thor:

Historiskt har väl inte Intel haft bättre teknik än Amd under några längre perioder?

Och jag var inte medveten om att Intel har haft som strategi att "svälta ut" Amd. Du kanske åsyftar de marknadsbegränsande exklusivitetsavtalen som Intel nyttjade för en herrans massa år sedan?

Det där är inte ens klart. Det senaste i ärendet var för ett halvår sedan.

https://www.clearyantitrustwatch.com/2023/09/the-european-com...

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av cosplay:

Som om Nvidia skulle sänka priset på sina klena budgetkort?

Nu tror jag visserligen att Nvidia inte är särskillt intresserad av att få Amd att dra sig ur marknaden eftersom det hade kunna bli bekymmersamt för Nvidias existens om de blir ansedda som ett monopol.

Men det hindrar de inte från att utesluta andra parter från toppsegmentet genom väldigt aggressiv prissättning. Segmentet som i mångt och mycket driver den tekniska utvecklingen. På så vis kan Nvidia skaffa sig ett järngrepp över hur tekniken fortsätts utvecklas och de kan driva den på ett monokulturellt vis mot marknaden i helhet.

Nu finns det inget som antyder att så är fallet, eller kommer bli. Men det är i vart fall för mig en uppenbar risk som existerar när man har en part som tar för stor andel. Drivet skiftar från att utveckla bra teknik till att försvara det egna. Sådana strategier är väl sällan särskillt långsiktiga, men de tenderar att sakta ner utvecklingen.

Sen kan man ju stödköpa aktörer för att försöka skifta marknaden, men det fungerar inte eftersom de som gör detta är allt för få för att ens kunna producera ett märkbart resultat. Systemet är inte designat för att det ska gå helt enkelt, du måste ha en produkt som tillför ett faktiskt upplevt värde. Det kanske får bli att man drar en kulturell referens mot en rymdsaga och anpassar den till situationen "Help me Intel-Arc-Graphics, youre my only hope".

Visa signatur

You have earned my respect and my friendship.

Permalänk
Medlem
Skrivet av X-TroNiC:

Det som stör mig mest är väl alla krasher jag har haft med detta kort, har kraftigt gått om alla jag har haft sammanlagt med mina tidigare 4 nvidia-kort. Utöver det så är det väl tiden AMD tar på sig att fixa basics i drivrutinerna, eller t ex stabilitet och powerdraw problemet 7000-serien hade/har, tog väl 6-9månader innan det fixades för de flesta, vissa påstår sig ha problem fortfarande. Som referens så drog mitt 7900XTX lika mycket på youtube som mitt tidigare RTX3080 gjorde i SC2

Utöver det så känns ju arkitekturen inte direkt färdigutvecklad, belastningen kortet har återspeglar inte temperaturen överhuvudtaget. Du kan ha 60% load med markant lägre powerdraw men ändå kan temperaturerna vara betydligt högre än vid 100% load med högre powerdraw. Dvs enklare scener i spel kan ge betydligt högre temp än tyngre scener, jag ser ingen logisk koppling i detta fenomen, inget jag har upplevt med mina tidigare nvidia-kort. (Ja, kör fps cap)

Sen har vi väl alla som har temperaturproblem som dessa kort har, de flesta har ett delta på 30-40grader mellan gpu och hotspot, det är väl inte ett problem i sig alla gånger. De flesta kylpastor fungerar väldigt dåligt, speciellt över tid på dessa kort då MCD-chipsen ligger något högre upp en själva GCD'n, dvs man måste fylla detta utrymme med rätt mycket pasta för att temperaturerna inte ska vandra iväg relativt snabbt (tjockare pasta fungera lite bättre). Just denna mängd kylpasta man måste använda verkar ju inte alls hålla lika länge som en GPU som kan ha ett tunt fint lager istället. Som referens så har min temp ökat med ca 13grader på ett år, det är mer än mitt 3080 gjorde under sina 2,5år.
Åtgärden som brukar fungera för de flesta är väl att köra Cryosheet eller liknande då dessa inte åldras på samma sätt. Ska prova det snart då det börjar bli behov trots vattenkylningen.

Men ska jag säga något positivt så är det väl kontrollpanelen och overlayen AMD har Visst kan jag sakna någon inställning som nvidia har ibland..

Tack för input!
Känns kanske lite som AMD bör satsa hårt på en/två GPU modeller endast och göra de riktigt bra och ordentligt istället. Inte rimligt de ska göra allt när de ligger så långt efter nvidia på så mycket.

Själv har jag inte kört AMD på över 10 år men främst pga att jag kör mycket Photoshop mm, återigen driver-stabilitet som jag prioriterar.

Permalänk
Medlem
Skrivet av KAN1N:

Tack för input!
Känns kanske lite som AMD bör satsa hårt på en/två GPU modeller endast och göra de riktigt bra och ordentligt istället. Inte rimligt de ska göra allt när de ligger så långt efter nvidia på så mycket.

Själv har jag inte kört AMD på över 10 år men främst pga att jag kör mycket Photoshop mm, återigen driver-stabilitet som jag prioriterar.

Problemet med kisel är att det finns alltid % av sämre kretsar därför så har dem flera nivåer då vissa kretsar har nedsatt funktion och måste antingen kasseras eller bli en sämre modell

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Thor:

Historiskt har väl inte Intel haft bättre teknik än Amd under några längre perioder?

Och jag var inte medveten om att Intel har haft som strategi att "svälta ut" Amd. Du kanske åsyftar de marknadsbegränsande exklusivitetsavtalen som Intel nyttjade för en herrans massa år sedan?

Dom utnyttjas fortfarande, det är enda anledningen att intel håller sig kvar.

Permalänk
Medlem

Kanske en galen tanke men varför kan man inte köra RT-genereringen på ett separat grafikkort (typ som PhysX)? Just nu när nuvarande grafikkort inte ens i toppsegmentet orkar med så vore väl de en smart sak att nyttja sitt gamla grafikkort till? Förstår att det kanske är svårt att bryta ut det som en separat process till ett annat grafikort, men det skulle kunna vara ett sätt att få RT-generering utan märkbar prestandaförlust. En ytterligare fördel kunde vara att man kan köra ett AMD kort som primärt grafikkort och köra RT på ett billigare Nvidia kort (som är bättre på RT).

Permalänk
Medlem
Skrivet av DLM:

Kanske en galen tanke men varför kan man inte köra RT-genereringen på ett separat grafikkort (typ som PhysX)? Just nu när nuvarande grafikkort inte ens i toppsegmentet orkar med så vore väl de en smart sak att nyttja sitt gamla grafikkort till? Förstår att det kanske är svårt att bryta ut det som en separat process till ett annat grafikort, men det skulle kunna vara ett sätt att få RT-generering utan märkbar prestandaförlust. En ytterligare fördel kunde vara att man kan köra ett AMD kort som primärt grafikkort och köra RT på ett billigare Nvidia kort (som är bättre på RT).

Det där att köra dedikerat kort för physx var väl inget som nyttjades i praktiken särskillt mycket? Visst gick det men det var en ganska nischad marknad är min uppfattning.

Jag tror det blir ganska stora problem att få det där att fungera bra i praktiken, nu har jag ingen teknisk kompetens men jag föreställer mig att det uppstår problem ganska snabbt som berör latens & bandbredd när du lufter en sån funktion ifrån beräkningsenheten. Oundvikligen kommer det hur som helst skapa mer komplexitet, troligen till ringa nytta.

Visa signatur

You have earned my respect and my friendship.