AMD:s planerade toppmodell i RDNA 4-familjen var en bjässe

Permalänk
Medlem
Skrivet av mpat:

Jag har inte problemet själv, men som jag förstår det så beror de där ”AMD Radeon”-namnen i Steams lista på att AMD skickar ut BIOS med det som officiellt namn till tillverkarna innan korten släpps, eftersom de ibland döper om kort väldigt sent. Köper man ett tidigt kort så har det alltså det namnet. Köper man en senare batch så har det rätt namn.

Autodetect på drivrutinen förstår jag inte, det är ju samma installerare för alla RDNA3-kort? Samma installerare för alla AMD-kort i någorlunda modern tid.

Det är inte samma installerare, AMDs "minimal setup" identifierar kortet och laddar ned rätt drivrutin. Det är den som felar. Klickar man sig genom menyerna till sin specifika modell får man en .exe med stöd för kort som saknar identifierande... IDn.

Permalänk
Datavetare
Skrivet av Dinkefing:

Hur ska man göra kretsar som inte kräver dyra och avancerade interconnects?

Gissar att rätt kompetenta personer försöker knäcka den nöten just nu. AMD visade ju ett sätt med RDNA 3, fast även det var knappast "enkla och superbilliga interconnects".

Som AMD skriver i sin presentation (och Nvidia nämner i vissa av deras patent), det utmanande med GPUer är att de ofta används till saker som pushar väldigt stora mängder data. En känd nackdel med flerkretslösningar är att det kostar rätt mycket mer energi att flytta data mellan kretsar jämfört med inom kretsar och hög komplexitet är svårare att hantera utanför kretsen.

Apples "lösning" på problemet är extremt bred/dyr interconnect + att man i praktiken sätter kretsarna helt ihop för att minimera avstånd. Det i sig betyder att det blir svårt att koppa ihop fler än två kretsar, fler än så kommer ge asymmetrisk latens totalt sett.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av superapan:

Nvidia har nära ickefungerande drivrutiner, och för att ens få en halvdräglig upplevelse måste man köra X11 och inte Wayland.

Eller du kanske pratar Windows? Jag, och den växande skaran Linuxgamers har AMD som det helt överlägsna valet. Synd att jag inte har något att uppgradera till från 7900 XTX, men kanske bra för min plånbok.

Glöm inte alla trevliga hotfixes Ett tag var det nästan garanterat att nVidia släppte en hotfix per drivrutinsrelease.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

AMD Och grafikkort var senast som topp tillbaka till Radeon HD 7970 från Dec 2011 då var de redan före NVIDIA i 3 månader.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av str8forthakill:

@mpat VBIOS som skeppades på korten vid release? Det har inte kommit ut några nya versioner sedan releaserna för några andra kort än 7900 XTX . Och problemen med AMDs icke-fungerande "auto-detect" drivrutinsinstallerare gäller än idag, inga andra kort än 7900 XTX kan identifieras av drivrutinen.

Konstigt, fungerar utan problem på mitt 7900 xt och även använt den med 7700 xt och ett 7600 xt =o

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av Yoshman:

Fast är det så konstigt? Folk har ju grävt fram Nvidia patent som visar att de arbetet med GPU MCM i över ett decennium, men inget har ju kommit ut än.

Det som gör det mer utmanande för GPU jämfört med CPU är att den förra har långt större bandbredd, något AMD själva nämnde när de presterande RDNA 3
https://cdn.sweclockers.com/artikel/bild/107080?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvMTA3MDgwIiwiZmlsdGVycyI6WyJ0PWFydGljbGVGdWxsIl0sInBhcmFtcyI6eyJjYWNoZUJ1c3RlciI6IjIwMjEwNTAxIn0sImtleSI6ImQzMTU0OWU0ZTAyNjNkZTg3Yzc5OWQ0ODFiMTFmMTQyIn0%3D

Är så här långt bara Apple som gjort en GPU där själva beräkningsenheterna sprids över flera kretsar. Första försöket fungerade sådär, skalningen var inte precis prefekt. Även om de fick till skalningen i andra försöket så ser M2 Ultra inte precis ut att vara någon billig krets givet att den interconnect som används är (eller var i alla fall vid release) den snabbaste chip-chip interconnect som existerade (låter varken billigt eller super energieffektivt).

GPUer har ändå problemet med att de högpresterande modeller har väldigt stora kretsar. Gissar att det framåt initialt blir datacenter GPUerna som blir flerkretslösningar. Har för mig att Nvidia nämnt att många GPGPU fall lämpar sig bättre för multikretslösningar jämfört med rendering.

Rendering har ett accessmönster där det blir svårt att dela upp jobbet bra mellan kretsar, att Apple överhuvudtaget fått till det kan vara en konsekvens av att de använder tile-based rendering (som by-design är långt enklare att partionera m.a.p RAM access jämfört med traditionell rendering).

Tror att vi har diskuterat detta tidigare, och vi kanske pratar förbi varandra nu, men - jag hade blivit väldigt förvånad om nästa AMD MCM-GPU är vad som beskrevs ovan - två "vanliga" GPUer med memory controller och allt fast på samma MCM. Mitt skäl är egentligen precis samma som ditt - energin som krävs för att kommunicera utanför chippet är så stor. Med Navi 31/32 kan den mesta kommunikationen ske genom en gemensam L2$. Visst kan man köra multi adapter (Crossfire som AMD kallade det), men det har vi väl i princip gett upp på. Ser inte riktigt vad modern pakteringsteknik hjälper dr.

Det jag skulle tro mer på är att man staplar mer, så att GPUn ligger ovanpå ett antal mindre memory controllers med cache. Möjligen kan man som du beskriver ha två chip som kommunicerar som du beskriver - eller tre, om de är hexagoner? vore kul iofs - men sen blir det svårt.

Visa signatur

5900X | 6700XT

Permalänk
Skrivet av Yoshman:

Gissar att rätt kompetenta personer försöker knäcka den nöten just nu. AMD visade ju ett sätt med RDNA 3, fast även det var knappast "enkla och superbilliga interconnects".

Som AMD skriver i sin presentation (och Nvidia nämner i vissa av deras patent), det utmanande med GPUer är att de ofta används till saker som pushar väldigt stora mängder data. En känd nackdel med flerkretslösningar är att det kostar rätt mycket mer energi att flytta data mellan kretsar jämfört med inom kretsar och hög komplexitet är svårare att hantera utanför kretsen.

Apples "lösning" på problemet är extremt bred/dyr interconnect + att man i praktiken sätter kretsarna helt ihop för att minimera avstånd. Det i sig betyder att det blir svårt att koppa ihop fler än två kretsar, fler än så kommer ge asymmetrisk latens totalt sett.

Intressant! Så Ultra modellen är det bästa Apple kan göra nu? Två stycken Pro modeller ihopklistrade? Har ju hört att AMD kommer överge CCDn i Ryzen i Zen 6 men vi får se om de lyckas med det. Intel kör väl med Foveros i Meteor Lake men har det ens gett några fördelar? Är det framtiden att man instället staplar dem på varandra istället? Eller är det något de redan kör med?

Permalänk
Medlem

Sitter numer med Linux där det verkligen är super smidigt att köra med en AMD GPU.

Tidigare i Windows så hade jag vissa drivrutinsproblem men det visade sig vara för att Windows satt och körde sina egna drivrutinsuppdateringar ovanpå min manuella installation, även om den manuella var en nyare version. Brukade leda till krasher av Adrenaline mjukvaran och konstigheter i spel. Det här slutade helt när jag stängde av auto uppdateringar av drivrutiner i Windows för runt 5 år sedan. Har aldrig haft nytta av dem endå då jag alltid installerade drivrutiner manuellt.

Överlag så har AMDs drivrutiner varit av bra kvalite i många många år, det fortsatta strulet verkar mer ha varit utifrån ett fel i Windows som inte rättats till.

Permalänk
Medlem
Skrivet av Dinkefing:

Intressant! Så Ultra modellen är det bästa Apple kan göra nu? Två stycken Pro modeller ihopklistrade? Har ju hört att AMD kommer överge CCDn i Ryzen i Zen 6 men vi får se om de lyckas med det. Intel kör väl med Foveros i Meteor Lake men har det ens gett några fördelar? Är det framtiden att man instället staplar dem på varandra istället? Eller är det något de redan kör med?

Två Max, men den principen ja.

Och "kan" är väl frågan, men det är den största de faktiskt producerar iaf.

Se t.ex. snacket om Ultra Plus: https://www.sweclockers.com/nyhet/38403-apples-nedlagda-bil-d...

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Lite synd faktiskt, hade vart kul att testa AMD.

Angående priset så blir det antagligen som med 4090 att det sätts lite så som nVidia känner för det eftersom 4090 heller inte hade någon konkurrens från AMD och kostade därefter.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av mpat:

Problemet är att de nog inte kan uppnå alla de tre sakerna om de inte har en nyare process att tillgå - och det har de (egentligen) inte. OK, de kan ju ha ett ”8600” på mindre process än 6nm, och ”8800” kan ju gå ner till ”4nm”, men de verkar inte gå ner till 3G än, vilket är vad de skulle behöva. Snabbare och lägre effekt - inga problem, gör kortet ”bredare” och håll igen med klockfrekvensen lite. Snabbare och billigare att tillverka - dra upp klockfrekvensen i taket. Lägre effekt och billigare - absolut lättast, gör ett mindre chip.

Skall man uppnå alla tre samtidigt utan en ny process krävs att man drar upp IPCn markant, och det är inte så lätt. Jag tror nog att de försöker - framförallt försöker de få ut mer av de där dubbla ALUerna - men det är mycket begärt att få ut alla tre.

Normalt så brukar det vara förbättringar från en generation till nästa.
Hade det verkligen inte funnits någon förbättring så verkar det ju meningslöst att ens släppa en ny generation.

Min tanke var något i stil med att istället för att sikta på någonstans 50-100% prestanda förbättring, men med högre strömförbrukning och högre tillverkningskostnad som nackdel.
Att istället sikta på en mer blygsam prestanda förbättring säg i storleksklass 10-20% men att försöka hålla nere strömförbrukning och tillverkningskostnad istället.

Men du menar på att om man tar rastreringsprestandan på Radeon RX 7900 XTX och siktar på att öka den med i snitt 15% så är det fortfarande för högt för att kunna göra en strömsnålare krets och/eller att tillverkningskostnaden springer iväg?

För säg om man siktar på att göra en krets som bara presterar 2-3% bättre så är det i de flesta scenarion inte märkbart.
T.o.m. vid benchmarking kan det vara svårt att se det som en tydlig skillnad och inte inom felmarginalen.

Permalänk
Medlem
Skrivet av GuessWho:

Normalt så brukar det vara förbättringar från en generation till nästa.
Hade det verkligen inte funnits någon förbättring så verkar det ju meningslöst att ens släppa en ny generation.

Min tanke var något i stil med att istället för att sikta på någonstans 50-100% prestanda förbättring, men med högre strömförbrukning och högre tillverkningskostnad som nackdel.
Att istället sikta på en mer blygsam prestanda förbättring säg i storleksklass 10-20% men att försöka hålla nere strömförbrukning och tillverkningskostnad istället.

Men du menar på att om man tar rastreringsprestandan på Radeon RX 7900 XTX och siktar på att öka den med i snitt 15% så är det fortfarande för högt för att kunna göra en strömsnålare krets och/eller att tillverkningskostnaden springer iväg?

För säg om man siktar på att göra en krets som bara presterar 2-3% bättre så är det i de flesta scenarion inte märkbart.
T.o.m. vid benchmarking kan det vara svårt att se det som en tydlig skillnad och inte inom felmarginalen.

När man traditionellt har gjort en ny generation på samma process som tidigare, har den blivit större. Titta exempelvis på 28nm. Nvidia gjorde Kepler och Maxwell där, och AMD körde GCN 1, 2 och 3. GK104 (680) var 294 mm2 - GM204 (980) var 398mm2. AMD bytte namngivning, men man gick från Tahiti (7970) på 352mm2 till Hawaii (290X) på 438mm2 och Fiji (Fury X) på 596mm2. Vi har mer moderna exempel i RDNA 1 till RDNA 2, där Navi 10 på 251mm2 ersattes av Navi 22 på 335mm2. Man har lyckats hålla priserna i schack genom att konkurrensen har gjort att priserna för ark på en viss processnod har gått ner över tid, men det gör de inte så mycket längre. 5/4nm är fortfarande dyrt för att konkurrensen är så dålig med TSMC helt dominerande.

Om AMD gör en nya generation på 4nm - vilket alla rykten gör gällande - så kan de inte öka prestandan per mm2 kisel så där värst. Jag är helt säker på att de kan göra en del, och fokus är säkert RT den här gången, men att slå 7970 på rasterisering på 4nm skulle kräva ett stort, törstigt chip. Glöm inte att Navi 31 är STORT, historiskt sett. Det är bara Fiji som är större. De höll inte igen där.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

När man traditionellt har gjort en ny generation på samma process som tidigare, har den blivit större. Titta exempelvis på 28nm. Nvidia gjorde Kepler och Maxwell där, och AMD körde GCN 1, 2 och 3. GK104 (680) var 294 mm2 - GM204 (980) var 398mm2. AMD bytte namngivning, men man gick från Tahiti (7970) på 352mm2 till Hawaii (290X) på 438mm2 och Fiji (Fury X) på 596mm2. Vi har mer moderna exempel i RDNA 1 till RDNA 2, där Navi 10 på 251mm2 ersattes av Navi 22 på 335mm2. Man har lyckats hålla priserna i schack genom att konkurrensen har gjort att priserna för ark på en viss processnod har gått ner över tid, men det gör de inte så mycket längre. 5/4nm är fortfarande dyrt för att konkurrensen är så dålig med TSMC helt dominerande.

Om AMD gör en nya generation på 4nm - vilket alla rykten gör gällande - så kan de inte öka prestandan per mm2 kisel så där värst. Jag är helt säker på att de kan göra en del, och fokus är säkert RT den här gången, men att slå 7970 på rasterisering på 4nm skulle kräva ett stort, törstigt chip. Glöm inte att Navi 31 är STORT, historiskt sett. Det är bara Fiji som är större. De höll inte igen där.

Tråkig utveckling
När AMD inte ens kan slå 7970 längre. :/

Nä jag förstår att det var en felskrivning.
Men ändå, är roligare när det känns som utvecklingen går framåt.

Åtminstone för Nvidia har det ryktas om att Blackwell ska vara ett betydande steg över Ada.
Också att nuvarande Ada kort bara har DP 1.4a
Visst jag förstår timingen.
Att om RTX 4080 och RTX 4090 hade haft DP 2 så hade de varit rätt tidigt ute och sen när 4070 och 4060 kommer senare. Dels att de kanske inte vill lägga pengar på mer utveckling inom samma generation. Dels att de inte vill ge de enklare korten funktioner som de dyrare korten saknar.
Men Blackwell korten borde rimligtvis ha stöd för DP 2.1

Sen Intel.
Att Arc Alchemist är deras första generation dedikerade kort om man inte räknar med i740 på 90-talet, som var längesen och de har väl inga direkt likheter heller.
Men att Arc releasen var skakig, men sen har de haft tid att lära sig med framförallt drivrutiner men troligtvis även hårdvaran till att göra Battlemage bättre.
Så sannolikheten är väldigt hög att Battlemage blir bättre än Alchemist.

Så sannolikheten är ändå hög att det finns bättre grafikkort under 2025 än vad det fanns under 2022/2023 när nuvarande grafikkorts generationer var nya.
Även om nu AMD skulle stå och stampa på samma plats.

Permalänk
Medlem
Skrivet av GuessWho:

Tråkig utveckling
När AMD inte ens kan slå 7970 längre. :/

Nä jag förstår att det var en felskrivning.
Men ändå, är roligare när det känns som utvecklingen går framåt.

Åtminstone för Nvidia har det ryktas om att Blackwell ska vara ett betydande steg över Ada.
Också att nuvarande Ada kort bara har DP 1.4a
Visst jag förstår timingen.
Att om RTX 4080 och RTX 4090 hade haft DP 2 så hade de varit rätt tidigt ute och sen när 4070 och 4060 kommer senare. Dels att de kanske inte vill lägga pengar på mer utveckling inom samma generation. Dels att de inte vill ge de enklare korten funktioner som de dyrare korten saknar.
Men Blackwell korten borde rimligtvis ha stöd för DP 2.1

Sen Intel.
Att Arc Alchemist är deras första generation dedikerade kort om man inte räknar med i740 på 90-talet, som var längesen och de har väl inga direkt likheter heller.
Men att Arc releasen var skakig, men sen har de haft tid att lära sig med framförallt drivrutiner men troligtvis även hårdvaran till att göra Battlemage bättre.
Så sannolikheten är väldigt hög att Battlemage blir bättre än Alchemist.

Så sannolikheten är ändå hög att det finns bättre grafikkort under 2025 än vad det fanns under 2022/2023 när nuvarande grafikkorts generationer var nya.
Även om nu AMD skulle stå och stampa på samma plats.

Jo, det blev lite väl många generationer där, och fingrarna slant…

Jag tror att AMD gör precis vad de gjorde med RDNA1 - jobbar med effektiviteten utan att göra något större. Minns att 5700XT bara hade 40CU men ändå var uppe i klass med Vega och dess 64CU (vem som vann berodde lite på spelet) - det är helt säkert det de siktar på. Problemet är att 5700XT var två hela generationer nyare process (14nm till 7nm), men här är det bara en halvnod (5nm till 4nm).

AMD har en tendens att jobba med högst två grejer åt gången. RDNA1 var 7nm-processen och omorganisationen av compute units till WGPer. RDNA2 var en första raytracing och ny cache (Infinity cache). RDNA3 var chiplets på 5nm och dual issue. RDNA4 har säkert en ny raytracing-design och verkar innehålla en ombyggnation av issue/dispatch för att få ut mer av dual issue. Alla dessa innehåller ett par grejer till, men inget stort - det är väldigt mycket som är precis samma mellan RDNA1 och Vega, och för den delen mellan GCN1 och sista VLIW4-designen.

Visa signatur

5900X | 6700XT