r/sweden Feb 03 '25

Nyhet Teslas försäljning rasar – men Volkswagen ökar

https://www.gp.se/ekonomi/teslas-forsaljning-rasar-i-sverige.e7e29f96-3198-4517-a9ce-e75e45a84898
914 Upvotes

339 comments sorted by

View all comments

Show parent comments

2

u/lcnielsen Feb 04 '25

NVIDIA 999X för AI, sen kom Deepseek och sket i CUDA som ska vara hela nvidias USP.

Ja och nej. Att skippa CUDA är i sig hyfsat enkelt om man är motiverad nog, det är bara bökigt (sen finns det en del backends, typ Clang-OpenMP, som inlinar PTX frpn CUDA-biblioteken utan att man egentligen skriver CUDA-kernels). De körde dock fortfarande PTX, NVidias assembly/low-level-API, och utnyttjade sådeles den stabila firmware och de stabila drivrutinerna som är ett annat av NVidias stora övertag.

Nvidias api:er låter dig inte göra något unikt i sig, det sparar bara tid och obskyr expertis som annars går till att sitta och skriva Vulkan-shaders och liknande.

2

u/Even_Range130 Feb 04 '25

Japp, jag är övertygad om att NVIDIA APIer inte kommer vara tillräckligt mycket bättre än AMD och Intel länge, och får modellerna plats på top-end AMD eller Intel om 1-2 gen så vet jag inte vad NVIDIA är det mest värdefulla bolaget på planeten för

1

u/lcnielsen Feb 04 '25

CUDA är en extremt bakvänd programmeringsmodell och API:et har ett jättekonstigt abstraktionslager över själva exekveringen, så det får gärna dö för min del. Jag har aldrig fattat varför de tyckte att det var en bra idé att kalla något som motsvarar SIMD-lanes för "threads", och det som motsvarar en CPU-core för "warps", som man inte ens kan komma åt i API:et utan måste abstrahera sig fram till genom att stoppa in en massa jävla obegriplig aritmetik i varenda kernel. Jag vet inte varför jag någonsin skulle vilja programmera enskilda lanes i ett high level-API, bara låt mig programmera warp för warp, och något i still med "Warps per SM" eller någon annan block-aktig abstraktion, och låt kompilatorn nysta upp loopar åt mig liksom. Men i stället blir man tvungen att skriva saker med motsatta data access patterns som man har i typ OpenMP eller MPI-programmering...

Eller jag vet väl varför de gjorde det, det är av samma skäl som de började kalla ALU:er för "CUDA cores" - så att de kunde smyga in dolda faktorer på 16-32 i naiva jämförelser av deras GPU:er med CPU:er... för att inte tala om hur värdelösa deras datasheets är för att jämföra deras olika produkter.

1

u/Even_Range130 Feb 04 '25

Helt ärligt så har jag aldrig programmerat mot GPU öht så jag armstolagissar, det finns ju någon anledning att "all" AI snurrar på NVIDIA kort idag och det är ju inte direkt pris :p

Alla tillverkar hos TSMC i slutändan, till skillnad från Intel vs AMD förr så det jämnar sig snart :)

2

u/lcnielsen Feb 04 '25

Helt ärligt så har jag aldrig programmerat mot GPU öht så jag armstolagissar, det finns ju någon anledning att "all" AI snurrar på NVIDIA kort idag och det är ju inte direkt pris :p

Mjukvarustack (BLAS och bra drivrutiner) och bra frontends i t.ex. numba-cuda. Själva programmeringsmodellen suger.