HomeNotizieLa grande intervista: come le GPU Intel Alchemist e l'upscaling XeSS cambieranno...

La grande intervista: come le GPU Intel Alchemist e l'upscaling XeSS cambieranno i giochi per PC

La scorsa settimana, Intel ha finalmente stabilito il suo carte. L’Architecture Day 2021 ha visto l’azienda offrire una serie di nuovi prodotti davvero entusiasmanti, che si estendono su CPU e grafica, dal laptop al data center. L’azienda sta cercando di accelerare enormemente le sue prestazioni di elaborazione di un fattore 1000 volte per diversi anni. È un compito apparentemente impossibile, ma Intel vuole raggiungerlo sfruttando lo stato dell’arte di CPU, GPU e tecnologia di integrazione. Una parte fondamentale della strategia consiste nell’offrire prestazioni grafiche competitive ed è qui che la nuova linea di GPU discrete di Intel viene alla ribalta… e hanno un aspetto superbo.

Nome in codice Alchemist, la nuova GPU sembra prendere la tecnologia grafica esistente di Intel, che si trova in forma integrata nel suo Tiger Lake e in versione limitata tramite la scheda grafica DG1 – ed espanderlo in tutte le direzioni. Più unità di esecuzione (96 in DG1, fino a 512 in DG2), più potenza, più larghezza di banda di memoria oltre a tutti i vantaggi in termini di velocità ed efficienza del nuovo processo di fabbricazione a 6 nm di TSMC.

Ricco Leadbetter di Digital Foundry e Alex Battaglia discutono di Intel Alchemist, dell’upscaling XeSS – e del futuro della grafica – in questa versione video della nostra intervista.

Ma oltre a questo, ci sono anche nuove funzionalità. In effetti, guardando un layout a blocchi della GPU Alchemist, sembra che abbiamo una filosofia molto più vicina ai prodotti Nvidia piuttosto che a quella AMD. Laddove il Team Red si è concentrato sulle prestazioni di rasterizzazione e sull’ottimizzazione della larghezza di banda della memoria rispetto all’accelerazione hardware RT e alle funzionalità di apprendimento automatico, Intel offre un equilibrio molto più vicino alla linea GeForce, con una quantità significativamente maggiore di silicio dedicato a queste funzionalità di nuova generazione.

Ma queste funzionalità devono essere utilizzate, ovviamente, ed è per questo che la rivelazione di XeSS da parte di Intel è così importante. Sulla base delle diapositive e delle informazioni raccolte dall’Architecture Day (e da questa intervista), Intel sembra seguire lo stesso approccio di Nvidia con la propria tecnologia DLSS 2.x. Tuttavia, la strategia nella sua implementazione è molto diversa: Intel vuole standardizzare il super-campionamento basato sull’apprendimento automatico, non ha interesse a renderlo proprietario nel modo in cui Nvidia fa con DLSS. XeSS lavorerà su una gamma di GPU di diversi fornitori, che è esattamente la strategia giusta per garantire che la tecnologia diventi parte integrante dei giochi per PC.

E tutto ciò pone le basi per questa intervista, modificata per chiarezza, dove io e # FriendAndColleague Alex Battaglia ha interrogato il vicepresidente di Intel e capo del software di grafica Lisa Pearce insieme al collega di ingegneria Tom Petersen su cosa aspettarsi da Alchemist, quanto sarà effettivamente XeSS aperto e standardizzato, il lavoro che l’azienda ha svolto con lo stack software e come appare il futuro della grafica dal punto di vista di Intel . E per la cronaca, non ho mai indossato un berretto da baseball…

soc
Ecco un nuovo sfidante.

Fonderia Digitale: Ovviamente, passare all’arena grafica dedicata è uno sviluppo davvero interessante per Intel. Ed è passato molto tempo nello sviluppo, non hai nascosto la tua mossa qui, ma qual è la strategia generale? Perché entri nello spazio grafico dedicato?

Lisa Pearce: Se lo guardi, è un mercato incredibile. Molti di noi lavorano da tempo con la grafica integrata. Intel è nel settore della grafica da due decenni, realizzando soluzioni a basso consumo e con fattore di forma vincolato, e credo che il mercato sia affamato di più opzioni nella grafica discreta. Quindi, siamo super entusiasti di entrarci. È sicuramente uno che ha grandi aspirazioni con Xe, è un’architettura scalabile, non solo per il client, ma anche per il datacenter. È un momento molto interessante e penso che l’industria non veda l’ora che arrivi un altro giocatore.

Fonderia Digitale: Assolutamente. C’è stata una convergenza in termini di esigenze dei mercati, giusto? Ovviamente, Nvidia ha avuto un enorme impatto in termini di intelligenza artificiale, ray tracing e tutto questo può convergere con il mercato dei giochi, ed è bello vedere che anche Intel si unisce alla mischia. Quindi abbiamo rivelato la GPU Alchemist. E farò la domanda che non vuoi che io faccia – ma dove ti aspetti che atterri in termini di mercato complessivo? Cosa farà questa GPU per i giocatori? Vale a dire, questa è la mia domanda che non implica la parola “performance” ma riguarda le prestazioni!

Tom Petersen: Beh, direi che ovviamente, Richard, non parleremo di performance, quindi non posso rispondere direttamente alla tua domanda. Ma posso dire che mentre percorri cos’è Alchemist, è prima di tutto una GPU di gioco completa, giusto? Non ci possono essere dubbi nella tua mente. E non è una GPU entry level, è sicuramente una GPU competitiva. Ha tutte le funzionalità necessarie per i giochi di nuova generazione. Quindi, senza parlare di prestazioni, ne sono piuttosto entusiasta.

Digital Foundry: Fantastico. E sembra che sarai il primo sul mercato con TSMC 6nm – scelta interessante lì. Puoi effettivamente quantificare i vantaggi che questo processo potrebbe darti rispetto a ciò che è già sul mercato e contro cosa ti troverai a dover affrontare nel primo trimestre del 2022?

Tom Petersen: Beh, di nuovo, ci stiamo avvicinando un po’ troppo alla performance. Ma ovviamente, essere nel processo di prossima generazione prima di altri chip ci dà un vantaggio. E ci sono un sacco di esperti là fuori che possono dare una sorta di proiezioni di roadmap tecnologiche, solo non questa!

La tecnologia di super-campionamento basata sull’apprendimento automatico XeSS di Intel sembra molto davvero promettente, a giudicare da questa prima demo.

Digital Foundry:

Guardando l’architettura, possiamo vedere che c’è un focus sulla rasterizzazione, ovviamente, ma il ray tracing e l’apprendimento automatico sono in primo piano e center, che è una sorta di strategia diversa da quella che abbiamo visto con AMD e RDNA 2. Ed è più simile a quello che vediamo da Nvidia, concentrandosi sull’apprendimento automatico e sui core di ray tracing dedicati, accelerando cose come il ray traversal, per esempio. Intel sta adottando questo tipo di approccio, come mai?

Tom Petersen: Beh, per me, è solo il modo in cui la tecnologia è evolvendo naturalmente. Se pensi che l’intelligenza artificiale venga applicata letteralmente a tutte le applicazioni verticali del mondo, sicuramente avrà un grande impatto sui giochi. Puoi effettivamente ottenere risultati migliori rispetto ai risultati classici fondendo il calcolo in stile AI con il rendering tradizionale. E penso che siamo solo all’inizio di quella tecnologia. Oggi lavora principalmente su pixel post-renderizzati. Ma ovviamente, voglio dire, non è l’unico posto in cui l’intelligenza artificiale cambierà i giochi. Quindi, penso che sia solo un’evoluzione naturale.

E ancora, quando si pensa al ray tracing, si ottiene un risultato migliore rispetto alle tecniche di rendering tradizionali . Non funziona ovunque e ovviamente c’è un compromesso in termini di prestazioni. Ma è solo un’ottima tecnica per migliorare la vita dei giocatori. Quindi, penso che queste tendenze continueranno ad accelerare. E penso che sia fantastico che ci sia effettivamente un allineamento, perché quell’allineamento tra fornitori di hardware come Intel e Nvidia e persino AMD… quell’allineamento consente agli ISV di vedere una piattaforma stabile di funzionalità. E questo fa crescere il mercato generale dei giochi e questo è davvero ciò che va bene per tutti.

Digital Foundry: Proprio dal punto di vista architettonico, Sono curioso. Perché fare affidamento su hardware dedicato, ad esempio, per l’unità di ray tracing, invece di riutilizzare le unità attuali che la GPU potrebbe già avere e fare affidamento solo sul calcolo generale, ad esempio?

Tom Petersen: Il motivo principale è che la natura di ciò che accade quando si esegue l’attraversamento dei raggi è molto diversa. Gli algoritmi sono molto diversi da un tradizionale multi-pixel per pezzo, sai, più cose in parallelo. Quindi pensaci mentre stai cercando di trovare dove questi raggi si intersecano con i triangoli. È una funzione di stile di ramificazione e hai solo bisogno di più stili diversi di unità. Quindi è davvero algoritmico, la preferenza sarebbe, “ehi, eseguiamo tutto sugli shader”, ma la verità è che è inefficiente, anche se so che Nvidia ha reso disponibile una versione di quella per le sue vecchie GPU. E ricordi la differenza di prestazioni tra l’hardware dedicato e lo shader? È drammatico. Ed è perché l’algoritmo è molto, molto diverso.

Dai un’occhiata alla presentazione completa dell’Architecture Day di Intel se sei tecnicamente incline. La roba di Alchemist è fantastica, ma anche la CPU di Alder Lake ha un aspetto eccezionale.

Digital Foundry: Una domanda sulla strategia complessiva: hai mostrato un progetto di chip, anche se c’era un diapositiva con due chip. Presumo che il piano sarà che avrai uno stack, giusto? Avrai parti diverse, non ci sarà solo una GPU in arrivo. Il silicio DG1 ha ancora un ruolo da svolgere, o era quasi come un test in quanto tale?

Lisa Pearce: Sì , DG1 è stato il nostro primo passo per affrontare molti dei diversi problemi e cercare di assicurarci di aver preparato il nostro stack è stata la prima voce lì, mettendo a punto e pronto il driver. Quindi, DG1 è stato molto fondamentale per noi. Ma in realtà, Alchemist è l’inizio di GPU con prestazioni grafiche eccezionali. E ce ne saranno molti che seguiranno, motivo per cui abbiamo condiviso alcuni di quei nomi in codice. È sicuramente un approccio pluriennale.

Digital Foundry: Passiamo a qualcosa che in realtà è altrettanto fondamentale per il progetto quanto il silicio, che è lo stack del software. Questo è qualcosa in cui sembra che sia stato come un approccio continuo. nel corso di molti anni, immagino di aver iniziato a notare la grafica Intel in modo più diretto con Ice Lake . E ovviamente, da allora hai fatto passi da gigante. Ma qual è la strategia nello sviluppo dello stack software? Dove vuoi davvero essere quando finirai per essere lanciato nel primo trimestre del 2022. Dove sei ora e quali sono i principali risultati di oggi?

Lisa Pearce: Beh, sai, ci stiamo preparando per Xe HPG da un po’ di tempo. E gran parte di questo è lo stack di driver con un’architettura che può essere scalabile dalla grafica integrata con LP a HPG. E anche se hai parlato di alcune delle altre architetture con HPC. E quindi, è fondamentale nella progettazione del driver, ed è iniziato l’anno scorso. L’anno scorso all’Architecture Day abbiamo parlato di Monza, è stato un grande cambiamento al nostro stack di driver 3D per prepararci a quel ridimensionamento. Quindi questo è il primo fondamentale, poi, dopo, cercare di avere la maturità nel modo in cui ci sintonizziamo per diversi segmenti, diversi punti di prestazione e spremere davvero ogni aspetto di ogni punto di prodotto di architettura unico.

Quindi, all’interno del driver, abbiamo avuto quattro sforzi principali in corso, specialmente quest’anno preparando per questo lancio. Sai, i primi tre sono più generali di quelli specifici per HPG in particolare. Quindi, cercando di avere ottimizzazioni della memoria locale, quanto bene lo usiamo? Qual è la nostra impronta di memoria? Stiamo mettendo le cose giuste nella memoria locale per ogni titolo? poi le prestazioni del tempo di caricamento del gioco… il tempo di caricamento è stato di circa il 25% in media di riduzione quest’anno. Alcuni sono molto più pesanti. Il lavoro sta continuando. Quindi, abbiamo molto lavoro da fare lì per il lancio nel primo trimestre. Il terzo era l’utilizzo della CPU, i titoli legati alla CPU, sai, ho menzionato in media, abbiamo affermato le cose in modo conservativo e il 18% in media età, [but] alcuni titoli [have] riduzione dell’80 per cento. Quindi quella era davvero la maturità dello stack di Monza che abbiamo lanciato e cercando di spremere le prestazioni da quella. E poi l’ultimo, ovviamente, quanto bene il driver alimenta l’HPG, l’architettura più grande. E così tutto questo continua. È un monitoraggio e una messa a punto costanti per nuovi giochi, nuovi carichi di lavoro, specialmente su DX11/DX12. E vedrai che continuerà fino al primo trimestre per il lancio.

socsoc

Intel ha diversi tipi di grafica: Xe HPG è essenzialmente Alchemist, la GPU da gioco ad alte prestazioni.

Digital Foundry: Ok, perché la percezione era quella quando siamo passati all’era delle API di basso livello , l’effettiva ottimizzazione del driver da parte del fornitore passerebbe in secondo piano rispetto a ciò che sta accadendo con lo sviluppatore. Ma non è successo, vero?

Tom Petersen: No, non funziona in questo modo. Voglio dire, le API di basso livello hanno dato molta più libertà agli ISV e hanno creato molte tecnologie davvero interessanti. Ma alla fine della giornata, il conducente richiede ancora un lavoro pesante, il compilatore da solo è solo un importante contributo alle prestazioni complessive del telaio. E questo continuerà ad essere qualcosa su cui lavoreremo, di sicuro.

Digital Foundry: Non solo guardare agli ultimi titoli e alle ultime API, Intel ha in programma di aumentare le sue prestazioni e la compatibilità con i titoli legacy dall’inizio dell’era DX11 all’era pre-DX11, per caso?

Lisa Pearce: Molto [driver optimisation] si basa sulla popolarità, più di ogni altra cosa, quindi cerchiamo di assicurarci che i titoli migliori che le persone stiano usando, quelli sono la priorità più alta, di ovviamente… alcuni pesanti titoli DX11 ma anche DX9. Inoltre, in base alle aree geografiche, è una composizione diversa dei titoli e delle API più popolari che vengono utilizzati, quindi è generale. Ma ovviamente, la priorità tende a diventare più pesante con alcune delle API moderne più recenti, ma abbiamo ancora anche ottimizzazioni DX9 in corso.

Tom Petersen: C’è un’intera classe di cose che puoi fare per le applicazioni. Pensalo come al di fuori dell’applicazione, cose che puoi fare come “Ehi, hai reso il compilatore più veloce, puoi rendere più veloce il driver”. Ma cos’altro puoi fare? Ci sono alcune cose davvero interessanti che puoi fare graficamente, anche trattando il gioco come una sorta di scatola nera. E penso a tutte queste cose come implicite. Sono cose che stanno accadendo senza l’integrazione degli sviluppatori di giochi. Ma ci sono molte più cose che puoi fare quando inizi a parlare di integrazione di giochi. Quindi mi sento come se Intel fosse in quel punto in cui siamo su entrambi i lati, abbiamo alcune cose che stiamo facendo implicite e molte cose che sono esplicite.

Fonderia Digitale: Va bene. In termini di funzioni implicite del driver, ad esempio, Intel prevede di offrire più funzionalità del driver quando alla fine uscirà la sua linea HPG? Cose come v-sync a metà frequenza di aggiornamento, MSAA controllabile, over-shading VRS, ad esempio, perché so che Alchemist supporta l’hardware VRS e può utilizzare l’over-shading per i titoli VR. Ci sono cose interessanti molto specifiche che dovremmo aspettarci dal lancio di HPG?

Tom Petersen: Ci sono molte caratteristiche interessanti. Penso che sia la bontà oltre l’essere un ottimo driver grafico, giusto? Devi essere un driver dalle grandi prestazioni e competitivo su prestazioni per watt ed effettivamente prestazioni per transistor, devi avere tutto questo. Ma poi devi anche portare avanti le funzionalità oltre il driver grafico di base e ne sentirai parlare di più man mano che ci avvicineremo al lancio di HPG. Quindi dico di sì, sono abbastanza fiducioso.

6nm2

Alchemist è solo l’inizio della roadmap della GPU discreta di Intel.

Fonderia digitale : Ok, quindi voglio passare a XeSS. Abbiamo una demo che la mostra in azione. È estremamente eccitante, perché siamo stati grandi sostenitori dell’apprendimento automatico e delle applicazioni dell’apprendimento automatico. Ed è assolutamente fantastico vedere un vero concorrente del DLSS entrare nel mercato che potrebbe imbattersi in più hardware, che penso sia la chiave per la sua diffusione. Quindi, la prima cosa che voglio chiederti è qual è stata la spinta per realizzare una tecnica di ricostruzione dell’immagine in generale dal punto di vista di Intel e perché renderla guidata da processi di apprendimento automatico?

Tom Petersen: Beh, direi che c’è un continuum di prestazioni e qualità. Se ci pensi, esegui il rendering a bassa risoluzione e puoi ottenere un frame rate elevato, oppure se esegui il rendering ad alta risoluzione, tendi a ottenere un frame rate basso. E la domanda è: possiamo fare di meglio? E la risposta risulta essere, sì, se inizi a pensare a nuovi modi per riutilizzare le informazioni da frame precedenti, o da precedenti storie di giochi, puoi prendere tutte quelle altre informazioni e usarle per ricostruire un frame migliore… ed è proprio quello che sta succedendo con tutte queste tecniche basate sull’intelligenza artificiale, super-rendering o super-sampling.

E alla fine della giornata, è un duro lavoro – non fraintendetemi – è scienza missilistica e abbiamo alcune delle migliori persone di intelligenza artificiale al mondo che ci lavorano. Ma i risultati parlano da soli, puoi effettivamente ottenere un risultato migliore interpolando o integrando le informazioni su più frame. E poi aggiungere a quelle informazioni che possono essere addestrate in una rete neurale guardando milioni o centinaia di milioni di fotogrammi di altri giochi. È davvero solo una tecnologia spettacolare.

Digital Foundry: Quindi sembra dal modo in cui lo stai descrivendo che ci sia un grande processo di allenamento in background, magari basato su immagini altamente sovracampionate di alcuni giochi. E poi l’inferenza basata sui pesi generati da ciò viene eseguita in tempo reale sulla GPU.

Tom Petersen: Sì, di corso. E abbiamo, ovviamente, molteplici varianti di questa inferenza. Ma la parte interessante è che sono generici, nel senso che non sono addestrati su un titolo specifico. L’inferenza funziona su più giochi, perché alla fine sono tutti molto, molto simili. E penso che sia quasi il migliore del mondo in cui puoi dire, prendi questo motore, addestralo su un mucchio di dati provenienti da giochi diversi e poi usalo su più titoli diversi per ottenere grandi risultati.

Digital Foundry: Ok, parlando delle diverse deduzioni e dei percorsi che hai menzionato lì, la tua presentazione ha menzionato specificamente il percorso XMX e il percorso DP4A. Potresti forse entrare più in dettaglio su quali sono specifici per l’architettura Intel e quali no, così come forse le differenze nelle prestazioni e nella qualità dell’immagine percettiva che ognuno potrebbe avere sull’architettura Intel?

Questo è ciò che Intel deve eguagliare e potenzialmente superare: questo video mostra il brillante RT in Lego Builder’s Journey, quindi approfondisce le ultime innovazioni di Nvidia con DLSS 2.2.

Tom Petersen: Quindi, la verità è che le persone confondono tutte queste tecniche di rendering e le tecniche di post-rendering e le fondono tutte insieme in “le immagini migliorano”. Ma stanno succedendo cose davvero diverse. In generale, c’è qualcosa che penso come upscaling oa volte la gente lo chiama “super risoluzione”. E quello che stai facendo è prendere un’immagine a bassa risoluzione da un singolo fotogramma e la stai facendo esplodere usando più tecniche diverse. E questa è una tecnica ad altissime prestazioni che ti dà un buon risultato in molti casi, ma non ha tutte le informazioni a sua disposizione, non conosce i precedenti fotogrammi renderizzati e non conosce i vettori di movimento. E non conosce davvero la storia di tutti i frame che siano mai stati generati.

Quindi se confronti quella tecnica di upscaling, o upsampling – penso che upscaling sia una parola migliore – se confronti quella tecnologia con ciò che sta accadendo con qualcosa come XeSS, in XeSS, stiamo prendendo più fotogrammi del gioco. E stiamo esaminando i vettori di movimento e stiamo anche esaminando i frame renderizzati precedenti che sono stati addestrati in una rete. Quindi, effettivamente, stiamo esaminando molte più informazioni per generare quel nuovo frame, che ha una caratteristica migliore rispetto all’upscaling tradizionale.

Ora, quando pensi a come esegui l’algoritmo XeSS? I primi di cui abbiamo parlato sono i motori XMX, che sono sistolici, una specie di metodo tradizionale per eseguire inferenze veloci su una GPU. E l’altro metodo è DP4A, che è un altro tipo di forma più semplice che può essere adottata più ampiamente su più architetture diverse. Quindi penso che, sulle piattaforme hardware di Intel che supportano il motore principale, ci aspettiamo di rendere disponibile XeSS su quel dispositivo. Quindi è, è piuttosto bello, giusto? In un certo senso dici che abbiamo più backend che si collegano tutti sotto un’API comune. E questa è, per me, la cosa più importante è che gli ISV cerchino queste API comuni. Quindi possono fare un’integrazione.

E poi sotto quell’integrazione, potresti avere più implementazioni del motore senza che gli ISV debbano rifare -integrare e rivalutare ogni volta, quindi la nostra aspettativa è che sia esattamente ciò che XeSS è: ha un’API standardizzata che potrebbe funzionare anche su più fornitori. E così, parte della strategia chiave di XeSS è essere aperti, diamo il via a queste API. E lasciamo che altre persone li implementino in modo da rendere la vita degli ISV un po’ più semplice. E nel tempo, la speranza è che questo tipo di cose ovviamente si sposti più in alto in API standardizzate intersettoriali, ma tutto ciò richiede tempo. Quindi quello che stiamo pensando è, ehi, facciamo uscire la nostra prima versione, rendiamola fantastica, poi pubblichiamola, rendiamo aperte le API e poi, nel tempo, viene standardizzata.

6nm2soc
Il processo TSMC 6nm mette Intel prima di AMD e Nvidia: è più efficiente e denso di transistor, offrendo un potenziale vantaggio in termini di prestazioni.
Fonderia Digitale: Quindi, come parte di ciò, imposti il ​​tuo SDK – la tua API – là fuori che alla fine potrebbe gocciolare verso il basso o verso l’alto in qualcosa di più ampiamente standardizzato .. la prima iterazione utilizza effettivamente Microsoft DirectML come parte di esso?

Tom Petersen: No. Ora, c’è una bella domanda a riguardo: perché no? La verità è che abbiamo il nostro linguaggio di programmazione interno che utilizziamo per i kernel ad alte prestazioni che fanno parte dell’implementazione di XeSS. E tutta quella roba in questo momento è molto Intel ‘in cucina’ tipo di kernel fusi super ottimizzati, come belli, sai, quasi come un tizio .. che codifica in assembly dai tempi passati. Posso immaginare come Richard con un minuscolo berretto a sfera che lo fa. Abbiamo un’intera stanza di quelle persone che rendono XeSS semplicemente perfetto. Ecco dove siamo oggi. Ma nel tempo, come diciamo, le API di Microsoft per gli shader si estendono, forse l’intera cosa può semplicemente diventare basata sugli shader, ma non lo è. [Right now] gli shader tradizionali non sono ottimizzati per l’architettura in stile XMX.

Digital Foundry: Sì, solo per il record, ho verificato [of assembly coding] con 6502, ecco quanti anni ho! Immagino che ci sia una domanda più azzeccata dalla tua demo: mostravi 1080p ridimensionati tramite XeSS a 4K. Sosterrai diverse risoluzioni interne?

Tom Petersen: Sì, penso che vedrai che XeSS supporterà più configurazioni diverse. C’è come una modalità di qualità o perfor modalità mance e diverse risoluzioni di input a diverse risoluzioni di output. Non sono sicuro di come sarà la matrice incrociata in questo momento. Ma non c’è bisogno che questo sia solo “uno dentro, uno fuori”.

Digital Foundry: E sul lato SDK di cose, voglio dire, tutte queste funzionalità vivono e muoiono quando vengono effettivamente implementate nei titoli, giusto? Quindi quanto è aperto? Stiamo parlando del codice sorgente su GitHub, o qualcosa di più simile a quello che ha fatto Nvidia con l’SDK DLSS?

Tom Petersen: Allora il modo di pensare è che è sicuramente nell’interesse di tutti avere API ISV aperte. E ciò significa che letteralmente la stessa API, tutti la integrano e sotto di essa, si collegano una sorta di DLL diverse che implementano i motori, in pratica, che implementano le funzionalità. Ci vorrà un po’ di tempo, giusto? Quindi, a breve termine, ciò che probabilmente faremo, e penso che ci sia ancora un po’ di movimento qui, sarà pubblicare le API, pubblicare gli SDK e pubblicare i riferimenti e quindi gli ISV sapranno effettivamente cosa stanno ottenendo. E non c’è davvero niente che mi sembri imbarazzante. nel tempo, ti piacerebbe essere ancora più aperto, dove ci sono queste API che le persone possono collegare al di sotto di esse. E questa è effettivamente la strategia. Ora, molto probabilmente avremo ancora i nostri motori interni che si collegano a queste API. E nel tempo, se saranno aperti o meno, non è chiaro.

Digital Foundry: Ok, c’è anche qui in realtà una sorta di limitazione su quali GPU di altri fornitori lo eseguiranno? Voglio dire, presumo che debba essere coinvolta una sorta di accelerazione dell’apprendimento automatico, giusto?

Tom Petersen: Cioè, questa è davvero una domanda per altri fornitori, giusto? Hai visto queste applicazioni in stile machine learning eseguite su GPU con nessuna, giusto? Non c’è motivo per cui debba avere un hardware particolare. È solo un compromesso tra prestazioni, qualità e complessità.

Digital Foundry: Ecco un pensiero interessante che ho avuto durante la Giornata dell’Architettura , che è essenzialmente che hai silicio per l’apprendimento automatico non solo nella GPU, ma anche nella CPU. Diciamo che possiedo una vecchia scheda GeForce o Radeon e voglio sfruttare XeSS. Posso farlo tramite la CPU?

Tom Petersen: Beh, sai che c’è una GPU integrata sulla maggior parte delle nostre CPU. E quindi, la domanda è, come sarebbe? E sono sicuro che sei consapevole di come funziona l’ibrido per la maggior parte dei notebook in cui c’è un rendering GPU discreto, e poi c’è una copia su una GPU integrata, che oggi non fa altro che fungere da controller di visualizzazione. Ma ora che abbiamo tecnologie davvero fantastiche, potremmo fare qualcosa di interessante sulla GPU? Penso che l’intero spazio l’abbiamo chiamato Deep Link. E cosa succede in termini di Deep Link in questo momento, stiamo ancora imparando così tanto qui. E ci sono così tante opportunità. Oggi sono solo i prodotti Intel che lavorano insieme, ma puoi pensare a Deep Link come, cosa possiamo fare in un ambiente con due GPU o in un ambiente CPU/GPU che è meglio di un altro? Quindi, non voglio rispondere direttamente a questa domanda, ma diciamo solo che ci sono molte opportunità in quello spazio.

renderslice

Uno sguardo al set-up principale di Alchemist. Il silicio RT e di apprendimento automatico lo rende più simile alla configurazione Turing/Ampere di Nvidia rispetto all’RDNA 2 di AMD.

Digitale Foundry: Da un punto di vista Intel, se sei in grado di affrontare il silicio per l’apprendimento automatico, importa fondamentalmente se è sul CPU o GPU? È un po’ la domanda su cui stavo riflettendo.

Tom Petersen: È la performance, sai, è il rendimento per watt … è il calcolo nel posto giusto per influenzare i pixel che si muovono attraverso la pipeline. Non c’è religione a riguardo. È proprio come, dove ci porta la scienza? Abbiamo una funzione che offrirà vantaggi ai clienti? E se lo facciamo, sì, lo faremo probabilmente. Voglio dire, non ci sarà alcuna esitazione se troviamo una grande tecnologia che renda le nostre CPU un’esperienza migliore di quella di qualcun altro.

Fonderia Digitale: Solo un’altra rapida domanda qui riguardo alla configurazione del ray tracing su questa architettura GPU. Ha un blocco di ray tracing dedicato che accelera più cose. Sembra che sia al di fuori dell’area principale principale, quindi può funzionare contemporaneamente ai normali motori vettoriali o ai motori XMX per aumentare ulteriormente l’utilizzo, la saturazione o solo il parallelismo della GPU che funziona di più allo stesso tempo.

Tom Petersen: Sfortunatamente, non conosco la risposta. Penso di sì, ma non vorrei ricontrollare su questo. Ok, comunque è un’ottima domanda. Stump l’host!

Digital Foundry: Un sacco di fantastiche tecnologie che sono state rivelate e discusse all’Architecture Day. E ovviamente, alla fine, c’è stato il colpo di luna, Ponte Vecchio. Questa è un’area completamente diversa da quella di cui stiamo parlando in termini di grafica consumer mainstream. Tuttavia, per quanto riguarda i principi, stavi mostrando la scalabilità a livello multi-chip, giusto? Stavi unendo più GPU insieme. E dall’aspetto in termini di come sono collegati, sembrano agire come un insieme coerente. Ora, ovviamente, nello spazio di gioco, il concetto di riunire più GPU e accelerare le prestazioni è morto con SLI, non si adattava alle architetture moderne, alle applicazioni temporali, in particolare. La mia domanda qui è buona per il futuro, la tecnologia in stile Ponte Vecchio potrebbe ridimensionarsi al livello del consumatore?

Tom Petersen: Bene, ripeto, non voglio parlare di prodotti inediti, ma torniamo a Ponte Vecchio. L’obiettivo di Ponte Vecchio è il calcolo, giusto? E il calcolo si ridimensiona molto facilmente, in modo molto naturale. E avere più die di elaborazione su un carico di lavoro gigantesco è solo un processo di ridimensionamento molto semplice. Non c’è una cosa pesante di mappatura del software che deve accadere. È molto simile al modo in cui il problema viene definito con i carichi di super computer. È molto diverso sul consumatore. Immagino che ti darò la mia opinione dall’esterno su ciò che ha reso SLI difficile: è la natura multi frame di SLI, dove stai cercando di dire, AFR [sequence] è la tecnologia usano e l’idea è che rendono un frame in ogni GPU che è temporaneamente separato, e poi li visualizzeranno solo in [sequence]. Questa tecnica non funziona con i titoli moderni, a causa della post-elaborazione e della comunicazione incrociata frame-to-frame.

Quindi, sai, per farlo sui consumatori, avremmo bisogno di una nuova tecnologia, un nuovo modo di partizionare il lavoro su più riquadri. E il grado in cui c’è una comunicazione ad alta larghezza di banda attraverso quel riquadro, puoi ignorare il fatto che sono più riquadri. Come se avessero una larghezza di banda infinita tra le tessere, sembrano solo un grosso pezzo di silicio e non c’è alcun comportamento visibile dal software. Ora, non ci sarà larghezza di banda infinita, quindi ci sarà un qualche tipo di lavoro per fare quel ridimensionamento tra le tessere. Ma penso che questa sia la tendenza. Voglio dire, se guardi solo come funziona il silicio e guardi come funziona il rendimento, avere più die più piccoli nel tempo è probabilmente un’ottima idea – e dovrebbe essere fatto funzionare in qualche modo. Non sarà niente come SLI. SLI è una tecnologia che ha funzionato alla grande con DX9 e DX11. Sarà qualcosa di diverso, credo.

renderslicesoc
La visione di Datacenter di Intel consiste nel riunire più CPU e GPU in un’unica gigantesca centrale di calcolo: questo approccio a più chip potrebbe applicarsi ai giochi? Abbiamo posto la domanda!

Fonderia Digitale: Questa domanda è un po’ più globale e riguarda essenzialmente le relazioni con gli sviluppatori, perché questo è fondamentale per ottenere buone prestazioni tanto quanto il silicio e il driver… in realtà devi essere lì con lo sviluppatore per aiutarti loro per ottimizzare per architetture specifiche. Qual è la visione di Intel lì? Come stai implementando questo tipo di idea?

Lisa Pearce: Abbiamo avuto un profondo impegno con gli ISV di gioco per molto tempo su Intel, giusto. Ma ora, è a un punto di un impegno ingegneristico molto più profondo. Ed è stato costruito negli ultimi due anni, sappiamo che è la posta in gioco fondamentale per il successo e la grafica consumer ad alte prestazioni. Quindi, sta costruendo sempre più forte [so], fornendo strumenti più capaci, SDK più capaci e portandoli con sé per assicurarci di avere la migliore esperienza possibile per i giochi su Alchemist. E nei prossimi anni, ci aspetteremmo, sai, in definitiva, molto più dell’allineamento del guidatore del giorno zero: messa a punto in anticipo, impegno in anticipo, forse alcune ottimizzazioni uniche che possiamo andare e guidare anche prima che sia nella fase finale per il lancio. Quindi, consideriamo tali relazioni come assolutamente fondamentali per il futuro della grafica discreta.

Digital Foundry: C’è stata anche una spinta ad aumentare funzionalità adiacente al gioco, non specifica per il gioco. Ad esempio, lo streaming. Come stanno andando le cose e quali sono i piani per il futuro?

Lisa Pearce: Sai, in streaming, questo è uno dei casi in cui vediamo davvero Deep Link come una tecnologia interessante per continuare a migliorare. È sempre fantastico quando abbiamo una grafica integrata e discreta sul sistema. L’acquisizione e lo streaming sono uno di questi: i nostri codificatori sono da tempo un punto di forza. Come possiamo assicurarci di sfruttare l’equilibrio tra alte prestazioni, quali livelli di qualità vogliamo… ci saranno molte soluzioni distinte che vogliamo portare lì. E ne vedremo di più con il lancio di Alchemist.

Digital Foundry: Ho una piccola domanda bonus riguardo alla differenza tra la configurazione HPG e HPC, ho notato che l’UE è abbastanza un po’ più largo, come due volte più largo nell’arena HPC. Qual è la decisione progettuale per questo e non usarlo nella configurazione grafica ad alte prestazioni?

Tom Petersen: Bene, è tutto incentrato sul segmento a cui si rivolgono, ovviamente. C’è un certo parallelismo che è più diffuso nei carichi di lavoro in diversi segmenti. E attribuirei la maggior parte della differenza architettonica ai carichi di lavoro per cui le architetture si adattano.

Digital Foundry: Per la mia unica domanda rimasta … tornando all’apprendimento automatico. Insomma, è la nuova frontiera, no? Questo è dove le possibilità sono infinite. Ma, sai, qual è la prossima possibilità? Ovviamente, il super-campionamento è il più grande al momento. Hai qualche idea su dove andranno le cose nell’arena dei giochi?

Tom Petersen: Ho un milione di pensieri ! Ma non voglio parlare di loro Richard! Ma posso dirti un paio di cose, perché, sai, per me è semplice in questo momento. Stiamo lavorando sui pixel post-renderizzati e sui pixel post-rendering, [so] hai lasciato molte informazioni già in precedenza nella pipeline. E quindi la domanda è: questa idea di fondere più informazioni dal retro più profondo o forse anche iniziare a guardare i motori fisici… e che dire di tutti gli altri motori che stanno alimentando il rendering, come la proiezione e l’espansione della geometria? Quindi, ci sono solo molti, molti, molti algoritmi in esecuzione che sono precedenti ai pixel e tutti questi sono candidati per essere inseriti in una sorta di algoritmo generativo, che è davvero l’intelligenza artificiale. L’intelligenza artificiale fa due cose. Uno è l’estrapolazione in cui dice “ci sono informazioni qui, mi trasferirò” avanza in qualche modo ragionevole’. Ma fa anche allucinazioni, dove in un certo senso dici, ho visto cose in passato che sono così. Quindi non sarebbe fantastico se ci fosse un albero qui? Sai, questo è ciò che fa l’intelligenza artificiale e tutte queste cose sono perfette per i giochi. E ci sono molte, molte applicazioni diverse…

6nm2

Per saperne di più

RELATED ARTICLES

Commenta!

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.