La scorsa settimana, Intel ha finalmente stabilito il suo carte. L’Architecture Day 2021 ha visto l’azienda offrire una serie di nuovi prodotti davvero entusiasmanti, che si estendono su CPU e grafica, dal laptop al data center. L’azienda sta cercando di accelerare enormemente le sue prestazioni di elaborazione di un fattore 1000 volte per diversi anni. È un compito apparentemente impossibile, ma Intel vuole raggiungerlo sfruttando lo stato dell’arte di CPU, GPU e tecnologia di integrazione. Una parte fondamentale della strategia consiste nell’offrire prestazioni grafiche competitive ed è qui che la nuova linea di GPU discrete di Intel viene alla ribalta… e hanno un aspetto superbo.
Nome in codice Alchemist, la nuova GPU sembra prendere la tecnologia grafica esistente di Intel, che si trova in forma integrata nel suo Tiger Lake e in versione limitata tramite la scheda grafica DG1 – ed espanderlo in tutte le direzioni. Più unità di esecuzione (96 in DG1, fino a 512 in DG2), più potenza, più larghezza di banda di memoria oltre a tutti i vantaggi in termini di velocità ed efficienza del nuovo processo di fabbricazione a 6 nm di TSMC.
Ricco Leadbetter di Digital Foundry e Alex Battaglia discutono di Intel Alchemist, dell’upscaling XeSS – e del futuro della grafica – in questa versione video della nostra intervista.
Ma oltre a questo, ci sono anche nuove funzionalità. In effetti, guardando un layout a blocchi della GPU Alchemist, sembra che abbiamo una filosofia molto più vicina ai prodotti Nvidia piuttosto che a quella AMD. Laddove il Team Red si è concentrato sulle prestazioni di rasterizzazione e sull’ottimizzazione della larghezza di banda della memoria rispetto all’accelerazione hardware RT e alle funzionalità di apprendimento automatico, Intel offre un equilibrio molto più vicino alla linea GeForce, con una quantità significativamente maggiore di silicio dedicato a queste funzionalità di nuova generazione. Ma queste funzionalità devono essere utilizzate, ovviamente, ed è per questo che la rivelazione di XeSS da parte di Intel è così importante. Sulla base delle diapositive e delle informazioni raccolte dall’Architecture Day (e da questa intervista), Intel sembra seguire lo stesso approccio di Nvidia con la propria tecnologia DLSS 2.x. Tuttavia, la strategia nella sua implementazione è molto diversa: Intel vuole standardizzare il super-campionamento basato sull’apprendimento automatico, non ha interesse a renderlo proprietario nel modo in cui Nvidia fa con DLSS. XeSS lavorerà su una gamma di GPU di diversi fornitori, che è esattamente la strategia giusta per garantire che la tecnologia diventi parte integrante dei giochi per PC. E tutto ciò pone le basi per questa intervista, modificata per chiarezza, dove io e # FriendAndColleague Alex Battaglia ha interrogato il vicepresidente di Intel e capo del software di grafica Lisa Pearce insieme al collega di ingegneria Tom Petersen su cosa aspettarsi da Alchemist, quanto sarà effettivamente XeSS aperto e standardizzato, il lavoro che l’azienda ha svolto con lo stack software e come appare il futuro della grafica dal punto di vista di Intel . E per la cronaca, non ho mai indossato un berretto da baseball… Fonderia Digitale: Ovviamente, passare all’arena grafica dedicata è uno sviluppo davvero interessante per Intel. Ed è passato molto tempo nello sviluppo, non hai nascosto la tua mossa qui, ma qual è la strategia generale? Perché entri nello spazio grafico dedicato? Lisa Pearce: Se lo guardi, è un mercato incredibile. Molti di noi lavorano da tempo con la grafica integrata. Intel è nel settore della grafica da due decenni, realizzando soluzioni a basso consumo e con fattore di forma vincolato, e credo che il mercato sia affamato di più opzioni nella grafica discreta. Quindi, siamo super entusiasti di entrarci. È sicuramente uno che ha grandi aspirazioni con Xe, è un’architettura scalabile, non solo per il client, ma anche per il datacenter. È un momento molto interessante e penso che l’industria non veda l’ora che arrivi un altro giocatore. Fonderia Digitale: Assolutamente. C’è stata una convergenza in termini di esigenze dei mercati, giusto? Ovviamente, Nvidia ha avuto un enorme impatto in termini di intelligenza artificiale, ray tracing e tutto questo può convergere con il mercato dei giochi, ed è bello vedere che anche Intel si unisce alla mischia. Quindi abbiamo rivelato la GPU Alchemist. E farò la domanda che non vuoi che io faccia – ma dove ti aspetti che atterri in termini di mercato complessivo? Cosa farà questa GPU per i giocatori? Vale a dire, questa è la mia domanda che non implica la parola “performance” ma riguarda le prestazioni! Tom Petersen: Beh, direi che ovviamente, Richard, non parleremo di performance, quindi non posso rispondere direttamente alla tua domanda. Ma posso dire che mentre percorri cos’è Alchemist, è prima di tutto una GPU di gioco completa, giusto? Non ci possono essere dubbi nella tua mente. E non è una GPU entry level, è sicuramente una GPU competitiva. Ha tutte le funzionalità necessarie per i giochi di nuova generazione. Quindi, senza parlare di prestazioni, ne sono piuttosto entusiasta.
Digital Foundry: Fantastico. E sembra che sarai il primo sul mercato con TSMC 6nm – scelta interessante lì. Puoi effettivamente quantificare i vantaggi che questo processo potrebbe darti rispetto a ciò che è già sul mercato e contro cosa ti troverai a dover affrontare nel primo trimestre del 2022?
La tecnologia di super-campionamento basata sull’apprendimento automatico XeSS di Intel sembra molto davvero promettente, a giudicare da questa prima demo.
Tom Petersen: Beh, per me, è solo il modo in cui la tecnologia è evolvendo naturalmente. Se pensi che l’intelligenza artificiale venga applicata letteralmente a tutte le applicazioni verticali del mondo, sicuramente avrà un grande impatto sui giochi. Puoi effettivamente ottenere risultati migliori rispetto ai risultati classici fondendo il calcolo in stile AI con il rendering tradizionale. E penso che siamo solo all’inizio di quella tecnologia. Oggi lavora principalmente su pixel post-renderizzati. Ma ovviamente, voglio dire, non è l’unico posto in cui l’intelligenza artificiale cambierà i giochi. Quindi, penso che sia solo un’evoluzione naturale.
E ancora, quando si pensa al ray tracing, si ottiene un risultato migliore rispetto alle tecniche di rendering tradizionali . Non funziona ovunque e ovviamente c’è un compromesso in termini di prestazioni. Ma è solo un’ottima tecnica per migliorare la vita dei giocatori. Quindi, penso che queste tendenze continueranno ad accelerare. E penso che sia fantastico che ci sia effettivamente un allineamento, perché quell’allineamento tra fornitori di hardware come Intel e Nvidia e persino AMD… quell’allineamento consente agli ISV di vedere una piattaforma stabile di funzionalità. E questo fa crescere il mercato generale dei giochi e questo è davvero ciò che va bene per tutti.
Digital Foundry: Proprio dal punto di vista architettonico, Sono curioso. Perché fare affidamento su hardware dedicato, ad esempio, per l’unità di ray tracing, invece di riutilizzare le unità attuali che la GPU potrebbe già avere e fare affidamento solo sul calcolo generale, ad esempio?
Tom Petersen: Il motivo principale è che la natura di ciò che accade quando si esegue l’attraversamento dei raggi è molto diversa. Gli algoritmi sono molto diversi da un tradizionale multi-pixel per pezzo, sai, più cose in parallelo. Quindi pensaci mentre stai cercando di trovare dove questi raggi si intersecano con i triangoli. È una funzione di stile di ramificazione e hai solo bisogno di più stili diversi di unità. Quindi è davvero algoritmico, la preferenza sarebbe, “ehi, eseguiamo tutto sugli shader”, ma la verità è che è inefficiente, anche se so che Nvidia ha reso disponibile una versione di quella per le sue vecchie GPU. E ricordi la differenza di prestazioni tra l’hardware dedicato e lo shader? È drammatico. Ed è perché l’algoritmo è molto, molto diverso.
Dai un’occhiata alla presentazione completa dell’Architecture Day di Intel se sei tecnicamente incline. La roba di Alchemist è fantastica, ma anche la CPU di Alder Lake ha un aspetto eccezionale.
Digital Foundry: Una domanda sulla strategia complessiva: hai mostrato un progetto di chip, anche se c’era un diapositiva con due chip. Presumo che il piano sarà che avrai uno stack, giusto? Avrai parti diverse, non ci sarà solo una GPU in arrivo. Il silicio DG1 ha ancora un ruolo da svolgere, o era quasi come un test in quanto tale?
Lisa Pearce: Sì , DG1 è stato il nostro primo passo per affrontare molti dei diversi problemi e cercare di assicurarci di aver preparato il nostro stack è stata la prima voce lì, mettendo a punto e pronto il driver. Quindi, DG1 è stato molto fondamentale per noi. Ma in realtà, Alchemist è l’inizio di GPU con prestazioni grafiche eccezionali. E ce ne saranno molti che seguiranno, motivo per cui abbiamo condiviso alcuni di quei nomi in codice. È sicuramente un approccio pluriennale.
Digital Foundry: Passiamo a qualcosa che in realtà è altrettanto fondamentale per il progetto quanto il silicio, che è lo stack del software. Questo è qualcosa in cui sembra che sia stato come un approccio continuo. nel corso di molti anni, immagino di aver iniziato a notare la grafica Intel in modo più diretto con Ice Lake . E ovviamente, da allora hai fatto passi da gigante. Ma qual è la strategia nello sviluppo dello stack software? Dove vuoi davvero essere quando finirai per essere lanciato nel primo trimestre del 2022. Dove sei ora e quali sono i principali risultati di oggi?
Lisa Pearce: Beh, sai, ci stiamo preparando per Xe HPG da un po’ di tempo. E gran parte di questo è lo stack di driver con un’architettura che può essere scalabile dalla grafica integrata con LP a HPG. E anche se hai parlato di alcune delle altre architetture con HPC. E quindi, è fondamentale nella progettazione del driver, ed è iniziato l’anno scorso. L’anno scorso all’Architecture Day abbiamo parlato di Monza, è stato un grande cambiamento al nostro stack di driver 3D per prepararci a quel ridimensionamento. Quindi questo è il primo fondamentale, poi, dopo, cercare di avere la maturità nel modo in cui ci sintonizziamo per diversi segmenti, diversi punti di prestazione e spremere davvero ogni aspetto di ogni punto di prodotto di architettura unico.
Quindi, all’interno del driver, abbiamo avuto quattro sforzi principali in corso, specialmente quest’anno preparando per questo lancio. Sai, i primi tre sono più generali di quelli specifici per HPG in particolare. Quindi, cercando di avere ottimizzazioni della memoria locale, quanto bene lo usiamo? Qual è la nostra impronta di memoria? Stiamo mettendo le cose giuste nella memoria locale per ogni titolo? poi le prestazioni del tempo di caricamento del gioco… il tempo di caricamento è stato di circa il 25% in media di riduzione quest’anno. Alcuni sono molto più pesanti. Il lavoro sta continuando. Quindi, abbiamo molto lavoro da fare lì per il lancio nel primo trimestre. Il terzo era l’utilizzo della CPU, i titoli legati alla CPU, sai, ho menzionato in media, abbiamo affermato le cose in modo conservativo e il 18% in media età, [but] alcuni titoli [have] riduzione dell’80 per cento. Quindi quella era davvero la maturità dello stack di Monza che abbiamo lanciato e cercando di spremere le prestazioni da quella. E poi l’ultimo, ovviamente, quanto bene il driver alimenta l’HPG, l’architettura più grande. E così tutto questo continua. È un monitoraggio e una messa a punto costanti per nuovi giochi, nuovi carichi di lavoro, specialmente su DX11/DX12. E vedrai che continuerà fino al primo trimestre per il lancio.
![soc](https://d2skuhm0vrry40.cloudfront.net/2021/articles/2021-08-24-13-07/Intel_Architecture_Day_2021_Pressdeck_Final_EMBARGO_85.png/EG11/resize/690x-1/quality/75/format/jpg)
![soc](https://d2skuhm0vrry40.cloudfront.net/2021/articles/2021-08-24-13-07/Intel_Architecture_Day_2021_Pressdeck_Final_EMBARGO_85.png/EG11/resize/690x-1/quality/75/format/jpg)
Digital Foundry: Ok, perché la percezione era quella quando siamo passati all’era delle API di basso livello , l’effettiva ottimizzazione del driver da parte del fornitore passerebbe in secondo piano rispetto a ciò che sta accadendo con lo sviluppatore. Ma non è successo, vero?
Tom Petersen: No, non funziona in questo modo. Voglio dire, le API di basso livello hanno dato molta più libertà agli ISV e hanno creato molte tecnologie davvero interessanti. Ma alla fine della giornata, il conducente richiede ancora un lavoro pesante, il compilatore da solo è solo un importante contributo alle prestazioni complessive del telaio. E questo continuerà ad essere qualcosa su cui lavoreremo, di sicuro.
Digital Foundry: Non solo guardare agli ultimi titoli e alle ultime API, Intel ha in programma di aumentare le sue prestazioni e la compatibilità con i titoli legacy dall’inizio dell’era DX11 all’era pre-DX11, per caso?
Fonderia Digitale: Va bene. In termini di funzioni implicite del driver, ad esempio, Intel prevede di offrire più funzionalità del driver quando alla fine uscirà la sua linea HPG? Cose come v-sync a metà frequenza di aggiornamento, MSAA controllabile, over-shading VRS, ad esempio, perché so che Alchemist supporta l’hardware VRS e può utilizzare l’over-shading per i titoli VR. Ci sono cose interessanti molto specifiche che dovremmo aspettarci dal lancio di HPG?
Tom Petersen: Ci sono molte caratteristiche interessanti. Penso che sia la bontà oltre l’essere un ottimo driver grafico, giusto? Devi essere un driver dalle grandi prestazioni e competitivo su prestazioni per watt ed effettivamente prestazioni per transistor, devi avere tutto questo. Ma poi devi anche portare avanti le funzionalità oltre il driver grafico di base e ne sentirai parlare di più man mano che ci avvicineremo al lancio di HPG. Quindi dico di sì, sono abbastanza fiducioso.
![6nm2](https://d2skuhm0vrry40.cloudfront.net/2021/articles/2021-08-24-13-37/6nm2.jpg/EG11/resize/690x-1/quality/75/format/jpg)
Fonderia digitale : Ok, quindi voglio passare a XeSS. Abbiamo una demo che la mostra in azione. È estremamente eccitante, perché siamo stati grandi sostenitori dell’apprendimento automatico e delle applicazioni dell’apprendimento automatico. Ed è assolutamente fantastico vedere un vero concorrente del DLSS entrare nel mercato che potrebbe imbattersi in più hardware, che penso sia la chiave per la sua diffusione. Quindi, la prima cosa che voglio chiederti è qual è stata la spinta per realizzare una tecnica di ricostruzione dell’immagine in generale dal punto di vista di Intel e perché renderla guidata da processi di apprendimento automatico?
Tom Petersen: Beh, direi che c’è un continuum di prestazioni e qualità. Se ci pensi, esegui il rendering a bassa risoluzione e puoi ottenere un frame rate elevato, oppure se esegui il rendering ad alta risoluzione, tendi a ottenere un frame rate basso. E la domanda è: possiamo fare di meglio? E la risposta risulta essere, sì, se inizi a pensare a nuovi modi per riutilizzare le informazioni da frame precedenti, o da precedenti storie di giochi, puoi prendere tutte quelle altre informazioni e usarle per ricostruire un frame migliore… ed è proprio quello che sta succedendo con tutte queste tecniche basate sull’intelligenza artificiale, super-rendering o super-sampling.
Digital Foundry: Quindi sembra dal modo in cui lo stai descrivendo che ci sia un grande processo di allenamento in background, magari basato su immagini altamente sovracampionate di alcuni giochi. E poi l’inferenza basata sui pesi generati da ciò viene eseguita in tempo reale sulla GPU.
Tom Petersen: Sì, di corso. E abbiamo, ovviamente, molteplici varianti di questa inferenza. Ma la parte interessante è che sono generici, nel senso che non sono addestrati su un titolo specifico. L’inferenza funziona su più giochi, perché alla fine sono tutti molto, molto simili. E penso che sia quasi il migliore del mondo in cui puoi dire, prendi questo motore, addestralo su un mucchio di dati provenienti da giochi diversi e poi usalo su più titoli diversi per ottenere grandi risultati.
Digital Foundry: Ok, parlando delle diverse deduzioni e dei percorsi che hai menzionato lì, la tua presentazione ha menzionato specificamente il percorso XMX e il percorso DP4A. Potresti forse entrare più in dettaglio su quali sono specifici per l’architettura Intel e quali no, così come forse le differenze nelle prestazioni e nella qualità dell’immagine percettiva che ognuno potrebbe avere sull’architettura Intel?
Questo è ciò che Intel deve eguagliare e potenzialmente superare: questo video mostra il brillante RT in Lego Builder’s Journey, quindi approfondisce le ultime innovazioni di Nvidia con DLSS 2.2. Quindi se confronti quella tecnica di upscaling, o upsampling – penso che upscaling sia una parola migliore – se confronti quella tecnologia con ciò che sta accadendo con qualcosa come XeSS, in XeSS, stiamo prendendo più fotogrammi del gioco. E stiamo esaminando i vettori di movimento e stiamo anche esaminando i frame renderizzati precedenti che sono stati addestrati in una rete. Quindi, effettivamente, stiamo esaminando molte più informazioni per generare quel nuovo frame, che ha una caratteristica migliore rispetto all’upscaling tradizionale. Ora, quando pensi a come esegui l’algoritmo XeSS? I primi di cui abbiamo parlato sono i motori XMX, che sono sistolici, una specie di metodo tradizionale per eseguire inferenze veloci su una GPU. E l’altro metodo è DP4A, che è un altro tipo di forma più semplice che può essere adottata più ampiamente su più architetture diverse. Quindi penso che, sulle piattaforme hardware di Intel che supportano il motore principale, ci aspettiamo di rendere disponibile XeSS su quel dispositivo. Quindi è, è piuttosto bello, giusto? In un certo senso dici che abbiamo più backend che si collegano tutti sotto un’API comune. E questa è, per me, la cosa più importante è che gli ISV cerchino queste API comuni. Quindi possono fare un’integrazione. E poi sotto quell’integrazione, potresti avere più implementazioni del motore senza che gli ISV debbano rifare -integrare e rivalutare ogni volta, quindi la nostra aspettativa è che sia esattamente ciò che XeSS è: ha un’API standardizzata che potrebbe funzionare anche su più fornitori. E così, parte della strategia chiave di XeSS è essere aperti, diamo il via a queste API. E lasciamo che altre persone li implementino in modo da rendere la vita degli ISV un po’ più semplice. E nel tempo, la speranza è che questo tipo di cose ovviamente si sposti più in alto in API standardizzate intersettoriali, ma tutto ciò richiede tempo. Quindi quello che stiamo pensando è, ehi, facciamo uscire la nostra prima versione, rendiamola fantastica, poi pubblichiamola, rendiamo aperte le API e poi, nel tempo, viene standardizzata. Digital Foundry: Sì, solo per il record, ho verificato [of assembly coding] con 6502, ecco quanti anni ho! Immagino che ci sia una domanda più azzeccata dalla tua demo: mostravi 1080p ridimensionati tramite XeSS a 4K. Sosterrai diverse risoluzioni interne? Tom Petersen: Sì, penso che vedrai che XeSS supporterà più configurazioni diverse. C’è come una modalità di qualità o perfor modalità mance e diverse risoluzioni di input a diverse risoluzioni di output. Non sono sicuro di come sarà la matrice incrociata in questo momento. Ma non c’è bisogno che questo sia solo “uno dentro, uno fuori”. Digital Foundry: E sul lato SDK di cose, voglio dire, tutte queste funzionalità vivono e muoiono quando vengono effettivamente implementate nei titoli, giusto? Quindi quanto è aperto? Stiamo parlando del codice sorgente su GitHub, o qualcosa di più simile a quello che ha fatto Nvidia con l’SDK DLSS? Tom Petersen: Allora il modo di pensare è che è sicuramente nell’interesse di tutti avere API ISV aperte. E ciò significa che letteralmente la stessa API, tutti la integrano e sotto di essa, si collegano una sorta di DLL diverse che implementano i motori, in pratica, che implementano le funzionalità. Ci vorrà un po’ di tempo, giusto? Quindi, a breve termine, ciò che probabilmente faremo, e penso che ci sia ancora un po’ di movimento qui, sarà pubblicare le API, pubblicare gli SDK e pubblicare i riferimenti e quindi gli ISV sapranno effettivamente cosa stanno ottenendo. E non c’è davvero niente che mi sembri imbarazzante. nel tempo, ti piacerebbe essere ancora più aperto, dove ci sono queste API che le persone possono collegare al di sotto di esse. E questa è effettivamente la strategia. Ora, molto probabilmente avremo ancora i nostri motori interni che si collegano a queste API. E nel tempo, se saranno aperti o meno, non è chiaro. Digital Foundry: Ok, c’è anche qui in realtà una sorta di limitazione su quali GPU di altri fornitori lo eseguiranno? Voglio dire, presumo che debba essere coinvolta una sorta di accelerazione dell’apprendimento automatico, giusto? Digital Foundry: Ecco un pensiero interessante che ho avuto durante la Giornata dell’Architettura , che è essenzialmente che hai silicio per l’apprendimento automatico non solo nella GPU, ma anche nella CPU. Diciamo che possiedo una vecchia scheda GeForce o Radeon e voglio sfruttare XeSS. Posso farlo tramite la CPU? Tom Petersen: Beh, sai che c’è una GPU integrata sulla maggior parte delle nostre CPU. E quindi, la domanda è, come sarebbe? E sono sicuro che sei consapevole di come funziona l’ibrido per la maggior parte dei notebook in cui c’è un rendering GPU discreto, e poi c’è una copia su una GPU integrata, che oggi non fa altro che fungere da controller di visualizzazione. Ma ora che abbiamo tecnologie davvero fantastiche, potremmo fare qualcosa di interessante sulla GPU? Penso che l’intero spazio l’abbiamo chiamato Deep Link. E cosa succede in termini di Deep Link in questo momento, stiamo ancora imparando così tanto qui. E ci sono così tante opportunità. Oggi sono solo i prodotti Intel che lavorano insieme, ma puoi pensare a Deep Link come, cosa possiamo fare in un ambiente con due GPU o in un ambiente CPU/GPU che è meglio di un altro? Quindi, non voglio rispondere direttamente a questa domanda, ma diciamo solo che ci sono molte opportunità in quello spazio. Digitale Foundry: Da un punto di vista Intel, se sei in grado di affrontare il silicio per l’apprendimento automatico, importa fondamentalmente se è sul CPU o GPU? È un po’ la domanda su cui stavo riflettendo. Tom Petersen: È la performance, sai, è il rendimento per watt … è il calcolo nel posto giusto per influenzare i pixel che si muovono attraverso la pipeline. Non c’è religione a riguardo. È proprio come, dove ci porta la scienza? Abbiamo una funzione che offrirà vantaggi ai clienti? E se lo facciamo, sì, lo faremo probabilmente. Voglio dire, non ci sarà alcuna esitazione se troviamo una grande tecnologia che renda le nostre CPU un’esperienza migliore di quella di qualcun altro. Digital Foundry: Un sacco di fantastiche tecnologie che sono state rivelate e discusse all’Architecture Day. E ovviamente, alla fine, c’è stato il colpo di luna, Ponte Vecchio. Questa è un’area completamente diversa da quella di cui stiamo parlando in termini di grafica consumer mainstream. Tuttavia, per quanto riguarda i principi, stavi mostrando la scalabilità a livello multi-chip, giusto? Stavi unendo più GPU insieme. E dall’aspetto in termini di come sono collegati, sembrano agire come un insieme coerente. Ora, ovviamente, nello spazio di gioco, il concetto di riunire più GPU e accelerare le prestazioni è morto con SLI, non si adattava alle architetture moderne, alle applicazioni temporali, in particolare. La mia domanda qui è buona per il futuro, la tecnologia in stile Ponte Vecchio potrebbe ridimensionarsi al livello del consumatore? Quindi, sai, per farlo sui consumatori, avremmo bisogno di una nuova tecnologia, un nuovo modo di partizionare il lavoro su più riquadri. E il grado in cui c’è una comunicazione ad alta larghezza di banda attraverso quel riquadro, puoi ignorare il fatto che sono più riquadri. Come se avessero una larghezza di banda infinita tra le tessere, sembrano solo un grosso pezzo di silicio e non c’è alcun comportamento visibile dal software. Ora, non ci sarà larghezza di banda infinita, quindi ci sarà un qualche tipo di lavoro per fare quel ridimensionamento tra le tessere. Ma penso che questa sia la tendenza. Voglio dire, se guardi solo come funziona il silicio e guardi come funziona il rendimento, avere più die più piccoli nel tempo è probabilmente un’ottima idea – e dovrebbe essere fatto funzionare in qualche modo. Non sarà niente come SLI. SLI è una tecnologia che ha funzionato alla grande con DX9 e DX11. Sarà qualcosa di diverso, credo. Fonderia Digitale: Questa domanda è un po’ più globale e riguarda essenzialmente le relazioni con gli sviluppatori, perché questo è fondamentale per ottenere buone prestazioni tanto quanto il silicio e il driver… in realtà devi essere lì con lo sviluppatore per aiutarti loro per ottimizzare per architetture specifiche. Qual è la visione di Intel lì? Come stai implementando questo tipo di idea? Lisa Pearce: Abbiamo avuto un profondo impegno con gli ISV di gioco per molto tempo su Intel, giusto. Ma ora, è a un punto di un impegno ingegneristico molto più profondo. Ed è stato costruito negli ultimi due anni, sappiamo che è la posta in gioco fondamentale per il successo e la grafica consumer ad alte prestazioni. Quindi, sta costruendo sempre più forte [so], fornendo strumenti più capaci, SDK più capaci e portandoli con sé per assicurarci di avere la migliore esperienza possibile per i giochi su Alchemist. E nei prossimi anni, ci aspetteremmo, sai, in definitiva, molto più dell’allineamento del guidatore del giorno zero: messa a punto in anticipo, impegno in anticipo, forse alcune ottimizzazioni uniche che possiamo andare e guidare anche prima che sia nella fase finale per il lancio. Quindi, consideriamo tali relazioni come assolutamente fondamentali per il futuro della grafica discreta. Digital Foundry: C’è stata anche una spinta ad aumentare funzionalità adiacente al gioco, non specifica per il gioco. Ad esempio, lo streaming. Come stanno andando le cose e quali sono i piani per il futuro? Lisa Pearce: Sai, in streaming, questo è uno dei casi in cui vediamo davvero Deep Link come una tecnologia interessante per continuare a migliorare. È sempre fantastico quando abbiamo una grafica integrata e discreta sul sistema. L’acquisizione e lo streaming sono uno di questi: i nostri codificatori sono da tempo un punto di forza. Come possiamo assicurarci di sfruttare l’equilibrio tra alte prestazioni, quali livelli di qualità vogliamo… ci saranno molte soluzioni distinte che vogliamo portare lì. E ne vedremo di più con il lancio di Alchemist. Digital Foundry: Ho una piccola domanda bonus riguardo alla differenza tra la configurazione HPG e HPC, ho notato che l’UE è abbastanza un po’ più largo, come due volte più largo nell’arena HPC. Qual è la decisione progettuale per questo e non usarlo nella configurazione grafica ad alte prestazioni? Tom Petersen: Ho un milione di pensieri ! Ma non voglio parlare di loro Richard! Ma posso dirti un paio di cose, perché, sai, per me è semplice in questo momento. Stiamo lavorando sui pixel post-renderizzati e sui pixel post-rendering, [so] hai lasciato molte informazioni già in precedenza nella pipeline. E quindi la domanda è: questa idea di fondere più informazioni dal retro più profondo o forse anche iniziare a guardare i motori fisici… e che dire di tutti gli altri motori che stanno alimentando il rendering, come la proiezione e l’espansione della geometria? Quindi, ci sono solo molti, molti, molti algoritmi in esecuzione che sono precedenti ai pixel e tutti questi sono candidati per essere inseriti in una sorta di algoritmo generativo, che è davvero l’intelligenza artificiale. L’intelligenza artificiale fa due cose. Uno è l’estrapolazione in cui dice “ci sono informazioni qui, mi trasferirò” avanza in qualche modo ragionevole’. Ma fa anche allucinazioni, dove in un certo senso dici, ho visto cose in passato che sono così. Quindi non sarebbe fantastico se ci fosse un albero qui? Sai, questo è ciò che fa l’intelligenza artificiale e tutte queste cose sono perfette per i giochi. E ci sono molte, molte applicazioni diverse…