Nuova e interessantissima intervista con David Kirk (nVIDIA)
  • In diretta da GamesVillage.it
    • News
    • -
    • In Evidenza
    • -
    • Recensioni
    • -
    • RetroGaming
    • -
    • Anteprime
    • -
    • Video
    • -
    • Cinema

Visualizzazione risultati da 1 a 9 di 9

Discussione: Nuova e interessantissima intervista con David Kirk (nVIDIA)

Cambio titolo
  1. #1
    Verso il domani L'avatar di Luck134
    Registrato il
    10-02
    Località
    Genova
    Messaggi
    14.768

    Nuova e interessantissima intervista con David Kirk (nVIDIA)

    Qui potete trovare la nuova, e 3a, intervista di Hw Upgrade (ed altre riviste) a David Kirk, Chief Scientist di nVIDIA: Intervista con David Kirk di NVIDIA.

    Molti spunti interessanti sulla prossima generazione di GPU (G80 o NV50 o come si chiamerà): 500 mln di transistor circa, niente embedded RAM e shader unificati solo a livello API/Software (WGF2.0/DX10) ma ancora separati e ben distinti a livello hardware.

    A questo punto R600, SE prenderà da R500 come si suppone gli shader unificati anche in hardware, potrebbe essere più avanzato a livello tecnologico e proiettato maggiormente verso il futuro.

    A proposito del Geometric Delta Clock:
    "Ti riferisci alle fatte dal software Rivatuner, esatto? Se così, la questione è molto semplice: G70 opera con differenti frequenze di lavoro in modalità 3D, e alcuni registri riportano le differenti frequenze di lavoro. L'attuale versione di Rivatuner segnala una frequenza di clock, quella di 470 MHz, che non è quella di default per il chip video in quanto riporta un'altra frequenza di lavoro: quel tool prende quel valore da un registro che non è quello corretto.

    In ogni caso, bisogna considerare che G70 è un progetto nel quale si è molto lavorato per avere elevate funzionalità di risparmio energetico: non deve stupire quindi che ci siano parti del chip video che operano con frequenze differenti, in quanto è un approccio che mira proprio a ottimizzare il funzionamento complessivo a vantaggio della silenziosità e del consumo.

    Gli utenti non si devono sorprendere comunque di questo: le cpu in commercio attualmente operano con frequenze di clock differenti da quelle di default per alcune componenti, eppure nessuno dice nulla in merito. In ogni caso, riportiamo quale frequenza di clock ufficiale del chip G70 in modalità 3D quella di 430 MHz, cioè la frequenza di lavoro minima alla quale il chip opera, evitando di segnalare altre frequenze di clock che possano in qualche modo fuorviare i nostri utenti."



    P.S. Ha confermato che LongHorn sarà MOLTO ma MOLTO pesante.

  2. #2
    Bannato L'avatar di micheal88
    Registrato il
    10-04
    Località
    ¥ Amityville ¥
    Messaggi
    2.448
    Finalmente Lucco, finalmente.

    Ottima intervista , un pò striminzita (io sarei andato più a fondo col "terzo grado" ), ma non ho letto alcuna allusione al possibile restyling al crossbar switch (o fragment) che potrebbe rimpiazzare la cattiva gestione ROP/Pixel Pipeline. :\

  3. #3
    Verso il domani L'avatar di Luck134
    Registrato il
    10-02
    Località
    Genova
    Messaggi
    14.768
    Citazione micheal88
    Finalmente Lucco, finalmente.

    Ottima intervista , un pò striminzita (io sarei andato più a fondo col "terzo grado" ), ma non ho letto alcuna allusione al possibile restyling al crossbar switch (o fragment) che potrebbe rimpiazzare la cattiva gestione ROP/Pixel Pipeline. :\
    Di domande ne sono state poste, come sui 90nm, sulla versione Ultra del G70 ecc.. ma non ha risposto (e, quindi, non sono state riportate).

    Comunque ho l'impressione che nVIDIA sarà piuttosto conservativa con la prossima generazione di GPU. La vera rivoluzione verrà (prima) da ATi.

  4. #4
    lo statistico del secolo! L'avatar di ralph81
    Registrato il
    01-05
    Località
    nell'ISTAT...
    Messaggi
    3.904
    Citazione Luck134
    Di domande ne sono state poste, come sui 90nm, sulla versione Ultra del G70 ecc.. ma non ha risposto (e, quindi, non sono state riportate).

    Comunque ho l'impressione che nVIDIA sarà piuttosto conservativa con la prossima generazione di GPU. La vera rivoluzione verrà (prima) da ATi.
    fanno a turno...!una volta nvidia e una volta ati...!la serie 9600/9800 distruggeva la serie "5" , la serie "6" distrugge quasi sempre le varie ati x***! la serie "7" verrà maciullata dal chip r520... e così via..!giocano su di noi...


  5. #5
    Verso il domani L'avatar di Luck134
    Registrato il
    10-02
    Località
    Genova
    Messaggi
    14.768
    Citazione ralph81
    fanno a turno...!una volta nvidia e una volta ati...!la serie 9600/9800 distruggeva la serie "5" , la serie "6" distrugge quasi sempre le varie ati x***! la serie "7" verrà maciullata dal chip r520... e così via..!giocano su di noi...
    No, semplicemente ragionano in modo diverso: ATi vuole creare una sola nuova architettura avanzata ogni tot di anni per poi riprodurne refresh. Per questo R600 darà subito il meglio tecnologico delle WGF2.0, così da poterne poi riutilizzare l'architettura base in un eventuale R720.

    nVIDIA invece può permettersi di essere conservativa con G80 / NV50 perché probabilmente non avrà problemi a ricreare una nuova architettura per un G90 / NV60.

  6. #6
    Bannato L'avatar di micheal88
    Registrato il
    10-04
    Località
    ¥ Amityville ¥
    Messaggi
    2.448
    Citazione Luck134
    No, semplicemente ragionano in modo diverso: ATi vuole creare una sola nuova architettura avanzata ogni tot di anni per poi riprodurne refresh. Per questo R600 darà subito il meglio tecnologico delle WGF2.0, così da poterne poi riutilizzare l'architettura base in un eventuale R720.

    nVIDIA invece può permettersi di essere conservativa con G80 / NV50 perché probabilmente non avrà problemi a ricreare una nuova architettura per un G90 / NV60.
    Che poi avere un bus di comunicazione più ampio (diciamo dai 512 bit in su) porterebbe benefici principalmente all' AA, tecnica destinata a scomparire nel tempo, complice l' innalzamento esponenziale delle risoluzioni medie (i 2048 sembrano ormai alla portata di tutti).

    Un altro motivo per non proiettarsi eccessivamente nel futuro sviluppandone aspetti di secondaria importanza.

  7. #7
    Redattore L'avatar di pape
    Registrato il
    10-02
    Messaggi
    9.791
    Citazione micheal88
    Che poi avere un bus di comunicazione più ampio (diciamo dai 512 bit in su) porterebbe benefici principalmente all' AA, tecnica destinata a scomparire nel tempo, complice l' innalzamento esponenziale delle risoluzioni medie (i 2048 sembrano ormai alla portata di tutti).
    In realtà il bus a 512 non credo sarà facilissimo da fare, non in tempi brevi. Più che altro, non escludo di vedere soluzioni simili all'embedded DRAM di Xbox 360, che escludendo l'elevato costo, è una soluzione piuttosto interessante. In ogni caso, confermo che Kirk è stato molto abbottonato nella sua chiacchierata con la stampa. Però, come al solito, è stato divertente, e a uyn certo punto ha iniziat a fare domande lui... tipo... se qualcuno dei presenti avesse visto R520.. ovviamente mentre se la rideva sotto i baffi (che non ha)

    Pape

  8. #8
    Bannato L'avatar di micheal88
    Registrato il
    10-04
    Località
    ¥ Amityville ¥
    Messaggi
    2.448
    Citazione pape
    In realtà il bus a 512 non credo sarà facilissimo da fare, non in tempi brevi. Più che altro, non escludo di vedere soluzioni simili all'embedded DRAM di Xbox 360, che escludendo l'elevato costo, è una soluzione piuttosto interessante. In ogni caso, confermo che Kirk è stato molto abbottonato nella sua chiacchierata con la stampa. Però, come al solito, è stato divertente, e a uyn certo punto ha iniziat a fare domande lui... tipo... se qualcuno dei presenti avesse visto R520.. ovviamente mentre se la rideva sotto i baffi (che non ha)

    Pape
    Lui è sempre stato così.

    Ma un bus a 512 bit deve garantire un trasporto ottimale stando in un set di conduttori dalle dimensioni accettabili.
    Qualora si decidesse di accelerare la migrazione ad uno standard cpu-like (quindi di stampo ZIF), i problemi di spazio non si porrebbero nemmeno.

    E quest' ultima tesi, ora che siamo al capolinea, non è nemmeno più così poco avvalorata dalle tante presunte roadmap circolanti in rete, e persino Intel, finita la cucagna della corsa ai MHz, sul medio/lungo periodo (relativamente parlando) migrerà completamente verso un' architettura m-like.
    Ultima modifica di micheal88; 8-07-2005 alle 11:53:55

  9. #9
    Redattore L'avatar di pape
    Registrato il
    10-02
    Messaggi
    9.791
    Citazione micheal88
    Lui è sempre stato così.
    Dipende... in altre situazioni l'ho visto molto più loquace. Sarà che solitamente lo riuscivo a incontrare a cena... e magari il vino gli sciglieva un po' la lingua ^_^
    Stavolta, a colazione, si beveva solo acqua.

    Ma un bus a 512 bit deve garantire un trasporto ottimale stando in un set di conduttori dalle dimensioni accettabili.
    Qualora si decidesse di accelerare la migrazione ad uno standard cpu-like (quindi di stampo ZIF), i problemi di spazio non si porrebbero nemmeno.
    Il discorso è sempre relativo alla questione prezzo/prestazioni: vale la pena di investire tot per quello che offre? Probabilmente, ora come ora un buis a 512 inciderebbe troppo sui costi di produzione rispetto ai vantaggi che apporta.

    Pape

Regole di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •