On Feb 15, 3:33�am, no_spam_at_no_spam.com (Aleph) wrote:
> C'� una qualche relazione che mette in relazione i consumi energetici
> delle CPU (in calo) al livello di integrazione della tecnologia utilizzato?
No non proprio, ci sono troppi parametri in gioco.
La potenza dinamica (quella consumata dalle porte logiche per
commutare) scala in modo abbastanza predicibile (*), anche se ormai ad
ogni generazione si aggiunge qualche nuovo trucco per tenere insieme
la baracca, quindi non e' piu' semplice come una volta.
La potenza dissipata sulle interconnessioni cresce di generazione in
generazione, specie in confronto alla potenza usata dalle gate (i
transistor possono diventare piu' piccoli ma i fili di
interconnessione piu' piccoli di tanto non possono diventare, specie
se devono portare 100 Ampere...); le interconnessioni dipendono
strettamente dalla tecnologia, dal floorplanning e dalla bonta' degli
algoritmi di routing automatico, e non conosco nessuna formula
(nemmeno molto approssimata) per dire come evolve da un nodo
litografico al successivo.
La potenza di leakage e' cresciuta col tempo ed e' ora uan componente
dominante (puo' essere circa il 30% dell'intero consumo).
Curiosamente, il leakage deve essere tenuto "alto abbastanza" :) il
motivo e': per ridurre il leakage devi aumentare la tensione di soglia
dei MOS (in modo da "spegnerli" bene), ma questo li rende piu' lenti
(serve piu' corrente e tempo per portarli da OFF a ON e viceversa) e
quindi le prestazioni del chip scendono. Bisogna trovare il giusto
compromesso tra velocita', potenza dinamica e potenza di leakage, e
questo punto ottimo puo' cambiare da tecnologia a tecnologia. Non
c'e' una formula per dire come scala da una all'altra.
E infine, col passare del tempo ci sono tecniche di risparmio
energetico sempre piu' sofisticate, che sparigliano i conti in modo
impredicibile (es.: simulazioni preliminari mostrano che la nuova
architettura Kepler delle GPU NVidia consuma quasi la meta' della
precedente architettura Fermi, a parita' di nodo tecnologico (28
nm) ). Queste tecniche includono cose come:
* regolazione di tensione e frequenza: via software, o tramite monitor
hardware, si puo' decidere di abbassare frequenza e tensione (prima la
ferquenza, poi la tensione :) quando il chip e' "scarico" e ha poco da
fare; questo salva molta energia in idle
* power gating: quando pezzi di chip sono inattivi per parecchio tempo
e' possibile spegnerli completamente (l'unico modo di annullare il
leakage)
* clock gating: quando pezzi di chip sono inattivi per poco tempo e'
possibile togliere il clock ai flip-flop di quel pezzo, in modo da
risparmiare la potenza dissipata dall'albero di clock e dal suo carico
Queste dipendono strettamente da scelte architetturali e capacita' di
design.
In praticam, ormai si e' raggiunto il limite superiore, e la potenza
di calcolo e' limitata solo dal consumo energetico (~100 W per CPU
desktop, ~200 W per le GPU desktop, <5 W per gli smartphone, ...).
Quindi possiamo dire che il consumo restera' circa costante, e la
potenza di calcolo aumentera' per quanto permesso dalle prestazioni
per Watt.
Pleg
(*) Per ~30 anni si e' proceduto con il "Dennard scaling", piu' o meno
(a memoria): ad ogni generazione riduci di A la lunghezza minima e la
tensione di alimentazione; il campo elettrico rimane uguale; i
drogaggi devono crescere di A (credo?), le capacita' scendono di A e
quindi anche la corrente per pilotarle, il consumo di energia scende
di A cosi' come il ritardo, e l'area scende con A^2.
Questo molto idealmente.
Received on Tue Feb 15 2011 - 18:41:18 CET
This archive was generated by hypermail 2.3.0
: Sun Nov 24 2024 - 05:10:35 CET