Glossario su energia e ambiente

Clicca l'iniziale per trovare la parola cercata

D E F G H I J K L M N O P Q R S T U V W X Y Z


LOGO

A B C

 

Acqua
L’energia cinetica delle masse d’acqua (acquisita cioè dall'energia potenziale che una massa d'acqua perde con un salto o un percorso in pendenza) viene utilizzata da tempi immemorabili per scopi energetici: è stata anzi la prima fonte energetica largamente usata dall'uomo in sostituzione di quella muscolare e animale. Attualmente lo sfruttamento prevalente dell'energia cinetica delle acque, siano esse fluenti o in caduta, è relativo alla produzione di energia elettrica. Sono proprio quelli idraulici i più grandi impianti esistenti per la produzione di elettricità (centrali idroelettriche). Nel 1984 sul fiume Paranà, al confine tra Brasile e Paraguay, è stata inaugurata la centrale di Itaipu, che ha una potenza complessiva di circa 13.000 MW. In Cina sono in via di completamento i lavori per la centrale delle Tre Gole, sul fiume Yang-Tze, che una volta ultimati renderanno disponibile una potenza di oltre 17.000 MW. L’elettricità prodotta dalle centrali idroelettriche non ha alcun tipo di emissione inquinante. L’unico impatto ambientale - di rilievo solo per le centrali più grandi - è costituito dalle modificazioni degli ambienti naturali conseguenti alla realizzazione degli sbarramenti artificiali necessari per un adeguato sfruttamento dell’energia idraulica. Tra le fonti rinnovabili l’energia idroelettrica è di gran lunga quella di maggiore importanza. Contribuisce infatti per una quota rilevante alla domanda mondiale di energia primaria: oltre il 6% su scala mondiale, ma con valori molto superiori per alcune aree geografiche (a esempio il 27,5% nel caso dell’America centro-meridionale) o singoli Paesi. Anche in Italia – dove le attività idroelettriche risalgono ai primi del ‘900 e dove si è sviluppato un know-how tecnologico avanzato – la produzione di energia idroelettrica continua a rivestire un ruolo di primo piano, con un contributo che, pur variando di anno in anno a seconda del livello delle precipitazioni, corrisponde a circa un sesto dell’intera produzione elettrica nazionale. La realizzazione nel corso del Novecento delle maggiori opere impiantistiche nel settore ha in pratica esaurito le possibilità di sfruttamento energetico della fonte idrica sul nostro territorio.
Acquirente unico
Acquirente Unico è la Società per azioni del gruppo Gestore dei Servizi Elettrici – GSE Spa, cui è affidato per legge il ruolo di garante della fornitura di energia elettrica alle famiglie e alle piccole imprese, a prezzi competitivi e in condizioni di continuità, sicurezza ed efficienza del servizio. Il compito di Acquirente Unico è quello di acquistare energia elettrica alle condizioni più favorevoli sul mercato e di cederla ai distributori o alle imprese di vendita al dettaglio, per la fornitura ai piccoli consumatori che non acquistano sul mercato libero. Dal 1° luglio 2007, con la completa apertura del mercato elettrico, Acquirente Unico acquista l’energia elettrica per il fabbisogno dei clienti appartenenti al mercato di “maggior tutela”, consumatori domestici e piccole imprese (connesse in bassa tensione, con meno di 50 dipendenti e un fatturato annuo non superiore a 10 milioni di euro) che non hanno scelto un nuovo fornitore nel mercato libero.
Accumulatore elettrico
Vedi le voci batteria ricaricabile e pila chimica.
Alghe
Produrre energia dalle alghe.
Alleggeritori automatici del carico
Relè sensibili al valore della frequenza e della sua derivata che comandano il distacco di predefiniti blocchi di carico quando la frequenza, a seguito di disservizi, raggiunge valori non compatibili con l’esercizio del sistema elettrico.
Alta Tensione (AT)
Tensione nominale tra le fasi elettriche superiore a 35 kV e uguale o inferiore a 150 kV.
Alternatore
L'alternatore è una macchina elettrica rotante basata sul fenomeno dell'induzione elettromagnetica, che trasforma energia meccanica in energia elettrica sotto forma di corrente alternata assumendo la funzione di trasduttore. Svolge in pratica l'azione inversa rispetto al motore sincrono e presenta la stessa struttura di base. Generatore sincrono. La macchina è costituita da una parte cava fissa, chiamata statore, al cui interno ruota una parte cilindrica calettata sull'albero di rotazione, detta rotore. Sullo statore sono presenti gli avvolgimenti elettrici su cui vengono indotte le forze elettromotrici che sosterranno la corrente elettrica prodotta. Il rotore genera il campo magnetico rotante per mezzo di elettromagneti, i quali sono a loro volta opportunamente alimentati oppure vengono utilizzati dei magneti permanenti i quali non necessitano di alimentazione. La tipologia costruttiva varia notevolmente a seconda del tipo di macchina a cui sono accoppiati. In caso di alternatori siti in centrali idroelettriche dove la turbina idraulica ruota a frequenze di centinaia di giri al minuto l'avvolgimento rotorico sporge rispetto all'albero (si parla di macchina ad N "poli salienti"). La velocità dipende dalle caratteristiche della turbina idraulica ed è inversamente proporzionale al numero dei poli. Alternatori accoppiati a turbomacchine (turbine a gas o a vapore) hanno anche l'avvolgimento rotorico alloggiato in cave, ruotano a frequenze maggiori, comparabili con la frequenza di rete, e si distinguono ulteriormente per tipologia di raffreddamento, ad aria, acqua e ad idrogeno. Il rendimento di questi alternatori è molto altro, intorno al 0,97 (97%) per scendere fino al 0,85 (85%). Generatore asincrono. Nel caso invece si utilizzi come base un motore asincrono, tale motore viene utilizzato come generatore soltanto quando le potenze in gioco sono contenute e principalmente quando è collegato a una rete elettrica prevalente (rete nazionale), che è mantenuta in tensione da alternatori sincroni. Il motore asincrono per poter funzionare come generatore preleva energia reattiva dalla rete per magnetizzare il circuito rotorico (essendo i circuiti rotorici a gabbia di scoiattolo sono privi d'eccitazione), il rotore viene poi avviato tramite una sorgente energetica esterna (fonte meccanica) portandolo in ipersincronismo (il campo magnetico del rotore ruota più velocemente del campo magnetico dello statore), diventando generatore di energia, in questa condizione mentre eroga potenza attiva verso la rete prevalente, assorbe contemporaneamente potenza reattiva per tenere alimentato il campo magnetico rotante. Secondo alcuni studi il rendimento di tali macchine dovrebbe essere attestato intorno a 0,6 (60%), per scendere fino al 0,4 (40%) risultando quindi molto inferiore in confronto al sistema sincrono, ma col vantaggio d'essere robusto e semplice da gestire, in quanto in caso d'aumento della velocità dell'albero non si ha la sovrafrequenza (frequenza più elevata), ma fenomeni meccanici all'albero del tipo frenatura. Per far funzionare un generatore asincrono in isola (senza rete principale esterna in collegamento, ma a essere il solo generatore), si utilizzano dei condensatori per il rifasamento collegati ai morsetti del motore, che consentono lo scambio dell'energia reattiva (potenza reattiva) necessaria al motore, permettendone il suo funzionamento come generatore, il difetto di quest'applicazione è la richiesta obbligata di una sorgente d'energia alternata per l'avviamento, mentre una volta avviato il sistema va in stabilità e avviene l'erogazione di potenza attiva.
Altissima Tensione (AAT)
Tensione nominale tra le fasi elettriche superiore a 150 kV.
Ambiente.
In generale l'ambiente è il contesto, l'intorno in cui e/o con cui un elemento fisico o virtuale si rapporta e si relaziona. Dal latino "ambiens" ciò che sta attorno. Indica l'insieme delle condizioni fisiche (temperatura, pressione, ecc.), chimiche (concentrazioni di sali, ecc.) e biologiche in cui si svolge la vita. L'ambiente è un sistema aperto, capace di autoregolarsi e di mantenere un equilibrio dinamico, all'interno del quale si verificano scambi di energia e di informazioni. Esso include elementi non viventi (acqua, aria, minerali, energia) o "abiotici" ed elementi viventi o "biotici" tra i quali si distinguono organismi produttori (vegetali), consumatori (animali) e decompositori (funghi e batteri). Contesto nel quale l'organizzazione opera, comprendente l'aria, l'acqua, il terreno, le risorse naturali, la flora, la fauna, gli esseri umani e le loro interrelazioni. Il contesto si estende dall'interno di una organizzazione al sistema globale (UNI EN ISO 14001:1996).
Attestato di certificazione energetica di un edificio (APE).
L'Ape (attestazione di prestazione energetica) contiene la «targa energetica» che sintetizza le caratteristiche energetiche dell'immobile. Per misurarle, il tecnico deve analizzare le caratteristiche termo igrometriche, i consumi, la produzione di acqua calda, il raffrescamento e il riscaldamento degli ambienti, il tipo di impianto, eventuali sistemi di produzione di energia rinnovabile. L'attestato deve contenere anche i dati catastali dell'immobile. Nel caso si debba vendere la propria abitazione o stipulare un nuovo contratto di locazione per tovare un inquilino, i relativi annunci commerciali tramite tutti i mezzi di comunicazione devono riportare l'Indice di prestazione energetica (Ipe) dell'involucro edilizio e globale dell'edificio o dell'unità immobiliare e la classe energetica corrispodente, contenute nell'attestato di prestazione energetica. Poi, durante le trattative di compravendita o di locazione, venditori e locatori devono rendere disponibile al potenziale acquirente o al nuovo conduttore l'attestato di prestazione energetica. In caso di vendita l'attestato dovrà essere consegnato all'acquirente, così come in caso di locazione al conduttore. Il decreto 63/2013, poi convertito dalla legge 90/2013, ha introdotto l'Ape al posto del precedente Ace (attestato di certificazione energetica) e ha sanzionato di nullità, in caso di mancata allegazione dell'Ape, a far tempo dal 6 giugno 2013, tutti i contratti di compravendita immobiliare (e pure di ogni altro contratto traslativo di immobili a titolo oneroso: permuta, conferimento in società, transazione, rendita, eccetera); i contratti di donazione e ogni altro atto traslativo di immobili a titolo gratuito; i "nuovi" contratti di locazione (vale a dire non i contratti che siano una proroga di precedenti contratti).
Attestato di qualificazione energetica di un edificio
Documento predisposto ed asseverato da un professionista abilitato, non necessariamente estraneo alla proprietà, alla progettazione o alla realizzazione dell’edificio, attestante la prestazione energetica dell’edificio e comprendente anche l’indicazione di possibili interventi migliorativi delle prestazioni energetiche. Sul frontespizio è indicato che il documento non costituisce attestato di certificazione energetica dell’edificio, ed è dichiarato il ruolo ricoperto dall’estensore con riferimento all’edificio. L’attestato di qualificazione energetica sostituisce l’attestato di certificazione energetica fino alla data di entrata in vigore delle Linee guida nazionali per la certificazione energetica degli edifici, di cui all’articolo 6, comma 9, del D.Lgs 192/05.
Attestazione di certificazione energetica, ACE
Vedi articolo dettagliato.
Autoproduttore
La persona fisica o giuridica che produce energia elettrica e la utilizza in misura non inferiore al 70% annuo per uso proprio ovvero per uso delle società controllate, della società controllante e delle società controllate dalla medesima controllante, nonché per uso dei soci delle società cooperative di produzione e distribuzione dell'energia elettrica (vedi art. 4, num. 8, legge 6 dicembre 1962, n. 1643) degli appartenenti ai consorzi o società consortili costituiti per la produzione di energia elettrica da fonti energetiche rinnovabili e per gli usi di fornitura autorizzati nei siti industriali anteriormente alla data di entrata in vigore del DL n.79 del 16.3.99.
Autorità per l’energia elettrica e il gas (AEEG)
Autorità indipendente di regolazione alla quale è affidata la funzione di garantire la promozione della concorrenza e dell’efficienza del settore elettrico e del gas, istituita ai sensi della legge 14 novembre 1995, n. 481.
Banda larga.
Nell'ambito della teoria dei segnali questo termine è usato per indicare i metodi che consentono a due o più segnali di condividere la stessa linea trasmissiva. Nella legislazione italiana ed europea manca una definizione ufficiale di banda larga. Tuttavia la Commissione europea usa il termine Banda larga in un'altra accezione cioè come sinonimo di connessione alla rete Internet più veloce di quella assicurata da un normale modem analogico. Essa è di fatto un concetto tipicamente relativo dei nuovi sistemi di telecomunicazione rispetto ai precedenti oppure assoluto se si paragonano tra loro i più evoluti sistemi di telecomunicazione (es. wireless o cablati). In questo senso la più tipica banda larga sarebbe quella assicurata dalla connessione tramite fibre ottiche. Pur tuttavia con tale espressione si può intendere anche la banda dei sistemi mobili di telecomunicazioni (es. cellulari e smartphone) di terza generazione (3G) con accesso alla rete Internet rispetto a quelli di seconda generazione (2G) (wireless broadband o banda larga radiomobile), i quali tutti hanno comunque un'ampiezza di banda inferiore rispetto alle reti cablate in fibra ottica specie in un contesto di banda totale condivisa tra molti utenti. In tale accezione l'evoluzione dei sistemi cablati viaggia ora verso la cosiddetta banda ultralarga (ultrabroadband) grazie all'avvento delle tecnologie 4G. Vedi articolo.
Bassa tensione (BT)
Tensione nominale tra le fasi elettriche uguale o inferiore a 1kV.
Batteria ricaricabile
La batteria ricaricabile è una batteria la cui carica può essere completamente ristabilita mediante l'applicazione di un'adeguata energia elettrica. Ne esistono di vari tipi, con diverse capacità elettriche, differenti composizioni chimiche, forma e dimensioni. Sono anche conosciute come pile secondarie, cellule secondarie o accumulatori (abbr. accu/akku). Tentare di ricaricare batterie non-ricaricabili (primarie) può provocare un pericoloso surriscaldamento dell'elettrolita fino a provocarne la fuoriuscita o l'esplosione. Alcuni tipi di batterie ricaricabili sono suscettibili di danni dovuti ad una scarica completa (Pb, Li-ion) mentre altre devono essere ciclicamente scaricate onde evitare un rapido degrado delle prestazioni (effetto memoria in inglese lazy battery, isteresi).
Batteria litio-ione
Il tipo di batteria ricaricabile noto come accumulatore litio-ione (a volte abbreviato Li-Ion) è un tipo di batteria ricaricabile comunemente impiegato nell' elettronica di consumo. È attualmente uno dei tipi più diffusi di batteria per laptop e telefono cellulare, con uno dei migliori rapporti potenza-peso, nessun effetto memoria ed una lenta perdita della carica quando non è in uso. Tali batterie possono essere pericolose se impiegate impropriamente e se vengono danneggiate, e comunque, a meno che non vengano trattate con cura, si assume che possano avere una vita utile più corta rispetto ad altri tipi di batteria. Una versione più avanzata della batteria litio-ione è l'accumulatore litio-polimero.Vantaggi. Le batterie al litio-ione possono essere costruite in una vasta gamma di forme e dimensioni, in modo da riempire efficientemente gli spazi disponibili nei dispositivi che le utilizzano. Tali batterie sono anche più leggere delle equivalenti fabbricate con altri componenti chimici - spesso molto più leggere. Questo perché gli ioni di litio hanno una densità di carica molto elevata - la più alta di tutti gli ioni che si sviluppano naturalmente. Gli ioni di Li sono piccoli e mobili, ma stoccabili più prontamente di quelli di idrogeno. Inoltre una batteria basata sul litio è più piccola di una con elementi di idrogeno, come le batterie all'idruro metallico di nichel, e con meno gas volatili. Gli ioni necessitano di meno intermediari per l'immagazzinaggio, cosicché più peso della batteria è utilizzabile per la carica, invece che per l'overhead. Le batterie Li-ion non soffrono dell'effetto memoria. Hanno anche un basso ritmo di auto-scarica approssimativamente del 5% mensile, paragonato all'oltre 30% mensile e 20% mensile in batterie all'idruro metallico di nichel e al nichel-cadmio, rispettivamente. In effetti, le batterie Li-Ion (in particolare le batterie al Li-Ion "stupide") non hanno processi di auto-scarica nel significato abituale della parola, ma soffrono di una lenta perdita permanente di capacità. D'altro canto, le pile al Li-Ion "intelligenti" si auto-scaricano lentamente, a causa del piccolo consumo del circuito di monitoraggio del voltaggio inserito in esse; questo consumo è la sorgente più importante di auto-scarica in queste batterie. Svantaggi. L'unico svantaggio della batteria al Li-Ion è che presenta un degrado progressivo anche se non viene utilizzata (durata di conservazione, in Inglese "Shelf Life"), a partire dal momento della fabbricazione, indipendentemente dal numero di cicli di carica/scarica. Questo svantaggio non è molto pubblicizzato. Ad un livello di carica del 100%, una tipica batteria Li-Ion per calcolatore portatile caricata al 25% e conservata a 25° C perderà irreversibilmente circa il 20% della sua capacità all'anno. Tuttavia la batteria di un computer portatile poco ventilato potrebbe venire esposta a temperature più alte, abbreviandone ulteriormente la durata. Questo tipo di degrado peggiora con l'aumento della temperatura di conservazione e dello stato di carica. Per questo gli accumulatori Li-Ion non sono adatti ad essere usati come fonte secondaria di energia: per questa applicazione sono più indicati gli accumulatori al piombo, o anche le batterie al Ni-MH. Siccome la potenza massima che può essere continuamente prelevata dalla batteria dipende dalla sua capacità, nei dispositivi che richiedono alta potenza (relativa alla capacità della batteria espressa in A·h), come computer portatili e videocamere, le batterie al Li-Ion spesso si guastano bruscamente anziché mostrare una graduale diminuzione della durata di uso dell'equipaggiamento. Al contrario, i dispositivi che richiedono bassa potenza, come i telefoni portatili, possono sfruttare l'intero ciclo di vita della batteria. Una pila al Li-Ion singola non va mai scaricata sotto una certa tensione, per evitare danni irreversibili. Di conseguenza tutti i sistemi che utilizzano batterie al Li-Ion sono equipaggiati con un circuito che spegne il sistema quando la batteria viene scaricata sotto la soglia predefinita. Dovrebbe dunque essere impossibile scaricare la batteria "profondamente" in un sistema progettato correttamente durante il normale uso. Questa è anche una delle ragioni per cui le pile al litio non vengono mai vendute da sole ai consumatori, ma solo come batterie finite progettate per adattarsi ad un sistema particolare. Quando il circuito di monitoraggio della tensione è montato all'interno della batteria (la cosiddetta "batteria intelligente") anziché come equipaggiamento esterno, consuma continuamente una piccola corrente dalla batteria anche quando non è in uso, la batteria non va a maggior ragione immagazzinata per lunghi periodi completamente scarica, per evitare danni permanenti. Le batterie Li-Ion non sono durature come quelle al nichel metal-idrato o al nichel-cadmio, e possono essere pericolose se se ne sbaglia l'utilizzo. Di solito sono anche più costose. Specifiche.

  • Densità specifica di energia: da 150 a 200 W·h/kg (da 540 a 720) kJ/kg)
  • Densità volumetrica di energia: da 250 a 530 W·h/L (da 900 a 1900 J/cm3)
  • Densità specifica di potenza: da 300 a 1500 W/kg (@ 20 secondi)


Una reazione chimica tipica della batteria al Li-Ion è come segue:

\mathrm{Li}_{\frac12} \mathrm{Co} \mathrm{O}_2 + \mathrm{Li}_{\frac12}\mathrm{C}_6 \leftrightarrow \mathrm{C}_6 + \mathrm{Li}\mathrm{Co}\mathrm{O}_2


Le batterie agli ioni di litio hanno una tensione di circuito aperto nominale di 3.6 V e una tensione di ricarica tipica di 4.2 V. La procedura di ricarica è a tensione costante con limite di corrente. Questo significa caricare con corrente costante finché una tensione di 4.2 V viene raggiunta dalla pila e continua con tensione costante finché la corrente diventa nulla o quasi. (Tipicamente la carica viene terminata al 7% della corrente iniziale di carica). Le vecchie batterie agli ioni di litio non potevano essere caricate velocemente e necessitavano tipicamente di almeno 2 ore per ricaricarsi completamente. Le pile della generazione attuale si ricaricano completamente in 45 minuti o meno; alcune raggiungono il 90% di carica in appena 10 minuti. Il design interno delle pile a ione di litio è come segue. L'anodo è fatto con carbonio, il catodo è un ossido metallico, e l'elettrolita è un sale di litio in solvente organico. Poiché il metallo di litio, che potrebbe essere prodotto in condizioni irregolari di ricarica, è molto reattivo e può causare esplosioni, le pile agli ioni di litio solitamente hanno incorporati circuiti elettronici protettivi e/o fusibili per evitare l'inversione di polarità, sovraccarichi di tensione e surriscaldamento.
Batteria nichel cadmio
La batteria nota come accumulatore nichel-cadmio (comunemente abbreviata NiCd) è un tipo molto popolare di accumulatore ricaricabile, usato spesso in apparecchi portatili dell'elettronica di consumo ed in giocattoli, ed impiega i metalli nichel (Ni) e cadmio (Cd) come reagenti chimici. L'abbreviazione NiCad è un marchio registrato della SAFT Corporation e non dovrebbe essere utilizzato per riferirsi genericamente alle batterie nichel-cadmio. Spesso vengono impiegate come un rimpiazzo delle celle primarie, come batterie per l'alto carico (heavy duty) oppure per sostituire le batterie alcaline, che sono spesso disponibili in molte delle stesse misure delle pile standard. Inoltre, le batterie NiCd hanno un mercato di nicchia nell'area dei telefoni cordless (senza cordone, come il DECT) e wireless (senza fili), nell'illuminazione di emergenza, così come in molti tipi di utensile elettrico di potenza. Le batterie NiCd contengono un elettrodo positivo di idrossido di nichel, un elettrodo negativo di idrossido di cadmio, un separatore e un elettrolita alcalino. Le batterie NiCd di solito hanno un contenitore di metallo con una placca sigillante con una valvola di sicurezza auto-sigillante. Gli elettrodi, isolati da ogni altra cosa tramite il separatore, sono arrotolati a spirale dentro al contenitore. La reazione chimica che avviene in una batteria NiCd è:

2 NiO(OH) + Cd + 2 H_{2}O \leftrightarrow 2 Ni(OH)_2 + Cd(OH)_2

Questa reazione va da sinistra a destra quando la batteria viene scaricata e da destra a sinistra quando viene ricaricata. L'elettrolita alcalino (di solito KOH) non viene consumato in questa reazione. Quando Jungner costruì le prime batterie nickel-cadmio, usò l'ossido di nickel nel catodo e ferro e cadmio nell'anodo. Non molto dopo iniziarono ad essere impiegati cadmio puro e idrossido di nichel. Fino al 1960 circa, la reazione nelle batterie al nickel-cadmio non era ancora totalmente chiara.C'erano numerosi aspetti da conoscere a fondo , come ad esempio i prodotti della reazione. There were several speculations as to the reaction products. Il dibattito fu definitivamente risolto dalla spettrometria. Un'altra innovazione importante alla base delle pile NiCd fu l'aggiunta di idrossido di litio all'elettrolita idrossido di potassio. Si credeva in questo modo di poter rendere le batterie più resistenti, prolungando quindi la vita media delle batterie. Tuttavia la batteria al nickel-cadmio nella sua forma moderna è estremamente resistente di per sé,pertanto questa pratica è stata abbandonata. Il sovraccaricamento fa ormai parte della progettazione stessa delle pile. Nel caso delle NiCd, ci sono due possibili effetti del sovraccaricamento. Se l'anodo è sovraccaricato, si produce idrogeno; se il catodo è sovraccaricato, si produce ossigeno. Per questo motivo, l'anodo è sempre progettato per avere una capacità più alta del catodo, per evitare il rilascio di idrogeno.Le batterie a nichel-cadmio sono ventilate,con delle valvole che si aprono oltrepassata una certa temperatura interna. Questo meccanismo complesso, non necessario nelle batterie alcaline, contribuisce al loro costo più elevato. Le batterie NiCd contengono cadmio, che è un metallo pesante tossico e quindi richiede attenzione speciale durante il suo smaltimento. Negli Stati Uniti infatti, parte del prezzo di una batteria NiCd serve allo smaltimento della stessa alla fine del suo ciclo di vita.
Becquerel
Il becquerel (simbolo Bq) è l'unità di misura del Sistema internazionale dell'attività di un radionuclide (spesso chiamata radioattività), ed è definita come l'attività di un radionuclide che ha un decadimento al secondo. Perciò dimensionalmente equivale a s-1. 1Bq equivale ad 1 disintegrazione al secondo. Equivalenze rispetto alle vecchie unità:
1 Rd = 106 Bq = 1 MBq
1 Bq = 2,7×10-11 Ci = 27 picocurie (quindi 1 [Ci] = 3,7 1010 [Bq]).
Il becquerel deve il suo nome a Antoine Henri Becquerel, che nel 1903 vinse il premio Nobel insieme a Marie Curie e Pierre Curie per il loro pionieristico lavoro sulla radioattività.
Big bang
Vedi articolo I Vedi articolo II
Bilanciamento
Il bilanciamento è il servizio svolto dal GRTN per consentire il mantenimento dell'equilibrio tra immissioni e prelievi di energia elettrica sulla rete nazionale. La disciplina del bilanciamento si applica ai clienti finali idonei, i quali sono tenuti a stipulare, direttamente o mediante un soggetto delegato, un contratto per il bilanciamento con il Gestore della Rete.
Biogas
Con il termine biogas si intende una miscela di vari tipi di gas (per la maggior parte metano, dal 50 al 80%) prodotto dalla fermentazione batterica in anaerobiosi (assenza di ossigeno) dei residui organici provenienti da rifiuti, vegetali in decomposizione, carcasse in putrescenza, liquami zootecnici o di fognatura. L'intero processo vede la decomposizione del materiale organico da parte di alcuni tipi di batteri, producendo anidride carbonica, idrogeno molecolare e metano (metanizzazione dei composti organici). Il biogas si forma spontaneamente negli accumuli di materiale organico. Le discariche di rifiuti urbani ne sono quindi grandi produttori, visto che normalmente il 30-40% del rifiuto è appunto materiale organico; tale gas deve essere captato per evitarne la diffusione nell'ambiente. A titolo di esempio, da una discarica di circa 1.000.000 di metri cubi che cresce di 60.000 mc ogni anno, si possono estrarre quasi 5,5 milioni di metri cubi di biogas all'anno (oltre 600 mc ogni ora). Sono state sviluppate tecnologie ed impianti specifici che, tramite l'utilizzo di batteri in appositi "fermentatori" chiusi (da non confondere con gassificatori e rigassificatori), sono in grado di estrarre grandi quantità di biogas dai rifiuti organici urbani e dal letame prodotto dagli allevamenti intensivi, o anche dai liquami di fognatura. Il gas metano prodotto in questo processo può essere quindi utilizzato per la combustione in caldaie da riscaldamento o nei motori a scoppio, producenndo calore e/o elettricità. Esistono varie tipologie di impianti di produzione di biogas indirizzati a trattare matrici organiche differenti, liquide o solide. Caratteristiche principali di un impianto sono il sistema di miscelazione matrici all'interno del fermentatore/digestore, il caricatore di matrici solide così come il sistema di filtrazione del biogas prodotto. Gli impianti di biogas idonei al trattamento di matrici prevalentemente solide sono chiamati "a secco" e cioè non hanno bisogno di liquami per il loro funzionamento. In questo caso l'acqua necessaria al processo è legata all'umidità del materiale utilizzato per alimentare l'impianto. Il gas metano prodotto in questo processo può essere quindi utilizzato per la combustione in caldaie da riscaldamento o nei motori a scoppio. Quest'ultima applicazione ha trovato buon successo in Paesi del centro Europa quali Svizzera, Germania, Svezia ecc., e in via sperimentale anche in Italia.
Biomassa
Le fonti di energia da biomassa sono costituite dalle sostanze di origine animale e vegetale, non fossili, che possono essere usate come combustibili per la produzione di energia. Alcune fonti come la legna non necessitano di subire trattamenti; altre come gli scarti vegetali o i rifiuti urbani devono essere processate in un digestore. Dalla fermentazione dei vegetali ricchi di zuccheri, come canna da zucchero, barbabietole e mais, spesso prodotti in quantità superiori al fabbisogno, si può ricavare l'etanolo o alcool etilico, che può essere utilizzato come combustibile per i motori a scoppio, in sostituzione della benzina. Dalle oleaginose (quali girasole, colza, soia) si può ottenere per spremitura il cosiddetto biodiesel. Tramite opportuno procedimento è inoltre possibile trasformare le biomasse di qualsiasi natura in BTL (Biomass to liquid), un biodiesel, ottenuto appunto da materiale organico di scarto o prodotto appositamente con colture dedicate. Lo sfruttamento di nessuna di queste fonti può comunque prescindere da valutazioni sull'EROEI complessivo, ossia sul rapporto tra energia ottenuta ed energia impiegata nella produzione. Per un approfondimento sulle biomasse vedi articolo.
Bonifiche.
La bonifica di territori e di aree industriali può avere ricadute economiche positive. Vedi articolo.
Borsa elettrica
Luogo virtuale in cui avviene l’incontro tra domanda e offerta per la compravendita dell’energia elettrica all’ingrosso. La gestione economica della borsa elettrica è affidata al GME ai sensi dell’art. 5 del d.lgs. 79/99.
Bosone di Higgs
Vedi articolo.
Buco di tensione
Diminuzione improvvisa della tensione di alimentazione all’utenza ad un valore compreso tra il 90 % e l’1 % della tensione nominale per un periodo di tempo superiore a 10 millisecondi ed inferiore o uguale a 1 minuto.
BWR
Vedi, Reattore nucleare a fissione.
Caldaia
Caldaia è un termine che definisce vari tipi di macchine termiche :

  • I generatori di vapore, destinati alla produzione di vapore, generalmente acqueo;
  • Le caldaie per riscaldamento, destinate al trasferimento del calore dal combustibile all'ambiente domestico


Campo elettrico
Il campo elettrico è un campo vettoriale. Una certa zona dello spazio è sede di un campo elettrico, quando in essa agiscono azioni meccaniche di "attrazione" o "repulsione", tra le cariche elettriche presenti nella zona stessa. Dati alcuni fatti sperimentali come l'attrazione e la repulsione tra sostanze trattate in maniera opportuna (per esempio per strofinìo), si sono definiti due stati di elettrizzazione della materia: positiva e negativa. Corpi elettrizzati entrambi positivamente o entrambi negativamente si respingono mentre corpi elettrizzati in modo opposto si attraggono. Per riconoscere lo stato di elettrizzazione di un corpo si usa uno strumento chiamato elettroscopio a foglie, costituito da un'ampolla di vetro nella quale è inserita un'asta metallica la quale, all'interno dell'ampolla, ha due linguette metalliche molto sottili, mentre all'esterno essa può essere messa a contatto con un corpo carico. Mettendo a contatto un corpo carico a esempio positivamente con l'asta, si nota facilmente come le linguette (giustappunto chiamate foglie) si allontanano l'una dall'altra, in proporzione all'elettrizzazione del corpo che è stato messo a contatto e in opposizione al loro peso che tende a farle ricadere verso il basso. Questo dimostra soprattutto come l'elettrizzazione del corpo si "trasferisca" alle foglie dell'elettroscopio. Si parla di quantità di carica o di quantità di elettricità trasferita. Questa grandezza fisica è una misura quantitativa dello stato di elettrizzazione della materia. Mettendo a contatto un corpo carico (cioè elettrizzato, in qualche modo) con un corpo non carico, quello che succede è semplicemente che una certa quantità di carica si trasferisce all'altro corpo. Tutto ciò è dovuto alla natura microscopica della materia e in particolare alle proprietà dei componenti fondamentali dell'atomo. Infatti ogni atomo è composto dal nucleo ove risiedono protoni e neutroni e da una zona esterna dove si trovano gli elettroni. In condizioni normali un atomo è neutro, cioè ha lo stesso numero di elettroni e protoni. Per quantificare la carica elettrica si prende allora la carica più piccola esistente in natura, quella dell'elettrone che è negativa e pari a e = 1,602 189 2 ∙ 10-19 C, uguale ed opposta a quella del protone, dove C è l'unità di misura della carica chiamata coulomb nel SI. Il neutrone non possiede carica elettrica. Così un corpo carico elettricamente di una certa carica Q, ha in effetti una carica data da un numero intero di volte la carica elementare, se negativa: -Q = ne; vale inoltre il principio di conservazione della carica elettrica, secondo il quale in un sistema isolato, la somma algebrica delle cariche elettriche è costante. Importante notare che la presenza di carica negativa in un corpo è dovuta all'eccesso di elettroni che si trasferiscono a questo corpo, viceversa, la presenza di carica positiva è dovuta a difetto di elettroni e non al trasferimento di protoni. Questo è anche il motivo per cui l'asta dell'elettroscopio è isolata dall'ampolla di vetro, altrimenti gli elettroni si trasferirebbero anche sul vetro, producendo un effetto minimo se non nullo sulle foglie. A partire da questi fatti sperimentali Coulomb formulò la sua famosa Legge di Coulomb, quantificando la forza elettrica attrattiva o repulsiva che due corpi puntiformi carichi elettricamente si scambiano a distanza. Questa legge fondamentale è il punto di partenza di tutta la teoria dell'elettricità e dell'elettrostatica, che permette di introdurre il concetto di campo elettrico. Un corpo carico elettricamente produce nello spazio circostante (al limite in tutto lo spazio circostante), la presenza di un nuovo stato di cose: se introduciamo un'altra carica elettrica, questa risente l'effetto di una forza , appunto la forza elettrica o forza di Coulomb, che segue la legge di Coulomb, cioè essa è direttamente proporzionale al prodotto delle due cariche e inversamente proporzionale al quadrato della loro distanza. Questo stato di cose è quello che si chiama campo elettrico, che è un campo vettoriale di forze. Se nello spazio poniamo una carica eettrica Q possiamo determinare la forza che produce su una carica molto piccola posta nelle vicinanze detta carica di prova q0. Come si vede dall'esperienza, tale forza è proporzionale alla carica elettrica di prova q0; è quindi logico definire il vettore campo elettrico E in un punto, come il rapporto tra la forza elettrica generata dalla carica Q e il valore della carica di prova stessa; questo rapporto rende indipendente il campo dalla particolare carica di prova usata:

\mathbf E = \frac {\mathbf F} {q_0}

(Dalla definizione si ricava che l'unità di misura del campo elettrico è \frac{N}{C}, cioè newton/coulomb. Essa equivale anche a \frac{V}{m}, cioè volt/metro). Il campo elettrico è un campo vettoriale rappresentato attraverso linee di campo, tangenti in ogni punto dello spazio alle superfici 'equi-potenziali', che sono più fitte intorno alla carica e si diradano all'aumentare della distanza. Se la carica considerata è positiva le linee di campo si dicono uscenti (si irradiano in tutte le direzioni a partire dalla carica) e la carica è definita sorgente; se la carica considerata è negativa le linee di campo sono dette entranti (sono dirette verso la carica) e la carica è definita pozzo.

Visto che il campo elettrico è il gradiente del potenziale

\mathbf{E}_0 = - \operatorname{grad} V_0 = - \nabla V_0

il potenziale è rappresentato attraverso un campo scalare caratterizzato da linee di livello a potenziale costante (dette per questo motivo superfici equipotenziali) perpendicolari alle linee di flusso del campo elettrico per definizione.
Campo fotovoltaico
Insieme di moduli fotovoltaici, connessi elettricamente tra loro e installati meccanicamente nella loro sede di funzionamento
Campo magnetico
E' un campo vettoriale: associa, cioè, ad ogni punto nello spazio un vettore che può variare nel tempo. L'effetto fisico di un campo magnetico si esplica in termini della forza di Lorentz subita da una carica elettrica in movimento attraverso, appunto, il campo. Sorgenti del campo magnetico sono le correnti elettriche. Storicamente gli effetti magnetici vengono scoperti grazie a magneti naturali che, allo stesso tempo, generano un campo magnetico e ne subiscono gli effetti per via delle correnti elettriche su scala atomica. La direzione del vettore campo è la direzione indicata dalla posizione d'equilibrio dell'ago di una bussola immersa nel campo. Il verso del vettore campo si determina con la regola della presa della mano destra. Il campo magnetico, solitamente indicato con il vettore B, storicamente era la densità di flusso magnetico o induzione magnetica, e H (=B/μ) era il campo magnetico: questa terminologia è oggi utilizzata per distinguere tra il campo magnetico nel vuoto (B) e quello in un materiale (H, con μ diversa dall'unità). L'unità di misura dell'induzione magnetica nel SI è il tesla. Lo strumento per la misura del campo magnetico è il magnetometro
CANDU
Vedi: Reattore nucleare a fissione
CAOS Teoria del
Vedi articolo
Capacità elettrica
La capacità elettrica è una grandezza fisica scalare che misura la quantità di carica elettrica accumulata da un condensatore in rapporto alla differenza di potenziale fra i suoi capi, secondo la formula

C = \frac Q V

dove C indica la capacità, Q la carica e V la differenza di potenziale. L'unità di misura della capacità elettrica nel Sistema internazionale di unità di misura è il farad, equivalente ad un coulomb al volt.
Carbone
Con il termine “carbone fossile” si intende qualsiasi sostanza costituita da resti vegetali, più o meno completamente fossilizzati secondo il processo di carbonizzazione, e che presenti la proprietà di combinarsi con l’ossigeno atmosferico con reazione fortemente esotermica (produzione di calore). In pratica, la carbonizzazione avviene per trasformazione delle sostanze organiche originali (legno o altri vegetali) secondo un processo che è inizialmente microbiologico e che poi prosegue, nel corso di millenni, attraverso complesse trasformazioni con il determinante intervento di fattori fisici, quali la pressione e la temperatura in assenza dell’azione ossidante dell’aria. Vi sono numerose tipologie di carboni fossili, caratterizzati da particolari proprietà fisiche e chimiche che rivestono grande importanza ai fini della loro utilizzazione pratica. I più noti sono la torba, la lignite, il litantrace (il “carbone” per antonomasia) e l’antracite (la varietà qualitativamente più pregiata). Il carbone fossile è stato utilizzato fin dall’antichità come combustibile. Numerose prove archeologiche ne testimoniano l’uso fin dall’Età del Bronzo, ma è a partire dal secolo XIX che il suo sfruttamento su larga scala imprime un’accelerazione decisiva al progresso industriale. Ancora oggi il carbone costituisce una delle fonti energetiche di primaria importanza su scala planetaria, soddisfacendo una quota superiore a un quarto dell’intera domanda mondiale di energia primaria e confermandosi come la seconda fonte di energia dopo il petrolio. Con una presenza diffusa in molte aree del mondo, il carbone soddisfa quasi il 45% del fabbisogno energetico complessivo dell’Asia e più del 50% di alcuni Paesi, tra cui Cina e India. Riveste inoltre una indiscussa importanza strategica, poiché, in base alle riserve accertate e ai previsti livelli di consumo, la sua disponibilità appare garantita per ancora alcuni secoli. La accresciuta domanda energetica degli ultimi anni ha portato a un incremento della quota di carbone sul totale del fabbisogno energetico mondiale. A ciò ha contribuito, da un lato, la crescita dei prezzi del petrolio e del gas naturale e, dall’altro, il recupero di competitività dell’industria carbonifera, che è riuscita a mantenere bassi i costi di produzione grazie a un continuo miglioramento delle tecnologie di estrazione e allo sfruttamento di miniere a cielo aperto. Nel campo della produzione di energia elettrica, l’utilizzo di tecnologie più evolute per il trattamento dei fumi ha ridotto notevolmente l’impatto ambientale delle centrali a carbone, che può essere oggi del tutto confrontabile con quello delle altre centrali termoelettriche. In Italia, l’unica risorsa carbonifera è concentrata in Sardegna, nel bacino del Sulcis. Si tratta però di minerale di scarsa qualità. Per tale motivo, oltre che per ragioni di economicità, il carbone viene quasi interamente importato. In ogni caso il suo contributo al fabbisogno di energia primaria nazionale è ancora relativamente modesto, pari a circa l’8%. In Europa circa un terzo dell’energia elettrica viene prodotta utilizzando il carbone come combustibile. Anche Paesi ad alta sensibilità ambientale come la Germania e la Danimarca usano il carbone per produrre una quota assai rilevante della loro elettricità.
Carbonio-14
Gli isotopi naturalmente presenti sulla terra sono C-12 (99%), C-13 ( meno dell'1%) e in tracce il C-14, isotopo radioattivo. Esso è presente in natura con un'abbondanza relativa di 1 parte su mille miliardi di tutto il carbonio presente in natura e ha un tempo di dimezzamento di 5.700 anni. La principale fonte di carbonio-14 sulla terra è la reazione tra i raggi cosmici e l'azoto gassoso presente nell'atmosfera (nella troposfera e nella stratosfera). L'inglobamento di neutroni termici da parte dell'azoto, forma un atomo di carbonio-14: N-14 + n > C-14 + p. La produzione maggiore di carbonio-14 avviene ad una quota tra i 9 km e i 15 km, e ad alte latitudini geomagnetiche. Il carbonio-14 così prodotto reagisce con l'ossigeno a dare anidride carbonica CO2-14 che viene riutilizzata dalle piante durante la fotosintesi. In questo modo il carbonio-14 si trasferisce nei composti organici e attraverso la rete alimentare è presente ovunque secondo un preciso rapporto. Essa penetra anche negli oceani, sciogliendosi nell'acqua. Il carbonio-14 è anche prodotto nel ghiaccio da neutroni che causano reazioni di spallazione nucleare nell'ossigeno. Grazie alla sua lunga emivita rispetto alla vita degli organismi viventi, il carbonio-14 rimane integrato in ogni sistema organico vivente. Dopo la morte, l'organismo smette di assumere carbonio-14. La quantità dell'isotopo presente nell'organismo nell'istante della sua morte, andrà via via affievolendosi negli anni a causa del decadimento radioattivo. Questo principio è sfruttato nella datazione radiometrica di campioni organici, tecnica con la quale si misura la quantità residua di carbonio-14 presente in un reperto archeologico organico (come un fossile o una struttura in legno): conoscendo la curva di decadimento e la quantità iniziale di carbonio-14 presente nel reperto quando la sua struttura organica era ancora vitale (ovvero un istante prima di morire), si può facilmente stabilire quanti anni sono trascorsi dalla morte dell'organismo. In generale, è possibile radiodatare solo reperti risalenti fino a 40.000 - 60.000 anni fa. La maggior parte dei prodotti chimici prodotti dall'Uomo sono ottenuti a partire da combustibili fossili come il petrolio o il carbone, dove il carbonio-14 è decaduto. La presenza di tracce isotopiche di carbonio-14 in un campione di materiale carbonaceo indica quindi una possibile origine biogenica.
Casa passiva
La casa passiva (Passivhaus secondo il termine originale di lingua tedesca, passive house in lingua inglese) è un'abitazione che assicura il benessere termico senza alcun impianto di riscaldamento "convenzionale", ossia caldaia e termosifoni o sistemi analoghi. La casa è detta passiva perché la somma degli apporti passivi di calore dell'irraggiamento solare trasmessi dalle finestre e il calore generato internamente all'edificio da elettrodomestici e dagli occupanti stessi sono quasi sufficienti a compensare le perdite dell'involucro durante la stagione fredda. Edifici passivi possono essere realizzati in ogni materiale di costruzione: legno strutturale, mattone, cemento armato. L'energia necessaria a pareggiare il bilancio termico dell'edificio è tipicamente fornita con sistemi non convenzionali (es. pannelli solari o pompa di calore per riscaldare l'aria dell'impianto di ventilazione controllata a recupero energetico). L'impianto di riscaldamento convenzionale si può eliminare se il fabbisogno energetico della casa è molto basso, convenzionalmente inferiore a 15 kWh al m² anno. Queste prestazioni si ottengono con una progettazione molto attenta, specie nei riguardi del sole, con l'adozione di isolamento termico ad altissime prestazioni su murature perimetrali, tetto e superfici vetrate e mediante l'adozione di sistemi di ventilazione controllata a recupero energetico.
Cassa conguaglio per il settore elettrico
E’ un organismo istituito nel 1961, in conseguenza della decisione del CIP (Comitato Interministeriale Prezzi) di creare un meccanismo di perequazione al momento dell'introduzione della tariffa unica nazionale.
Cella fotovoltaica
La cella fotovoltaica è l'elemento base nella costruzione di un modulo fotovoltaico (vedi voce), ma può venire anche impiegata singolarmente in usi specifici. La versione più diffusa di cella fotovoltaica, quella in materiale cristallino, è costituita da una lamina di materiale semiconduttore, il più diffuso dei quali è il silicio, e si presenta in genere di colore nero o blu e con dimensioni variabili dai 4 ai 6 pollici. Piccoli esemplari di celle fotovoltaiche in materiale amorfo sono in grado di alimentare autonomamente dispositivi elettronici di consumo, quali calcolatrici, orologi e simili. Analogamente al modulo, il rendimento della cella fotovoltaica si ottiene valutando il rapporto tra l'energia prodotta dalla cella e l'energia luminosa che investe l'intera sua superficie. Valori tipici per gli esemplari in silicio cristallino comunemente disponibili sul mercato si attestano attorno al 15%. Vedi modulo fotovoltaico.

I sistemi fotovoltaici attualmente in uso si basano su celle realizzate con silicio cristallino, uno degli elementi più comuni sulla crosta terrestre. Abbonda, ad esempio, nella sabbia, comunemente costituita da ossido di silicio sotto forma sia cristallina sia amorfa.
L’elevato costo delle celle non è quindi dovuto alla materia prima, la silice, ma al processo di lavorazione necessario ad ottenere un prodotto puro, in grado di manifestare proprietà di semiconduttore. La sabbia (SiO2), viene trasformata (mediante riduzione con carbonio, in un forno ad arco e a temperature superiori a quelle di fusione del silicio elementare) in silicio “metallurgico”, liquido, che viene raffreddato a formare i lingotti di grado industriale. Il prodotto, ottenuto a bassi costi, presenta tuttavia elevate impurità e non risulta idoneo né agli usi elettronici né alla produzione di celle fotovoltaiche. Si procede quindi ad una fase di purificazione, che viene realizzata trasformando il silicio metallurgico in triclorosilano gassoso. La purificazione viene eseguita mediante distillazione frazionata in reattore a letto fluido, ove viene diffuso acido cloridrico (HCl) con conseguente formazione separata di triclorosilano, idrogeno molecolare e altre sostanze. A questo punto il triclorosilano aeriforme viene filtrato e fatto reagire (in un secondo reattore) con l’idrogeno molecolare. Il silicio policristallino che si forma é purissimo e viene depositato lentamente sopra sbarre, anch’esse di silicio puro. La temperatura raggiunta in entrambi i reattori è superiore ai 1.100 °C ed il costo energetico è notevole. Questo è il materiale base dell’industria elettronica. Nel caso si voglia ottenere silicio monocristallino si deve procedere ad una nuova fusione a radiofrequenza del silicio policristallino. Nel materiale nuovamente fuso si inserisce quindi un cristallo di silicio monocristallino, che funge da “seme” per il successivo “tiraggio” e accrescimento di lingotti monocristallini lunghi circa un metro e larghi 10 cm. Il principio di crescita dei cristalli è molto semplice, ma, oltre ad avere anch’esso costi energetici rilevanti, richiede una specifica linea di produzione con acquisizione di macchinari complessi. È questo il motivo per cui i lingotti monocristallini costano circa il doppio rispetto a quelli policristallini. Per la produzione di celle fotovoltaiche si parte da una miscela di scarti dell’industria elettronica (teste e code di cilindri, dischi cilindrici venuti male, scarti rimasti nel crogiolo, scarti di lavorazioni eccetera) tenendo presente che la cella fotovoltaica dovrà essere costituita da una fetta di silicio di cui una delle due facce è “drogata” con atomi di boro e l’altra faccia con atomi di fosforo. Infatti è nella zona di contatto tra i due strati a diverso drogaggio che si determina il campo elettrico che, quando la cella è esposta alla luce, determina il flusso di elettroni sotto forma di corrente continua. La miscela di scarti silicio viene dunque sottoposta a specifici lavaggi e quindi caricata in un crogiolo di quarzo cui sono aggiunti parti di boro per ottenere pani di silicio cosiddetti di tipo p. Il crogiolo viene inserito in un forno miscelatore a radio frequenza dove è sottoposto a un ciclo di lavorazione di 52 ore, con temperature altissime (1.560 °C). Dopo la fusione del silicio, il crogiolo viene sottoposto a un movimento elicoidale diretto verso il basso che porta, per raffreddamento, alla formazione di pani di silicio mono o poli-cristallino (a seconda del materiale di partenza). Il pane di silicio, così formato, viene adagiato sopra un supporto metallico ed inserito in una macchina per l'esecuzione del taglio. La macchina taglierà il pane in lingotti con una sega circolare a denti di diamante: si tratta di un processo complesso nel quale viene perduto circa il 30% del silicio originario. I lingotti così ottenuti vengono nuovamente lavati, incollati su una piastra di vetro ed inseriti in una macchina affettatrice per procedere all'operazione di taglio delle fette (wafer) per mezzo di un filo d'acciaio. I wafer prodotti, presentano tuttavia superfici irregolari, per cui, dopo un ulteriore lavaggio, vengono sottoposti a levigazione. L'operazione successiva è il trattamento antiriflesso che viene eseguito immergendo le fette in una soluzione debole di idrossido di sodio (NaOH) ed alcol isopropilico. La soluzione corrode lentamente la superficie delle fette e forma sui cristalli delle microscopiche piramidi che impediranno parzialmente la riflessione. A questo punto della lavorazione i wafer sono interamente di tipo p. La fase successiva prevede la realizzazione della giunzione p – n , e, a tale scopo, si copre una delle due facce dei singoli wafer, che vengono introdotti in un forno e bagnati con vapori di fosforo alla temperatura di 600°C. Regolando le temperature, il fosforo condensa sulla superficie del silicio e viene assorbito gradualmente sostituendo tutti gli atomi di boro precedentemente inseriti. In tal modo si “droga” con fosforo uno strato di circa 0,3 micron di tipo n. Infine si effettua una ulteriore operazione di pulizia chimica, cui segue il decapaggio, per eliminare le giunzioni parassite lungo lo spessore perimetrale delle fette. I wafer così ottenuti sono finalmente pronti muniti dei contatti metallici necessari a raccogliere l’energia elettrica generata e a inviarla all’esterno. Il procedimento avviene per serigrafia, dapprima sul lato del wafer da esporre alla luce (lato n), ove si realizza una griglia di pasta di argento a maglie larghe e di elevata trasparenza alla luce incidente. La serigrafia sul lato p, non esposto alla luce, si esegue invece con una lamina piana e con una pasta a base di alluminio. I contatti metallici vengono asciugati in un forno ad infrarossi che fa evaporare la matrice organica delle paste e compatta i grani metallici disciolti normalizzando le tensioni con il supporto. L'ultimo trattamento è rappresentato dall'esecuzione di una seconda operazione antiriflesso a base di biossido di titanio, che tra l’altro conferisce una colorazione azzurrina alle fette. Il ciclo di produzione viene concluso con la misura delle caratteristiche elettriche della cella che classifica ognuna di esse per categoria d'efficienza. La cella così costruita rappresenta l'unità base di un pannello fotovoltaico che viene realizzato assemblando insieme più celle. In figura è mostrata una cella di silicio monocristallino

Cella fotovoltaica
Cella fotovoltaica a film sottile In sostituzione della cella costituita da un wafer di silicio drogato è entrata sul mercato la tecnologia del film sottile. Attualmente diversi material sono in competizione per i film sottili: a-Si (silicio amorfo). Giova notare che il silicio amorfo assorbe la luce molto più efficacemente del silicio cristallino, per questo motivo lo spessore della cella in a-Si può essere cento volte minore dello spessore della cella in Si cristallino; a-Si/µ-Si (giunzione ibrida silicio amorfo/ silicio microcristallino). I due materiali, entrambi semiconduttori, hanno caratteristiche complementari rispetto all’assorbimento della radiazione solare; CIS (rame, indio, diseleniuro); CdTe (tellururo di cadmio).
Centrale a gas
Una centrale a gas è una centrale termoelettrica in cui il fluido di lavoro è un gas, generalmente aria, che compie un particolare ciclo termodinamico denominato Joule. Il cuore di questo tipo di centrale è una particolare macchina motrice denominata turbogas, composta da un compressore, una camera o sistema di combustione e una turbina. Il combustibile più utilizzato in questo tipo di centrale è il gas naturale. Le centrali di questo tipo possono essere semplici, combinate o cogenerative.
Centrale elettrica
Una centrale elettrica è un impianto industriale atto alla produzione di energia elettrica. La società moderna si basa in maniera imprescindibile sull'uso dell'energia elettrica, perciò la produzione di tale energia e, conseguentemente, le centrali elettriche hanno un'importanza tecnologica e strategica fondamentale. Le centrali elettriche odierne producono energia quasi esclusivamente in corrente alternata avvalendosi di macchine elettriche denominate alternatori. Esistono eccezioni in Russia, dove, per problemi di perdite su elettrodotti estremamente lunghi, sono state create centrali elettriche in corrente continua. Le centrali elettriche si caratterizzano principalmente per due aspetti che sono spesso legati fra loro ovvero la potenza, cioè l'energia per unità di tempo che una centrale è in grado di erogare e il tipo di combustibile o altro sistema energetico in ingresso che convertito consenta di ottenere energia elettrica. La produzione di elettricità da combustibili fossili (petrolio, gas naturale, carbone) non è una fonte rinnovabile dal momento che le riserve di combustibile sono limitate. Si può però ricavare energia termica anche da altre fonti di calore, e cioè dalle fonti energetiche rinnovabili come il calore terrestre (centrali geotermiche) e quello solare (centrali solari) oppure attraverso l'utilizzo dell'energia nucleare (centrali nucleari).
Centrale eolica
Le centrali eoliche sono centrali che sfruttano la velocità del vento per la produzione di energia elettrica. Il principio di funzionamento è abbastanza semplice, il modulo base di una centrale eolica è il generatore eolico. Questa apparecchiatura è composta da un'elica (o al limite una singola pala) collegata ad un albero alla quale è calettato il generatore di corrente. L'elica e il generatore sono normalmente posti ad altezze elevate in modo da essere attraversati dai venti, venti che mettendo in rotazione l'elica azionano il generatore che produce così energia. I generatori eolici possono essere di varie dimensioni ed essere utilizzati sia per un uso domestico rurale o in centrali normalmente composte di numerosi generatori. Le potenze di tali generatori variano dalle centinaia di W alle centinaia di kW. Vantaggi. Come per le centrali solari quelle eoliche non hanno residui, scorie o altri sottoprodotti. Il vento è gratis, quindi l'unica spesa è l'installazione e la manutenzione. Le centrali eoliche hanno un costo di costruzione abbastanza contenuto, 500.000 euro per un aerogeneratore da 1 MW, il quale tende però a lievitare in modo enorme per impianti di dimensioni adeguate alla produzione industriale. A terra occupa meno di 100 metri quadri, quindi non toglie la possibilità di continuare le precedenti attività su quel terreno (es. pastorizia, colture, ...). Svantaggi. Le centrali eoliche per produrre quantità di energia apprezzabili devono essere costituite da un numero consistente di generatori eolici, che devono essere distanziati per poter sfruttare il vento e per evitare un affollamento che sarebbe sgradevole. Inoltre, la disponibilità produttiva è molto bassa (14,5%) a causa della discontinuità del vento e, dunque, a parità di potenza nominale installata, una centrale eolica produce un sesto di una centrale nucleare ed un quinto di una centrale a gas, richiedendo in compensazione, dunque, un sovradimensionamento ed un sovracosto pari a 6 volte quello nominale per ottenere le stesse prestazioni effettive. Si possono installare solo dove c'è abbastanza vento e sono degli impianti moderatamente rumorosi; la loro pericolosità per i rapaci, naturalmente attratti dal rumore, è enorme e modificazioni della resistenza aerodinamica dei suoli possono condurre ad alterazioni permanenti della ventosità, con contraccolpi sull'ambiente. Un esempio è il caso di Los Angeles, città la cui attuale bassa ventilazione, e il conseguente permanere dello smog, è probabilmente dovuta all'installazione di grandi impianti eolici nelle gole attraverso le quali il vento arrivava alla città che hanno provocato l'innalzamento delle correnti eoliche e lo scavalcamento della città da parte dei venti. Possibili miglioramenti. Vi sono nuove tecniche che permettono di installare aerogeneratori anche dove, fino a qualche tempo fa, non era pensabile. Sono state create nuove forme per le pale degli aerogeneratori, per limitare l'ingombro, sono stati creati alberi di trasmissione lenti, in modo da limitare notevolmente l'inquinamento acustico, e vi sono vari incentivi che permettono di ammortizzare il costo nel giro di pochissimi anni.La figura mostra una centrale eolica tedesca.

Centrale eolica
Centrale fotovoltaica
Le centrali basate su pannelli fotovoltaici convertono direttamente l'energia solare in corrente elettrica sfruttando l'effetto fotovoltaico. Sebbene tale tecnologia risulti da tempo già affermata in ambito aerospaziale, per applicazioni di utenze isolate o per altri utilizzi di nicchia, la realizzazione di centrali fotovoltaiche è oggi ancora in fase di studio o prototipale. Attualmente, un'installazione fotovoltaica è conveniente per utenze private o per piccole e medie imprese, che, in questo modo, possono rivendere energia all'azienda elettrica e ridurre il costo energetico; negli ultimi anni, le nuove celle fotovoltaiche basate sul silicio amorfo (o polisilicio) hanno drasticamente ridotto il prezzo dei pannelli, rendendo maggiormente conveniente l'investimento iniziale. Vantaggi. Questo tipo di centrali richiede una bassa manutenzione dato che non sono dotate di complessi impianti ma solamente dei pannelli fotovoltaici che vanno periodicamente puliti ed orientati in direzione del Sole. Rappresenta, inoltre, una fonte di energia "pulita", dato che non produce alcun tipo di emissione o impatto ambientale, esclusi quelli necessari alla realizzazione dell'impianto stesso di produzione. Svantaggi. Il principale svantaggio degli impianti fotovoltaici è dovuto alla bassa efficienza dei pannelli (al massimo 25% in laboratorio, 14-16% in condizioni operative) e all'elevato costo dei suddetti pannelli che rende ancora totalmente antieconomica la realizzazione di centrali fotovoltaiche. Inoltre, si presenta lo stesso svantaggio strutturale già visto per le centrali eoliche: a causa della bassissima disponibilità produttiva (11%), causata a sua volta dalla variabilità nel tempo dell'irraggiamento solare, le centrali solari possono produrre, a parità di potenza nominale installata, solo poco più di un decimo di quanto, con la stessa potenza nominale, sono in grado di generare centrali nucleari, a carbone o a gas, e dunque richiedono, per poter essere sfruttate, un sovradimensionamento originario e strutturale che ne moltiplica di un ordine di grandezza i costi. Sviluppi futuri. La produzione di pannelli fotovoltaici a film sottile dovrebbe abbattere sensibilmente il costo degli impianti.In figura una centrale fotovoltaica.

Centrale fotovoltaica
Centrale geo-termo-elettrica
Le centrali geotermoelettriche sono di fatto centrali termiche che utilizzano come fluido primario per scaldare le caldaie il calore naturale dei vapori geotermici contenuti nel sottosuolo (energia geotermica). Non esiste dunque, in questo tipo di centrali, alcun processo di combustione. Le centrali geotermoelettriche possono raggiungere potenze anche rilevanti, di qualche centinaio di MW. Vantaggi. Una volta costruite le tali centrali sono estremamente pulite in quanto sfruttano un riscaldamento termico del tutto naturale e non hanno, quindi, scorie o residui atmosferici. Svantaggi. Tali centrali hanno elevati costi di manutenzione dovuti alla composizione delle acque provenienti dal sottosuolo, che sono ricche di sali disciolti e creano depositi e incrostazioni. Spesso si trovano giacimenti geotermici anche molto grandi, ma a temperatura di 80/90 gradi, troppo bassa e non utilizzabile con le tecniche attuali; un possibile sfruttamento di questi giacimenti è per il teleriscaldamento. Uno dei problemi maggiori di queste centrali è che possono essere costruite solamente in appositi siti con presenza di attività geotermica, siti normalmente abbastanza rari. Esistono poi controversie relative al pericolo di eruzioni geotermali, riduzioni del livello della falda acquifera e suo inquinamento ma soprattutto all'inquinamento atmosferico da parte di gas (anidride solforosa) e metalli pesanti (arsenico) legate alla presenza di centrali geotermiche, in Italia, soprattutto nella zona del Monte Amiata.
Centrale idrolettrica
Insieme alle centrali termoelettriche sono state le prime tipologie di centrali in uso. Il principio di funzionamento delle centrali idroelettriche si basa sull'utilizzo dell'acqua, o meglio della sua energia cinetica, al fine di produrre energia elettrica. Le centrali idroelettriche si suddividono in due tipologie:

  • Centrali ad acqua fluente

Tali centrali sfruttano l'energia cinetica delle acque fluviali (energia idroelettrica), convogliate in particolari turbine idrauliche messe in rotazione dal flusso dell'acqua. Collegate all'albero rotante delle turbine vi sono gli alternatori che trasformano l'energia meccanica di rotazione in energia elettrica.

  • Centrali a caduta

Tali centrali sfruttano l'energia potenziale di notevoli masse d'acque poste ad altezza maggiore rispetto a quella di presa (si parla in tal caso di 'invaso', o naturale o artificiale creato tramite dighe). L'energia potenziale dell'acqua viene trasformata in energia cinetica facendo confluire l'acqua in condotte forzate nelle quali l'acqua raggiunge notevoli velocità. L'acqua viene poi fatta confluire come nel caso precedente in turbine collegate ad alternatori producendo così energia. L'impatto ambientale delle centrali idroelettriche è molto minore di quello delle centrali termoelettriche, per via dell'assenza di fumi, e riguarda soprattutto il diverso regime delle acque da esse sfruttate: l'estrazione di energia cinetica rallenta il corso d'acqua, aumentando la velocità di sedimentazione; nel caso di centrali a caduta è necessario mettere in conto le opere idrauliche necessarie (dighe e condotte). La parte maggiore dell'impatto ambientale si verifica durante la costruzione, a causa degli sbancamenti e delle grandi opere necessarie per realizzare gli invasi ed il sistema di condotte forzate. Le centrali idroelettriche possono avere potenze che vanno da alcuni MW (centrali fluviali) alle decine o centinaia di MW per le grandi centrali a caduta. Il principale vantaggio delle idroelettriche è che, una volta costruite, offrono energia a costi molto competitivi e non richiedono combustibili o materie prime; sono una fonte di energia totalmente rinnovabile e di fatto illimitata. Inoltre, con una manovra chiamata pompaggio (che consiste nel ripompare l'acqua dai bacini inferiori negli invasi durante le ore notturne, quando la richiesta di energia è minore) si può accumulare energia prodotta dalle altre centrali della rete, per restituirla di giorno nelle ore in cui la domanda di energia raggiunge il massimo. Un ulteriore vantaggio è legato al fatto che la variazione della produzione di energia può avvenire in maniera molto più rapida rispetto ad una centrale termoelettrica o nucleare, variando la quantità di acqua che viene convogliata alla turbina. Il loro impiego è, infatti, generalmente massimo durante le ore di maggiore consumo energetico. Svantaggi. Soprattutto le centrali a caduta, che richiedono un intervento edilizio di enormi proporzioni per la realizzazione di laghi artificiali per fungere da invasi, hanno un impatto ambientale di grandi proporzioni, sia nella fase costruttiva delle opere, sia a posteriori nell'impatto visivo ed estetico. Inoltre, il fatto di alterare la portata e la distribuzione delle acque fluviali porta ad un cambiamento del microclima locale, per la maggiore umidità ed evaporazione portata dal lago che funge anche da serbatoio di calore, livellando le temperature fra giorno e notte. Questo porta in genere a variazioni nella flora e fauna locale; nel caso di bacini montani, si può avere un impatto anche su eventuali ghiacciai nelle vicinanze. Altro svantaggio è dovuto alla naturale sedimentazione, che tende a riempire lentamente l'invaso, e richiede dragaggi periodici: il terriccio di risulta può essere usato a fini edilizi, per riporti e terrapieni. Esistono inoltre problemi di sicurezza in caso di forti terremoti o frane che hanno portato, per esempio, al disastro del Vajont nel 1963. In figura è mostrata una centrale idroelettrica dotata di impianto di pompaggio.

Centrale idroelettrica
Centrale maremotrice
Le centrali mareomotrici sfruttano il movimento del mare dovuto alle maree. Queste centrali accumulano l'acqua in un bacino durante l'alta marea e poi la rilasciano durante la bassa marea. L'acqua viene fatta passare in condotte forzate che la conducono in turbine collegate ad alternatori che consentono di produrre corrente elettrica. In alcune zone della Terra il dislivello tra alta e bassa marea può essere anche di 20 metri e può, quindi, rendere conveniente l'installazione di questi impianti. Sono impianti molto simili alle centrali idroelettriche e quindi la tecnologia è già disponibile e collaudata. Solo poche zone sono adatte per l'istallazione di questi impianti e, comunque, la potenza generata è modesta rispetto alla superficie occupata dall'impianto. Una seconda tipologia di centrali è basata sullo sfruttamento delle correnti sottomarine, che opportunamente incanalate potrebbero generare corrente elettrica tramite delle turbine. Queste centrali sono attualmente degli esperimenti da laboratorio, anche se, in breve tempo, si potrebbe passare ad un loro utilizzo reale per la produzione di corrente elettrica. Una terza tipologia di centrali basata sugli oceani vuole sfruttare la differenza termica dei diversi strati dell'oceano (energia talassotermica). Acqua a differenti profondità ha differenti temperature e queste centrali utilizzano questa differenza di temperatura per produrre elettricità. Essendo la differenza termica tra i vari strati ridotta queste centrali hanno sempre un'efficienza molto bassa, tra 1 e il 3%. Ulteriori ipotesi allo studio prevedono di utilizzare meccanicamente il moto ondoso del mare per la produzione di energia elettrica (vedi energia del moto ondoso). Una centrale di prova di questa tipologia è stata inaugurata il 1° ottobre 2007 a Agucadoura nel pressi di Lisbona in Portogallo. La centrale è dotata di 3 elementi Pelamis P-750, i Pelamis P-750 sono delle strutture galleggianti ancorate al fondo del mare, il movimento del mare provoca il movimento dei galleggianti, il movimento di questi viene trasformato in corrente elettrica e inviato a terra. Si ritiene che l'impianto potrà soddisfare le necessita di quasi 2000 famiglie.
Centrale nucleare a fissione.
Le centrali nucleari sono analoghe alle centrali termoelettriche; la differenza sostanziale sta nel tipo di combustibile e di processo tecnologico che viene utilizzato per fornire calore e formare il vapore da inviare alle turbine. Queste centrali ottengono il calore da un processo di fissione nucleare del combustibile o in un prossimo futuro (2040/2050 in ipotesi ottimistiche) dal processo di fusione nucleare del combustibile. Vantaggi. Questa tipologia di centrali produce un'elevatissima potenza per metro quadrato occupato dall'impianto, a costi più o meno uguali a quelli del carbone, che è attualmente la tecnologia economicamente più conveniente, rappresentando però una soluzione che permette di non dipendere più dai combustibili fossili. Le centrali nucleari non hanno emissioni inquinanti di alcun tipo, l'impatto ambientale di una centrale nucleare è estremamente più ridotto di quello di una centrale termoelettrica per via della completa assenza di emissioni di combustione, la radioattività emessa dalle strutture è simile a quella emessa da un orologio da polso fluorescente e come essa inferiore di centinaia di volte al fondo naturale di radiazioni che comunque vengono percepite per effetto dei raggi cosmici e della naturale radiazione della terra. Svantaggi. Queste centrali sono potenzialmente pericolose, in particolare se mal costruite, mal gestite o lasciate in mano a paesi interessati alla proliferazione militare, giacché le centrali miste civili-militari (come quella di Chernobyl) sono molto più pericolose di quelle civili. Una rottura dei sistemi di contenimento e di refrigerazione della centrale, potrebbe portare alla dispersione nell'ambiente di materiale radioattivo e quindi alla contaminazione di vaste aree (vedi Disastro di Chernobyl): tale rischio, abbastanza basso per le centrali più recenti e attualmente operative, è viceversa presente per alcune delle centrali più vecchie operative in tutto il mondo. Lo smaltimento delle scorie radioattive e lo smantellamento della centrale stessa al termine del suo ciclo vitale (circa 25-30 anni) è un problema non completamente risolto: la Finlandia e la Svezia per esempio hanno individuato siti sicuri per lo smaltimento delle scorie nei rispettivi territori, grazie alla presenza di zone sismicamente stabili e disabitate. In Italia invece, con un territorio molto più densamente popolato e quasi tutto a rischio sismico, lo smaltimento resta un problema difficile. Le rigide norme di sicurezza rendono la costruzione di queste centrali costosa e lenta, anche per la variabilità nel tempo delle stesse norme. L'avvento di centrali nucleari di quarta generazione o comunque avanzate dovrebbe risolvere alcuni degli aspetti negativi, ma, per ora, tali impianti sono solamente allo studio teorico. Le centrali autofertilizzanti invece sono state prototipate finora con scarso successo (per esempio il Superphenix); tuttavia l'idea è quella di consentire il riutilizzo del "combustibile" esausto dei reattori tradizionali per produrre altro materiale fissile (in particolare, plutonio) riducendo i problemi di approvvigionamento dell'uranio. D'altra parte la produzione di più materiale fissile di quello "bruciato" potrebbe alla lunga creare problemi ancora maggiori, fra cui anche quello relativo al proliferare potenziale di arsenali atomici. L'adozione di reattori autofertilizzanti promette un maggior sfruttamento del "combustibile" rispetto ai reattori di 2° e 3° generazione, con una conseguente moltiplicazione delle risorse, attualmente scarse, di combustibile nucleare. Le riserve di 100 anni per l'uranio e di qualche secolo per il torio dovrebbero pertanto essere estese a tempi molto più lunghi benché oggetto di dibattito. In figura è mostrato lo schema di una centrale ad acqua pressurizzata (PWR).

Schema di centrale nucleare
Centrale solare termica
Per centrali solari s'intendono le centrali solari termiche, che sfruttano l'energia solare, da non confondersi con i pannelli fotovoltaici. Le centrali solari termiche utilizzano come principio di base quello delle centrali termiche classiche, anche in questo caso la differenza sta nel metodo in cui viene scaldata l'acqua della caldaia. Normalmente la centrale è formata da una superficie nella quale sono posti centinaia di specchi che concentrano i raggi solari in unico punto centrale (detto fuoco) nel quale si trova la caldaia. Questa colpita da tutti i raggi deviati dagli specchi si scalda fino a raggiungere temperature sufficientemente elevate per completare il ciclo del vapore fino alla turbina. Oppure da campi di concentratori parabolici lineari (in inglese parabolic trough), che riscaldano il fluido all’interno di condotti che percorrono la linea del fuoco. Vantaggi. Notevoli sono i lati positivi di questa fonte di energia, non ci sono emissioni inquinanti o di gas serra, non è necessario il trasporto di combustibili, non si producono scorie e la centrale non è pericolosa per gli abitanti nei dintorni. Altro vantaggio è che, esclusi i costi di costruzione e manutenzione, si produce energia senza bisogno di materie prime, in quanto la luce solare è gratuita. Svantaggi. Questo tipo di centrali richiedono una superficie di esposizione solare di dimensioni elevate, che aumenta in funzione della potenza che si vuole produrre. Ovviamente, producono solo se sottoposte a buon irraggiamento solare, può, quindi, essere sufficiente una nuvola per interrompere il processo di produzione. Gli impianti più moderni, infatti, prevedono di stoccare il fluido ad alta temperatura in appositi serbatoi isolati, che permettono di far funzionare le turbine non solo durante la notte ma con una autonomia di alcuni giorni in caso di cattivo tempo. Questi impianti hanno, comunque, la possibilità di essere alimentati a gas, nel caso le condizioni sfavorevoli perdurino. Le centrali termiche solari hanno potenze minime, i 20 megawatt raggiunti dalle tecnologie solari alla centrale di Priolo bastano ad un paese di 20 mila abitanti, una centrale termoelettrica ordinaria produce tra le 50 e le 200 volte di più. I costi per la messa in esercizio delle centrali solari sono, inoltre, elevatissimi, anche a ragione della necessità di sovradimensionare le strutture produttive in modo enorme per compensare la bassa disponibilità produttiva generata dalla discontinuità dell'irraggiamento, la quale è dovuta al ciclo solare e non può, dunque, essere aggirata ma è destinata ad essere sempre un problema strutturale della tecnologia. Le centrali solari ad alta temperatura a volano termico con la sostituzione dell'acqua con, miscele (anidre) di sali fusi altobollenti proposte in Italia dal premio Nobel Carlo Rubbia rappresentano le fonti da questo tipo di energia con la maggiore convenienza prospettata attualmente in sperimentazione. Possibili miglioramenti. In queste centrali spesso durante l'anno non si raggiungono le temperature di 110 gradi richieste (per poter far evaporare l'acqua). Perciò, nei periodi in cui non vi è una sufficiente insolazione, una buona soluzione sarebbe quella di utilizzare il calore per produrre semplice acqua calda a 90°C, che, tramite una rete di teleriscaldamento, può essere utilizzata per la produzione di acqua calda sanitaria, per alimentare le caldaie a scambiatore di calore ed i gruppi frigoriferi ad assorbimento. In figura è mostrata una centrale solare a specchi.

Centrale solare
Centrale termoelettrica
Le centrali termoelettriche sono la tipologia di centrali più diffusa. Il principio di funzionamento di una centrale termoelettrica classica è abbastanza semplice. Un elemento combustibile (derivati del petrolio, carbone o gas, ma anche, in alcuni casi, biomassa o rifiuti) viene bruciato in modo da sviluppare calore; questo calore viene trasmesso a una caldaia, nella quale circola acqua ad alta pressione (l'acqua deve subire una serie di trattamenti al fine di essere purificata per non danneggiare gli impianti), tale acqua viene così trasformata in vapore raggiungendo temperature elevate. Il vapore viene convogliato verso delle macchine rotanti denominate turbine a vapore nelle quali il vapore espande convertendo il proprio contenuto entalpico in energia meccanica. Collegati all'albero in rotazione di tali turbine vi sono gli alternatori i quali convertono l'energia meccanica di rotazione in energia elettrica. Un'evoluzione è rappresentata dalle centrali a ciclo combinato: il gas viene bruciato in una turbina a gas che, collegata a un alternatore, produce elettricità. I gas di scarico della turbina, estrememente caldi, vengono a loro volta utilizzati per scaldare acqua ed il vapore così ottenuto è usato in una turbina a vapore come in una centrale termoelettrica tradizionale, generando altra elettricità. Questo genere di centrali termoelettriche ha un rendimento elettrico estremamente elevato e comunque maggiore di quelle tradizionali, arrivando a sfiorare anche il 60% di resa. Generalmente le centrali termoelettriche erogano grandi potenze, dell'ordine delle centinaia o migliaia di MW e costituiscono la spina dorsale del sistema di produzione dell'energia elettrica, perché i loro impianti termici danno il massimo rendimento in regime di produzione costante; di solito, quindi, vengono tenute in funzione per lunghi periodi di tempo, costituendo la base della capacità produttiva. Anche se alcuni impianti termoelettrici possono essere polivalenti, ovvero in grado di utilizzare diversi tipi di combustibile, questo si ottiene a spese del rendimento termodinamico e quindi della spesa complessiva: per questo, in generale, si costruiscono centrali termoelettriche in grado di bruciare con la massima efficienza un particolare combustibile, e si riadattano gli impianti in caso diventi necessario bruciare un combustibile diverso. Svantaggi. I residui della combustione dei combustibili generano una quantità elevata di prodotti inquinanti come i fumi, il particolato fine, gli ossidi di zolfo e azoto e gli idrocarburi aromatici, che possono essere dispersi nell'ambiente. I progressi tecnologici degli ultimi anni hanno fatto sì che molte misure per l'abbattimento di tali prodotti fossero implementate nelle centrali (pretrattamento del combustibile, abbattimento delle polveri, desolforatori, etc.) rendendo queste emissioni meno dannose. D'altra parte è possibile ridurre notevolmente l'impatto ambientale di queste centrali. Innanzitutto si può semplicemente utilizzare un combustibile poco inquinante (come il gas naturale, il gasolio desolforato ed il carbone bonificato). È possibile contenere notevolmente le emissioni di inquinanti tramite il montaggio di appositi filtri a reagente e catalizzatori ossidanti. Il calore residuo anziché essere sprecato immettendolo nell'aria può essere utilizzato per il teleriscaldamento delle case nella stagione invernale e può essere utilizzato nel periodo estivo per il condizionamento delle stesse case. In figura è mostrato lo schema di una centrale termoelettrica a ciclo combinato.

Centrale termoelettrica
Certificazione energetica di un edificio
Il complesso delle operazioni, svolte da soggetti accreditati, per il rilascio dell’attestato di certificazione energetica e delle raccomandazioni per il miglioramento della prestazione energetica dell’edificio.
Certificato bianco
I certificati bianchi, definiti anche Titoli di Efficienza Energetica (TEE), rappresentano un incentivo atto a ridurre il consumo energetico in relazione al bene distribuito. La contrattazione dei TEE può avvenire bilateralmente tra le parti interessate o all'interno di uno specifico mercato gestito dal GME (Gestore del Mercato Elettrico). L'Autorità per l'Energia Elettrica e il Gas (AEEG) è l'ente che autorizza l'emissione dei certificati  bianchi, gestisce la valutazione economica dei TEE e si occupa del controllo dell'effettivo risparmio energetico ottenuto.
Certificato verde
Titolo annuale, oggetto di contrattazione nell'ambito della Borsa dell'Energia, che verrà attribuito dal Gestore della Rete di Trasmissione Nazionale (GRTN) all'energia elettrica prodotta mediante l'uso di fonti energetiche rinnovabili, di impianti entrati in esercizio dopo il 1° Aprile 1999, per i primi otto anni di esercizio degli stessi. Tale titolo è previsto dal Decreto Bersani quale possibile strumento alternativo per soddisfare l'obbligo, imposto a decorrere dal 2002 ad ogni produttore/importatore di energia, di immettere in rete una quota minima di energia verde pari al 2% dell'energia non rinnovabile prodotta/importata nell'anno precedente. L'offerta di certificati verdi potrà pervenire da due categorie di soggetti: i produttori (nazionali ed esteri) e, per la parte di domanda non soddisfatta da questi ultimi, dal Gestore della Rete di Trasmissione Nazionale (GRTN).
Chilowatt (kW)
Multiplo dell’unità di misura della potenza, pari a 1.000 Watt.
Char del carbone.
E' il residuo solido che resta al termine della devolatizzazione del carbone in fase di combustione.
Chilowattora (kWh)
Unità di misura dell’energia. Un chilowattora è l’energia consumata in un’ora da un apparecchio utilizzatore da 1 kW.
Ciclo combinato
Tecnologia per la produzione di energia elettrica da combustibili in forma gassosa che si basa sull'utilizzo di una o più turbine a gas (turbogas) associate ad una turbina a vapore. Il calore dei fumi allo scarico della turbina a gas viene sfruttato in un generatore di vapore a recupero nel quale si produce il vapore poi utilizzato nella turbina a vapore.
Cip 6
E' l’acronimo che contraddistingue il Provvedimento del Comitato Interministeriale Prezzi n.6 del mese di aprile 1992, che stabilisce i prezzi con i quali i privati potevano vendere all’Enel energia elettrica prodotta da fonte rinnovabile o assimilata. Il meccanismo del CIP/6 verrà a regime sostituito dal Sistema dei Certificati Verdi, previsto dal Decreto Bersani.
Circuiti lineari in corrente continua
In corrente continua tutta la potenza fornita dai generatori è dissipata sui resistori del circuito (raramente anche sui generatori: per esempio nella serie tra un generatore di corrente e uno di tensione). La potenza istantanea assorbita da un resistore lineare, il cui valore di resistenza è R, si può calcolare, come in qualsiasi regime di funzionamento, con la legge di Ohm. La potenza p(t) sarà allora data dalla formula generale:

p(t) = v(t)i(t) = R i^2(t) = \frac{v^2(t)}{R}

se v(t) e i(t) sono, rispettivamente, la tensione e la corrente misurate nell'istante t sul bipolo secondo la convenzione degli utilizzatori. In corrente continua si può semplicemente scrivere :

P = R I^2 = V I = \frac{V^2}{R}

CIRENE
Vedi: Reattore nucleare a fissione.
Climax.
Il climax (dal greco klímaks, scala), in ecologia, rappresenta lo stadio finale dell'evoluzione di un ecosistema in una successione ecologica.
Cliente finale
La persona fisica o giuridica che acquista energia elettrica esclusivamente per uso proprio.
Cliente grossista
Persona fisica o giuridica che acquista e vende energia elettrica senza esercitare attività di produzione, trasmissione o distribuzione nei paesi dell'Unione Europea.
Cliente idoneo, cliente libero
Persona fisica o giuridica che ha facoltà di stipulare contratti di fornitura con qualsiasi fornitore di propria scelta (produttore, distributore, grossista). A partire dal 1° luglio 2007 tutti i clienti sono idonei e hanno diritto ad acquistare energia direttamente in borsa o da un grossista.
Cliente vincolato
Cliente Finale che, ai sensi del Decreto Legislativo del 16 marzo 1999, n°79, non rientrando nella categoria dei Clienti Idonei, è legittimato a stipulare contratti di fornitura esclusivamente con il distributore che esercita il servizio nell'area territoriale ove è localizzata l'utenza.
Codice POD
Il codice POD (Point of Delivery), introdotto dalla delibera AEEG 293/05, è definito dal gestore di rete locale. Tale codice identifica il punto di consegna dell’energia elettrica e viene utilizzato per la trasmissione delle misure al GSE.
Cogenerazione (C.H.P. Combined Heat and Power).
Col termine cogenerazione si indica la produzione contemporanea di diverse forme di energia secondaria (energia elettrica e/o meccanica ed energia termica) partendo da un'unica fonte (sia fossile che rinnovabile) attuata in un unico sistema integrato. Un esempio classico è dato dal funzionamento di un'automobile, la potenza prelevata dall'albero motore è usata per la trazione e la produzione di elettricità, il calore sottratto ai cilindri per il riscaldamento dell'abitacolo e la pressione dei gas di scarico per muovere la turbina di sovralimentazione. Lo sfruttamento di calore e pressione non comporta un aumento dei consumi poiché sono "scarti" del processo di conversione da energia chimica ad energia meccanica attuato dal motore. Il loro sfruttamento consente a parità di energia primaria immessa (il combustibile) una maggiore quantità di energia secondaria prodotta (movimento, calore). Un sistema che opera la cogenerazione è il cosiddetto co-generatore. L'energia termica può essere utilizzata per uso industriale o condizionamento ambientale (riscaldamento, raffreddamento). La cogenerazione viene realizzata in particolari centrali termoelettriche, dove si recuperano l'acqua calda o il vapore di processo e/o i fumi, prodotti da un motore primo alimentato a combustibile fossile (gas naturale, olio combustibile, biomasse, etc): si ottiene così un significativo risparmio di energia rispetto alla produzione separata dell'energia elettrica (tramite generazione in centrale elettrica) e dell'energia termica (tramite centrale termica tradizionale). Un particolare campo dei sistemi di cogenerazione è quello della trigenerazione.L'efficienza può essere espressa in diversi modi, che non sempre portano a un corretto confronto tra i vari impianti. Si illustrano allora le definizioni adottate dall'Environmental Protection Agency (EPA). L'efficienza di un processo semplice è il rapporto tra energia conservata, al termine del processo, ed energia immessa. Dato che i sistemi di cogenerazione producono sia elettricità, sia calore, la loro efficienza totale è data dalla somma dell'efficienza elettrica e dell'efficienza termica. Per esempio un impianto che utilizza 100 MWh di metano per produrre 40 MWh elettrici e 40 MWh termici ha un'efficienza elettrica e termica del 40% ed un'efficienza globale dell'80%. L'EPA usa preferibilmente un'altra definizione di efficienza nota come "efficacia nell'utilizzazione di combustibile", rapporto tra l'output elettrico netto e il consumo di combustibile netto (che non tiene conto del combustibile usato per produrre energia termica utilizzabile, calcolato assumendo un'efficienza specifica della caldaia dell'80%). Il più comune esempio di impianto cogenerativo è quello realizzato con turbogas/motore alternativo e caldaia a recupero. I fumi del turbogas o del motore alternativo vengono convogliati attraverso un condotto fumi nella caldaia a recupero. Il recupero può essere semplice, qualora non esista un postbruciatore, o un recupero con postcombustione in caso contrario. I fumi in caldaia permettono di produrre acqua calda, vapore saturo o vapore surriscaldato. Solitamente si utilizza acqua calda per scopi di riscaldamento, vapore saturo per utenze industriali e vapore surriscaldato per turbine a vapore e utenze. In definitiva si ha produzione di energia elettrica attraverso l'alternatore accoppiato al turbogas ed eventualmente attraverso l'alternatore accoppiato alla turbovapore e produzione di energia termica sotto forma di vapore, sfruttato poi dalle utenze connesse. In presenza di turbovapore si ottiene un ciclo combinato in cui la dispersione energetica è minima e consiste in maggior parte nel calore buttato in atmosfera dai fumi in uscita dalla caldaia a recupero.per quanto riguarda il fluido evolvente esso e generalmente l acqua che generalmente raggiunge in molti casi lo stato di vapore surriscaldato ma in alcuni casi puo assumere temperature non sufficientemente alte e c e bisogno di scambiatori di calore intermedi per aumentarne la temperatura ,piu raramente il fluido evolvente e l'aria che presenta pero il difetto di avere un coefficiente di scambio termico convettivo troppo basso e quindi sono richieste superfici di scambio termico ben piu elevate. Per quanto riguarda i motori a combustione interna,generalmente solo il 33% dell erg termica totalmente disponibile viene trasformata in erg meccanica il resto e in parte perduta causa irreversibilita presenti nel motore pari ad un altro33% dell erg totale ed infine l ultimo 33% viene emesssa nell ambiente esterno sotto forma di erg termica che va in definitiva perduta.per recuperare tale calore altrimenti perduto si utilizzano diversi scambiatori di calore:un primo scambiatore che permette il raffreddamento dell'olio lubrificante, è disponibile a bassa temperatura (non oltre gli 80°C),un altro scambiatore per il raffreddamento dell acqua destinata a refrigerare il motore stesso,ed infine un ultimo scambiatore posto allo scarico del motore che permette di innnazare di molto la temperatura del fluido di scambio termico generalmente come e stato detto acqua che per questo ulteriore scambio termico arriva allo stato di vapore surriscaldato ,Attraverso tali impianti e possibile produrre erg elettrica o termica. A parte il costo degli scambiatori questo non costituisce una complicazione eccessiva di impianto perche tali motori hanno bisogno per funzionare comunque di un sistema di raffreddamento altrimenti si rischia il surriscaldamento del motore stesso. Infine, fluidi evolventi particolarmente usati sono gli olii diatermici derivati dal petrolio, che hanno la caratteristica di mantenersi liquidi a pressione atmosferica fino a temperature di 300° celsius, ed hanno un punto di solidificazione molto inferiore rispetto all'acqua, cosa che impedisce che gelino nelle condotte. Incentivi alla cogenerazione.
Combustibile nucleare.
Con il termine combustibile nucleare si indica il materiale fissile che viene posto nel nocciolo di un reattore nucleare. In realtà parlare di "combustibile" è inesatto in quanto non avviene alcuna "combustione" (che è un processo chimico di ossidazione) bensì avvengono trasformazioni di tipo nucleare. Durante il funzionamento del reattore gli atomi del "combustibile" vengono progressivamente scissi tramite il processo a catena di fissione nucleare: il materiale viene man mano trasformato in altri elementi e/o isotopi liberando contemporaneamente energia. Il "combustibile" nucleare è solitamente disposto, all'interno del reattore, in barre. Questo sia per rendere più facile il loro trasporto, sia per poter alternare il combustibile alle barre di moderazione e controllo, sia per rendere più agevole la loro estrazione a fine ciclo. I "combustibili" più comunemente utilizzati sono miscele contenenti un alto contenuto di isotopi fissili. Tipicamente si utilizzano miscele ad alto contenuto di uranio 235 o di alcuni isotopi di plutonio. A seconda del tipo di reattore il combustibile può essere direttamente l'elemento fissile o piuttosto un suo ossido, può essere in forma di una lastra metallica o può essere costituito da tante sferette - dette granuli - alternate ad altre sostanze che svolgono la funzione di moderatore. Il materiale fissile deve essere collocato con una disposizione geometrica che massimizza l'efficienza dell'effetto catena, tenuto conto della necessità di lasciare sufficiente spazio per inserire il moderatore. Durante la fase di progettazione di un reattore nucleare bisogna anche lasciare spazio alle barre di controllo e a dispositivi diagnostici. Da un punto di vista puramente teorico la forma ideale sarebbe quella sferica. Tuttavia motivi di ordine pratico e costruttivo fanno propendere per soluzioni di altro tipo: solitamente si utilizza una forma cilindrica ottenuta dall'accostamento di un gran numero di barre. A differenza di quanto avviene per un combustibile tradizionale, in un reattore nucleare il consumo del combustibile è molto lento e una volta caricato dura generalmente, a seconda del tipo di reattore e del suo utilizzo, parecchi anni. D'altra parte le operazioni di ricarica sono notevolmente complesse. A differenza di quanto avviene con altri tipi di combustibile il prodotto della reazione (le cosiddette scorie) non vengono disperse, ma rimangono principalmente all'interno delle barre stesse o degli elementi immediatamente confinanti. Con l'avanzare del tempo le barre diventano sempre più povere di materiale fissile, fino ad arrivare ad un punto in cui non è più efficiente sfruttarle e devono essere sostituite. A seconda delle geometrie del reattore può succedere che una parte del combustibile si esaurisca più velocemente di altre parti: tipicamente le parte centrale si esaurisce più in fretta di quella esterna. La configurazione a barre è utile in questo caso perché permette la sostituzione soltanto delle parti più esaurite. Le barre esaurite, così come il materiale nelle immediate vicinanze, sono diventate altamente radioattive a causa della presenza dei prodotti di fissione generati dalle reazioni nonché di altro materiale che si può essere attivato durante il processo per cattura neutronica o in conseguenza di altri processi analoghi. Lo smaltimento delle barre esaurite è pertanto la parte più complessa dello smantellamento delle scorie del reattore.
Compatibilità elettromagnetica
Capacità di un dispositivo (apparecchiatura o sistema) di funzionare correttamente nel suo ambiente elettromagnetico, senza introdurre nell'ambiente stesso disturbi elettromagnetici superiori all'emissione consentita.
Comuni contigui
Tale definizione indica quelle aree nelle quali devono ubicarsi i siti delle singole imprese che compongono una società consortile. Nella norma tali aree sono Comuni con territori confinanti.
Condizionatore d'aria
Il condizionatore d'aria è una macchina in grado di produrre una differenza di temperatura (positiva o negativa) che viene ceduta a un fluido che messo in circolazione a sua volta cede questa differenza di temperatura a un ambiente per innalzarne o abbassarne la temperatura. I condizionatori si dividono in due grandi famiglie quelli chiamati solo freddo e quelli detti a pompa di calore. La differenza sostanziale è che quelli a pompa di calore oltre a raffrescare in estate, in inverno possono anche riscaldare invertendo il ciclo di funzionamento. Una ulteriore distinzione molto importante è quella relativa alla loro alimentazione e al loro funzionamento. Ci sono due grandi famiglie, la prima chiamata ON-OFF e la seconda chiamata a INVERTER. La differenza sostanziale tra le due tecnologie è la seguente: quella ON-OFF è molto semplice, (costa meno) ed ha un consumo elevato perché quando si accende va subito alla massima potenza a prescindere di quanto ne serva effettivamente, quella a INVERTER invece ha una tecnologia detta modulante. Significa che durante il funzionamento, diminuisce la potenza necessaria in funzione del raffreddamento ottenuto man mano fino ad arrivare al minimo necessario al mantenimento della temperatura impostata, tutto questo con un notevole risparmio energetico. Se il condizionatore viene fatto funzionare per molte ore, per esempio di notte, è economicamente conveniente il modello inverter, in caso contrario il maggior costo rispetto al modello on-off non viene ammortizzato, poiché la funzione modulante interviene dopo almeno 2-3 ore dalla prima accensione.
Consorzio
Organismo composto da un gruppo di utilizzatori di energia; è uno strumento che permette a coloro che superano determinate soglie di consumo di energia di unirsi e raggiungere la soglia minima di consumo per poter essere qualificati come clienti idonei.
Condensatore
Il condensatore o capacitore è un componente elettrico che immagazzina l'energia in un campo elettrostatico, accumulando al suo interno una certa quantità di carica elettrica. Nella teoria dei circuiti il condensatore è un componente ideale che può mantenere la carica e l'energia accumulata all'infinito, se isolato (ovvero non connesso ad altri circuiti), oppure scaricare la propria carica ed energia in un circuito a cui è collegato. Nei circuiti in regime sinusoidale permanente esso determina una differenza di fase di 90 gradi fra la tensione applicata e la corrente che lo attraversa. In queste condizioni di funzionamento la corrente che attraversa un condensatore ideale risulta in anticipo di un quarto di periodo rispetto alla tensione che è applicata ai suoi morsetti.
Consumo di energia
Quantitativo di energia impiegato da un individuo o da un apparecchio.
Consumo e risorese di energia nel mondo
Per potere comparare direttamente le risorse energetiche del mondo, e il consumo di energia delle nazioni, questa voce di avvale delle unità del sistema SI e dei prefissi SI e misure della fornitura di energia/tempo (potenza) in watt (W) e le quantità nette di energia in joule (J). Un watt equivale alla fornitura di un joule in un secondo (potenza=lavoro/tempo). Nel 2004, il consumo mondiale medio totale dell'umanità era pari a 15 TW (= 1.5 x 10exp13 W) che per un 86,5% proveniva dai combustibili fossili. Questo equivale a 0,5 ZJ (= 5 x 10exp20 Joule) per anno, anche se vi è un'incertezza di almeno il 10% nei valori del consumo energetico totale del mondo. Non tutte le economie del mondo tengono registri dei loro consumi energetici con lo stesso rigore, e l'esatto contenuto di energia di un barile di petrolio o di una tonnellata di carbone varia in rapporto alla sua qualità. La maggior parte delle risorse energetiche del mondo hanno come fonte prima i raggi solari che colpiscono la supeficie terrestre - e negli eoni quell'energia si è conservata indirettamente sotto forma di energia fossile (bitume, carbone, gas, idrati, petrolio) oppure come energia direttamente impiegabile (ad.esempio i venti si formano in seguito a complessi fenomeni di riscaldamento nelle zone soleggiate e di convezione nelle zone fredde, il tutto abbinato alla rotazione terrestre). Anche l'energia idroelettrica deriva dall'energia solare che provoca evaporazione dell'acqua e condensazione dell'acqua quando le nuvole incontrano l'aria di fronti climatici freddi o quando risalgono alte montagne. Il vapor d'acqua salendo in quota acquisisce una certa energia potenziale che cede in parte alle piogge ed ai corpi acquosi siti in quote elevate.Il termine costante solare (in inglese en:solar constant) definisce la quantità di radiazione elettromagnetica solare che arriva per unità di superficie, misurandola a livello della superficie esterna dell'atmosfera terrestre, da un aereo perpendicolare ai raggi. La costante solare include tutti i tipi di radiazione solare, non soltanto la luce visibile. Il suo valore è stato misurato da satelliti a circa 1.366 watt per metro quadro, anche se può variare di circa lo 6,9% durante l'anno - da circa 1.412 W/m2 a gennaio a 1.321 W/m2 a luglio, questo dovuto alla variazione della distanza della terra dal sole, oltre ad una lieve variazione della luminanza solare di poche parti su mille da un giorno all'altro. Per l'intero globo terrestre, che ha una sezione di taglio di 127.400.000 km², la potenza fornita dall'energia solare é di 1.740 × 1017 Watt, con una variazione del +/- 3,5%.

Le stime sulle risorse energetiche rimanenti nel mondo variano, ed é stato calcolato che le risorse di combutibili fossili totalizzino uno stimato di 0,4 Yottajoules (1 YJ = 10exp24 J) e che le risorse disponibili di combustibile nucleare come l'uranio superino i 2,5 YJ. Le riserve di combustibili fossili dovrebbero essere di 0,6-3 YJ se gli estimi delle riserve di clatrati di metano sono accurate e se il loro sfruttamento divenisse tecnicamente possibile. Principalmente grazie al Sole, il mondo possiede anche un flusso di energia rinnovabile utilizzabile, che eccede i 120 Petawatt (pari ad 8.000 volte gli utilizzi totali del 2004), o 3,8 YJ/anno, rendendo così minuscole tutte le risorse non-rinnovabili.

Sin dall'inizio della rivoluzione industriale, il consumo di energia nel mondo é cresciuto ad un ritmo sostenuto. Nel 1890 il consumo di carburanti fossili eguagliava approssimativamente la quantità di combustibile da biomassa che veniva bruciato nelle case e dall'industria. Nel 1900, il consumo di energia globale ammontava a 0,7 Terawatt (0,7 volte 10exp12 watt). Secondo stime dell 2006 fatte dall'agenzia usa EIA (United States Department of Energy), i 15 TW stimati come energia totale consumata nel 2004 si dividono come indica la tabella sottostante, con i combustibili fossili che forniscono 86% dell'energia consumata dal mondo:

Tipo di combustibile Potenza in TW Energia/anno in EJ
Petrolio 5,6 180
Gas naturale 3,5 110
Carbone 3,8 120
Idroelettrico 0,9 30
Nucleare 0,9 30
Geotermia, eolico,
solare, legno
0,13 4
Totale 15 471

Negli ultimi quarant'anni, l'utilizzo assoluto dei combustibili fossili é aumentato con continuità e la loro quota percentuale dell'energia fornita é aumentata.
Conto energia
Mentre con l’espressione “incentivazione in conto capitale” si intende l’erogazione di un contributo per l’investimento necessario per la realizzazione di un impianto, con l’espressione “conto energia”viene indicato un meccanismo di incentivazione che remunera l’energia elettrica prodotta da un impianto per un certo numero di anni. Vai alla voce Normativa.
Contratto bilaterale
Contratto di fornitura di energia elettrica concluso al di fuori della borsa elettrica tra un soggetto produttore grossista e un cliente idoneo. Il prezzo di fornitura e i profili di immissione e prelievo sono definiti liberamente dalle parti, tuttavia immissioni e prelievi orari devono essere comunicati a Terna S.p.A. ai fini della verifica di compatibilità con i vincoli di trasporto della rete di trasmissione nazionale.
Contratto di vettoriamento
Contratto che regola i rapporti tra il gestore della rete contraente ed il soggetto che usufruisce del servizio di vettoriamento.
Conversione di energia
Il processo di cambiamento dell'energia da una forma ad un'altra.
Conversione fotovoltaica
Fenomeno per il quale la luce incidente su un dispositivo elettronico a stato solido (cella fotovoltaica) genera energia elettrica.
Convertitore CC/CA, invertitore, inverter
Dispositivo elettrico statico che converte la corrente continua in corrente alternata.
Corrente alternata
La corrente alternata (CA o AC dall'inglese: Alternating current) è caratterizzata da un flusso di corrente variabile nel tempo sia in intensità che in direzione ad intervalli più o meno regolari. Normalmente la corrente elettrica viene distribuita sotto forma di corrente alternata a 50 Hz (il + e il - si alternano nei conduttori ogni cinquantesimo di secondo). L'utilizzo della corrente alternata deriva dal fatto che i generatori producono di norma corrente alternata. Alcune apparecchiature tuttavia richiedono la corrente continua, che viene ottenuta tramite un raddrizzatore. L'andamento del valore di tensione elettrica nel tempo è la forma d'onda. L'energia elettrica comunemente distribuita ha una forma d'onda sinusoidale. Il numero di ripetizioni di uno stesso periodo (inteso come modulo ripetuto indefinitamente) in un secondo è la frequenza, ed è misurata in Hertz. L'elettricità comunemente distribuita ed utilizzata ha una forma d'onda sinusoidale perché tale andamento deriva direttamente dal modo di operare degli alternatori e dalle leggi dell'induzione magnetica. Dunque la forza elettromotrice prodotta da un alternatore ha la forma:

f(t) = F_0 \sin (\omega t + \phi)\;

dove F0 è il valore massimo costante della forza elettromotrice cioè l'ampiezza, ω è la pulsazione, legata al periodo T ed alla frequenza ν:

T = \frac {2\pi}{\omega} e \nu = \frac {\omega}{2\pi}

La corrente alternata deve avere la stessa forma:

i(t) = I_0 \sin (\omega t + \phi)\;

Una grandezza sinusoidale per definizione ha valore medio nullo su un periodo T. Per questo motivo la grandezza misurabile è il suo valore efficace o effettivo inteso come il valore quadratico medio:

I_{eff}^{2} = \frac {1}{T} \int_{t}^{t+T} I^2(t) \ dt

dalla quale si ottiene che la corrente efficace è legata al suo valore massimo:

I_{eff} = \sqrt{\frac {1}{T} \int_{t}^{t+T} I_{0}^{2} \sin^2 \ \omega \ t \ dt} = \frac {I_0}{\sqrt{2}}

Per la tensione si ha:

V_{eff} = \sqrt{\frac {1}{T} \int_{t}^{t+T} V_{0}^{2} \sin^2 \ \omega \ t \ dt} = \frac {V_0}{\sqrt{2}}

La tensione efficace Veff permette di scrivere il modulo della potenza complessa come

 | \bar{P} | = V_{eff} I_{eff}


Corrente continua
La corrente continua (CC o DC dall'inglese: Direct current) è caratterizzata da un flusso di corrente di intensità e direzione costante nel tempo. In una corrente continua gli elettroni fluiscono sempre nello stesso senso all'interno del circuito. La corrente continua è largamente usata a bassa tensione in elettronica, specialmente nelle apparecchiature alimentate con pile e batterie, che sono in grado di generare esclusivamente corrente continua. Per questo motivo è ubiquitariamente impiegata negli impianti elettrici delle automobili, dove viene accumulata in una batteria al piombo dopo essere stata generata dall'alternatore e trasformata in continua. È continua anche l'energia elettrica prodotta da pannelli fotovoltaici e pile a combustibile. In un sistema in corrente continua, a differenza di uno in alternata, è molto importante rispettare il verso della corrente, ovvero la polarità. Esiste infatti nelle batterie un polo positivo ed uno negativo, che devono essere correttamente collegati al carico. Per esempio, un motore in corrente continua se alimentato al contrario ruota in senso inverso. Molti circuiti elettronici se alimentati erroneamente possono guastarsi. La corrente continua può essere prodotta a partire da una corrente alternata (CA) con un processo di raddrizzamento, effettuato con diodi o ponti raddrizzatori. In realtà questi dispositivi eliminano la componente negativa della corrente alternata, producendo una corrente che non è ancora continua ma unidirezionale pulsante, ovvero composta idealmente da una corrente alternata sovrapposta ad una continua. Un condensatore successivo al raddrizzatore provvede a livellare il segnale, fornendo una corrente quanto più possibile vicino ad un valore continuo. Viceversa, la conversione di una corrente continua in una alternata è molto più complessa, in particolare perché è necessario generare informazione relativa a forma d'onda, frequenza e fase. L'operazione è svolta da complessi dispositivi elettronici definiti inverter. La corrente continua fu adottata da Thomas Alva Edison verso la fine del XIX secolo agli inizi della distribuzione elettrica industriale. Successivamente però la tecnologia si è spostata verso la corrente alternata, più conveniente per la trasmissione di energia elettrica a distanza. Oggigiorno la corrente continua è adottata in alcuni elettrodotti (HVDC), nei cavi sottomarini e nell'alimentazione ferroviaria in alcune nazioni.
Corrente elettrica
E' un qualsiasi flusso ordinato di carica elettrica, tipicamente attraverso un filo metallico o qualche altro materiale conduttore. La corrente convenzionale venne definita inizialmente, nella storia dell'elettricità, come il flusso di carica positiva, anche se sappiamo, nel caso della conduzione metallica, che la corrente è causata dal flusso di elettroni con carica negativa nella direzione opposta. Nonostante ciò, l'originale definizione di corrente convenzionale resta valida. Il simbolo normalmente usato per la quantità di corrente (la quantità di carica che scorre nell'unità di tempo) è I, e l'unità di misura nel SI della corrente elettrica è l'ampere. La corrente elettrica viene anche chiamata intensità di corrente . Sappiamo che un conduttore si trova in equilibrio elettrico se il campo elettrico è nullo in ogni punto interno al conduttore, ossia il potenziale elettrico sia costante in ogni punto del conduttore. Chiaramente se vi è una differenza di potenziale fra due punti del conduttore allora vi è anche campo elettrico diverso da zero e quindi corrente elettrica. Questa differenza di potenziale viene chiamata forza elettromotrice ed è alla base del funzionamento dei circuiti elettrici ed elettromagnetici insieme alla Legge di Ohm e alle Leggi di Kirchhoff. Presa una sezione del conduttore attraverso la quale transita una quantità di carica elettrica ΔQ nell'intervallo di tempo Δt si ha un'intensità di corrente elettrica:

I = \lim_{\Delta t \to 0} \frac {\Delta Q}{\Delta t} = \frac {dQ}{dt}

L'intensità di corrente elettrica è una quantità scalare. Essa può essere rappresentata da un vettore che si chiama densità di corrente. La corrente elettrica può essere misurata direttamente con un amperometro, ma questo metodo richiede l'interruzione del circuito, che talvolta può essere un inconveniente. La corrente può anche essere misurata senza interrompere il circuito, tramite il rilevamento del campo magnetico da essa generato. Gli strumenti usati per questo comprendono: sensori a effetto Hall, morsetti e spire di Rogowski.
Costante dielettrica La permittività elettrica (nel Sistema Internazionale), o impropriamente costante dielettrica (nel linguaggio comune), è una grandezza fisica che descrive come un campo elettrico influenza ed è influenzato da un mezzo dielettrico, ed è determinata dalla capacità di un materiale di polarizzarsi in presenza del campo e quindi ridurre il campo elettrico totale nel materiale. In breve quindi la permettività è la predisposizione di un materiale a trasmettere (o permettere) un campo elettrico. Essa compare nella legge di Coulomb e varia secondo il materiale in cui sono immerse le cariche elettriche. La permittività elettrica è in genere un numero reale; risulta tuttavia molto utile introdurre una permittività complessa quando si trattano campi sinusoidali, cioè quando si lavora nel dominio della frequenza. In questo modo è infatti possibile trattare le equazioni di Maxwell in forma differenziale con un formalismo simile al caso del vuoto anche in mezzi dissipativi (cioè a conducibilità finita ) o dispersivi ( cioè le cui proprietà elettromagnetiche variano al variare della frequenza dei campi incidenti ). Questo accorgimento non è invece possibile nel dominio del tempo. Va inoltre detto che la permittività relativa stessa può, in particolari condizioni, essere rappresentata mediante un numero complesso, in accordo con modelli di polarizzazione macroscopici del primo ordine, i quali descrivono la proporzionalità e lo sfasamento fra il vettore polarizzazione nel dielettrico e il campo esterno forzante. La sua parte immaginaria, in particolare, segue un andamento risonante: è cioè molto piccola alle basse e alle alte frequenze ma presenta uno o più picchi a frequanze fissate, legate all'inerzia dei costituenti atomici del materiale. In corrispondenza di questi picchi l'assorbimento di energia da parte del dielettrico è massimo: esso così si scalda. Un esempio pratico è dato, in tal senso, dal forno a microonde: tale dispositivo infatti "cuoce" i cibi irradiandoli alla frequanza di risonanza dell'acqua, che risponde dissipando energia e cioè scaldandosi. Per questo stesso motivo inoltre, altri materiali, come la ceramica costituente il piatto, non vengono scaldati se non perchè a contatto con cibi caldi: le loro frequanze di assorbimento sono molto diverse da quelle utilizzate nel forno. In un dielettrico si manifestano delle cariche libere, di polarizzazione - sp e + sp. Il termine costante dielettrica del dielettrico fornisce una quantificazione di tale polarizzazione. Essa si misura in farad al metro nel SI . Nel vuoto prende il nome di permittività elettrica del vuoto e vale: dove c è la velocità della luce nel vuoto e µ0 è la permeabilità magnetica nel vuoto. Negli altri mezzi si indica con ed è posta uguale a: dove viene chiamato permittività elettrica relativa (costante dielettrica relativa) ed è un numero adimensionale sempre maggiore di 1. Poiché nella legge di Coulomb la permittività (costante dielettrica) compare al denominatore, la forza che si esercita fra due cariche elettriche, in valore assoluto, è massima nel vuoto e diminuisce al crescere della permittività relativa. Ciò significa che minore è la costante dielettrica di un mezzo, più esso presenterà caratteristiche isolanti, dato che, se si collocano due corpi di carica opposta alle estremità di una barretta di materiale dielettrico (quindi con costante dielettrica bassa) insorge un campo elettrico lungo la barretta, dando così una forza (legge di Coulomb) alta; al contrario, se tra le due cariche viene posto un materiale conduttore (quindi con costante dielettrica alta), la carica fluisce attraverso di esso e il campo elettrico si annulla dopo pochi istanti, dando così una forza (legge di Coulomb) bassa. Occorre ricordare che i materiali isolanti vengono anche chiamati dielettrici. Nel caso dell'aria, la permettività elettrica è , approssimata ad 1 che è il valore assegnato alla costante dielettrica nel vuoto. L'aria è l'unico mezzo fisico che viene assimilato allo spazio vuoto.Quando si lavora con campi sinusoidali nel dominio della frequenza, si può introdurre una permittività elettrica complessa. Se in un mezzo reale, avente permittività relativa e conducibilità s insiste un campo elettromgnetico di pulsazione ? , è lecito descrivere la relazione di proporzionalità fra il rotore del vettore intensità magnetica e il campo elettrico mediante una costante dielettrica complessa. In particolare la parte reale di tale parametro sarà ancora pari a , mentre la parte immaginaria sarà pari al rapporto tra la conducibilità e la pulsazione, cambiato di segno. Dal momento che tutti i materiali hanno una conducibilità finita, risulta evidente che ad alte frequenze la dispersione, cioè la dipendenza da parte di dalla frequenza, risulta trascurabile e la costante dielettrica diviene nuovamente reale.
Costante dielettrica
La permittività elettrica (nel Sistema Internazionale), o impropriamente costante dielettrica (nel linguaggio comune), è una grandezza fisica che descrive come un campo elettrico influenza ed è influenzato da un mezzo dielettrico, ed è determinata dalla capacità di un materiale di polarizzarsi in presenza del campo e quindi ridurre il campo elettrico totale nel materiale. In breve quindi la permettività è la predisposizione di un materiale a trasmettere (o permettere) un campo elettrico. Essa compare nella legge di Coulomb e varia secondo il materiale in cui sono immerse le cariche elettriche. La permittività elettrica è in genere un numero reale; risulta tuttavia molto utile introdurre una permittività complessa quando si trattano campi sinusoidali, cioè quando si lavora nel dominio della frequenza. In questo modo è infatti possibile trattare le equazioni di Maxwell in forma differenziale con un formalismo simile al caso del vuoto anche in mezzi dissipativi (cioè a conducibilità finita ) o dispersivi ( cioè le cui proprietà elettromagnetiche variano al variare della frequenza dei campi incidenti ). Questo accorgimento non è invece possibile nel dominio del tempo. Va inoltre detto che la permittività relativa stessa può, in particolari condizioni, essere rappresentata mediante un numero complesso, in accordo con modelli di polarizzazione macroscopici del primo ordine, i quali descrivono la proporzionalità e lo sfasamento fra il vettore polarizzazione nel dielettrico e il campo esterno forzante. La sua parte immaginaria, in particolare, segue un andamento risonante: è cioè molto piccola alle basse e alle alte frequenze ma presenta uno o più picchi a frequanze fissate, legate all'inerzia dei costituenti atomici del materiale. In corrispondenza di questi picchi l'assorbimento di energia da parte del dielettrico è massimo: esso così si scalda. Un esempio pratico è dato, in tal senso, dal forno a microonde: tale dispositivo infatti "cuoce" i cibi irradiandoli alla frequanza di risonanza dell'acqua, che risponde dissipando energia e cioè scaldandosi. Per questo stesso motivo inoltre, altri materiali, come la ceramica costituente il piatto, non vengono scaldati se non perchè a contatto con cibi caldi: le loro frequanze di assorbimento sono molto diverse da quelle utilizzate nel forno. In un dielettrico si manifestano delle cariche libere, di polarizzazione − σp e + σp. Il termine costante dielettrica \varepsilon del dielettrico fornisce una quantificazione di tale polarizzazione.

Essa si misura in farad al metro nel SI \frac{F}{m}=\frac{C^2}{m^2 \cdot N} = \frac{A^2 \cdot s^4}{m^3 \cdot kg} .

Nel vuoto prende il nome di permittività elettrica del vuoto e vale:

\varepsilon_0 = \frac{1}{{c}^2\mu_0} \approx 8,8541878176 \cdot  10^{-12}  \frac{F}{m}

dove c è la velocità della luce nel vuoto e μ0 è la permeabilità magnetica nel vuoto. Negli altri mezzi si indica con \varepsilon ed è posta uguale a:

\varepsilon = \varepsilon_0 \cdot \varepsilon_r

dove \varepsilon_r viene chiamato permittività elettrica relativa (costante dielettrica relativa) ed è un numero adimensionale sempre maggiore di 1. Poiché nella legge di Coulomb la permittività (costante dielettrica) compare al denominatore, la forza che si esercita fra due cariche elettriche, in valore assoluto, è massima nel vuoto e diminuisce al crescere della permittività relativa. Ciò significa che minore è la costante dielettrica di un mezzo, più esso presenterà caratteristiche isolanti, dato che, se si collocano due corpi di carica opposta alle estremità di una barretta di materiale dielettrico (quindi con costante dielettrica bassa) insorge un campo elettrico lungo la barretta, dando così una forza (legge di Coulomb) alta; al contrario, se tra le due cariche viene posto un materiale conduttore (quindi con costante dielettrica alta), la carica fluisce attraverso di esso e il campo elettrico si annulla dopo pochi istanti, dando così una forza (legge di Coulomb) bassa. Occorre ricordare che i materiali isolanti vengono anche chiamati dielettrici. Nel caso dell'aria, la permettività elettrica è \varepsilon_r = 1,00059, approssimata ad 1 che è il valore assegnato alla costante dielettrica nel vuoto. L'aria è l'unico mezzo fisico che viene assimilato allo spazio vuoto.Quando si lavora con campi sinusoidali nel dominio della frequenza, si può introdurre una permittività elettrica complessa. Se in un mezzo reale, avente permittività relativa \varepsilon_r e conducibilità σ insiste un campo elettromgnetico di pulsazione ω , è lecito descrivere la relazione di proporzionalità fra il rotore del vettore intensità magnetica e il campo elettrico mediante una costante dielettrica complessa. In particolare la parte reale di tale parametro sarà ancora pari a \varepsilon_0 \cdot \varepsilon_r , mentre la parte immaginaria sarà pari al rapporto tra la conducibilità e la pulsazione, cambiato di segno. Dal momento che tutti i materiali hanno una conducibilità finita, risulta evidente che ad alte frequenze la dispersione, cioè la dipendenza da parte di \varepsilon dalla frequenza, risulta trascurabile e la costante dielettrica diviene nuovamente reale.
Coulomb
E' l'unità di misura della carica elettrica, ed è definita in termini di ampere: 1 coulomb è la quantità di carica elettrica trasportata da una corrente di 1 ampere che scorre per 1 secondo.

 1 \ \mathrm{C} = 1 \ \mathrm{A} \cdot 1\ \mathrm{s}

1 Coulomb è all'incirca 6,24×10exp18 volte la carica di un elettrone. Prende il nome da Charles Augustin de Coulomb (1736 - 1806), il primo scienziato a studiare qualitativamente le cariche e le forze che ne regolano il moto.
Curie.
Il curie (simbolo Ci) è un'unità di misura dell'attività di un radionuclide. Esso venne adottato come unità di misura della radioattività durante il Congresso Internazionale di Radiologia che si tenne a Bruxelles nel 1910, presieduto proprio da Marie Curie. Un curie è pari approssimativamente all'attività di un grammo dell'isotopo radio-226 (226Ra), un materiale scoperto dai pionieri dello studio della radioattività Marie e Pierre Curie, da cui l'unità prende il nome, ed equivale a 37 miliardi di decadimenti al secondo.
Il curie è stato sostituito dal becquerel (Bq) nel sistema SI.
Equivalenze:
1 Ci = 3,7 × 1010 Bq = 37 GBq
1 Bq = 2,7 × 10-11 Ci = 27 pCi .
Curve di carico
Serie temporale dei consumi di energia elettrica del sito del cliente.


Clicca l'iniziale per trovare la parola cercata

A B C G H I J K L M N O P Q R S T U V W X Y Z


LOGO

D E F

Decreto Bersani
La liberalizzazione del mercato dell'energia elettrica si è realizzata in Italia per effetto del decreto legislativo del 16 marzo 1999 n. 79, che ha recepito la direttiva n. 96/92/CE del 19 dicembre 1996, concernente norme comuni per il mercato interno dell'energia elettrica. Noto come decreto Bersani (da Pierluigi Bersani, all'epoca ministro dell'Industria), il decreto legislativo n. 79/’99 ha stabilito che sono completamente libere le attività di produzione, importazione, esportazione, acquisto e vendita di energia elettrica, mentre le attività di trasmissione e dispacciamento sono riservate allo Stato, che le attribuisce in concessione al Gestore della Rete di Trasmissione Nazionale (GRTN). Per trasmissione si intende l'attività di trasporto e trasformazione dell'energia elettrica sulla rete interconnessa ad alta tensione, mentre dispacciamento è l'attività diretta ad impartire disposizioni per l'utilizzazione e l'esercizio coordinato degli impianti di produzione, della rete di trasmissione e dei servizi ausiliari. Il GRTN provvede a connettere alla rete di trasmissione nazionale tutti i soggetti che ne facciano richiesta, nel rispetto di determinate regole tecniche e di condizioni tecnico-economiche di accesso e di interconnessione fissate dall'Autorità per l'energia elettrica e il gas. Inoltre, il GRTN fornisce ai soggetti responsabili di ogni altra rete dell'Unione Europea interconnessa con la rete di trasmissione nazionale le informazioni necessarie per garantire il funzionamento sicuro ed efficiente, lo sviluppo coordinato e l'interoperabilità delle reti interconnesse. La distribuzione è il trasporto e la trasformazione di energia elettrica su reti di distribuzione a media e bassa tensione per le consegne ai clienti finali. L'attività di distribuzione viene svolta da imprese che operano sulla base di concessioni rilasciate dallo Stato. L'attività di vendita dell'energia elettrica è esercitata dai cosiddetti clienti grossisti, che acquistano e vendono energia elettrica senza esercitare attività di produzione, trasmissione e distribuzione. Il decreto Bersani individua la figura del cliente idoneo come la persona fisica o giuridica che ha la capacità, di stipulare contratti di fornitura con qualsiasi produttore, distributore o grossista sia in Italia sia all'estero, in riferimento a soglie di consumo, inizialmente fissate in 30 GWh/anno, poi ridotte a 20 (dal 1° gennaio 2000), a 9 (dal 1° gennaio 2002). A decorrere dal 1° luglio 2004 è cliente idoneo ogni cliente finale non domestico. Dal 1° luglio 2007 sarà cliente idoneo ogni cliente finale, realizzandosi così la liberalizzazione completa del settore.
Decreto Letta
La liberalizzazione del mercato del gas si è realizzata in Italia per effetto del decreto legislativo del 23 maggio 2000 n. 164, che ha recepito la direttiva n. 98/30/CE del 28 giugno 1998, relativa a norme comuni per il mercato interno del gas naturale. Noto come decreto Letta (da Enrico Letta, all'epoca ministro dell'Industria), il decreto legislativo n. 164/2000 ha stabilito che sono completamente libere le attività di importazione, trasporto e dispacciamento, distribuzione e vendita di gas naturale. Dispacciamento è l'attività diretta ad impartire disposizioni per l'utilizzazione e l'esercizio coordinato degli impianti di coltivazione, di stoccaggio, della rete di trasporto e di distribuzione e dei servizi accessori. Trasporto è il vettoriamento di gas naturale attraverso la rete di gasdotti, esclusi quelli di coltivazione e le reti di distribuzione. La distribuzione è il trasporto di gas naturale attraverso reti di gasdotti locali per la consegna ai clienti, mentre la fornitura è la consegna o la vendita di gas. L'attività di vendita è incompatibile con quella di trasporto o distribuzione: anche nel caso del gas viene individuata nel cliente grossista la persona fisica o giuridica che acquista e vende gas. I clienti idonei erano stati individuati nelle imprese produttrici di energia elettrica e in quelle che acquistano il gas per la cogenerazione di energia elettrica e calore, indipendentemente dalla soglia di consumo. Per le altre imprese era stata fissata una soglia di acquisto pari a 200.000 Smc/anno. A decorrere dal 1º gennaio 2003 tutti i clienti sono idonei, per cui anche gli utenti domestici possono scegliersi il fornitore che offre le condizioni più convenienti.
Densità di corrente
E' la quantità di carica per unità di tempo che attraversa l'unità di superficie (per una sezione trasversale): siano N il numero dei portatori di carica per m3 ognuno di essi di carica q che si muovono entro il conduttore con velocità vd detta velocità di deriva; allora la carica che fluisce nell'unità di tempo attraverso una sezione A del conduttore è:

I = \int_{A} N q \vec v_d \cdot \vec n dA

dove \vec n è il versore normale alla superficie A. Si chiama allora vettore densità di corrente il vettore:

\vec J = N q \vec v_d

Questo è un vettore che ha la stessa direzione e lo stesso verso della velocità di deriva dei portatori di carica che a sua volta ha direzione uguale e concorde al campo elettrico se la carica q è positiva e discorde se negativa. In ogni caso \vec J è parallelo e concorde al campo elettrico \vec E e si misura in \left [ \frac {A}{m^2} \right ].

La corrente elettrica I è definita come il flusso netto della densità di corrente attraverso una superficie del conduttore:

I = \int_{A} \vec J \cdot \vec n dA = \Phi_A (\vec J)

La densità di corrente può essere dovuta sia a portatori positivi che negativi e quindi in generale è definita come:

\vec{J} = N_+ q_+ \vec v_+ + N_- q_- \vec v_-

dove N + ed N − è il numero di portatori di cariche per metrocubo rispettivamente di cariche q + e q − che attraversano la stessa sezione di conduttore con velocità \vec v_+ e \vec v_-. È una grandezza vettoriale.
Devolatizzazione del carbone.
La devolatilizzazione del carbone consiste sostanzialmente nella pirolisi di questo combustibile, nel corso della quale si formano tre classi di prodotti: i gas leggeri, il tar e il char. I gas leggeri sono i primi a liberarsi e trascinano con sé anche il tar, definito come una frazione dei prodotti di pirolisi che si separa dalla rimanente frazione solida. Alla temperatura ambiente si presenterebbe in fase liquida ma, per via delle elevate temperature che si instaurano nella camera di combustione, si trova in fase vapore. Rimane il char, costituito da particelle sferoidali solide porose con un elevato contenuto di carbonio, quasi totalmente in forma aromatica o grafitica. Questo è l’ultimo prodotto a reagire nella combustione.
Diagramma di potenza
Limiti di funzionamento ammissibili di un generatore sincrono nel piano cartesiano Potenza reattiva/Potenza attiva, definiti sulla base delle temperature o delle sovratemperature ed, eventualmente, della stabilità statica. Il diagramma è tracciato per il funzionamento a tensione e a frequenza nominali e, per le macchine raffreddate con idrogeno, a pressione nominale di idrogeno. Esso è tipicamente costituito dall'insieme di curve che definiscono il limite per:

  • riscaldamento dell'avvolgimento di eccitazione,
  • riscaldamento dell'avvolgimento statorico,
  • riscaldamento delle parti di estremità,
  • potenza meccanica del motore primo,
  • stabilità statica.


Digestione anaerobica
Per digestione anaerobica si intende la degradazione di sostanza organica da parte di microrganismi in condizioni di anaerobiosi. Si tratta di un processo alternativo al compostaggio, che è al contrario strettamente aerobico. Convenzionalmente, in relazione al tipo di batteri utilizzati, esistono due differenti intervalli di temperatura in cui viene condotta la digestione anaerobica:

  • con batteri mesofili si lavora a temperature comprese tra 20-45 °C, con un intervallo ottimale di 37°-41°C;
  • con batteri termofili le condizioni di esercizio ottimali implicano un intervallo di temperatura compreso tra i 50°-52 °C, con temperature che possono anche essere relativamente elevate e superare i 70 °C.

Il tempo di residenza in un digestore varia in funzione della quantità di materiale da trattare, del tipo di materiale e dalla temperatura di esercizio. Altro parametro particolarmente importante è il valore di pH. Nel caso della digestione condotta con batteri mesofili il tempo di residenza è compreso tra i 15 e i 30 giorni. Nel caso della digestione UASB con batteri mesofili, che permette il trattamento delle acque reflue, i tempi di residenza differiscono in relazione alla parte liquida e a quella solida, con i primi che rispettivamente rientrano nell'arco di un giorno mentre i secondi non superano i 90 giorni. Nel caso di un processo con batteri termofili le temperature più elevate permettono di velocizzare la digestione, richiedendo solamente due settimane per giungere a completamento. Di contro la digestione termofila ha un costo maggiore, richiede più energia ed è più critica dell'analogo processo mesofilo. Quest'ultimo è quindi quello attualmente più utilizzato. I digestori più comuni sono quelli continui: possiedono dispositivi meccanici o idraulici atti a mescolare il materiale e a estrarne in continuazione gli eccessi per mantenere un volume ragionevolmente costante, durante l'aggiunta continua di materiale organico. L'altra tipologia di digestori è quella discontinua batch, impiantisticamente più semplice ma che ha lo svantaggio di emettere odori e di possedere cicli di svuotamento problematici: una volta avvenuta l'alimentazione iniziale il reattore viene chiuso e sull'intera massa trattata non agisce alcun dispositivo di sorta per tutta la durata del processo. La digestione del materiale organico biodegradabile implica l'uso di molte differenti specie di batteri occorrenti in natura, ognuna delle quali ha un ruolo differente in una differente fase del processo di digestione. Lo stretto controllo delle condizioni operative di un digestore è essenziale per assicurare la crescita batterica e l'effettivo verificarsi del biochimismo necessario per il buon fine della digestione stessa. La digestione anaerobica è suddivisibile in quattro stadi:

  1. Idrolisi, dove le molecole organiche subiscono scissione in composti più semplici quali i monosaccaridi, amminoacidi e acidi grassi.
  2. Acidogenesi, dove avviene l'ulteriore scissione in molecole ancora più semplici come gli acidi grassi volatili (ad esempio acido acetico, propionico, butirrico e valerico), con produzione di ammoniaca, anidride carbonica e acido solfidrico quali sottoprodotti.
  3. Acetogenesi, dove le molecole semplici prodotte nel precedente stadio sono ulteriormente digerite producendo biossido di carbonio, idrogeno e principalmente acido acetico.
  4. Metanogenesi, con produzione di metano, biossido di carbonio e acqua.

La digestione anaerobica può essere effettuata sia a umido che a secco. La digestione a secco si riferisce a miscele di materiale con contenuto minimo in solidi del 30%, mentre la digestione a umido si riferisce a miscele con un minimo del 15% di contenuto in solidi. Uno dei sottoprodotti della digestione anaerobica èil biogas. Il biogas è una miscela gassosa composta prevalentemente da metano e anidride carbonica, ma contenente anche una piccola quantità di idrogeno e occasionalmente tracce di acido solfidrico. Il biogas può essere bruciato per produrre elettricità, solitamente tramite motore a scoppio o microturbina. Il gas è spesso utilizzato anche per la cogenerazione, generando elettricità e sfruttando il calore per riscaldare gli stessi digestori o effettuare il teleriscaldamento. L'elettricità prodotta dalla digestione anaerobica viene considerata una forma di energia verde. Dato che il gas non viene rilasciato direttamente nell'atmosfera e l'anidride carbonica deriva da fonte organica caratterizzata da breve ciclo del carbonio, il biogas con la sua combustione non contribuisce all'aumento delle concentrazioni atmosferiche di CO2 e grazie a ciò viene considerato una fonte energetica a basso impatto ambientale. La produzione di biogas non avviene in modo costante, durante il processo della digestione anaerobica; il livello massimo viene raggiunto durante la fase centrale del processo. Nelle prime fasi della digestione la produzione di biogas è minore, perché i batteri non si sono ancora riprodotti abbastanza. Verso le fasi finali, resta solamente il materiali più difficilmente digeribile, con una conseguente diminuzione della quantità di biogas prodotto.
Dispacciamento
E’ l’attività diretta ad impartire disposizioni per l’utilizzazione e l’esercizio coordinati degli impianti di produzione, della rete di trasmissione e dei servizi ausiliari ai fini dell’equilibrio tra immissioni e prelievi di energia elettrica dovuti alla produzione e al consumo di potenza attiva e reattiva ad ogni istante.
Dissipazione di energia
Perdita di energia, in genere causata da conversione in calore.
Distorsione armonica di ordine n
Rapporto tra il valore efficace dell'armonica di ordine n di una grandezza alternata ed il valore efficace della sua fondamentale.
Distributore
Il soggetto che svolge il servizio di distribuzione di energia elettrica sulla base di concessioni rilasciate dal Ministero dell'Industria, del Commercio e dell'Artigianato.
Distribuzione
Il trasporto e la trasformazione di energia elettrica su reti di distribuzione ad alta, media e bassa tensione per la consegna ai Clienti Finali.
Dose equivalente (radioattività).
La dose equivalente è una grandezza fisica che misura gli effetti biologici e il danno provocato dall'assorbimento di radiazioni su un organismo o su un determinato organo o tessuto. Rispetto alla dose assorbita, che misura in assoluto una dose di energia assorbita da una unità di massa, la dose equivalente riflette piuttosto gli effetti biologici della radiazione sull'organismo. I diversi tipi di radiazione possono essere infatti più o meno dannosi per l'organismo. La dose equivalente H si ottiene moltiplicando la dose assorbita A per un fattore adimensionale di ponderazione wr che tiene conto della diversa pericolosità dei vari tipi di radiazione. Raggi X e gamma, vengono considerati come radiazione di riferimento e ad essi si associa per definizione il valore di wr = 1. Per raggi beta si ha ancora wr = 1. Mentre per i raggi alfa, più dannosi per l'organismo, wr = 20. Per i fasci di neutroni wr può equivalere da 3 a 11 a seconda dell'energia del fascio. La dose equivalente si misura in sievert (Sv). Un sievert a differenza di un gray (Gy) (unità di misura della dose assorbita), produce gli stessi effetti biologici indipendentemente dal tipo di radiazione considerata. Viene introdotta inoltre anche l'intensità di dose equivalente definita come la dose equivalente ricevuta nell'unità di tempo o tasso di dose. L'intensità di dose equivalente si misura in sievert al secondo (Sv/s). Infatti, per quanto il danno biologico sia direttamente legato alla dose equivalente, un organismo ha una certa facoltà di riparare nel tempo il danno biologico causato dalla radiazione.
Ecologia.
L'ecologia (dal greco: oikos, casa o ambiente e logos, discorso o studio) è la disciplina che studia l'ecosfera, ossia la porzione della Terra in cui è presente la vita in aggregati sistemici detti "ecosistemi", le cui caratteristiche sono determinate dall'interazione degli organismi tra loro e con l’ambiente circostante o ancora porzioni dell'ecosfera stessa. In pratica l'ecologia si occupa di cinque livelli di complessità del vivente: le popolazioni, le comunità, gli ecosistemi, i paesaggi o biomi, l'ecosfera. Una porzione di biosfera delimitata naturalmente può contenere un ecosistema; i fattori ambientali che determinano un ecosistema sono solitamente classificati in fattori biotici, abiotici e limitanti; ecosistemi di livello inferiore possono essere contenuti in ecosistemi più ampi. Più ecosistemi, aggregandosi, formano un paesaggio e più paesaggi compongono l'ecosfera, massimo livello di aggregazione della materia vivente. Il termine ecologia fu coniato dal biologo tedesco Ernst Haeckel nel 1866. Egli la definì come “l’insieme di conoscenze che riguardano l'economia della natura; l’indagine del complesso delle relazioni di un animale con il suo contesto sia inorganico sia organico, comprendente soprattutto le sue relazioni positive e negative con gli animali e le piante con cui viene direttamente o indirettamente a contatto. In una parola, l’ecologia è lo studio di tutte quelle complesse relazioni alle quali Darwin fece riferimento come alle condizioni della lotta per l’esistenza”. La Teoria dei sistemi viventi è un elemento fondamentale dello studio ecologico. Un altro concetto importante è la Teoria della selezione naturale. È necessario puntualizzare la differenza tra il termine ecologia portato alla ribalta dal movimento ambientalista negli anni ‘60 e ’70, ed il corretto significato scientifico dell’ecologia, che fino ad allora era stata familiare solo a un gruppo ristretto di accademici e biologi. Per gli ambientalisti l’ecologia è la disciplina in grado di fornire una “guida” per le relazioni dell’uomo con il proprio ambiente e, con la diffusione del movimento, divenne un termine utilizzato quotidianamente e spesso impropriamente (p. esempio: ecologia = studio dell'inquinamento). Tale tendenza si manifesta ancora oggi, confondendo spesso erroneamente l’ecologia con l'ambiente, con la conservazione della natura o con altri concetti e studi simili. L’”ambientalismo” è attivismo con lo scopo di migliorare l’ambiente soprattutto attraverso attività educative pubbliche, propaganda di idee, programmi legislativi e convenzioni. L’”ambiente”, relativo ad uno specifico soggetto vivente (singolo o collettivo), è l'insieme delle condizioni e degli elementi del paesaggio circostante (in senso ecologico) con cui un organismo stabilisce una o più relazioni di varia importanza o tipo. La definizione di ecologia quindi è ben diversa da quella che la maggior parte della gente dà convenzionalmente al termine. Innanzitutto l’ecologia è una scienza, cioè un complesso organico di conoscenze. Usualmente viene definita come “lo studio scientifico delle relazioni tra gli organismi e l’ambiente”, considerando come:
- Relazioni, sia le interazioni con il mondo fisico, sia quelle con tutte le altre specie e con la propria
- Ambiente, sia il contesto delle componenti viventi, sia le condizioni fisiche relazionate con un organismo.

Ecosistema.
Un ecosistema è una porzione di biosfera delimitata naturalmente, cioè l'insieme di organismi animali e vegetali che interagiscono tra loro e con l'ambiente che li circonda. Il termine "ecosistema" si deve all'ecologo inglese Arthur Tansley che lo formulò nel 1935. Ogni ecosistema è costituito da una comunità di organismi ed elementi non viventi con il quale si vengono a creare delle interazioni reciproche in equilibrio dinamico. Un ecosistema viene definito come un sistema aperto, con struttura e funzione caratteristica determinata da:
- Flusso di energia;
- Circolazione di materia tra componente biotica e abiotica.
Gli ecosistemi presentano quattro caratteristiche comuni:
- sono sistemi aperti;
- sono strutture interconnesse con altri ecosistemi;
- tendono a raggiungere e a mantenere nel tempo una certa stabilità;
- sono sempre formati da una componente abiotica e da una componente biotica.
La componente abiotica è costituita dagli elementi non viventi, dai composti organici e inorganici e da fattori climatici. La componente biotica è costituita da organismi animali e vegetali; si possono distinguere tre diverse categorie: i produttori primari, i consumatori, e i decompositori.
Nella quasi totalità degli ecosistemi terrestri il flusso di energia si origina dalla radiazione solare che, a differenza della materia, non è riciclabile, ma viene mandata in modo costante dal Sole. Una volta raggiunta la Terra solo una piccola parte di questa energia viene catturata ed utilizzata dagli organismi autotrofi fotosintetici per la trasformazione della sostanza inorganica in sostanza organica. La reazione chimica che permette di immagazzinare l'energia luminosa solare è la fotosintesi clorofilliana, che avviene nelle parti verdi delle piante acquatiche e terrestri, microscopiche come le alghe unicellulari o enormi come la sequoia. In questo modo si ottengono i tre tipi fondamentali di composti organici: carboidrati, grassi e proteine.
Attraverso la catena alimentare, la materia organica viene poi utilizzata come fonte di energia dagli organismi eterotrofi, entrando così in circolo nell'ecosistema. La catena alimentare è una semplificazione del rapporto che esiste tra gli organismi viventi, e prende in esame uno solo dei possibili percorsi che la materia compie nell'ecosistema. È preferibile parlare di rete alimentare perché i rapporti tra i viventi sono estremamente complessi, specialmente negli ecosistemi evoluti, come il climax. In sintesi parte delle sostanze chimiche inorganiche presenti nel terreno (cioè acqua e sali minerali) e nell'aria (anidride carbonica), vengono trasformate in sostanze organiche, che costituiscono prima di tutto i tessuti degli organismi vegetali, le piante cioè, che sono il primo anello della catena alimentare, e vengono definite produttori. I consumatori primari, cioè gli erbivori (insetti e animali superiori) se ne nutrono, e sfruttano l'energia chimica immagazzinata nelle sostanze organiche prodotte dai produttori. A loro volta questi consumatori primari sono preda dei consumatori secondari, cioè dei carnivori, predatori, (ad esempio grandi felini, rapaci, invertebrati predatori come ragni e scorpioni, pesci, e così via). A volte è difficile stabilire in modo preciso i vari rapporti che si formano tra prede e predatori, con i consumatori che possono essere primari, cioè di primo livello, secondari, cioè di secondo livello, e così via, sino ad arrivare ai predatori apicali, che di solito, in un ecosistema sono sempre poco numerosi. Tra i consumatori apicali o finali ci sono i grandi rapaci, come l'aquila, oppure, tra i mammiferi, il lupo, la volpe, o la tigre e il leone, a seconda dell'ambiente geografico. Quando produttori e consumatori muoiono e non vengono utilizzati da altri membri della catena, i decompositori (batteri, funghi) smontano le sostanze organiche in elementi e composti inorganici che concimeranno il terreno ed entreranno di nuovo nel ciclo. Un ecosistema è in equilibrio quando la catena del ciclo alimentare si chiude e quando le innumerevoli e multiformi relazioni fra gli organismi viventi (come il parassitismo, simbiosi, commensalismo) funzionano in modo da regolare il delicato meccanismo di un ecosistema all'interno dell'ecoregione.
Effetto fotovoltaico
L'effetto fotovoltaico si realizza quando un elettrone presente nella banda di valenza di un materiale (generalmente semiconduttore) passa alla banda di conduzione a causa dell'assorbimento di un fotone sufficientemente energetico incidente sul materiale. L'effetto fotovoltaico, osservato per la prima volta da Alexandre Edmond Becquerel nel 1839, costituisce una delle prove indirette della natura corpuscolare delle onde elettromagnetiche. La teoria fisica che spiega l'effetto fotoelettrico, del quale l'effetto fotovoltaico ne rappresenta una sottocategoria, fu pubblicata nel 1905 da Albert Einstein che per questo ricevette il premio Nobel. Quando una radiazione elettromagnetica investe un materiale può, in certe condizioni, cedere energia agli elettroni più esterni degli atomi del materiale e, se questa è sufficiente, l'elettrone risulta libero di allontanarsi dall'atomo di origine. L'assenza dell'elettrone viene chiamata in questo caso lacuna. L'energia minima necessaria all'elettrone per allontanarsi dall'atomo (passare quindi dalla banda di valenza che corrisponde allo stato legato più esterno alla banda di conduzione ove non è più legato) deve essere superiore alla banda proibita (band gap) del materiale. Questo fenomeno viene usualmente utilizzato nella produzione elettrica nelle celle fotovoltaiche. Il meccanismo di funzionamento si basa sull'utilizzo di materiali semiconduttori. Infatti, nel caso di materiali isolanti, il band gap risulta troppo elevato per poter essere eguagliato dall'energia del fotone incidente, mentre per i materiali conduttori l'energia del band gap è piccolissima, quindi a temperatura ambiente c'è una continua creazione e distruzione di coppie elettrone-lacuna e l'energia necessaria alla creazione viene fornita direttamente dalle fluttuazioni termiche. Quando un flusso luminoso investe invece il reticolo cristallino di un semiconduttore, si verifica la transizione in banda di conduzione di un certo numero di elettroni al quale corrisponde un egual numero di lacune che passa in banda di valenza. Si rendono pertanto disponibili portatori di carica, che possono essere sfruttati per generare una corrente. Per realizzare ciò è necessario creare un campo elettrico interno alla cella, stabilendo un eccesso di atomi caricati negativamente (anioni) in una parte del semiconduttore ed un eccesso di atomi caricati positivamente (cationi) nell’altro. Questo meccanismo si ottiene mediante drogaggio del semiconduttore che generalmente viene realizzato inserendo atomi del terzo gruppo come ad esempio il boro e del quinto gruppo (fosforo) per ottenere rispettivamente una struttura di tipo p (con un eccesso di lacune) ed una di tipo n (con un eccesso di elettroni). Lo strato drogato con elementi del quinto gruppo, che hanno cinque elettroni esterni (o di valenza) contro i tre di quelli del terzo gruppo, presenta una carica negativa debolmente legata, costituita da un elettrone in eccesso per ogni atomo drogante. Nello stesso modo, nello strato drogato con elementi del terzo gruppo, che hanno invece tre elettroni esterni, si ottiene un eccesso di carica positiva, data dalle lacune degli atomi droganti. Il primo strato, a carica negativa, viene generalmente chiamato strato n, l'altro, a carica positiva, strato p, la zona di separazione è detta giunzione p-n. Va sottolineato che il materiale risulta essere globalmente neutro, dato che il drogaggio viene realizzato con atomi neutri (non ioni), quello che cambia è l'eccesso di elettroni nei legami covalenti, da una parte, e il difetto degli stessi dall'altra. Mettendo a contatto i due materiali così ottenuti, si viene a verificare un flusso di diffusione di elettroni dalla zona n alla zona p e di lacune in direzione opposta, fino al raggiungimento dell'equilibrio elettrostatico, che determina un eccesso di carica positiva nella zona n, un eccesso di elettroni nella zona p e una regione intermedia detta regione di svuotamento (in inglese depletion region). Il risultato è un campo elettrico interno al dispositivo (detto campo elettrico di built-in) che si estende a cavallo della regione di svuotamento, generalmente spessa pochi micrometri. A questo punto, se viene illuminata con fotoni la giunzione dalla parte n, vengono a crearsi delle coppie elettrone-lacuna sia nella zona n che nella zona p. Il campo elettrico di built-in permette di dividere gli elettroni in eccesso (ottenuti dall’assorbimento dei fotoni da parte del materiale) dalle lacune, e li spinge in direzioni opposte gli uni rispetto agli altri. Gli elettroni, una volta oltrepassata la zona di svuotamento non possono quindi più tornare indietro, perché il campo impedisce loro di invertire la marcia. Connettendo la giunzione con un conduttore esterno, si otterrà un circuito chiuso nel quale il flusso di elettroni parte dallo strato n, a potenziale maggiore, verso lo strato p, a potenziale minore sintanto che la cella resta esposta alla luce. In figura è mostrato il circuito equivalente di una cella fotovoltaica.

Circuito equivalente di una cella fotovoltaica.
Efficienza energetica
Rendimento energetico. La quantità di lavoro eseguita o di profitto ottenuto per unità di risorsa energetica impiegata.
Efficienza energetica (politica UE)
Ridurre il consumo di energia e prevenirne gli sprechi sono un obiettivo prioritario dell'Unione europea (UE). Favorendo il miglioramento dell'efficienza energetica, l'UE dà un contributo decisivo alla competitività, alla sicurezza degli approvvigionamenti e al rispetto degli impegni assunti nel quadro del protocollo di Kyoto sui cambiamenti climatici. Le possibilità di riduzione esistenti sono notevoli, in particolare nei settori a elevato consumo di energia, quali il settore dell'edilizia, delle industrie manifatturiere, della conversione dell'energia e dei trasporti. Alla fine del 2006 l'UE si è impegnata a ridurre del 20% il consumo annuo di energia primaria entro il 2020. Per conseguire questo obiettivo, essa mobilita i cittadini, i responsabili politici e gli operatori del mercato, e fissa, tra l'altro, norme minime di rendimento energetico e regole in materia di etichettatura, applicabili ai prodotti, ai servizi e alle infrastrutture. Comunicazione della Commissione, del 19 ottobre 2006, "Piano d'azione per l'efficienza energetica: concretizzare le potenzialità" [COM(2006) 545]. Vedi anche articolo su efficienza energetica.
Efficienza di conversione di un dispositivo fotovoltaico (in %)
Rapporto tra l’energia elettrica prodotta e l’energia solare raccolta dal dispositivo fotovoltaico.
Elettrodotto
Un elettrodotto è un sistema per la trasmissione di energia elettrica. La costituzione degli elettrodotti è molto variabile in funzione della tensione operativa e se questa è in corrente continua o corrente alternata. Gli elettrodotti per alta tensione sono costituiti da tralicci o piloni metallici che mantengono sospesi i cavi conduttori ad una altezza sicura. Gli elettrodotti per media tensione sono più semplici e molto più bassi. In alcuni casi, per esempio per attraversare una zona abitata, si ha la necessità di interrare le linee in speciali cavi ad alto isolamento, che però presentano maggiori perdite di energia per gli effetti capacitivi tra il conduttore ed il terreno. Altri elettrodotti speciali sono in cavi sottomarini per energia elettrica. Un generico elettrodotto è costituito dalle strutture di sostegno, i cavi conduttori e gli elementi isolati
Elettromagnetismo
E' la branca della fisica che studia i fenomeni di natura elettrica e magnetica, tra cui i campi magnetici prodotti dalle correnti elettriche, e le correnti elettriche prodotte dai campi magnetici variabili, il cui comportamento classico è descritto dalle equazioni di Maxwell. Solitamente per elettromagnetismo si intende la teoria classica, sintetizzata nelle equazioni di Maxwell. Tale teoria descrive accuratamente la realtà fisica fino a dimensioni quantistiche.
Energia
Attitudine di un corpo o di un sistema di corpi a compiere un lavoro. Il pianeta Terra può essere considerato come un unico grande sistema energetico che riceve l'energia solare, mentre riflette energia luminosa e irradia energia termica. Il flusso di energia rappresenta la principale risorsa rinnovabile. All'interno del suddetto sistema hanno luogo molte trasformazioni tra i diversi tipi di energia. Nel corso del tempo la Terra non acquista né perde energia ma si trova in uno stato di equilibrio energetico o omeostasi. Nel corso dei millenni l'uomo ha cercato di incanalare le fonti energetiche per soddisfare le proprie esigenze. La principale fonte di energia, il Sole, non può essere controllata. L'energia solare viene utilizzata nell'agricoltura, ma come risorsa energetica "passiva" per stimolare la fotosintesi. Sono state invece sviluppate molte altre forme di energia, la maggior parte delle quali basate sulla combustione della legna, del carbone, del gas naturale o del petrolio. Questi combustibili fossili sono risorse non rinnovabili e sono attualmente in corso delle ricerche, seppure su scala limitata, per scoprire e utilizzare fonti di energia alternativa.
Energia cinetica
L'energia cinetica è l'energia che un corpo possiede in virtù del suo movimento. Tale concetto formalizza l'idea che un corpo in moto è in grado di compiere lavoro in quanto esso è in moto. L'energia cinetica di un punto materiale può essere espressa matematicamente dal semiprodotto della sua massa per il quadrato del modulo della sua velocità; in coordinate cartesiane si esprime di consueto come:

 E_k = \frac{1}{2}  m v^2 = \frac{1}{2} m (v^2_x + v^2_y + v^2_z)

L'energia cinetica di un corpo rigido in rotazione su un asse con velocità angolare ω e che trasla nello spazio con velocità v è:

 E_k = \frac{1}{2}  M v^2 + \frac{1}{2} I \omega ^2

dove M è la massa totale del corpo ed I il momento d'inerzia rispetto all'asse di rotazione.

L'energia cinetica dipende dal sistema inerziale di riferimento. In un sistema di riferimento stazionario l'energia cinetica assume un valore inferiore di quello assumibile in un sistema di riferimento in movimento. L'energia cinetica aggiuntiva è quella corrispondente all'energia cinetica di traslazione della massa m alla velocità v di spostamento del sistema inerziale di riferimento. Una utile relazione tra l'energia cinetica Ek e il modulo della quantità di moto p è data dalle seguenti equazioni.

E_k=\frac{p^2}{2m}\, ; \quad p=\sqrt{2mE_k}

La dimostrazione è immediata sostituendo nell'espressione di Ek quella di p.


Energia convenzionale
Energia prodotta utilizzando mezzi tradizionali quali carbone, legna, gas, ecc. in contrapposizione ai tipi di energia alternativa quali l'energia solare, da maree, eolica, ecc.
Energia da biomasse
Energia recuperata da rifiuti di natura organica tramite combustione. La quantità di energia recuperata dipende principalmente dal potere calorifico dei materiali organici che vengono bruciati, e secondariamente dall'efficienza dell'impianto di incenerimento. La biomassa è la quarta fonte energetica del pianeta, il principale combustibile utilizzato da tre quarti della popolazione mondiale. L'energia prodotta dalla biomassa può essere sfruttata in vari modi. Il più evidente consiste nell'utilizzare il calore prodotto dalla sua combustione -sia direttamente, sia producendo vapore per generare elettricità. La biomassa può produrre energia in un'unità di cogenerazione (produzione combinata di calore e di elettricità) ed il calore "residuo" può essere immesso in una rete di teleriscaldamento o in un processo industriale. è inoltre possibile ottenere energia dalla biomassa tramite gassificazione e la produzione di combustibili liquidi. La biomassa utilizzabile a scopo energetico comprende: gli scarti del legno (silvicoltura, segherie, edilizia/industria); il legno delle essenze a crescita rapida (salice, pioppo); i rifiuti agricoli (paglia, concimi); gli scarti delle colture saccarifere (barbabietole, canne da zucchero), cerealicole (grano, granoturco), non lignee (miscanthus) e oleaginose (colza, girasole); i rifiuti urbani solidi; i rifiuti domestici e gli effluenti industriali (in particolare del settore agroalimentare).
Energia da maree
L'energia mareomotrice è quella ricavata dagli spostamenti d'acqua causati dalle maree, che in alcune zone del pianeta possono raggiungere anche i 20 metri di ampiezza verticale. Già nell’antichità si cercò di sfruttare questo tipo di energia, mediante la costruzione di "mulini a marea". L’acqua veniva raccolta, durante il flusso, in un piccolo bacino, che veniva in seguito chiuso con una paratia. Al momento del deflusso l’acqua veniva convogliata attraverso un canale verso una ruota che muoveva una macina. Oggi esistono diversi progetti di sfruttamento delle maree, che comportano metodi diversi di sfruttamento dell’energia:

  • sollevamento di un peso in contrapposizione alla forza di gravità;
  • compressione dell’aria in opportuni cassoni e movimentazione di turbine in seguito alla sua espansione;
  • movimento di ruote a pale;
  • riempimento di bacini e successivo svuotamento con passaggio in turbine.

Quest’ultimo sembra dare i migliori risultati, nell'effettivo impiego. Il problema più importante allo sviluppo di tale tecnologia resta comunque lo sfasamento tra massima ampiezza di marea disponibile (la cui cadenza è prevedibile sulla base delle fasi lunari e solari) e domanda di energia nelle ore di punta. Infatti nei giorni di insufficienza nell'afflusso d’acqua la produzione di elettricità cesserebbe. In Francia nei pressi di Saint-Malo esiste un grosso impianto di questo genere. Nella Bretagna, alla foce del fiume Rance, fra Saint-Malo e Dinard, tra il 1961 e il 1966 è stata costruita una centrale che sfrutta la marea che da quelle parti raggiunge 13,5 m di dislivello. La portata raggiunge 18.000 metri cubi di acqua al secondo e la produzione annua della centrale copre il 3 % del fabbisogno elettrico della Bretagna. La centrale comprende una diga in pietrame, 6 chiuse di entrata e uscita per vuotare e riempire rapidamente la foce e 24 turbine a bulbo, sviluppate appositamente.
Energia dalle onde
Generazione di energia elettrica dall'energia cinetica contenuta nelle onde oceaniche.L'energia del moto ondoso è una fonte di recente sperimentazione in vari progetti europei di ricerca nel campo energetico. Vi sono varie tecniche di sfruttamento del moto ondoso. Un esempio noto è quello delle turbine Pelamis (sperimentate in Portogallo), costituite da strutture tubolari galleggianti ancorate al fondo marino. All'interno delle strutture vi sono delle turbine messe in moto dall'acqua che entra ed esce dalle strutture al ritmo del moto ondoso in cui il generatore si trova. Tali generatori generano energia con costanza, ma mostrano un ingombro non indifferente. Un altro tipo di impianto è quello a colonna d'acqua oscillante, anch'esso raccoglie l'acqua che entra grazie al moto ondoso per mettere in moto una turbina. Un generatore di tipo differente in fase di sperimentazione consta in una turbina (simile a quelle eoliche) sottomarina messa in moto dalle correnti marine. In questo caso, non si tratta propriamente di energia dalle onde, ma comunque da correnti che contribuiscono alla formazione delle onde stesse.
Energia elettrica
Forma di energia determinata dalla posizione di una carica elettrica in un campo elettrico. Dato un corpo dotato di una carica Q e di un potenziale elettrico V, la sua energia elettrica è QV.
Energia elettrica destinata ai pompaggi
Quella utilizzata per il sollevamento di acqua, a mezzo pompe, allo scopo di essere utilizzata successivamente per la produzione di energia elettrica.
Energia eolica
Energia prodotta dai mulini a vento (per il funzionamento di macchinari) e dalle eliche (per generare elettricità). Esempi di macchine tradizionali attivati dall'energia eolica sono i mulini a vento e le pompe azionate dal vento. I siti ideali per l'ubicazione di questi generatori a vento sono le isole o le aree costiere, dove un vento prevalente, praticamente costante rende possibile la generazione di elettricità.

Produzione di energia eolica
Capacità mondiale installata e previsioni 1997-2010,

Energia geotermica
Energia ottenuta dal calore presente nell'interno della Terra. Sono state identificate due fonti principali di energia geotermica: 1) lo sfruttamento dell'acqua iuvenile calda e del vapore nelle aree di attività vulcanica e tettonica; 2) in alcune zone del mondo dove i giacimenti di rocce calde, aride, intrusive e ignee sono situati vicino alla superficie, l'energia geotermica può essere sfruttata praticando dei fori nelle rocce calde e iniettando dell'acqua per creare vapore che può quindi essere utilizzato per generare elettricità. E' necessario controllare attentamente l'emissione di gas tossici nocivi che vengono liberati dagli impianti geotermici.
Energia idrica
Energia ottenuta dalle cadute d'acqua naturali o artificiali.
Energia idroelettrica
Energia elettrica generata da un flusso di acqua. Una cascata naturale fornisce energie sotto forma di acqua in movimento, che può essere usata per azionare una turbina idraulica. Questa turbina può essere accoppiata a un generatore per produrre energia elettrica.
Energia libera di Gibbs
L'energia libera di Gibbs è una funzione di stato usata in termodinamica e termochimica per rappresentare l'energia libera nelle trasformazioni a temperatura e pressione costanti e in chimica per determinare se, ad una temperatura nota, una reazione chimica avviene spontaneamente o meno. Prende il nome dall'ingegnere, chimico e fisico statunitense Josiah Willard Gibbs.

L'energia libera di Gibbs G\; è definita come:

G = H - T S \;

dove H\; è l'entalpia, T\; la temperatura e S\; l'entropia. Il secondo principio della termodinamica, formulato attraverso la relazione di Clausius, impone che:

\Delta Q \le \; T \Delta S

dove:

  • ΔQ è il calore scambiato dal sistema
  • ΔS è la variazione di entropia
  • T la temperatura.

L'equazione precedente si può riscrivere come:

\Delta H - T \Delta S \le \; 0

con ΔH è la variazione di entalpia pari a ΔH = ΔQ a pressione costante e in assenza di lavoro di non-espansione/compressione. La relazione si semplifica introducendo l'energia libera di Gibbs:

G = H - T S \;

che, a temperatura e pressione costanti, ha il seguente differenziale:

\Delta G = \Delta H - T \Delta S \;

Quindi, a temperatura e pressione costanti, la diseguaglianza di partenza viene così semplificata:

\Delta G \le \; 0

Questa relazione indica che nelle trasformazioni a temperatura e pressione costanti l'energia libera di Gibbs diminuisce per un processo spontaneo (differenziale negativo) mentre è ad un valore minimo (differenziale nullo) per un processo reversibile, cioè in condizioni di equilibrio. Questo criterio è molto importante, in quanto di solito le trasformazioni nell'ambiente naturale ed in laboratorio avvengono a temperatura e pressione costante (piuttosto che a volume costante): è per questo che la funzione di Gibbs è più utilizzata rispetto a quella di Helmholtz. L'equazione di Gibbs-Helmholtz esprime la dipendenza dell'energia libera dalla temperatura. Alla definizione della grandezza si arriva applicando una trasformata di Legendre rispetto all'entropia e al volume della "relazione fondamentale termodinamica in forma energetica" U=\tilde{U}(S,V,\vec{n}). Si ha che:

G=L[U,S,V]=U-\frac{\partial{U}}{\partial{S}}S-\frac{\partial{U}}{\partial{V}}V=U-TS+PV

e dato che l'entalpia H = U + PV si ha che

G = H - T S \;

ed in particolare

G=\tilde{G}(T,P,\vec{n})

Energia nucleare
Energia generata da un reattore nucleare principalmente attraverso la fissione nucleare o, in via sperimentale, per mezzo della fusione nucleare. I problemi dello smaltimento delle scorie nucleari, degli incidenti nucleari e dei possibili attacchi terroristici ai reattori hanno spinto alcune nazioni a riconsiderare il proprio programma di energia nucleare.
Energia nucleare in Italia. Nascita dell'
Vedi articolo.
Energia nucleare (Politica dell'UE)
Le centrali nucleari producono attualmente circa un terzo dell’elettricità e il 15% dell’energia consumata nell’Unione europea (UE). Il nucleare rappresenta una fonte di energia caratterizzata da basse emissioni di carbonio e costi relativamente stabili; ciò lo rende interessante sotto il profilo della sicurezza dell’approvvigionamento e della lotta ai cambiamenti climatici. Spetta tuttavia ai singoli Stati membri decidere se intendono ricorrere a questa fonte energetica. La Comunità europea dell’energia atomica (Euratom) ha creato nel 1957 le condizioni per lo sviluppo dell’energia nucleare in Europa. Le sue finalità comprendevano, segnatamente, lo sviluppo della cooperazione nel settore della ricerca, la protezione delle popolazioni mediante l’introduzione di norme di sicurezza armonizzate, l'approvvigionamento sufficiente ed equo di minerali e combustibili nucleari, il controllo dell'utilizzo delle materie nucleari per scopi pacifici, e la cooperazione con altri paesi ed organizzazioni internazionali. In particolare, sono state adottate misure specifiche a livello dell'UE intese ad assicurare la tutela della salute delle persone che lavorano in questo settore e delle popolazioni nonché a proteggere l'ambiente dai rischi collegati all'utilizzo del combustibile nucleare ed ai rifiuti che ne derivano. Comunicazione della Commissione del 10 gennaio 2007 "Programma indicativo per il settore nucleare presentato, per parere, al Comitato economico e sociale europeo ai sensi dell'articolo 40 del trattato Euratom" [COM(2006) 844 definitivo - Gazzetta ufficiale C 138 del 22 giugno 2007].
Energia oscura
Vedi articolo.
Energia potenziale
In fisica, l'energia potenziale di un oggetto è l'energia che esso possiede a causa della sua posizione o della sua orientazione rispetto ad un campo di forze. Nel caso si tratti di un sistema, l'energia potenziale può dipendere dalla disposizione degli elementi che lo compongono. Si può vedere l'energia potenziale anche come la capacità di un oggetto (o sistema) di trasformare la propria energia in un'altra forma di energia, come ad esempio IN energia cinetica. Il termine "energia potenziale" fu coniato da Rankine nel 1853. Nel sistema internazionale è misurata in joule (J). Si tratta di una funzione scalare delle coordinate dell'oggetto nel sistema di riferimento utilizzato. Dato un campo vettoriale conservativo, l'energia potenziale è la sua capacità di compiere lavoro: il lavoro relativo a una forza che agisce su un oggetto è l'integrale di linea di seconda specie della forza valutato sul cammino compiuto dall'oggetto, e se essa è conservativa il valore di questo integrale non dipende dal tipo di cammino seguito. Quando si ha a che fare con forze conservative si può definire un potenziale scalare, che talvolta viene fatto coincidere con l'energia potenziale, definito in tutto lo spazio. In particolare, dal punto di vista matematico tale potenziale esiste solo se la forza è conservativa, e del resto si assume che per tutte le forze conservative si può sempre definire fisicamente un'energia potenziale. L'energia potenziale può essere definita anche per il campo magnetico, che non è conservativo, in assenza di correnti elettriche. In tal caso, infatti, il rotore del campo è nullo. L'energia potenziale magnetica di un magnete in un campo magnetico è definita come il lavoro della forza magnetica (il momento meccanico) nel ri-allineare il momento di dipolo magnetico.
Energia reattiva
In una bobina, la corrente è sfasata di 90 gradi o 5 millisecondi rispetto alla tensione: in altre parole, l’intensità è nulla quando la tensione è massima o minima. Viceversa, la tensione è nulla quando l’intensità è massima o minima. La potenza p, che è il prodotto dell’intensità e della tensione, passa da negativa e positiva e viceversa 100 volte al secondo. Quando la potenza è positiva la bobina immagazzina energia magnetica fornita dalla sorgente e quando la potenza è negativa restituisce la sua energia alla sorgente. Questa energia è quindi scambiata tra il generatore e il consumatore 100 volte al secondo, senza produrre nessun lavoro utile. Alla fine, la potenza media fornita da questo va e vieni è nulla. In un condensatore, si ha l’effetto inverso della bobina. La potenza può essere positiva o negativa. Quando la potenza è positiva il condensatore si carica di energia elettrostatica e
quando la potenza è negativa si scarica nella sorgente. L’energia fornita e assorbita dalle bobine e dai condensatori è detta energia reattiva. Positiva, entra nella rete; negativa, è restituita al generatore, 100 volte al secondo. Questa scambio permanente, che non produce nessun lavoro utile, genera tuttavia degli inconvenienti nella rete, sotto forma di perdite supplementari, sovraccarico delle linee e variazioni di tensione. Tutti gli utilizzatori sono una combinazione di resistenze, bobine e condensatori o rappresentano almeno degli effetti simili, che gli specialisti chiamano rispettivamente effetti resistivi, induttivi e capacitivi. Consumano quindi potenza attiva e potenza reattiva. La rete, nei confronti delle macchine, è a sua volta un consumatore di energia attiva (resistenza dei conduttori che liberano calore) e di energia reattiva (per gli effetti induttivo e capacitivo dei conduttori). Anche le bobine dei trasformatori consumano una gran quantità di energia reattiva. Non si parla però di consumo, ma di perdite attive o reattive della rete. Questa energia è quindi inevitabile e può essere paragonata alla schiuma in un bicchiere di birra, che occupa spazio, ma non disseta. In linea di principio, solo l’energia attiva è misurata e fatturata
agli utilizzatori in bassa tensione. In molti casi, si compensa l’energia reattiva fornendo, attraverso un condensatore locale, l’energia richiesta da una bobina in prossimità diretta, immediatamente restituita al condensatore nel semiperiodo seguente. Si riducono così gli scambi con i generatori distanti, alleggerendo le linee d’alimentazione. Da notare infine che anche gli utilizzatori che comportano apparecchi elettronici di potenza (tram, ferrovie di montagna, metropolitane, ecc.) sono grandi consumatori di energia reattiva da compensare con condensatori o altri dispositivi, perché sfasano artificialmente l’intensità e la tensione con comportamenti simili a quelli delle bobine. Nelle reti a corrente continua, invece, non entra in gioco nessuna energia reattiva, dato che la tensione e l’intensità sono costanti nel tempo.
Energia solare
Per energia solare si intende l'energia, termica o elettrica, prodotta sfruttando direttamente l'energia irraggiata dal Sole sulla Terra. Secondo il rapporto Solar Generation, le potenzialità dell'energia fotovoltaica non sono state ancora ben comprese e sono poco recepite. Dal sole, infatti, giunge sulla superficie terrestre un’energia pari a 15.000 volte l’odierno fabbisogno energetico mondiale e l’Italia gode, grazie alla sua posizione geografica, di condizioni assai favorevoli per lo sfruttamento dell’energia solare, specialmente in Calabria e in Sicilia, dove l’irraggiamento giornaliero medio supera i 5 kWh/mq (contro i 3,6 della Pianura Padana). La quantità di energia solare che arriva sul suolo terrestre è enorme, ma è poco concentrata, nel senso che è necessario raccogliere energia da aree molto vaste per averne quantità significative. Per il suo sfruttamento, ai fini della produzione di energia elettrica, occorrono impianti di costo elevato che rendono l'energia solare più costosa rispetto ad altri metodi. Lo sviluppo di tecnologie che possano rendere economico l'uso dell'energia solare è un settore della ricerca molto attivo ma che, per adesso, non ha dato risultati rivoluzionari. Infatti i paesi che seguono una politica energetica rivolta alle energie rinnovabili concedono agevolazioni e incentivi per favorire l’installazione di impianti per la produzione di energia elettrica dall’energia solare.
Tre sono le tecnologie principali per trasformare in energia sfruttabile (termica o elettrica) l'energia del sole:

  • il pannello solare sfrutta l’irraggiamento solare per scaldare un liquido contenuto nel suo interno; questo liquido cede calore, tramite uno scambiatore di calore, all'acqua contenuta in un serbatoio di accumulo (il costo dell’impianto è ripagato dal beneficio che se ne ricava)
  • il pannello solare a concentrazione sfrutta una serie di specchi parabolici a struttura lineare per concentrare i raggi solari su un tubo ricevitore in cui scorre un fluido termovettore o una serie di specchi piani che concentrano i raggi all'estremità di una torre in cui è posta una caldaia riempita di sali che per il calore fondono. In entrambi i casi "l'apparato ricevente" si riscalda a temperature molto elevate (400°C ~ 600°C)
  • il pannello fotovoltaico sfrutta le proprietà di particolari elementi semiconduttori per produrre energia elettrica quando sollecitati dalla luce.

Energia termica marina
L'impiego delle differenze di temperatura di 20°C o più che si riscontrano tra la superficie del mare e le sue parti più profonde per la produzione continua di energia; tale differenza di temperatura si può riscontrare nelle regioni tropicali del mondo. Allo scopo di dimostrare tale principio sono state costruite delle piccole centrali.
Energie rinnovabili (Politica dell'UE)
Le energie rinnovabili - energia eolica, solare (termica e fotovoltaica), idraulica, mareomotrice, geotermica e da biomassa - sono un’alternativa fondamentale ai combustibili fossili. Il loro impiego permette di ridurre non soltanto le emissioni di gas a effetto serra provenienti dalla produzione e dal consumo di energia, ma anche la dipendenza dell’Unione europea (UE) dalle importazioni di combustibili fossili (in particolare gas e petrolio). Per raggiungere l’biettivo di una quota del 20% di energie rinnovabili nel proprio mix energetico, l’UE prevede di potenziare gli sforzi nei settori dell’elettricità, del riscaldamento e del raffreddamento nonché in quello dei biocarburanti. Nel settore dei trasporti, che dipende quasi esclusivamente dal petrolio, la Commissione auspica che la quota minima per i biocarburanti nel consumo totale  di carburante, fissata al 5,75% come obiettivo specifico per il 2010,  per il 2020 sia portata al 10% . Comunicazione della Commissione, del 10 gennaio 2007, "Tabella di marcia per le energie rinnovabili. Le energie rinnovabili nel 21° secolo: costruire un futuro più sostenibile" [COM(2006) 848].
EROEI
L'EROEI (o EROI), acronimo inglese che sta per Energy Returned On Energy Invested (o Energy Return On Investment) ovvero energia ricavata su energia consumata, è un coefficiente che riferito a una data fonte di energia ne indica la sua convenienza in termini di resa energetica. Infatti qualsiasi fonte di energia non arriva gratis (in termini di costo energetico invece che monetario), ma è costata una certa quantità di energia investita da considerarsi come congelata nella fonte di energia stessa, quantità che l'EROEI cerca di valutare. Matematicamente è il rapporto tra l’energia ricavata e tutta l’energia spesa per arrivare al suo ottenimento. Una fonte di energia è conveniente se presenta un valore di EROEI maggiore di 1. Fonti energetiche che presentano un EROEI minore di 1 non possono essere considerate fonti primarie di energia poiché per il loro sfruttamento si spende più energia di quanta se ne ricavi. L'EROEI si rivela un parametro fondamentale per valutare, comparare e operare scelte strategiche di approvvigionamento fra le diverse fonti energetiche.
Entalpia
L'entalpia, solitamente indicata con H, è una funzione di stato che consente di tenere traccia delle variazioni energetiche di un sistema termodinamico per le trasformazioni che avvengono a pressione costante in cui si ha solo lavoro di tipo meccanico, poiché in queste condizioni la variazione di entalpia è numericamente uguale al calore scambiato dal sistema con l'ambiente esterno. L'entalpia si misura in joule (SI, Sistema Internazionale) o in calorie.Il termine entalpia deriva dal greco enthálpein, riscaldare, composto dal prefisso en, col significato di dentro, e dal termine thálpein, scaldare. Per un sistema chiuso l'entalpia è definita come:

H = U + pV \,\!

dove U è l'energia interna del sistema, p la sua pressione e V il suo volume. L'entalpia risulta pertanto una grandezza termodinamica estensiva. Per le variabili estensive è possibile introdurre le corrispondenti grandezze specifiche, ovvero normalizzate rispetto alla massa del sistema, o più correntemente (IUPAC) le corrispondenti grandezze molari Em normalizzate rispetto ad una mole della sostanza considerata:

u = \frac {U}{m} ; h =\frac {H}{m} ; v =\frac {V}{m}
U_m = \frac {U}{n} ; H_m =\frac {H}{n} ; V_m =\frac {V}{n}

Con queste sostituzioni la definizione di entalpia diventa dunque:

h = u + pv \,\!

Dall'espressione del primo principio della termodinamica per un sistema chiuso in termini di entalpia, deriva l'uguaglianza tra entalpia e calore per trasformazioni isobare (cioè a pressione costante):

\Delta H = Q_p \,\!

Derivando H nella forma

dH = dU + d(pV) \,\!

è possibile ricavare, dopo integrazione, il ΔH in funzione del ΔU: per una reazione chimica, la variazione del prodotto della pressione per il volume, in accordo con l'equazione di stato dei gas perfetti, risulta facilmente determinabile. Questa relazione risulta utile quando si lavori con il calorimetro: in questo caso la reazione è condotta a volume costante e viene determinata la variazione di energia interna ΔU. Da notare che per reazioni in fase condensata praticamente ΔH = ΔU, essendo la variazione di moli gassose eguale a zero, tuttavia in generale vale la diseguaglianza ΔH > ΔU (per temperature lontane dallo zero assoluto).

\Delta H = \Delta U + \Delta n(RT) \,\!
(equazione valida per i gas ideali)

L'equazione di Kirchhoff permette di calcolare la variazione di entalpia tenendo conto della sua dipendenza dalla temperatura. L'entalpia di un gas perfetto è funzione della sola temperatura assoluta. Il diagramma T-s ed h-s non vengono utilizzati insieme per descrivere una trasformazione oppure un ciclo di trasformazioni, in quanto il diagramma entalpia-entropia è identico al diagramma T-s, semplicemente traslato e riscalato.
Entropia
In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più in generale dell'universo. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato ordinato ad uno disordinato la sua entropia aumenta. Nel Sistema Internazionale si misura in joule su kelvin (J/K). Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, ovvero quella verso il maggior disordine. In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τροπή, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore. Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:

  • Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro) richiederebbe energia esterna.
  • Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta, il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile (si ha un equilibrio dinamico).

Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale. La variazione della funzione di stato entropia S venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come

\Delta S = \frac{Q_{rev}}{T}

dove Qrev è la quantità di calore assorbito o ceduto in maniera reversibile e isoterma dal sistema a temperatura T. In forma differenziale, la legge si presenta così:

{\rm d} S = \frac{\delta Q_{rev}}{T}

È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: \frac 1 T è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della termodinamica. In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni termodinamiche reversibili
Eolico: un comune virtuoso.
Il comune di Tula e il suo parco eolico.
Fascia oraria
Nel caso delle forniture a grandi utenze allacciate in alta o media tensione, è possibile accedere ad un sistema, definito multiorario, che prevede tariffe di acquisto diverse a seconda della fascia oraria del giorno: per le ore di punta (F1), ore di alto carico (F2), ore di medio carico (F3) e ore vuote (F4). La suddivisione nell'arco giornaliero e settimanale di tali fasce è differente per le forniture in media tensione da quelle per tensione superiore. Anche per le utenze domestiche è stata inserita la fascia bioraria.
Equilibrio dinamico in ecologia
In ecologia l'equilibrio dinamico si basa sul principio della continua trasformazione ed adattamento ad un ecosistema in continua evoluzione quindi in questo caso non si considera mai un sistema chiuso o adiabatico che non esiste in natura e nell'universo ma un sistema sempre aperto dove si ha sempre un certo grado di entropia. L'equilibrio dinamico è quindi la tendenza a trovare il miglior utilizzo possibile delle energie e/o informazione con i minori cambiamenti possibili dei parametri presi in considerazione e più sono lenti questi cambiamenti e più ci si avvicina a l'equilibrio dinamico perfetto che non può esistere in quanto contro natura.
Fasore
In fisica, teoria dei circuiti ed elettrotecnica il fasore è un numero complesso (pertanto è rappresentabile come vettore del diagramma di Argand) equivalente ad una funzione sinusoidale di pulsazione ben definita. I fasori sono utilizzati quale comoda rappresentazione di grandezze fisiche oscillanti come, in particolare, le grandezze elettriche, tensione o corrente.
Film sottile
È il prodotto della tecnologia che sfrutta la deposizione di un sottilissimo strato di materiali semiconduttori per la realizzazione della cella fotovoltaica.
Fissione nucleare
La fissione nucleare è una reazione nucleare in cui il nucleo di uranio 235, plutonio 239 o di altri elementi pesanti adatti vengono divisi tramite il bombardamento con neutroni o altre particelle elementari in frammenti in un processo che libera energia. È la reazione nucleare comunemente utilizzata nei reattori nucleari e nei tipi più semplici di bombe atomiche, quali le bombe all'uranio (come quella di Hiroshima) o al plutonio (come quella che colpì Nagasaki). Tutte le bombe a fissione nucleare vengono militarmente etichettate come Bombe A. Nella fissione nucleare, quando un nucleo di materiale fissile (se produce fissione con neutroni di qualsiasi energia cinetica) o fissionabile (se la fissione è possibile solo con neutroni di elevata energia cinetica, detti veloci) assorbe un neutrone si fissiona producendo due o più nuclei più piccoli e un numero variabile di nuovi neutroni. Gli isotopi prodotti da tale reazione sono radioattivi in quanto posseggono un eccesso di neutroni e decadono beta in una catena di decadimenti radioattivi fino ad arrivare ad una configurazione stabile. Inoltre nella fissione vengono prodotti normalmente 2 o 3 neutroni veloci liberi. L'energia complessivamente liberata dalla fissione di 1 nucleo di 235U è di 211 MeV, una quantità elevatissima data dalla formula

E=M_{U^{235}+n}~c^2- M_P~c^2

dove la prima massa è la massa del nucleo di U 235e del neutrone incidente mentre la seconda massa è la somma delle masse dei nuclei e dei neutroni prodotti, mentre c è la costante che rappresenta la velocità della luce nel vuoto (299.792.458 m/s). Perciò in questo fenomeno parte della massa iniziale scompare e si trasforma in energia sotto forme diverse, la maggior parte (circa 167 MeV) in energia cinetica, ovvero in moto dei frammenti pesanti prodotti della reazione. Circa 11 MeV sono trasportati via dai neutrini emessi al momento della fissione e quindi l'energia effettivamente sfruttabile come energia termica è di circa 200 MeV per ogni fissione. In un comune processo di combustione, l'ossidazione di un atomo di carbonio fornisce un'energia di circa 4 eV, un'energia che è meno di cinquanta milionesimi di quella prodotta nella reazione nucleare di fissione. I nuovi neutroni prodotti possono venire assorbiti dai nuclei degli atomi di uranio 235 vicini, se ciò avviene possono produrre una nuova fissione del nucleo. Se il numero di neutroni che danno luogo a nuove fissioni è maggiore di 1 si ha una reazione a catena in cui il numero di fissioni aumentano esponenzialmente, se tale numero è uguale a 1 si ha una reazione stabile in tal caso si parla di massa critica. La massa critica è dunque quella concentrazione e disposizione di atomi con nuclei fissili per cui la reazione a catena si mantiene stabile e il numero di neutroni presente nel sistema non varia. Se si varia tale disposizione allora il numero di neutroni assorbiti può scendere e si ha che la reazione si spegne oppure aumentare e si ha che la reazione cresce esponenzialmente. Per cui scrivendo:

K=\frac {neutroni\ presenti\ in\ una\ generazione} {neutroni\ della\ generazione\ precedente}

se la disposizione è tale che si abbia K>1 allora il numero di neutroni aumenta, se K<1 diminuisce, mentre se K=1 il numero di neutroni resta stabile e si parla di massa critica. La quantità K viene definita in fisica del reattore come il fattore di moltiplicazione effettivo e è fondamentale nel controllo del reattore stesso. La fissione nucleare è il procedimento su cui si basano i reattori nucleari a fissione e le bombe atomiche (o, meglio, nucleari). Se per i reattori nucleari il valore di K non deve superare mai il valore di 1 se non di una quantità bassissima (come quando si aumenta la potenza del reattore e allora si può arrivare a K=1.005) per le armi nucleari si deve avere che il valore di K sia il più alto possibile e in tal caso si può arrivare a K=1.2. L'uranio si trova in natura come miscela di due isotopi: 238 e 235 in rapporto di 150 a 1, dunque l'uranio 235 è solo lo 0.7% del totale dell'uranio, e solo quest'ultimo è fissile. Il processo di arricchimento consiste nell' aumentare la percentuale in massa di uranio 235 a scapito del 238 in modo da riuscire ad avere un numero di nuclei fissili sufficiente per far funzionare il reattore, in tal caso l'arricchimento varia dal 3% al 5% o per costruire una bomba atomica, in tal caso l'arricchimento arriva fino al 90%. In una reazione, la presenza di impurità e di atomi di uranio 238 e, nei reattori, di apposite barre che hanno lo scopo di controllare la reazione a catena fanno sì che solo parte dei neutroni emessi venga assorbita dai nuclei del materiale fissile.

Schema di una reazione nucleare.1) Un nucleo di uranio 235 assorbe un neutrone e avviene la fissione che spezza il nucleo in due frammenti e libera tre neutroni e dell'energia.2) Uno di questi neutroni è assorbito da un altro nucleo di uranio 238 ed è perso nel bilancio. Un secondo neutrone può 'fuggire' dal sistema o essere assorbito da un elemento che non continua la reazione. Il terzo neutrone viene assorbito da un nucleo di uranio 235 che si spezza in due frammenti liberando due neutroni e dell'energia.3) I due neutroni liberati si scontrano con due nuclei di uranio 235 e ogni nucleo libera da uno a tre neutroni che servono per continuare la reazione a catena
Schema di una reazione a catena
Schema di una reazione nucleare.
1) Un nucleo di uranio 235 assorbe un neutrone e avviene la fissione che spezza il nucleo in due frammenti e libera tre neutroni e dell'energia.
2) Uno di questi neutroni è assorbito da un altro nucleo di uranio 238 ed è perso nel bilancio. Un secondo neutrone può "fuggire" dal sistema o essere assorbito da un elemento che non continua la reazione. Il terzo neutrone viene assorbito da un nucleo di uranio 235 che si spezza in due frammenti liberando due neutroni e dell'energia.
3) I due neutroni liberati si scontrano con due nuclei di uranio 235 e ogni nucleo libera da uno a tre neutroni che servono per continuare la reazione a catena


Flicker (sfarfallio)
Impressione soggettiva della fluttuazione della luminanza di lampade ad incandescenza o fluorescenti dovuta a fluttuazioni della tensione di alimentazione.
Flusso di corrente
Nei conduttori metallici, come i cavi elettrici, la corrente è causata da un flusso di elettroni (particelle a carica negativa), ma non è così nella maggior parte dei conduttori non metallici. La corrente elettrica negli elettroliti è data dal flusso di atomi e/o molecole elettricamente cariche (ioni), che possono essere sia negativi che positivi. A esempio, una cella elettrochimica può essere costruita con acqua salata (una soluzione di cloruro di sodio) su un lato della membrana, e acqua pura dall'altra parte. La membrana fa passare gli ioni di sodio con carica positiva, ma non quelli di cloro con carica negativa, il risultato netto è una corrente. Le correnti elettriche nel plasma, sono flussi di elettroni, così come di ioni positivi e negativi. Nell'acqua ghiacciata e in alcuni solidi elettrolitici, la corrente è costituita da un flusso di protoni. Esistono anche casi in cui gli elettroni sono la carica che si muove, ma dove ha più senso pensare alla corrente come ai "buchi" positivi (gli spazi che dovrebbe avere un elettrone per rendere il conduttore neutro e vengono chiamati lacune) come quelli in movimento. Questo è il caso dei semiconduttori tipo-p. Sia che si tratti di un flusso di elettroni (quindi di cariche negative) o di ioni (cariche negative o positive) per convenzione la corrente è rappresentata come un flusso di cariche positive. Questa convenzione si deve a Benjamin Franklin. La corrente, comunque, è una grandezza vettoriale perché ha un verso e una direzione oltre che un'intensità
Fonti assimilate
Risorse energetiche di origine fossile che, ai sensi della legge n. 10 del 9-1-91, vengono “assimilate” alle fonti rinnovabili in virtù degli elevati rendimenti energetici. Secondo il provvedimento CIP 6, sono considerati impianti alimentati da fonti assimilate gli impianti di cogenerazione, gli impianti che utilizzano calore di recupero, fumi di scarico e altre forme di energia recuperabile in processi produttivi e in impianti, nonché gli impianti che utilizzano gli scarti di lavorazione e/o di processi e quelli che utilizzano fonti fossili prodotte esclusivamente da giacimenti minori isolati.
Fonti convenzionali
Sono considerati impianti alimentati da fonti convenzionali quelli per la sola produzione di energia elettrica che utilizzano combustibili fossili commerciali.
Fonti di energia
Riserve potenziali di energia comprendenti sia i combustibili fossili che nucleari, l'energia solare, idrica, eolica, geotermica e da maree.
Fonti di energia non inquinante
Energia rinnovabile e sicura dal punto di vista ambientale. La fonte più largamente impiegata è l'energia idroelettrica che attualmente fornisce circa il 6,6% del fabbisogno energetico mondiale. Altre fonti non inquinanti di energia sono l'energia solare, l'energia da maree, da onde ed eolica. La maggior parte delle fonti di energia non inquinante necessitano di un elevato capitale iniziale di investimento ma hanno bassi costi di gestione.
Fonti di energia rinnovabile
Fonti di energia che non dipendono da combustibili le cui riserve sono limitate. La fonte rinnovabile più sfruttata è l'energia idroelettrica; altre fonti rinnovabili sono l'energia da biomassa, l'energia solare, l'energia da maree, l'energia dalle onde e l'energia eolica; l'energia da biomassa non esclude il pericolo dell'effetto serra.
Fonti primarie
I combustibili fossili, le fonti rinnovabili, il combustibile nucleare.
Fracking (Hydraulic)
Vedi articolo.
Fusione nucleare
La fusione è il processo nucleare che alimenta il Sole e le altre stelle, consistente nell'unione dei nuclei di due atomi leggeri, isotopi dell'idrogeno, deuterio e trizio, in uno più pesante. In questo tipo di reazione il nuovo nucleo costituito ed il neutrone liberato hanno una massa totale minore della somma delle masse dei reagenti con conseguente liberazione di un'elevata quantità di energia che conferisce al processo caratteristiche fortemente esotermiche. Affinché avvenga una fusione tra due nuclei, questi devono essere sufficientemente vicini in modo da permettere che la forza nucleare forte predomini sulla repulsione coulombiana (i due nuclei hanno carica elettrica positiva e quindi si respingono): ciò avviene a distanze molto piccole, dell'ordine di qualche femtometro (10exp15 metri). L'energia necessaria per superare la repulsione coulombiana può essere fornita ai nuclei portandoli in condizioni di altissima pressione (altissima temperatura e/o altissima densità). La fusione nucleare, nei processi terrestri, è usata in forma incontrollata per le bombe a idrogeno e, in forma controllata, nei reattori a fusione termonucleare, ancora in fase sperimentale. L'energia potenziale totale di un nucleo è notevolmente superiore all'energia che, ad esempio, lega gli elettroni al nucleo. Pertanto l'energia rilasciata nella maggior parte delle reazioni nucleari è notevolmente maggiore di quella delle reazioni chimiche. Ad esempio l'energia di legame dell'elettrone al nucleo di idrogeno è di 13,6 eV mentre l'energia che viene rilasciata dalla reazione deuterio-trizio è pari a 17,5 MeV, cioè più di un milione di volte superiore. Con un grammo di deuterio e trizio si potrebbe quindi produrre tanta energia quanta con 11 tonnellate di carbone. Le tipologie di atomi interessati dal processo di fusione nucleare, in natura e in ingegneria, sono gli isotopi dell'atomo di idrogeno, caratterizzati da minimo numero atomico a cui corrisponde la minima energia di innesco. Tuttavia all'interno delle stelle più grandi è possibile anche la fusione di elementi più pesanti, si ritiene fino all'ossigeno. La fusione nucleare se controllata potrebbe risolvere la maggior parte dei problemi energetici sulla terra, perché potrebbe produrre quantità pressoché illimitate di energia senza praticamente emissioni di gas nocivi o gas serra, e senza la produzione di scorie radioattive ad esclusione del trizio e di polveri radioattive. La piccola quantità di radioattività residua interesserebbe solo alcuni componenti del reattore a fusione, peraltro facilmente rimpiazzabili; i tempi di dimezzamento della radioattività residua sarebbero però confrontabili con la vita media della centrale (decine d'anni). La quantità di deuterio e trizio ricavabile da tre bicchieri di acqua di mare e due sassi di medie dimensioni potrebbe supplire al consumo medio di energia di una famiglia di 4 persone. Purtroppo oggi non siamo ancora in grado di sfruttare la fusione nucleare per produrre energia in modo commerciale.

Clicca l'iniziale per trovare la parola cercata

A B C D E F L M N O P Q R S T U V W X Y Z

G H I J K


LOGO

Gas
Il gas naturale è un combustibile fossile di origine organica, costituito in massima parte da metano (CH4). Le riserve accertate sono distribuite in poche aree geografiche, in particolare nei Paesi ex URSS e dell’Europa orientale (per oltre il 38%) e nei Paesi mediorientali (per oltre il 30%). In natura si trova in giacimenti sotterranei o sottomarini, spesso associato al petrolio. La sua estrazione richiede, pertanto, un’attività di perforazione, effettuata con speciali trivelle in grado di scendere a profondità a volte davvero rilevanti. Dai luoghi di produzione, che sono per lo più molto lontani da quelli di consumo, il gas naturale viaggia per mezzo di metanodotti, cioè attraverso condutture fisse che possono estendersi per migliaia di chilometri. Si tratta di una delle fonti energetiche più importanti, condividendo insieme ai prodotti petroliferi varie possibilità di impiego. Viene largamente adoperato, infatti, come combustibile per la generazione di energia elettrica, ma anche direttamente per il riscaldamento di ambienti o come carburante nell’autotrazione . Attualmente, poco meno del 25% della domanda di energia primaria mondiale è soddisfatta dal gas naturale, che, a giudizio degli esperti, è anche la fonte di energia primaria destinata ad avere la crescita maggiore nei prossimi decenni. Si prevede, al riguardo, che nel 2025 i consumi di gas raggiungano la quota di circa 5 trilioni di metri cubi (pari al 28% del consumo energetico mondiale), raddoppiando in tal modo le quantità consumate nel 2001. Questo potrà rendere problematico in futuro l’approvvigionamento sia per la scarsità delle riserve accertate sia per la loro concentrazione in aree poco stabili del pianeta. Attualmente in Italia il gas copre quasi un terzo del fabbisogno energetico. Il nostro Paese dispone di risorse di gas naturale che hanno svolto una funzione importante nei decenni passati. L’attuale produzione nazionale è tuttavia complessivamente modesta rispetto ad una domanda che è in costante aumento, per cui dipendiamo dall’estero per gran parte dei nostri consumi.
Gassificatore
Per gassificatore (da non confondersi con rigassificatore, che è tutt'altro) si intende un impianto che a partire da vari materiali (fra cui determinati tipi di rifiuti) ricava combustibili gassosi impiegabili per la produzione di energia. Sono proposti come una alternativa agli inceneritori. I gassificatori sfruttano la dissociazione molecolare, definita pirolisi, usata per convertire direttamente i materiali organici in gas, appunto, mediante riscaldamento in presenza di ridotte quantità di ossigeno: essi sono completamente distrutti scindendone le molecole, generalmente lunghe catene carboniose, in molecole più semplici di monossido di carbonio, idrogeno e metano, che formano un "gas di sintesi" (syngas), costituito in gran parte da metano e anidride carbonica e a volte abbastanza puro da essere usato tal quale. A differenza dei pirolizzatori, i quali attuano la pirolisi in senso stretto, ovvero in totale assenza di ossigeno, i gassificatori operando invece in presenza di piccole quantità di tale elemento producono anche una ossidazione parziale; in relazione al tipo di processo utilizzato, i gassificatori possono considerarsi come una tecnologia intermedia tra l'incenerimento e la pirolisi propriamente detta. Le applicazioni più diffuse e collaudate riguardano specifiche tipologie di rifiuti, quali ad esempio scarti di cartiera, pneumatici, plastiche, biomasse (scarti vegetali, legno, sansa di olive ecc). Alcuni produttori di impianti affermano di poter trattare anche rifiuti urbani indifferenziati senza alcun genere di pretrattamento. Se si trattano biomasse, l'energia imprigionata attraverso la fotosintesi clorofilliana in tali sostanze organiche può così essere liberata o bruciando il gas di sintesi (syngas) in una caldaia per sfruttarne il calore o alimentare una turbina a vapore, o usandolo come combustibile per motori a scoppio, o ricavandone idrogeno da usare poi in pile a combustibile per produrre elettricità. Questo gas può essere successivamente utilizzato per produrre energia elettrica (con rendimenti da due a tre volte più alti di un comune inceneritore) nonché ovviamente calore. I gassificatori sono impiantisticamente molto versatili – possono essere di varia tipologia e potenza, perciò si possono costruire direttamente dove servono diminuendo i costi e l'inquinamento del trasporto – e sono un sistema efficiente per sfruttare le potenzialità energetiche delle biomasse in generale, oltre che dei rifiuti solidi urbani: si prestano pertanto a essere usati in agricoltura, poiché permettono di sfruttare terreni poco produttivi o adatti solo a colture non pregiate per produrre energia, un bene invece dal valore in continua crescita. Pertanto, a fronte di un investimento relativamente modesto sia in fase di costruzione sia in gestione (grazie alla possibilità di introdurre una grande varietà di materiale organico anche non trattato e in virtù della non necessità di smaltire o filtrare grandi quantità di emissioni o rifiuti tossici), permettono di ottenere un guadagno costante e sicuro, il che dà loro alte potenzialità di sviluppo anche nel medio-breve termine, in un contesto di difficoltà di smaltimento dei rifiuti (e di opposizione alla costruzione di inceneritori tradizionali per i timori per la salute e l'ambiente) e di contrazione del mercato per gli agricoltori.

Le emissioni sono molto variabili a seconda della tecnologia e dell'impianto: si veda la voce Inceneritore per un confronto. Nel caso dell'impianto islandese di Husavik, che opera a temperature inferiori ai 400° C (permettendo fra l'altro la completa autonomia di funzionamento, in quanto per raggiungere questa temperatura si usa parte del gas di sintesi prodotto), alla fine del processo rimangono ceneri per il 3% della massa immessa, mentre dal lato delle emissioni, in particolare:

  • la bassa temperatura riduce di oltre cento volte l'emissione di polveri sottili (e in particolare è ridotta la produzione di nanopolveri, che si formano soprattutto ad alte temperature in presenza di forti turbolenze), la cui produzione si concentra nella fase della combustione, in cui può però essere limitata grazie alla purezza del gas ottenuto;
  • gli ossidi di azoto sono ridotti perché nella combustione l'idrogeno ne sequestra i precursori;
  • i metalli pesanti sono ridotti notevolmente, perché data la bassa temperatura ne è ridotta la sublimazione e la liberazione nell'aria sotto forma di piccole impurità;
  • la concentrazione di diossine e furani è inferiore ai livelli misurabili: la cinetica di reazione che negli inceneritori porta alla formazione di diossine, non interviene alle normali temperature d'esercizio (la diossina si forma soprattutto fra i 400 e gli 800° C), senza contare che l'alta efficienza della combustione abbassa la quantità di composti organici necessari alla loro formazione.

Il rendimento energetico totale (elettricità + calore) di tali impianti è dichiarato attorno al 70% ed è gestibile in modo molto più flessibile rispetto a un inceneritore. Si può infatti scalare, a seconda della necessità e della stagione da un 60% elettrico + 10% termico ad un 20% elettrico + 50% termico. Viceversa un inceneritore è molto più rigido ed in ogni caso la produzione elettrica a stento supera il 25% anche nelle migliori condizioni. I rendimenti di entrambe le tipologie di impianti ovviamente salgono molto se si ha la possibilità di sfruttare il calore in una rete di teleriscaldamento.

Un classico processo di gassificazione dei rifiuti è quello basato sull'utilizzo di un reattore HTCW (High Temperature Conversion of Waste):esso produce la dissociazione molecolare a una temperatura di 2700 °C, mentre le ridotte quantità di ossigeno impediscono la combustione favorendo piuttosto un processo di ossidazione parziale che trasforma il carbonio in CO e produce H2. Le diossine, i furani e altri inquinanti correlati, in queste condizioni subiscono scissione in composti non nocivi. Rispetto a un classico inceneritore, le emissioni di polveri ed inquinanti gassosi (gas acidi, CO ecc.) risultano variabili in funzione della tecnologia utilizzata e comunque minori, mentre il livello di metalli pesanti è sostanzialmente identico ma il mercurio può anche essere maggiore (in particolare in funzione del tipo di rifiuti trattati, ad esempio plastiche e pneumatici hanno emissioni diverse da biomasse legnose): si veda la voce inceneritore per un confronto. La frazione minerale viene trasformata in una fase vetrosa che trova uso in svariate applicazioni.

Un processo di gassificazione differente adotta come fonte di calore una torcia al plasma, originariamente sviluppata per la Nasa allo scopo di mettere alla prova i materiali realizzati per resistere alle altissime temperature cui sono sottoposte le navicelle spaziali al rientro nell'atmosfera a causa dell'attrito. Il plasma generato dalla torcia comprende gas ionizzato a temperature comprese fra i 7.000 e i 13.000 °C: l'elevatissima quantità di energia, applicata ai rifiuti:

  • decompone le molecole organiche (in una zona di reazione dove la temperatura va dai 3000 ai 4000 °C), che, con l'aggiunta di vapore d'acqua, producono così un gas di sintesi simile a quello prodotto una volta nei gasogeni a carbone, e più precisamente composto di idrogeno (53%) e monossido di carbonio (33%), nonché anidride carbonica, azoto molecolare e metano (recuperato per produrre elettricità);
  • fonde i materiali inorganici e li trasforma in una roccia vetrosa simile alla lava, totalmente inerte e non nociva, che può essere usata come materiale da costruzione (in questo modo non può essere recuperato il materiale ferroso o l'alluminio come con le scorie degli inceneritori). In questa "lava" sono totalmente conglobati e quindi resi inerti tutti i metalli pesanti, perciò non si hanno ceneri volanti che li contengano. Tuttavia, si ipotizza che in procedimenti come questo si producano enormi quantità di nanopolveri, anche se non ci sono studi sulla loro effettiva composizione e sono rarissimi quelli sulla dispersione nell'ambiente.

Questi sono gli unici scarti: il tipo di combustione non permette la produzione di nessun composto tossico o pericoloso come diossine, furani o ceneri. Per questo un reattore al plasma può trattare pneumatici, PVC, rifiuti ospedalieri e altri rifiuti industriali con emissioni minori di un normale inceneritore. Secondo alcune fonti l'adozione di questa tecnologia sarebbe relativamente economica: circa il 20-40% in meno di un termovalorizzatore di ultima generazione per costi di costruzione e gestione, a parità di produzione netta di energia, nonostante la generazione di plasma a 7000-13000 C° comporti come ovvio elevatissimi consumi energetici; non risultano tuttavia impianti di questo genere per i rifiuti urbani, ma solo per lo smaltimento dei rifiuti tossici come ceneri volanti da inceneritori, residui amiantiferi e PCB, mentre – come si è detto a proposito delle scorie – sono allo studio applicazioni della tecnologia della torcia al plasma per la loro vetrificazione, che risolverebbero un problema piuttosto grave degli inceneritori (cioè lo smaltimento delle scorie pesanti, che sono rifiuti pericolosi). La convenienza di questa operazione dipende dai consumi energetici del processo, come visto elevati, e dall'uso che si può fare del materiale ottenuto.
Gassogeno
Gassogeno o gasogeno è un dispositivo in grado di produrre gas a partire da una massa solida. A esempio esistono gassogeni a biomasse i quali raccolgono il gas prodotto da escrementi e da altri materiali biologici in decomposizione per essere utilizzato in diverse applicazioni, come il riscaldamento domestico. I gassogeni più noti per ragioni storiche sono quelli a gas povero, che consistono in particolari bruciatori nei quali al combustibile solido (carbone, coke o semplicemente legna secca) viene fornita una quantità insufficiente di ossigeno, cosa che porta alla formazione di molecole di monossido di carbonio. Il monossido di carbonio può ulteriormente essere ossidato portando alla formazione di anidride carbonica. Il gas povero prodotto è appunto una miscela di ossido di carbonio, anidride carbonica, azoto e idrogeno, e si forma anche per effetto del vapore d'acqua che si genera durante la combustione e attraversa il carbone incandescente facendogli sprigionare una miscela detta gas d'acqua, che si unisce agli altri prodotti della combustione (globalmente detti gas d'aria). Il gas povero è dunque composto da gas d'acqua e gas d'aria, e costituisce un combustibile economico ma dal basso potere calorifico.Un tipico gassogeno è costituito da una camera cilindrica di lamiera alta 3-5 metri con diametro di 2 metri ricoperta all'interno di refrattario. Alla base c'è una griglia a forma di cono su cui è appoggiato il coke (2 metri di altezza) e attraverso cui viene immessa l'aria. Viene utilizzato per la produzione di gas d'aria e gas d'acqua. Innescata la combustione si nota che nella parte prossima alla griglia avviene la combustione completa:

C + O_2 \to CO_2

(\Delta H = -97.000\;cal)

Essendo esotermica la reazione si raggiungerà la temperatura di 1200-1250°C; l'anidride carbonica formatasi passa allo strato superiore di coke e avviene la reazione:

CO_2 + C \to 2 CO

(\Delta H = 38.200\;cal)

Alla temperatura di 900°C si verifica che l'equilibrio è quasi tutto spostato a destra,quindi abbiamo solo la presenza di CO, anche se rimane un 2-3% di CO2, la reazione finale sarà:

2 C + O_2 \to 2 CO

(\Delta H = -58.500\;cal)


Generatore di vapore
Un generatore di vapore, o caldaia a vapore, o semplicemente caldaia è un'apparecchiatura che trasforma l'energia di combustibili in calore e lo rende disponibile in un circuito contenente un liquido provocandone un cambiamento di stato da liquido ad aeriforme, in modo continuo ed in condizioni controllate.La prima caldaia di cui si ha notizia è la sfera di Erone, costituita da un recipiente metallico cavo di forma sferica, chiuso salvi alcuni ugelli tangenziali; posta sulla fiamma, l'acqua contenuta vaporizzava e, per effetto dell'espansione conseguente, il vapore fuoriusciva dagli ugelli tangenziali ponendo la sfera stessa in rotazione; si era in presenza quindi di un assieme caldaia - motore a vapore. La sfera di Eliogabalo non ebbe seguito pratico, né vi furono tentativi concreti di sfruttare il vapore fino al tardo XVII secolo; le ragioni di ciò essendo la mancanza di utilizzatori e la mancanza di combustibile adatto (il legno, specie se verde, ha bassissimo potere calorifico e non è adatto alla generazione di vapore se non con particolari accorgimenti, relativamente più recenti). Nel XVIII secolo, quando iniziarono le applicazioni del vapore come produttore di energia meccanica, si sviluppò anche la tecnologia delle caldaie. Nei primi generatori di vapore, la caldaia era un recipiente metallico, di solito cilindrico, al disotto del quale veniva fatto bruciare il carbone. Questi modelli, non differenti nel principio dalle moderne pentole a pressione (recipiente chiuso posto su una fiamma esterna, con uscita su cui agisce una contropressione controllata), si passò al tipo, ancor oggi usato anche se solo sporadicamente, Cornovaglia, definibili a grande volume d'acqua. Le caldaie da riscaldamento odierne (che però non sono generatori di vapore) sono simili al tipo Cornovaglia.

Caldaia Cornovaglia
Caldaia
Caldaia a tubi di fumo

Con l'aumentare dell'uso del vapore, tra la fine del XVIII e l'inizio del XIX secolo, il semplice focolare della Cornovaglia, che non permetteva grandi superfici di scambio, venne gradualmente sostituito da sistemi a fascio tubiero che, oltre ad aumentare la superficie di scambio, consentivano un migliore controllo del moto convettivo dell'acqua: le caldaie a tubi di fumo (vedi figura), dette anche a medio volume d'acqua. Questo è il modello generalmente usato nelle locomotive a vapore. Verso la fine del XIX secolo, nel 1867, gli statunitensi George Babcock e Stephen Wilcox concepirono una caldaia, da loro definita non esplodente in cui all'interno dei tubi, anziché i fumi di combustione, veniva fatta circolare l'acqua da vaporizzare, creando così migliori coefficienti di scambio e, dato che si potevano usare tubi più piccoli e tortuosi, maggiori superfici di scambio, ottenendo così caldaie più piccole a parità di produzione; ulteriori vantaggi erano il ridotto volume d'acqua, che consentiva un avviamento molto più rapido, e le dimensioni minori delle parti a pressione, che venivano così ad avere minori spessori (da qui il nome non esplodente). Infine, la caldaia a tubi d'acqua presenta una superficie assai elevata (rispetto alla tubi di fumo) esposta all'irraggiamento diretto del focolare.

Figura 3: Caldaia a tubi di fumo
Caldaia a tubi di fumo

Delle caldaie a tubi d'acqua vennero anche realizzati in quel periodo tipi particolari, in cui la circolazione viene assicurata da una pompa esterna: le caldaie a circolazione forzata, di cui il tipo principale è la caldaia tipo La Mont. Il sistema è oggi largamente usato, specie nelle grandi caldaie destinate all'alimentazione di turbine per produzione di energia elettrica. Parte dell'evoluzione delle caldaie è dovuta all'evoluzione dei combustibili. Dal legno dei primordi, si è passati al carbone verso il XVIII secolo, e questo è rimasto per un secolo e mezzo il combustibile principe; la combustione avveniva nel focolare, sostanzialmente una griglia, su cui veniva posto il combustibile solido, in modo più o meno meccanizzato e da cui venivano evacuate le ceneri, anch'esse in modo più o meno meccanizzato. Nel XX secolo il carbone è stato gradualmente soppiantato dai combustibili liquidi; ciò ha richiesto la sostituzione del focolare con altri sistemi, in grado di iniettare miscele combustibile liquido - comburente gassoso nella camera di combustione. Tali dispositivi sono detti bruciatori.
Generatore elettrico
Un generatore elettrico è un dispositivo destinato a produrre energia elettrica a partire da una diversa forma di energia. Concettualmente esistono due tipi di generatori elettrici:

  • di tensione
  • di corrente

Il generatore di tensione produce una tensione elettrica definita e costante (o comunque un andamento prefissato in funzione del tempo). Il variare del carico applicato comporta una variazione della corrente uscente dal generatore secondo quanto previsto dalla legge di Ohm. Il generatore di corrente mantiene invece una corrente elettrica, ed al variare del carico varia la tensione in uscita dal generatore in modo che, per effetto della legge di Ohm la corrente si mantenga al valore corretto. Generatore ideale. Nello studio teorico dei fenomeni e circuiti elettrici si considerano in genere i generatori come ideali. Un generatore ideale è in grado di produrre qualunque tensione e corrente senza alcun limite ed è privo di resistenza interna. Il valore di corrente o tensione generato è indipendente dal carico applicato. Nella realtà non esistono generatori ideali, poiché qualunque dispositivo ha una sua resistenza interna intrinseca, inoltre è in grado di generare tensione e corrente solo entro determinati limiti. Generatore reale. Un generatore reale di tensione può essere rappresentato come un generatore ideale di tensione con esplicitata in serie la resistenza interna, mentre il generatore reale di corrente può essere rappresentato come un generatore ideale di corrente con in parallelo la resistenza interna. In teoria, qualora un circuito comprendente un generatore ideale di corrente venga aperto, la tensione in uscita dovrebbe salire all'infinito. Nei generatori reali esiste però un valore limite di tensione oltre il quale la corrente crolla a zero. Dal punto di vista teorico, nella rappresentazione teorica del generatore reale la corrente in uscita dal generatore ideale si chiude sulla resistenza interna. Generatori elettrodinamici. Questi generatori si basano sulla induzione di corrente elettrica in un circuito per effetto della legge di Faraday-Neumann-Lenz e sono i più importanti in termini di produzione di energia elettrica. In questa categoria rientrano principalmente la dinamo per la produzione di corrente continua e l'alternatore, in grado di generare corrente alternata. Generatori elettrochimici. Quando il flusso di elettroni è prodotto da una reazione di ossidoriduzione si ha un generatore elettrochimico. I più comuni sono le pile e le celle a combustibile.
Gestore del Mercato Elettrico (GME)
E’ la società per azioni costituita dal GSE alla quale è affidata la gestione economica del mercato elettrico secondo criteri di trasparenza e obiettività, al fine di promuovere la concorrenza tra i produttori assicurando la disponibilità di un adeguato livello di riserva di potenza. In particolare il GME gestisce il Mercato del giorno prima, il Mercato di Aggiustamento e il Mercato per il servizio di dispacciamento. Al GME è affidato inoltre la contrattazione dei Certificati Verdi e dei titoli di efficienza energetica (“Certificati Bianchi”).
Gestore della rete di trasmissione nazionale (GRTN)
E’ una società per azioni la cui costituzione è avvenuta in base al Decreto Bersani; al Gestore della Rete sono attribuite in concessione le attività di trasmissione e dispacciamento e la gestione unificata della rete di trasmissione nazionale. Il Gestore ha il compito di assicurare il buon funzionamento dell'intero sistema elettrico.
Gestore di rete elettrica
E’ la persona fisica o giuridica responsabile, anche non avendone la proprietà, della gestione di una rete elettrica con obbligo di connessione di terzi, nonché delle attività di manutenzione e di sviluppo della medesima.
Grandi opere.
Il controllo ambientale.
Gray (radioattività).
Il gray (simbolo Gy) è l'unità di misura della dose assorbita di radiazione del Sistema Internazionale. Un'esposizione di un gray corrisponde ad una radiazione che deposita un joule, (definito come 1 kg•m2/s2), per chilogrammo(kg) di materia (sia tessuti biologici che qualsiasi altra cosa). Gy=J/kg=m2/s2.
Grossista
Persona fisica o giuridica che acquista e vende energia elettrica senza esercitare attività di produzione, trasmissione e distribuzione nei Paesi dell’Unione Europea.
Gruppo regolante
Gruppo di generazione idoneo a mantenere la tensione e la frequenza dell’energia elettrica consegnata alla rete entro il loro campo normale di valori.
GSE
Gestore Servizi Eletttrici. Ha un ruolo centrale nella promozione, nell'incentivazione e nello sviluppo delle fonti rinnovabili in Italia. Azionista unico del GSE è il Ministero dell'Economia e delle Finanze che esercita i diritti dell'azionista con il Ministero delle Attività Produttive. Il GSE è capogruppo delle due società controllate AU (Acquirente Unico) e GME (Gestore del Mercato Elettrico). In seguito al trasferimento del ramo d’azienda relativo a dispacciamento, trasmissione e sviluppo della rete a Terna S.p.A, avvenuto il 1° novembre 2005 per effetto del DPCM dell’11 maggio 2004, il GSE si concentra sulla gestione, promozione e incentivazione delle fonti rinnovabili in Italia, attività in parte già svolte. Il Gestore dei Servizi Elettrici - GSE S.p.a. svolge un ruolo fondamentale nel meccanismo di incentivazione della produzione di energia da fonti rinnovabili e assimilate, predisposto dal provvedimento CIP 6/92, e a gestire il sistema di mercato basato sui Certificati Verdi. Rilascia, inoltre, la Garanzia di Origine, riconoscimento introdotto dalla direttiva comunitaria 2001/77 per l’energia elettrica da fonte rinnovabile, e i certificati RECS (Renewable Energy Certificate System), titoli internazionali, su base volontaria, attestanti la produzione rinnovabile. A rafforzare la caratterizzazione delle attività svolte dal GSE, l’assegnazione - da parte dell’AEEG - del ruolo di “soggetto attuatore” previsto dal decreto del Ministero delle Attività produttive del 28 luglio 2005, per l’incentivazione della produzione di energia elettrica mediante conversione fotovoltaica della fonte solare.
Idrogeno
L'idrogeno è l'elemento più leggero e abbondante dell'universo. È tuttavia assai raro sulla Terra allo stato elementare, a causa della sua estrema volatilità. Per poterne disporre in quantità industrialmente utili occorre pertanto estrarlo dai composti che lo contengono in abbondanza (a esempio dall’acqua, dai combustibili fossili, da sostanze minerali e da organismi vegetali) utilizzando una fonte di energia esterna. Per questo motivo l’idrogeno, al pari dell’elettricità, deve essere considerato un vettore energetico, piuttosto che una fonte energetica primaria. L'interesse per il suo impiego come combustibile, tanto per applicazioni industriali quanto per l’autotrazione, deriva dal fatto che l'inquinamento prodotto dall’idrogeno è quasi nullo. Se usato in sistemi a combustione produce, infatti, soltanto vapore acqueo e tracce di ossidi di azoto; mentre produce solo vapore acqueo, se viene utilizzato con sistemi elettrochimici (celle a combustibile). Le tecnologie di produzione dell'idrogeno a partire dai combustibili fossili (in particolare dal carbone) sono mature e ampiamente utilizzate, anche se vanno ottimizzate da un punto di vista economico, energetico e di impatto ambientale. Dei circa 500 miliardi di m3 di idrogeno prodotti annualmente a livello mondiale, circa 190 miliardi rappresentano un sottoprodotto dell'industria chimica, mentre la maggior frazione deriva da combustibili fossili (gas naturale, idrocarburi pesanti e carbone) attraverso processi di reforming, di ossidazione parziale, di pirolisi e di gassificazione.
La produzione dell’idrogeno dai combustibili fossili ha tuttavia l'inconveniente di dar luogo alla emissione, come prodotto di scarto, di grandi quantità di CO2, gas notoriamente a effetto serra. Tuttavia proprio la produzione dell’idrogeno dal carbone e l’idrogeno generato come sottoprodotto nell’industria chimica appaiono oggi le uniche strade praticabili per avviare una filiera produttiva di dimensioni tali da raggiungere le necessarie economie di scala. L'estrazione diretta di idrogeno dall'acqua ha, al momento, un unico processo industriale consolidato: l'elettrolisi. In questo caso si dà luogo a un processo di produzione e consumo ambientalmente sostenibile, ma è necessaria una corrispondente quantità di energia elettrica pulita in grado di alimentare il processo di elettrolisi. Il problema è pertanto quello dei costi: con l'elettrolisi dell'acqua, infatti, si può ottenere idrogeno praticamente puro, ma a un prezzo che può diventare economicamente accettabile in una prospettiva ancora lontana, allorquando le innovazioni tecnologiche potranno consentire di utilizzare per il processo energia elettrica prodotta da fonti rinnovabili (o da nucleare) a costi molto bassi. Altri aspetti da valutare con attenzione sono inoltre quelli legati alla difficoltà di trasporto e stoccaggio , sia per la bassa densità energetica, sia perché l’idrogeno è esplosivo, infiammabile ed estremamente volatile.
Lo sviluppo dell'idrogeno come vettore energetico è pertanto una opzione di estremo interesse per contribuire a risolvere i problemi energetici del pianeta, ma richiede miglioramenti sostanziali nelle tecnologie esistenti e la ricerca di tecnologie innovative per renderne l'impiego economico e affidabile nelle varie fasi della catena tecnologica (produzione, trasporto, stoccaggio, utilizzo finale). Si tratta di una sfida non semplice, che si sta oggi affrontando con numerose tecnologie allo studio. In questo scenario l'Italia può avere un ruolo da protagonista, poiché le conoscenze scientifiche e le capacità tecnologiche possedute sono di vertice a livello internazionale. La ricerca è particolarmente attiva nel settore della produzione sia da fonti fossili, attraverso la gassificazione del carbone, sia da fonti rinnovabili con il processo di elettrolisi, sfruttando l’elettricità prodotta nelle centrali idroelettriche.
Impianto fotovoltaico
Impianto costituito da moduli fotovoltaici e altri componenti progettato per produrre energia elettrica a partire dalla radiazione solare.
Impianto fotovoltaico connesso in rete
Impianto fotovoltaico collegato alla rete di distribuzione dell’energia elettrica.
Impianto fotovoltaico isolato
Impianto fotovoltaico non collegato alla rete elettrica di distribuzione.
Impianto misto
Stazione elettrica (anche localizzata presso un impianto di produzione) all’interno della quale sono realizzate trasformazioni AAT/AT afferenti alla rete di trasmissione nonché trasformazioni AT/MT tipiche di cabina primaria. In esso le competenze sono, normalmente, suddivise tra il GSE e il gestore della rete di distribuzione.
Impianto produttore
Insieme del macchinario, dei circuiti, dei servizi ausiliari, delle apparecchiature e degli eventuali carichi per la generazione di energia elettrica, che ha origine nel punto di consegna. Indice di corretto funzionamento su guasto (Dp) Indicatore della capacità del sistema complessivo di protezione nell’eliminare i guasti, una volta che siano stati rilevati. E’ definito dalla formula Dp=1-F/A dove: A= numero totale di guasti nel sistema; F= numero di guasti nel sistema in cui l’interruttore ha mancato l’apertura.
Indice di disalimentazione Rapporto tra l'energia non fornita in una determinata rete elettrica a causa di disservizi ed il picco di carico nella stessa rete nel periodo di tempo considerato. Costituisce un parametro che consente di valutare la continuità del servizio elettrico.
Impronta ecologica.
L'impronta ecologica è un indicatore utilizzato per valutare il consumo umano di risorse naturali rispetto alla capacità della Terra di rigenerarle. L'impronta ecologica misura l'area biologicamente produttiva di mare e di terra necessaria per rigenerare le risorse consumate da una popolazione umana e per assorbire i rifiuti prodotti. Utilizzando l'impronta ecologica, è possibile stimare quanti "pianeta Terra" servirebbero per sostenere l'umanità, qualora tutti vivessero secondo un determinato stile di vita. Confrontando l'impronta di un individuo (o regione, o stato) con la quantità di terra disponibile pro-capite (cioè il rapporto tra superficie totale e popolazione mondiale) si può capire se il livello di consumi del campione è sostenibile o meno. Per calcolare l'impronta ecologica si mette in relazione la quantità di ogni bene consumato (es. grano, riso, mais, cereali, carni, frutta, verdura, radici e tuberi, legumi, ecc.) con una costante di rendimento espressa in kg/ha (chilogrammi per ettaro). Il risultato è una superficie espressa quantitativamente in ettari. Si può esprimere l’impronta ecologica anche da un punto di vista energetico, considerando l’emissione di diossido di carbonio espressa quantitativamente in tonnellate, e di conseguenza la quantità di terra forestata necessaria per assorbire le suddette tonnellate di CO2. Da alcuni studi effettuati su scala mondiale e su alcuni paesi emerge che l'impronta mondiale è maggiore della capacità bioproduttiva mondiale. Secondo Mathis Wackernagel, nel 1961 l'umanità usava il 70% della capacità globale della biosfera, ma nel 1999 era arrivata al 120%. Ciò significa che stiamo consumando le risorse più velocemente di quanto potremmo, cioè che stiamo intaccando il capitale naturale e che nel futuro potremo disporre di meno materie prime per i nostri consumi. Relativamente ad alcuni stati, i dati dell'impropnta pro-capite sono i seguenti: Usa 9,6ha, Svezia 6,6ha, Canada 5,8ha, Francia 5,6ha, Italia 4,2ha. Il dato va raffrontato con la biocapacità media mondiale che è di 1,78 ettari pro capite.
Indice di prestazione energetica di un edificio (IPE).
L'indice di prestazione energetica per la climatizzazione invernale, o più semplicemente "indice di prestazione energetica" (in acronimo IPE), è un parametro architettonico che viene usato per valutare l'efficienza energetica di un edificio. In particolare questo indice tiene conto del rapporto tra l'energia necessaria per portare un ambiente alla temperatura di 18 °C e la sua superficie utile o volume lordo, in caso di locali non residenziali. Per superficie utile si intende la superficie netta calpestabile dell'ambiente. L'indice di prestazione energetica viene quindi espresso in kWh/m2 per anno, o kWh/m3 per anno per locali non residenziali. In merito alla recente tendenza al risparmio energetico l'Unione europea ha notificato la strada da percorrere in materia edile ai suoi paesi membri con la direttiva 2002/91/ce “rendimento energetico nell'edilizia” o la direttiva 2006/32/ce “efficienza degli usi finali dell'energia e i servizi energetici”. Per adeguarsi a queste nuove disposizioni anche in Italia sono state emanate alcune leggi che stabiliscono dei valori convenzionali del'IPE che devono essere soddisfatti nell'ambito della realizzazione di nuovi edifici. Nel particolare il decreto del Presidente della Repubblica dpr 59/09, specifica alcuni valori dell'IPE che vanno certificati in corso d'opera. Dal 1º gennaio 2012, nel caso di offerta di trasferimento a titolo oneroso di edifici o di singole unità immobiliari, gli annunci commerciali di vendita devono riportare l'indice di prestazione energetica contenuto nell’attestato di certificazione energetica. L’obbligo deriva dall’art. 13 del Dlgs 3 marzo 2011, n. 28 che ha apportato modifiche al decreto legislativo 19 agosto 2005, n. 192. L'IPE si presta infine a essere utilizzato come riferimento contrattuale nei servizi di aumento di efficienza energetica che le Energy Service Company realizzano per conto del cliente.
Indisponibilità di un elemento della rete
Stato nel quale un elemento della Rete non è utilizzabile da parte del Gestore per l’attività di trasmissione.
L’indisponibilità si distingue in:

  • programmata, se è prevista nel piano annuale delle indisponibilità o nel piano trimestrale per le indisponibilità e ha una durata inferiore a cinque giorni;
  • occasionale, se non è prevista nel piano annuale ma è prevista nel piano trimestrale delle indisponibilità e ha una durata superiore o uguale a cinque giorni; non è prevista nel piano trimestrale ma è prevista nel piano mensile.
L’indisponibilità occasionale si distingue in:
  • differibile se è relativa ad una manutenzione occasionale differibile;
  • indifferibile se è relativa ad una manutenzione occasionale indifferibile;
  • su guasto, se è conseguente al verificarsi di un guasto;
  • per causa esterna, se dovuta ad esigenze di terzi o ad eventi non attribuibili al Titolare; ad esempio: lavori o prove richiesti da gestori/titolari di reti limitrofe o da altri operatori, calamità naturali, provvedimenti di autorità pubbliche.

Induttanza
Una corrente elettrica i che scorre in un circuito elettrico produce un campo magnetico nello spazio circostante e un flusso magnetico Φ attraverso il circuito. L'induttanza del circuito è quindi il rapporto tra il flusso magnetico generato e la corrente passante. Il termine fu utilizzato per la prima volta da Oliver Heaviside nel Febbraio 1886. L'induttanza si indica con la lettera L maiuscola. La definizione operativa di induttanza di una spira di corrente è data dalla seguente relazione:

L= \frac{\Phi}{i}.

In onore di Joseph Henry, all'unità di misura dell'induttanza è stato dato il nome henry (H) : 1 H = 1 Wb /1 A. L'induttanza è anche detta coefficiente di autoinduzione del circuito.
Induttore
E' un componente elettrico che genera un campo magnetico al passaggio di corrente elettrica (continua o alternata o impulsiva). Nella teoria dei circuiti l'induttore è un componente ideale (la cui grandezza fisica è l'induttanza) in cui tutta l'energia elettrica assorbita è immagazzinata nel campo magnetico prodotto. Gli induttori reali, realizzati con un avvolgimento di un filo conduttore, presentano anche fenomeni dissipativi e capacitativi di cui si deve tenere conto. Gli induttori sono impiegati in una varietà di dispositivi elettrici ed elettronici, tra i quali i trasformatori ed i motori elettrici nonché in svariati circuiti a corrente alternata ad alta frequenza.
Induzione elettromagnetica
La legge di Faraday o legge dell'induzione elettromagnetica è una legge fisica che quantifica il fenomeno dell'induzione elettromagnetica, ovvero l'effetto di produzione di corrente elettrica in un circuito posto in un campo magnetico variabile oppure un circuito in movimento in un campo magnetico costante. È stata scoperta nel 1831 dal fisico inglese Michael Faraday, ed è attualmente alla base del funzionamento dei comuni motori elettrici, generatori elettrici e trasformatori.
Intelligenza artificiale (IA)
Vedi articolo specifico.
Inverter
Un inverter è un apparato elettronico in grado di convertire corrente continua in corrente alternata eventualmente a tensione diversa, oppure una corrente alternata in un'altra di differente frequenza
Inverter fotovoltaico
Si tratta di un tipo particolare di inverter progettato espressamente per convertire l'energia elettrica sotto forma di corrente continua prodotta da modulo fotovoltaico, in corrente alternata da immettere direttamente nella rete elettrica. Queste macchine estendono la funzione base di un inverter generico con funzioni estremamente sofisticate e all'avanguardia, mediante l'impiego di particolari sistemi di controllo software e hardware, che consentono di estrarre dai pannelli solari la massima potenza disponibile in qualsiasi condizione meteorologica. Questa funzione prende il nome di MPPT, un acronimo di origine Inglese che sta per Maximum Power Point Tracker. I moduli fotovoltaici infatti, hanno una curva caratteristica V/I tale che esiste un punto di lavoro ottimale, detto appunto Maximum Power Point, dove è possibile estrarre tutta la potenza disponibile. Questo punto della caratteristica varia continuamente in funzione del livello di radiazione solare che colpisce la superficie delle celle. È evidente che un inverter in grado di restare "agganciato" a questo punto, otterrà sempre la massima potenza disponibile in qualsiasi condizione. Ci sono svariate tecniche di realizzazione della funzione MPPT, che si differenziano per prestazioni dinamiche (tempo di assestamento) e accuratezza. Sebbene la precisione dell'MPPT sia estremamente importante, il tempo di assestamento lo è, in taluni casi, ancor più. Mentre tutti i produttori di inverter riescono ad ottenere grande precisione sull'MPPT (tipicamente tra il 99-99,6% della massima disponibile), solo in pochi riescono ad unire precisione a velocità. È infatti nelle giornate con nuvolosità variabile che si verificano sbalzi di potenza solare ampi e repentini. È molto comune rilevare variazioni da 100W/m² a 1000-1200W/m² in meno di 2 secondi. In queste condizioni, che sono molto frequenti, un inverter con tempi di assestamento minori di 5 secondi riesce a produrre fino al 15%-20% di energia in più di uno lento. Alcuni inverter fotovoltaici sono dotati di stadi di potenza modulari, e alcuni sono addirittura dotati di un MPPT per ogni stadio di potenza. In questo modo i produttori lasciano all'ingegneria di sistema la libertà di configurare un funzionamento master/slave o a MPPT indipendenti. In genere l'impiego di MPPT separati fa perdere qualche punto percentuale di rendimento elettrico medio della macchina, che è costretta a funzionare a pieno regime anche con irraggiamento scarso. Tuttavia non è infrequente che la superficie dei pannelli solari non possa essere esposta al sole uniformemente su tutto il campo perché disposto su due diverse falde del tetto, oppure che i moduli non possano essere distribuiti su stringhe di uguale lunghezza. In questo caso l'utilizzo di un solo MPPT porterebbe l'inverter a lavorare fuori dal punto di massima potenza e conseguentemente la produzione di energia ne sarebbe danneggiata. Un'altra caratteristica importante di un inverter fotovoltaico, è l'interfaccia di rete. Questa funzione, generalmente integrata nella macchina, deve rispondere ai requisiti imposti dalle normative dei diversi enti di erogazione di energia elettrica. In Italia, ENEL ha rilasciato la normativa DK5940, attualmente giunta all'edizione 2.2. Questa normativa prevede una serie di misure di sicurezza tali da evitare l'immissione di energia nella rete elettrica qualora i parametri di questa, siano fuori dai limiti di accettabilità.
IPEX (Italian Power Exchange)
Detto anche Borsa elettrica, è il mercato fisico per lo scambio "all'ingrosso" di quantità stabilite di energia, basato su un meccanismo di asta e sulla definizione di programmi di immissione e di prelievo dalla rete di trasmissione nazionale. I programmi e le quantità di energia scambiate vengono regolati sulla base di un libero sistema di domanda e offerta, previa verifica della loro rispondenza ai vincoli della rete da parte del Gestore della Rete di Trasmissione Nazionale.
Irraggiamento
Radiazione solare istantanea (quindi una potenza) incidente sull’unità di superficie. Si misura in kW/m2. L’irraggiamento rilevabile all’Equatore, a mezzogiorno e in condizioni atmosferiche ottimali, è pari a circa 1.000 W/m2.
IUPAC
Acronimo di International Union of Pure and Applied Chemistry (in italiano Unione Internazionale di Chimica Pura ed Applicata), è una organizzazione non governativa internazionale, dedita al progresso della chimica. I suoi membri sono le varie società chimiche nazionali. La IUPAC opera in accordo ed armonizza la propria nomenclatura e terminologia, ove necessario, con la IUPAP e l'ISO ed adotta il Sistema Internazionale SI di grandezze ed unità di misura. È un'autorità riconosciuta che si riunisce periodicamente per aggiornare le regole riguardanti la nomenclatura chimica degli elementi e dei composti, attraverso il Comitato Interdivisionale per la Nomenclatura e i Simboli. È inoltre membro del Consiglio Internazionale per le Scienze (ICSU).
IUPAP
L' International Union of Pure and Applied Physics (IUPAP) è una organizzazione non governativa che si impegna nell'avanzamento della fisica. È stata creata nel 1922 e la sua prima Assemblea generale è avvenuta nel 1923 a Parigi. L'IUPAP è membro dell'International Council for Science (ICSU). Gli obiettivi dell'IUPAP sono:

  • promuovere e stimolare la collaborazione internazionale nello studio della fisica
  • patrocinare meeting internazionali e collaborare all'organizzazione di comtati
  • incoraggiare la preparazione e pubblicazione di abstract e documenti sulle costanti fisiche
  • promuovere accordi internazionali sull'uso comune di simboli, unità di misura, nomenclature e stadard
  • promuovere la libera circolazione degli scienziati
  • incoraggiare la ricerca e la didattica

L'unione è governata da un'Assemblea generale che si riunisce ogni 3 anni. Il concilio è l'organo esegutivo più importante e supervisione le attività delle 19 commissioni internazionali e delle tre commissioni affiliate. L'unione è composta da membri (attualmente 49) rappresentanti diverse comunità di fisici. La commissione SUNAMCO dello IUPAP ha pubblicato il libro Symbols, Units, Nomenclature and Fundamental Constants in Physics, scritto da E. Richard Cohen e Pierre Giacomo, conosciuto anche come red book, I.U.P.A.P.-25, o SUNAMCO 87-1. Il sito web del SP Technical Research Institute of Sweden ha reso l'edizione del 1987 disponibile in rete.
Joule
Il joule (simbolo: J.), è un'unità di misura derivata del Sistema internazionale (SI). Il joule è l'unità di misura dell'energia, del lavoro e del calore (per quest'ultimo è più frequente la caloria), ed è definito come 1 kg·m2/s2 = 1 N·m = 1 W·s. Prende il nome dal fisico James Prescott Joule.

\, 1\, \mathrm{J}=1\, \mathrm{N} \cdot \mathrm{m}

 

\, 1\, \mathrm{J}=1\, \mathrm{kg} \cdot \frac{\mathrm{m}^{2}}{\mathrm{s}^{2}}

Un joule è il lavoro richiesto per esercitare una forza di un newton per una distanza di un metro, perciò la stessa quantità puo essere riferita come newton metro. Comunque, per evitare confusione, il newton metro è tipicamente usato come la misura della coppia di torsione e non dell'energia. Un altro modo di visualizzare il joule è il lavoro richiesto per sollevare una massa di 102 g (una piccola mela) per un metro, opponendosi alla forza di gravità terrestre. Un joule è anche il lavoro svolto per produrre la potenza di un watt per un secondo, esattamente come se qualcuno impiegasse un secondo per sollevare la suddetta mela.

1 joule equivale a:

  • 6,24150975·10exp18 eV
  • 107 erg
  • 1 W·s (watt secondo)
  • 1 N·m (newton metro)
  • 1 Pa·m3 (pascal metro cubo)
  • 2,39·10-1 calorie
  • 9,48·10-4 British thermal unit
  • 2,78·10-7 chilowattora (1 chilowattora equivale esattamente a 3 600 000 J)

Kirchhoff (Prima legge di)
La legge di Kirchhoff delle correnti (LKC o LKI) afferma che, definita una superficie chiusa che attraversi un circuito elettrico, la somma algebrica delle correnti che attraversano la superficie (con segno diverso se entranti o uscenti) è nulla. In ogni istante di tempo si ha quindi: sommatoria estesa alla superficie sigma delle ik(t) ( ik(t) è il valore della k -esima corrente che attraversa σ all'istante t) èuguaòe a zero. In una formulazione semplificata, e definendo una superficie che racchiuda un singolo nodo del circuito, si può dire che in esso la somma delle correnti entranti è uguale alla somma delle correnti uscenti. Indicando con Ie le correnti entranti e con Iu le correnti uscenti, in formula si scrive:

\sum I_e = \sum I_u

Ad esempio, prendiamo un nodo a cui giungono quattro rami del circuito e chiamiamo le correnti i1, i2, i3 ed i4. Decido che da un solo ramo uscirà corrente (i4), quindi la formula sarà:

i1 + i2 + i3 = i4

che trasformata nella forma canonica dà

i1 + i2 + i3 - i4 = 0

In questo caso essendoci un'unica uscita, i4 sarà la somma di tutte le altre correnti. La somma algebrica totale sarà quindi nulla. Se risolvendo il circuito otteniamo un valore negativo di corrente questo significa che il verso effettivo con cui la carica percorre il ramo è l'opposto di quello ipotizzato all'inizio. Se il circuito è in corrente continua la somma va intesa come somma algebrica. Se il circuito è in regime sinusoidale (vedi anche corrente alternata) la somma può essere fatta anche sui fasori corrispondenti alle correnti (quindi come somma vettoriale). La prima legge semplicemente riflette il fatto che la carica non può essere dispersa. Se vengono indicati tutti i possibili tragitti lungo i quali il trasferimento della carica è possibile, e se si è certi che una emissione effettiva di elettroni o effetti collaterali non esistono, allora la carica netta spostata verso un nodo, deve uguagliare quella che vi si allontana. Conseguentemente, la velocità totale con cui la carica entra in un nodo, ovvero la corrente in entrata, deve uguagliare la velocità totale della carica che lo lascia, ovvero la corrente in uscita.
Kirchhoff (Seconda legge di)
Nella formulazione più semplice la legge di Kirchhoff delle tensioni (LKT o LKV) afferma che, in un circuito a parametri concentrati planare, è definito il concetto di potenziale elettrico (vedi anche differenza di potenziale o d.d.p.). Equivalentemente, la somma algebrica delle tensioni lungo una linea chiusa (con il segno appropriato in funzione del verso di percorrenza della maglia stessa) è pari a zero. Se le grandezze elettriche del circuito sono rappresentate nel dominio del tempo (per esempio se è in corrente continua) la somma va intesa come somma algebrica. Se il circuito è in corrente alternata e le grandezze elettriche sono rappresentate da fasori la somma può essere fatta anche sui fasori corrispondenti alle tensioni (quindi come somma vettoriale.). Indicando con Vi le tensioni, in formula si può scrivere:

\sum V_i = 0.

Una maglia è un percorso chiuso di una rete elettrica che partendo da un nodo torna allo stesso senza attraversare uno stesso ramo due volte, non è necessario che tra due nodi successivi di una maglia ci sia un componente "effettivo" (anche perché si può sempre immaginare la presenza di un componente circuito aperto). Questa legge corrisponde alla legge di conservazione dell'energia per un campo conservativo, in quanto afferma che il lavoro compiuto per far compiere ad una carica un percorso chiuso deve essere uguale a zero

Clicca l'iniziale per trovare la parola cercata

A B C D E F G H I J K P Q R S T U V W X Y Z


LOGO

L M N O

Lavoro (fisica)
In fisica si parla di lavoro tutte le volte che una forza agisce su un corpo in concomitanza con il suo spostamento. Se un corpo è appoggiato su una superficie, soggetto alla forza peso, e non si muove per effetto di forze esterne, la forza peso non compie alcun lavoro; se il corpo viene sollevato, la forza che ha agito sul corpo per determinarne lo spostamento ha compiuto un lavoro. Il lavoro compiuto da una forza per innalzare un corpo di un certo tratto rispetto alla sua posizione originaria è proporzionale all'entità dello spostamento del corpo: occorrerà più lavoro per sollevare un corpo di 1 metro piuttosto che per innalzarlo di 1 centimetro. Data una forza costante, F, che, applicata a un corpo, ne provoca lo spostamento di un segmento s, si definisce lavoro, L, della forza il prodotto dello spostamento per la componente, Fs, della forza nella direzione dello spostamento:
L=F.s
Il lavoro è una grandezza scalare , quindi non è dotato di una direzione e di un verso. Se la forza è parallela allo spostamento, il lavoro sarà dato semplicemente dal prodotto della forza per lo spostamento; se invece la forza è perpendicolare allo spostamento, non avrà alcuna componente nella direzione dello spostamento, quindi il lavoro è nullo. Perciò, una forza perpendicolare allo spostamento non compie alcun lavoro. Il lavoro sarà massimo in valore assoluto quando la forza è parallela allo spostamento e minimo (nullo) quando la forza è perpendicolare. A seconda della direzione relativa del vettore forza e del vettore spostamento, il lavoro si divide in lavoro motore e lavoro resistente. Se le direzioni della forza e dello spostamento hanno il medesimo verso, il lavoro è positivo e si dice lavoro motore: quando un corpo cade da una certa altezza, la forza di gravità (diretta verso il basso) compie un lavoro motore. Se forza e spostamento hanno direzione e verso opposti, il lavoro è negativo e si dice lavoro resistente: quando una molla viene compressa, la forza elastica, che tenderebbe a riportarla alla sua lunghezza originale, compie un lavoro resistente. L'unità di misura del lavoro è il joule (simbolo J), definito come il lavoro compiuto da una forza di 1 newton quando il suo punto di applicazione si sposta di 1 metro e dimensionalmente uguale a una forza per uno spostamento:
1J = 1N . 1m

Legge di Ohm
Esprime una relazione tra la differenza di potenziale V (tensione elettrica) ai capi di un conduttore e la corrente elettrica I che lo attraversa. Sia R la resistenza del conduttore, abbiamo:

V = R \cdot I

Gli elementi elettrici per i quali la legge è soddisfatta sono detti resistori (o resistenze) ideali o ohmici; tuttavia, per ragioni storiche, si continua ad attribuire all'enunciato il rango di legge. Si noti che la legge di Ohm esprime unicamente la relazione di linearità fra la corrente elettrica I e la differenza di potenziale V applicata. L'equazione indicata è semplicemente una forma dell'espressione che definisce il concetto di resistenza ed è valida per tutti i dispositivi conduttori. La legge deve il proprio nome a quello del fisico tedesco Georg Simon Ohm.
Linea elettrica
Una linea elettrica è un sistema elettrico che collega due sezioni di una rete al fine di trasferire la potenza dal punto di origine all'arrivo. Si distinguono le linee in:

  • aeree (conduttori non isolati posati in aria fissati su sostegni di diverso tipo, come i tralicci)
  • in cavo (conduttori isolati con diversi materiali posati a terra, in canaline, tubazioni, etc..)

C'è un'ulteriore classificazione in base alla forma d'onda della corrente trasmessa (linee a corrente continua o alternata) e in base al valore della tensione elettrica (linee in bassa, media o alta tensione). Il circuito equivalente di un tratto di linea lungo 1km si schematizza con due parametri longitudinali (Rl e Xl) e due trasversali (Cl e Gl). Se si volesse considerare il circuito equivalente di tutta l'intera linea in considerazione vanno "uniti" questi blocchi di circuito. I parametri sono definiti come segue per unità di lunghezza:

  • Rl - resistenza di linea: è la resistenza fisica del cavo al passaggio della corrente:
R_l = k_r \frac{\rho}{S} in [ Ω / Km ] dove
* ρ è la resistività del materiale in Ω mm2 / Km; di solito i cavi in alta tensione son costituiti da rame o alluminio insieme all'acciaio che fornisce una buona resistenza meccanica;
* S è l'ampiezza della sezione del cavo, in mm2;
* Kr è un coefficiente maggiorativo che varia dal 2% al 5% per le linee aree e fino al 20% per le linee in cavo
  • Xl (Ll) - induttanza di servizio di linea: considera gli effetti di auto e mutua induzione tra i cavi stesi in parallelo:
L_l = 0,4606 \ log{\frac{2D}{d}} + K in [ H / Km]*10-3 dove
* D è la distanza tra i conduttori;
* d è il diametro dei conduttori
* K è il contributo dato dal campo interno al conduttore e dipende dalla struttura del cavo (liscio o cordato)
  • Cl - capacità di linea; considera il campo elettrostatico tra i conduttori e tra i conduttori ed il terreno (effetto predominante) che si genera a causa di un imperfetto isolamento del dielettrico:
C_l = \frac{0,02413}{ log{\frac{2D}{d}} } in [μ F / Km]
  • Gl - conduttanza di linea; considera l'effetto di conduzione superficiale del cavo a causa di un non perfetto isolamento. Può accadere che - soprattutto in caso di umidità - si abbassi il valore del dielettrico e si generino delle scariche localizzate intorno al cavo di colore bluastro e rumorose che causano una dissipazione di energia (effetto corona).

Nelle linee a media e bassa tensione questi ultimi due effetti sono trascurabili, ne consegue che il circuito equivalente è dato solo dalla serie di Rl e Xl. Si può quindi definire per una linea con una data lunghezza "L" la resistenza e l'induttanza globale del cavo: R = Rl \cdot L\,\! e X = Xl \cdot L\,\!.

Con questi due valori in bt e MT è possibile definire la caduta di tensione industriale per una linea trifase:

V_p - V_a = \Delta V = \sqrt{3} I  (R cos{\phi} + X sin{\phi} )

dove ΔV è la differenza tra la tensione di partenza e di arrivo della linea, I è la corrente che fluisce, φ è lo sfasamento tra corrente e tensione di fase in arrivo.
Materia oscura
Vedi articolo.
Meeccanica quantistica
Vedi articolo
Media tensione (MT)
E’ una tensione nominale tra le fasi superiore a 1 kV e uguale o inferiore a 35 kV.
Mercato elettrico
L’insieme del mercato del giorno prima dell’energia, del mercato di aggiustamento e del mercato per i servizi di dispacciamento.
Mercato interno per l'energia
La creazione di un vero mercato interno dell'energia è un obiettivo prioritario dell'Unione europea (UE). L'esistenza di un mercato interno dell'energia competitivo è uno strumento strategico sia per offrire ai consumatori europei la scelta tra vari fornitori di gas e di elettricità a prezzi adeguati che per permettere l'accesso al mercato a tutte le imprese, in particolare alle imprese più piccole e alle imprese che investono nelle energie rinnovabili. Si tratta inoltre di creare un quadro che favorisca il funzionamento del meccanismo di scambio delle quote di emissione di CO2. La realtà del mercato interno dell'energia si basa soprattutto sull'esistenza di una rete energetica europea sicura e coerente e, di conseguenza, sugli investimenti realizzati nelle infrastrutture. Un mercato veramente interconnesso contribuisce alla diversificazione e, quindi, alla sicurezza degli approvvigionamenti. Comunicazione della Commissione al Consiglio e al Parlamento europeo, del 10 gennaio 2007, "Prospettive del mercato interno del gas e dell'elettricità" [COM(2006) 841 definitivo].
Mercato libero
Ambito in cui operano in regime di concorrenza produttori e grossisti di energia elettrica sia nazionali che esteri per fornire energia elettrica ai clienti idonei.
Mercato vincolato
Ambito del mercato dell'energia elettrica per la fornitura ai clienti finali che, non rientrando nella categoria dei clienti idonei, possono stipulare i relativi contratti esclusivamente con il distributore che presta il servizio nell'area territoriale dove è localizzata l'utenza di detti soggetti. Il prezzo di acquisto dell'energia elettrica, in questo contesto, è unico a livello nazionale ed è regolamentato dall'Autorità per l'Energia Elettrica e il Gas.
Microgenerazione
La differenza principale tra i sistemi a microcogenerazione e i loro parenti su larga scala sono i parametri che ne guidano l'operatività. In molti casi i sistemi CHP industriali generano principalmente energia elettrica e il calore è un utile sotto-prodotto. Al contrario i sistemi di micro-CHP, che funzionano in case o piccoli edifici commerciali, producono principalmente calore generando elettricità come sotto-prodotto. A causa di questo modello operativo e della domanda fluttuante delle strutture per quanto riguarda l'energia elettrica, i sistemi a microcogenerazione spesso producono più elettricità di quella che viene usata. Tali sistemi ottengono molti dei loro risparmi, esercitando quindi attrattiva sui consumatori, attraverso un modello di "generazione e rivendita" o "scambio sul posto" in cui l'energia generata in eccesso rispetto ai bisogni casalinghi viene rivenduta all'azienda elettrica. Questo sistema è efficiente perché l'energia usata viene distribuita e usata istantaneamente nella rete elettrica. Le perdite principali avvengono nella trasmissione dalla fonte al consumatore, mantenendosi comunque inferiori alle perdite che si avrebbero accumulando localmente l'energia o generando corrente a meno dell'efficienza massima del sistema a microcogenerazione. Quindi, da un punto di vista prettamente tecnico, lo scambio sul posto è molto efficiente. Un altro punto positivo per il net-metering (altro termine per descrivere lo "scambio sul posto") è il fatto che è molto semplice da configurare. Il contatore elettrico dell'utente viene reso in grado di registrare anche l'energia in uscita dalla casa, oltre a quella in entrata. Per una rete con relativamente pochi utenti dotati di micro-CHP non sono necessari cambiamenti ad essa. Inoltre negli Stati Uniti molte leggi federali e statali impongono alle aziende elettriche di compensare chiunque dia energia alla rete. Dal punto di vista di tali aziende queste regole presentano carichi operazionali e tecnici oltre che amministrativi. Di conseguenza la maggior parte delle aziende elettriche compensano i contribuenti solamente con uno sconto pari o inferiore alla bolletta (non pagando quindi un eventuale surplus). Mentre questo schema di compensi potrebbe sembrare onesto ad un primo sguardo, rappresenta solamente un risparmio per l'utente per non aver acquistato energia dal fornitore e non un guadagno completo dal sistema di microcogenerazione. Quindi, dal punto di vista degli utenti in possesso di sistemi di micro-CHP il net-metering non è l'ideale. Mentre il net-metering è un sistema molto efficiente per utilizzare l'energia in eccesso generata da un microcogeneratore, non è immune ai denigratori. Questi ultimi portano alcune considerazioni a sostegno delle loro ipotesi: mentre un generatore principale di corrente nella rete elettrica è una grossa centrale commerciale, i generatori del net-metering "spillano" energia verso la rete in modo casuale e imprevedibile. Tuttavia l'effetto è minimo se vi sono soltanto una piccola percentuale di clienti che generano elettricità e ognuno di loro ne genera una piccola quantità. Quando viene acceso un forno o una stufa elettrica viene utilizzato circa lo stesso quantitativo di elettricità da rete che viene prodotta dal generatore casalingo. L'effetto diverrebbe dunque evidente se vi fosse una larga percentuale di case con sistemi di generazione. La coordinazione tra i sistemi di generazione nelle case e nel resto della rete diverrebbe necessaria per un uso affidabile e per evitare danni alla rete stessa.
Misura dell’energia elettrica
È l’attività di misura finalizzata all’ottenimento di misure dell’energia elettrica in un punto di immissione, in un punto di prelievo o in un punto di interconnessione.
Modulo fotovoltaico (o pannello fotovoltaico)
Un modulo fotovoltaico è un dispositivo in grado di convertire l'energia solare direttamente in energia elettrica mediante effetto fotovoltaico ed è impiegato come generatore di corrente quasi puro in un impianto fotovoltaico. Può essere meccanicamente preassemblato a formare un pannello fotovoltaico, pratica caduta in disuso con il progressivo aumento delle dimensioni dei moduli, che ne hanno quindi incorporato le finalità. Può essere esteticamente simile al pannello solare termico, ma ha scopo e funzionamento profondamente differenti. Di molti materiali impiegabili per la costruzione dei moduli fotovoltaici, il silicio è in assoluto il più utilizzato. Le tecnologie di realizzazione più comuni sono: moduli cristallini.

  • Silicio monocristallino, in cui ogni cella è realizzata a partire da un wafer la cui struttura cristallina è omogenea (monocristallo), opportunamente drogato in modo da realizzare una giunzione p-n;
  • Silicio policristallino, in cui il wafer di cui sopra non è strutturalmente omogeneo ma organizzato in grani localmente ordinati (policristallo).

I moduli in silicio mono o policristallini rappresentano la maggior parte del mercato. Entrambe queste tecnologie sono costruttivamente simili, e prevedono che ogni cella fotovoltaica sia cablata in superficie con una griglia di materiale conduttore che ne canalizzi gli elettroni. Ogni singola cella viene connessa alle altre mediante ribbon metallici, in modo da formare opportune serie e paralleli elettrici. Sopra una superficie posteriore di supporto, in genere realizzata in un materiale isolante con scarsa dilatazione termica, come il vetro temperato o un polimero come il tedlar, vengono appoggiati un sottile strato di acetato di vinile (spesso indicato con la sigla EVA), la matrice di moduli preconnessi mediante i già citati ribbon, un secondo strato di acetato e un materiale trasparente che funge da protezione meccanica anteriore per le celle fotovoltaiche, in genere vetro temperato. Dopo il procedimento di pressofusione, che trasforma l'EVA in mero collante inerte, le terminazioni elettriche dei ribbon vengono chiuse in una morsettiera stagna generalmente fissata alla superficie di sostegno posteriore, e il "sandwich" ottenuto viene fissato ad una cornice in alluminio, che sarà utile al fissaggio del pannello alle strutture di sostegno atte a sostenerlo e orientarlo opportunamente verso il sole. Le prestazioni dei moduli fotovoltaici sono suscettibili di variazioni anche sostanziose in base:

  • al rendimento dei materiali;
  • alla tolleranza di fabbricazione percentuale rispetto ai valori di targa;
  • all'irraggiamento a cui le sue celle sono esposte;
  • all'angolazione con cui questa giunge rispetto alla sua superficie;
  • alla temperatura di esercizio dei materiali, che tendono ad "affaticarsi" in ambienti caldi;
  • alla composizione dello spettro di luce.

Per motivi costruttivi, il rendimento dei moduli fotovoltaici è in genere inferiore o uguale al rendimento della loro peggior cella. Con rendimento si intende la percentuale di energia captata e trasformata rispetto a quella totale giunta sulla superficie del modulo, e può essere considerato un indice di correlazione tra watt erogati e superficie occupata, ferme restando tutte le altre condizioni. Alcuni moduli, per uso aerospaziale, hanno rendimenti nominali che raggiungono anche il 40%, e sono prodotti con materiali rari e costosi ed altamente tossici; valori tipici riscontrabili nei prodotti commerciali a base silicea si attestano intorno al:

  • 16% nei moduli in silicio monocristallino;
  • 13% nei moduli in silicio policristallino;
  • 10% nei moduli in silicio microsferico;
  • 8% nei moduli in silicio amorfo.

Ne consegue che, ad esempio, a parità di produzione elettrica richiesta, la superficie occupata da un campo fotovoltaico amorfo sarà più che doppia rispetto ad un equivalente campo fotovoltaico cristallino. A causa del naturale affaticamento dei materiali, le prestazioni di un pannello fotovoltaico comune diminuiscono di circa un punto percentuale su base annua. Per garantire la qualità dei materiali impiegati, la normativa obbliga una garanzia di minimo due anni sui difetti di fabbricazione anche sul calo di rendimento del silicio nel tempo, questa arriva minimo 20 anni. La garanzia oggi nei moduli di buona qualità è del 90% sul nominale per 10 anni e dell'80% sul nominale per 25 anni. I moduli fotovoltaici odierni hanno una vita stimata di 80 anni circa, anche se è plausibile ipotizzare che vengano dismessi dopo un ciclo di vita di 35-40 anni, a causa della perdita di potenza dei moduli. La tolleranza di fabbricazione è un dato percentuale (generalmente variabile dal ±3% al ±10%) che ogni produttore dichiara in relazione ai propri standard qualitativi di produzione. Tanto minore è la tolleranza dichiarata, tanto più stabili e predicibili saranno le prestazioni elettriche del modulo, a pari condizioni di utilizzo. Nella maggior parte dei casi, i produttori realizzano più versioni dello stesso modulo, distinte in base alla potenza nominale, pur realizzandoli con le medesime celle, che vengono preventivamente raggruppate in famiglie prestazionalmente simili. L'obiettivo dell'operazione è gestire in modo più accorto possibile le celle elettricamente peggiori, che potrebbero inficiare le prestazioni dell'intero modulo. In quest'ottica quindi, tanto più numerose sono le famiglie di celle uniformi, tanto minore potrebbe essere la tolleranza di fabbricazione garantita. Nella realtà di mercato, tuttavia, data la curva di Gauss che descrive la distribuzione statistica della qualità di tutte le celle fotovoltaiche di una data partita produttiva, le linee di separazione tra gruppi di moduli simili si ampliano a volte fino a costituire fasce piuttosto ampie. Il produttore può così gestire la parte di produzione all'interno di queste fasce:

  1. declassando il prodotto in questione, per considerarlo entro la tolleranza positiva del modulo inferiore, con il risultato di perdere profitto;
  2. innalzando il prodotto, per considerarlo entro la tolleranza negativa del modulo superiore, con il risultato di marginalizzare di più a discapito della qualità effettiva del prodotto.

Dal punto di vista commerciale, il produttore si garantisce la liceità dell'operazione dichiarando una tolleranza di fabbricazione più ampia del necessario rispetto alle potenze nominali dei vari moduli realizzati. L'immediato effetto che questa pratica comporta è la ricaduta di cospicue quantità di moduli all'interno delle citate fasce a cavallo di due o più tolleranze di fabbricazione. Alla luce di ciò, i moduli fotovoltaici qualitativamente migliori sono da ricercarsi tra quelli che combinano:

  • una tolleranza negativa stretta (quella positiva può considerarsi trascurabile);
  • una nulla o limitata area di sovrapposizione tra le fasce di tolleranza delle varie potenze dello stesso modulo.

aussiana della tolleranza

In figura è mostrata una simulazione con tolleranza ±5%. Sono presenti evidenti aree di sovrapposizione tra moduli diversi.

L'artifizio della tolleranza più ampia del necessario è una tecnica impiegata solo da produttori minori, a causa della sua facile individuazione (basta una brochure con la lista dei prodotti trattati e una calcolatrice) e del sospetto che inevitabilmente farebbe sorgere nei confronti del produttore. I moduli fotovoltaici sono accomunati dal comportamento elettrico simile a quello di un generatore di corrente quasi puro, ovvero erogano energia con differenza di potenziale quasi costante anche al variare delle condizioni atmosferiche o del grado di incidenza dei raggi solari. La pratica comune di classificare i prodotti in commercio in 12, 18 o 24 V non deriva dalla tensione al suo punto di massima efficienza, ma dalla possibilità di collegarvi una batteria ricaricabile con analogo voltaggio nominale. I moduli fotovoltaici, se impiegati in un impianto fotovoltaico connesso alla rete all'interno dell'Unione Europea, devono obbligatoriamente essere certificati in base alla normativa IEC 61215, che ne determina le caratteristiche sia elettriche che meccaniche. Tra i test più importanti si cita quello per determinarne la potenza in condizioni di insolazione standard, espressa in watt picco (Wp). I moduli fotovoltaici in silicio cristallino più comuni hanno dimensioni variabili da 0,5 m² a 1,5 m², con punte di 2,5 m² in esemplari per grandi impianti. Non vi è comunque particolare interesse a costruire moduli di grandi dimensioni, a causa delle grosse perdite di prestazioni che l'intero modulo subisce all'ombreggiamento (o malfunzionamento) di una sua singola cella. La potenza più comune si aggira intorno ai 150 Wp a 24 V, raggiunti in genere impiegando 72 celle fotovoltaiche. La superficie occupata dai modelli commerciali si aggira in genere intorno ai 7,5 m²/kWp, ovvero sono necessari circa 7,5 metri quadrati di superficie per ospitare pannelli per un totale nominale di 1.000 Wp.
Modulo fotovoltaico a film sottile
In sostituzione della cella costituita da un wafer di silicio drogato, da poco, è entrata nel mercato la tecnologia del film sottile. Attualmente diversi material sono in competizione per i film sottili:

  1. a-Si (silicio amorfo) o a-SiGe. Giova notare che il silicio amorfo assorbe la luce molto più efficacemente del silicio cristallino, per questo motivo lo spessore della cella in a-Si può essere cento volte minore dello spessore della cella in Si cristallino;
  2. a-Si/µ-Si (giunzione ibrida silicio amorfo/ silicio microcristallino). I due materiali, entrambi semiconduttori, hanno caratteristiche complementari rispetto all’assorbimento della radiazione solare, pertanto, la loro efficienza di conversione (da radiazione a energia elettrica) è maggiore di quella del a-Si;
  3.  CIS (rame, indio, diseleniuro)/CdS;
  4.  CdTe (tellururo di cadmio)/CdS.

Potenzialmente la tecnologia del film sottile si presenta con svariati importanti vantaggi.

  1. Lo strato assorbente può essere prodotto in spessori molto ridotti tipicamente 2-3µm, contro i 200-300µm del wafer di silicio. Questo consente notevoli risparmi sul costo della materia prima ed elimina i problemi della reperibilità.
  2. La tecnologia consente di ridurre le fasi della lavorazione, con la realizzazione, in un unico processo, di tutte le celle del pannello e della relativa connessione, eliminando la costosa fase del montaggio delle celle e della loro connessione elettrica tipica della tecnologia Si-wafer-based.
  3. Il grado di automazione del processo di produzione dei moduli è maggiore rispetto alla tecnologia Si-wafer-based.
  4. Gli strati che costituiscono le celle possono essere depositati su materiali poveri, come vetro comune, ma anche fogli di plastica o di metallo.
  5. Con una produzione di pannelli non inferiore a 50 MW/anno il costo del Wp può essere molto contenuto, pertanto, l’energy pay back time degli impianti fotovoltaici può essere sensibilmente inferiore a quello per impianti Si-wafer-based.
  6. Si possono produrre moduli rigidi o flessibili.

Gli svantaggi più significativi sono rappresentati:

  • Dall’entità degli investimenti necessari per la produzione. A parità di MW installati, un impianto a film sottile richiede investimenti circa dieci volte maggiori di un impianto per moduli Si-wafer-based. D'altra parte gli operatori sostengono che la soglia minima per ottenere EBIT soddisfacenti dalla produzione dei moduli a film sottile debba essere di almeno 50 MW.
  • Dal momento dell'ordine di acquisto degli impianti, al momento dell'avvio della produzione a regime occorrono dai due ai tre anni. Tempi circa tre volte più lunghi di quelli necessari per una fabbrica di pannelli Si-wafer-based.
  • Dai più bassi valori dell'efficienza di conversione che obbligano, a parità di potenza installata, ad avere superfici di captazione dell'energia solare maggiori, e quindi, a parità di potenza di picco, un impianto a film sottile occupa maggiore spazio.

Mofete
Vedi articolo.
Mono oraria
Tipologia di opzione tariffaria dei clienti elettrici che pagano allo stesso modo l'energia consumata nell'arco della giornata, indipendentemente dalle fasce orarie o dai giorni della settimana.
Motore a combustione esterna
I motori a combustione esterna (MCE) sono una tipologia di motori nei quali il combustibile viene utilizzato per riscaldare un fluido di lavoro, attraverso il quale si realizza la conversione dell'energia termica in lavoro meccanico. Appartengono a questa categoria il motore a vapore e il motore Stirling. A parità di potenza, un motore a combustione esterna è in genere più ingombrante e pesante di un motore a combustione interna. Questo perché contiene uno scambiatore di calore utilizzato per riscaldare il fluido di lavoro. Per contro, può essere più efficiente ed è meno critico relativamente al carburante da utilizzare. Inoltre la temperatura e la pressione relativamente basse della combustione portano ad una minor formazione di inquinanti, quali gli ossidi di azoto.La turbina a vapore è un buon esempio di motore a combustione esterna. In questa macchina il calore ottenuto bruciando il combustibile, oppure generato da un reattore nucleare, viene utilizzato per portare dell'acqua allo stato di vapore. All'interno della turbina l'energia di pressione posseduta dal vapore viene trasformata in energia cinetica ed utilizzata per far muovere le palette della turbina
Motore a combustione interna
Il motore a combustione interna (MCI) o motore endotermico è un particolare motore termico nel quale, attraverso la combustione di una miscela composta da un carburante (benzina, gasolio, metano, GPL, ecc...) e un comburente (aria) all'interno di una camera di combustione, si produce calore trasformato poi in lavoro meccanico, mentre il prodotto della combustione, viene espulso attraverso un impianto di scarico. I motori a combustione interna vengono classificati in base al sistema di accensione utilizzato per provocare la combustione in motori ad accensione comandata o ad accensione spontanea. Nei motori ad accensione comandata di solito l'accensione viene comandata attraverso una scintilla ad alta tensione che scocca nella miscela aria-combustibile all'interno del cilindro. La scintilla viene prodotta attraverso una bobina alimentata da una batteria che può essere ricaricata durante il funzionamento attraverso un alternatore trascinato dal motore. Inoltre per l'avvio del motore in condizioni di temperatura esterna e del motore stesso relativamente basse, si utilizza un sistema che serve a garantire un avvio piu facile, chiamato starter Nei motori ad accensione spontanea (detti anche motori Diesel) il combustibile viene iniettato nell'aria compressa nei cilindri del motore e la combustione si innesca a causa delle condizioni di pressione e di temperatura dell'aria stessa. L'energia dei prodotti di combustione, i gas combusti, è superiore all'energia originale dell'aria e del carburante (che avevano una maggiore energia chimica) e si manifesta attraverso un'elevata temperatura e pressione che vengono trasformate in lavoro meccanico dal motore. Nei motori alternativi, è la pressione dei gas combusti a spingere i pistoni all'interno dei cilindri del motore. Recuperata l'energia, i gas combusti vengono eliminati (spesso attraverso una valvola di scarico) talvolta dopo essere passati attraverso una turbina a gas che recupera una piccola quantità di energia, comunque sufficiente a comprimere l'aria comburente. Al termine di questa fase il pistone torna nella posizione di punto morto superiore. Tutto il calore non trasformato in lavoro deve essere eliminato dal motore attraverso un sistema di raffreddamento ad aria o a liquido
Motore asincrono
Il motore asincrono è un tipo di motore elettrico in corrente alternata in cui la frequenza di rotazione non è uguale o un sottomultiplo della frequenza di rete, ovvero non è "sincrono" con essa; per questo si distingue dai motori sincroni. Il motore asincrono è detto anche motore a induzione. Questo motore può essere utilizzato come alternatore con o senza l'utilizzo di condensatori a seconda se viene collegato alla rete o no, ma solo una minima parte degli alternatori è di questo tipo dato il suo minore rendimento

Motore asincrono
Animazione di un motore asincrono a gabbia di scoiattolo.

Motore a vapore
Un motore a vapore è un'apparecchiatura atta a produrre energia meccanica utilizzando, in vari modi, vapore d'acqua. In particolare trasforma tramite il vapore energia termica in energia meccanica. Il calore è in genere prodotto con il carbone, ma può anche provenire da legna, idrocarburi o reazioni nucleari. Già nell'antichità si racconta di esperimenti atti a sfruttare l'espansione dei composti dovuta al cambiamento da fase liquida a fase gassosa: in particolare la macchina di Erone, una sfera cava di metallo riempita d'acqua, con bracci tangenziali dotati di foro di uscita: quando si scaldava l'acqua, questa vaporizzava e il vapore usciva dai fori, facendo ruotare la sfera stessa.In tempi più recenti, le prime applicazioni del vapore si possono far risalire agli esperimenti di Denis Papin ed alla sua pentola a pressione del 1679 da cui partì per concepire idee su come sviluppare l' utilizzo del vapore. Le successive applicazioni si sono avute all'inizio del XVIII secolo, soprattutto per il pompaggio dell'acqua dalle miniere, con il sistema ideato nel 1698 da Thomas Savery utilizzando il vuoto creato dalla condensazione del vapore immesso in un recipiente (che permetteva di sollevare acqua fino a circa 10 m di altezza), e in seguito, grazie all'invenzione del sistema cilindro-pistone (probabilmente dovuta a Denis Papin), convertendo in movimento meccanico, in grado di generare lavoro, l'energia del vapore. Il primo esempio di applicazione industriale di questo concetto è la macchina di Newcomen, del 1705, che era però grande, poco potente e costosa, quindi anch'essa veniva in genere usata solo per l'estrazione di acqua dalle miniere. Solo più tardi però, grazie all'invenzione del condensatore esterno, della distribuzione a cassetti e del meccanismo biella-manovella, tutte attribuite a James Watt a partire dal 1765, si e potuti passare da applicazioni sporadiche ad un utilizzo generalizzato nei trasporti e nelle industrie. La macchina di Watt riduceva costi, dimensioni e consumi, e aumentava la potenza disponibile. Dal primo modello da 6CV si è passati in meno di 20 anni a locomotive da 600CV. Il motore a vapore, consentendo potenze assai maggiori di quelle fino ad allora disponibili (un cavallo da corsa produce massimo 14-15 cavalli-vapore, o circa 8 kW, ma solo per brevi tratti, mentre un cavallo lavorando una giornata non produce più di 1CV), ha svolto un ruolo importante nella rivoluzione industriale. Lo sviluppo del motore a vapore ha facilitato l'estrazione ed il trasporto del carbone, che a sua volta ha aumentato le potenzialità del motore a vapore. La seconda applicazione a cui fu usato il motore a vapore fu per muovere il mantice nelle fonderie nel 1776, mentre dal 1787 fu usato anche nelle cotonerie per filare. L' incidenza del motore a vapore è evidente: la produzione mondiale di carbone passa da 6.000.000 di t del 1769 ai 65.000.000 di t del 1819; il ferro (richiesto per l' acciaio) dalle 40.000 t del 1780 alle 700.000 t del 1830. Nel 1830 vi erano 15.000 motori a vapore in Inghilterra, tra cui 315 navi.

Poiché il vapore d'acqua si ottiene invariabilmente somministrando all'acqua energia in forma termica, una parte essenziale del sistema che comprende il motore a vapore è il generatore di vapore, o caldaia. Il vapore viene poi inviato al motore, che può essere di due tipi fondamentali: alternativo o rotativo. Si usa di solito (e impropriamente) la locuzione motore a vapore per i soli motori alternativi, mentre quelli di tipo rotativo vengono definiti turbine. In quello alternativo, in genere, la ruota azionata muove le valvole che consentono di sfruttare i due lati di ogni pistone, così in ogni tempo avviene un'espansione biolaterale, (mentre i motori a combustione interna hanno in genere un'espansione ogni 4 tempi). A partire dalla seconda metà del 1800 la quasi totalità dei motori a vapore ha utilizzato due, tre e anche quattro cilindri in serie (motori a doppia espansione e tripla espansione, vedi immagine); i diversi stadi lavorano con pressioni di vapore decrescenti in modo da sfruttare meglio la pressione degli scarichi degli stadi precedenti, che contengono ancora una certa potenza. In particolare, la soluzione a tripla espansione fu quella universalmente adottata da tutte le navi della seconda metà dell'800 e dei primi anni del '900. Per esempio il transatlantico Titanic era equipaggiato con due motori a vapore a tripla espansione (uno per ciascuna delle due eliche laterali) a quattro cilindri, uno ad alta pressione, uno a pressione intermedia e due a bassa pressione. Invece l'elica centrale era collegata ad una turbina a vapore mossa dal vapore a bassissima pressione scaricata dai due motori alternativi. Proprio la soluzione a turbina (adottata a cominciare dalle navi militari a partire dal 1905) avrebbe soppiantato completamente in campo marino i motori alternativi prima di essere a sua volta soppiantata dai motori a combustione interna e dalle turbine a gas. Le turbine a vapore rimangono in uso soprattutto nelle centrali elettriche come forza motrice per azionare gli alternatori trifase. Di fatto oggi il motore a vapore è stato quasi completamente sostituito dai motore a combustione interna, che è più compatto e potente e non richiede la fase di preriscaldamento (per mettere la caldaia in pressione), che si traduce in un ritardo prima di poter utilizzare il motore stesso.

Motore a vapore
Motore a tripla espansione semplificato. Il vapore ad alta pressione (rosso) entra dalla caldaia, passa attraverso il motore ed è rilasciato al condensatore come vapore a bassa pressione (blu).
Motore sincrono
Il motore sincrono, conosciuto anche come motore vettoriale o motore Rowan è un tipo di motore elettrico in corrente alternata in cui il periodo di rotazione è sincronizzato con la frequenza della tensione di alimentazione, solitamente trifase, questo motore può essere utilizzato come alternatore e la maggioranza degli alternatori è di questo tipo.È costituito da un rotore (parte rotante solidale all'albero) su cui sono presenti diversi poli magnetici di polarità alterna creati da magneti permanenti o elettromagneti alimentati in corrente continua (detta corrente di eccitazione), e da uno statore su cui sono presenti gli avvolgimenti del circuito di alimentazione. Le espansioni polari dello statore creano un campo magnetico rotante che trascina le espansioni polari del rotore. La frequenza di rotazione dipende dalla frequenza di alimentazione (ad es. in Italia è 50 Hz) e dal numero di terne di espansioni polari presenti nel motore. L'avviamento di questo tipo di motore è relativamente complesso. A motore fermo, l'applicazione della tensione alternata fa si che il rotore, per effetto dell'inerzia non abbia il tempo di seguire il campo magnetico rotante, rimanendo fermo. Il motore viene quindi inizialmente portato alla velocità di rotazione per mezzo di un motore asincrono, quindi, dopo avere scollegato quest'ultimo, viene collegata la tensione di alimentazione ed inserito il carico meccanico utilizzatore. Un'altra tecnica di avviamento sfrutta la possibilità di fare funzionare temporaneamente come asincroni motori appositamente realizzati, quindi passare al modo sincrono. Se una volta a regime la rotazione viene frenata o accelerata oltre un certo limite, si innesca una serie di oscillazioni che portano il motore al blocco e possono provocare forti sovracorrenti tali da danneggiare il motore. Per questo motivo va prevista una protezione dalle sovracorrenti, ad esempio con un interruttore magnetotermico di protezione.

Motore sincrono
Animazione di uni motore sincrono trifase.
Motore Stirling
Il motore Stirling è un motore a combustione esterna, inventato da Robert Stirling nel 1816. L’invenzione del Motore Stirling detto anche “motore ad aria calda di Stirling” è una evoluzione dei motori ad aria calda preesistenti, che all’inizio del 1800 competevano con il motore a vapore per fornire energia meccanica ai macchinari industriali (in opifici e miniere) della prima rivoluzione industriale in Inghilterra. In particolare l’invenzione di Stirling riguardò l’adozione di un ricuperatore di calore che effettivamente risultò essere il dispositivo adatto per migliorarne in modo notevole il rendimento del motore. La competizione tra motore ad aria e quello a vapore aveva motivo nel tentativo di avere un’alternativa al motore a vapore stesso che, nelle sue prime realizzazioni, pur avendo caratteristiche superiori di quello ad aria, a causa dell’utilizzo di materiali tecnologicamente scadenti allora a disposizione era estremamente pericoloso per le devastanti esplosioni delle caldaie. Dopo una prima fase di applicazione con buon successo del motore Stirling di dimensioni commerciali, il perfezionamento del motore a vapore con materiali più affidabili rese lo Stirling poco conveniente, in conseguenza il suo uso fu abbandonato. Una seconda applicazione del motore Stirling si ebbe con lo sviluppo della elettronica e l’uso dei primi apparecchi radio e lo sviluppo della aviazione prima del 1960. La Philips (industria olandese di produzione di apparecchi radio) per alimentare gli apparecchi radio-trasmittenti e riceventi di sua costruzione realizzò una piccola unità Stirling di generazione elettrica mediante combustione di petrolio, utile per alimentare appunto tali apparecchi in postazioni remote e prive di alimentazione elettrica. L’apparecchio realizzato fu il Philips MP1002CA (detto Bungalow Set) con una potenza di circa 200Watt; la tecnologia usata fu quella allora all’avanguardia con uso di leghe leggere (1950), ottenendo un buon compromesso tra praticità e costo. L’esigenza di tale generazione elettrica era particolarmente sentita per alimentare gli apparecchi radio (allora dotati di grosse ed onerose valvole termoioniche), necessari per il collegamento stabile con i campi di aviazione della rete aerea civile che era in costituzione (in prima fase per il servizio postale) in luoghi remoti e senza attrezzature. Con l’adozione del tranistor nei circuiti elettronici, a partire dal 1960, fu sufficiente l’alimentazione delle radio con potenze elettriche molto più esigue, ottenute con le semplici batterie elettriche di accumulatori di piccola dimensione, che davano comunque adeguate autonomie, quindi l’uso del motore Stirling fu abbandonato. Altre applicazioni sono state realizzate in seguito, e sviluppate attualmente con motori di diversa taglia, ottenendo discreti o buoni successi tecnici, ed in qualche caso anche commerciali per mercati di nicchia. Il motore funziona a ciclo chiuso utilizzando un gas come fluido termodinamico (solitamente aria, azoto oppure elio o idrogeno nelle versioni ad alto rendimento). Quando è raggiunta una opportuna differenza di temperatura tra il suo punto caldo ed il punto freddo ed è opportunamente avviata, si innesca una pulsazione ciclica, di norma trasformata in moto alternato dei pistoni, che si autosostiene. Una particolarità di questo motore è quella di funzionare senza fare ricorso a valvole. Le sole parti in movimento sono il pistone ed il dislocatore che agiscono collegati ad un albero motore con una coppia di gomiti sfasati tra loro di 90 gradi. È probabilmente uno dei più interessanti motori a combustione esterna per la sua bassa manutenzione, la sua silenziosità e la possibilità teorica di raggiungere rendimenti vicini a quello teorico per cicli termodinamici. È possibile utilizzare la luce solare concentrata, ad esempio tramite un cilindro parabolico, per produrre la differenza di temperatura necessaria. La scoperta di nuovi materiali tecnologici costruttivi in grado di aumentare la differenza di temperatura necessaria al funzionamento, nuovi fluidi termodinamici e le problematiche ambientali degli ultimi anni hanno dato nuovi impulsi alla realizzazione di motori Stirling di largo impiego. Ad esempio la realizzazione di centrali elettriche che impiegano sali fusi e motori Stirling per la produzione di grandi quantità di energia elettrica è tutt'ora in fase di studio e realizzazione. Gli esemplari più piccoli sono spesso oggetto di curiosità più che utilità pratica. Queste realizzazioni in materiali particolarmente hi-tech sono capaci di sfruttare una differenza termica esigua e quindi in grado di funzionare col calore di una mano, di una tazza di caffè o con la luce normale del sole anche in inverno. Addirittura, se appoggiati su un pezzo di ghiaccio, possono sfruttare il calore ambientale come sorgente calda. E' evidente che con dislivelli limitati di temperatura anche se si ottengono buoni rendimenti teorici le potenze in gioco sono trascurabili, ed il rapporto potenza/peso è comunque sfavorevole per potenze significative, almeno nelle condizioni attuali di mercato energetico.

Schema di motore Sterling
Animazione di un motere Stirling

Motore Wankel
Il motore Wankel, inventato da Felix Wankel nel 1950, è un motore a combustione interna, il quale viene alimentato da un impianto d'alimentazione e che scarica i prodotti esauriti (gas di scarico) tramite un impianto di scarico, Il motore è di tipo rotativo: il principio di funzionamento vede un pistone a tre lobi che ruota eccentricamente intorno all'albero motore, generando con il suo movimento le fasi di aspirazione - compressione - scoppio - scarico.Le prime vetture che adottarono questo tipo di motore furono le NSU, tra cui la Ro 80. Tra il ’62 e il 1970, la Mercedes Benz realizzò una decina di prototipi tra cui le famose C111 a tre e quattro rotori (realizzate tra il 1969 e il 1970) e una 350 SL Quadrirotore utilizzata normalmente da Wankel stesso. Alla Mercedes si affiancò la GM, con i prototipi Chevrolet e la American Motors, che realizzò una versione rotativa della sua Pacer. In campo motociclistico il propulsore rotativo fu utilizzato sporadicamente dalla stessa NSU, dalla Suzuki (sul modello RE-5) e dalla Norton che riuscì anche ad ottenere delle vittorie in gare del campionato inglese. I principali problemi riscontrati nell'utilizzo di vetture fornite di tale motore erano relativi alla durata delle guarnizioni di tenuta che lavorano in condizioni di pressione elevata. Attualmente, grazie allo sviluppo della tecnologia dei materiali, la durata di vita di questi propulsori è notevolmente aumentata, consentendo una maggiore produzione su larga scala. La casa automobilistica Mazda ormai da quasi vent'anni porta avanti lo studio e lo sviluppo di motori rotativi ad alte prestazioni e attualmente monta sulla vettura Mazda RX-8 un birotore denominato "Renesis" di cilindrata complessiva di 1308 cc, in grado di sviluppare una potenza di 231 cv (170 KW) a 8200 giri, facendone, a tutt'oggi, l'unica vettura con motore di derivazione Wankel di serie.

Schema di motore Wankel
Schema del motore Wankel:
1 - Ugello di iniezione
2 - Ugello di scarico
3 - Camera esterna
4 - Camera di combustione
5 - Ingranaggio centrale
6 - Rotore
7 - Ingranaggio interno
8 - Albero motore
9 - Candele di accensione
Multioraria
Tipologia di opzione tariffaria dei clienti elettrici che pagano l'energia consumata in modo diverso a seconda delle fasce orarie e dei giorni della settimana. Le fasce orarie sono state stabilite dalla Delibera dell’Autorità per l’Energia Elettrica e il Gas 5/04.
Neutrini
Vedi articolo specifico
Nucleare
L'espressione energia nucleare indica l'energia che viene liberata dalla trasformazione di nuclei atomici. Ai fini della produzione elettrica, l'unica trasformazione nucleare che libera energia d'interesse industriale è, almeno per ora, la fissione, che consiste, in pratica, nella “rottura (fissione) ” di nuclei pesanti, come quelli di uranio. Se, ad esempio, il nucleo di un isotopo pesante dell'uranio viene sottoposto a “bombardamento” di neutroni, si scinde in due grossi frammenti e, in più, produce energia e due-tre neutroni, che a loro volta possono “bombardare” altri nuclei di uranio innescando una reazione a catena. Ciò è proprio quanto accade in una centrale nucleare, ove il “combustibile” (tipicamente costituito da isotopi di uranio) viene sottoposto a reazioni a catena di fissione nucleare. Il calore prodotto in grande quantità viene asportato da opportuni sistemi di raffreddamento e trasferito a generatori di vapore, i quali, a loro volta, azionano convenzionali gruppi turboalternatori per la produzione di energia elettrica. L’impiego dell’energia nucleare in campo civile ha una storia piuttosto recente, avendo avuto inizio all’indomani della seconda guerra mondiale. Ed è una storia che potrebbe avere lunga vita davanti a sé dal momento che le riserve di uranio sono relativamente abbondanti sul Pianeta. Il suo sviluppo, invece, ha conosciuto una forte battuta d’arresto nel 1986 a seguito della catastrofe di Chernobyl, che spinse diversi Paesi a rivedere i propri programmi di sviluppo elettronucleare. In questo scenario l’Italia fece una scelta ancora più radicale: quella di rinunciare all’apporto fornito dalle centrali elettronucleari arrestando i tre impianti che erano in esercizio (Latina, Caorso e Trino Vercellese) e rinunciando alla realizzazione di un impianto che era in fase avanzata di costruzione (Montalto di Castro). Nonostante l’evento traumatico di Chernobyl, numerosi Paesi al mondo non solo non hanno spento le loro centrali nucleari, come ha fatto l’Italia, ma ne stanno progettando di nuove, sia in Europa (Francia, Russia e Finlandia) sia in Asia. Attualmente (2008) sono in esercizio circa 450 impianti nucleari in 31 nazioni per una potenza elettronucleare installata di circa 380 GW. Tale potenza equivale a circa il 6 % della produzione di energia primaria nel mondo. In Europa, dove tutti i principali Paesi sono dotati di centrali elettronucleari, il mix di generazione elettrica vede il nucleare coprire una quota del 32%. Proprio le preoccupazioni ambientali che ne hanno segnato il cammino sono oggi all’origine di un rinnovato interesse verso l’opzione nucleare, che si sta manifestando in tutto il mondo e anche nel nostro Paese. L’assenza di emissioni inquinanti e di anidride carbonica nel processo di generazione di energia elettrica di una centrale nucleare rappresenta, infatti, un forte punto a favore verso una fonte che non concorre all’accumulo in atmosfera di gas climalteranti . In un momento storico in cui i Paesi dell’Unione Europea sono costretti a fare i conti con i costi derivanti dal rispetto degli impegni del Protocollo di Kyoto, l’Italia potrebbe pagare un conto più salato degli altri anche come conseguenza di una scelta che si è tradotta oggi in uno svantaggio competitivo. La stessa Germania che pure ha dichiarato che non intende sostituire le sue centrali nucleari via via che diventeranno obsolete continua a produrre oltre il 30% della sua energia elettrica da questa fonte e continua a spostare in avanti la data del cosiddetto phase out.
Officine elettriche.
Parlando di rinnovabili, per officina elettrica, o meglio officina di produzione di energia elettrica, si intende un impianto di produzione di energia da fonti rinnovabili che supera i 20 kW di potenza di picco. Requisito essenziale per gli impianti sopra i 20 kW è che l’impianto da fonti rinnovabili deve produrre almeno in parte per l’autoconsumo. Detto in altri termini: ogni impianto fotovoltaico o da fonti rinnovabili al di sopra dei 20 kW di potenza e installato in modo da permettere l’autoconsumo è sottoposto all’obbligo, all’onere, di denuncia di Officina Elettrica presso l’ufficio dell’Agenzia delle Dogane territorialmente competente. Un impianto fotovoltaico sopra i 20 kW che autoconsuma anche solo l’1% dell’energia prodotta è Officina Elettrica ed è tenuto a presentare denuncia di apertura di officina elettrica presso il competente ufficio territoriale dell’agenzia delle dogane. Perchè questo? Per un motivo molto semplice: le accise, che dovrebbero pagare i produttori di energia elettrica, vengono (come accade per l’IVA) caricate sui consumatori finali. Le accise vengono infatti pagate in bolletta dai consumatori finali in proporzione ai kWh di energia consumati. Nel momento in cui il produttore è anche un consumatore dell’energia da esso stesso prodotta, è tenuto a pagare le accise sull’energia autoconsumata, dovrà quindi essere correttamente registrato presso l’Agenzia delle Dogane. Per questo un impianto che autoconsuma anche solo l’1% dell’energia prodotta è tenuto ad effettuare denuncia di apertura di officina elettrica.
Organismi Geneticamente Modificati (OMG).
Situazione in Europa, Vedi.
Ozono troposferico
Vedi articolo.

Clicca l'iniziale per trovare la parola cercata

A B C D E F G H I J K L M N O S T U V W X Y Z


LOGO

P Q R

Paradosso di Jevons.
E' un'osservazione di William Stanley Jevons che affermò che i miglioramenti tecnologici che aumentano l'efficienza con cui una risorsa è usata possono fare aumentare il consumo totale di quella risorsa, invece di farlo diminuire. È chiamato paradosso perché le sue conclusioni vanno contro il senso comune, ma non si tratta in realtà di un paradosso ed è accettato nelle teorie economiche attuali. L'aumento di efficienza si traduce normalmente in una diminuzione di costi che, in genere, aumenta i consumi. Se tale aumento avvenga o meno dipende però dall'elasticità della domanda. Se la domanda è abbastanza rigida, una variazione di prezzo non indurrà sensibili variazioni nel consumo dell'output, e quindi indurrà una diminuzione del consumo dell'input della risorsa. Viceversa se la domanda è elastica, quindi variazioni nel prezzo producono significativi aumenti nel consumo dell'output, ci saranno incrementi anche nell'input. Si tratta di quello che viene chiamato 'effetto rebound'. Il paradosso è enunciato nel libro del 1865, The Coal Question, dove Jevons osservava che il consumo inglese di carbone era cresciuto dopo che James Watt aveva introdotto il motore a vapore (alimentato a carbone), che migliorò notevolmente l'efficienza del precedente motore di Thomas Newcomen. Le innovazioni di Watt resero il carbone una fonte di energia più redditizia, cosa che condusse ad un suo maggiore uso in una vasta gamma di processi produttivi. Il consumo totale di carbone aumentò, anche se nel frattempo la quantità di carbone richiesta per produrre il medesimo lavoro era diminuita.
Peta
In metrologia, Peta (simbolo P) è un prefisso del sistema di unità SI ed esprime il fattore 10exp15 cioè 1 000 000 000 000 000.
Pannelli fotovoltaici
I pannelli fotovoltaici sono costituiti da celle fotovoltaiche (o da moduli fotovoltaici) e consentono di convertire la luce solare direttamente in energia elettrica. Le celle, che costituiscono i componenti base dei pannelli, sfruttano l'effetto fotovoltaico e hanno un’efficienza di conversione teorica (da energia solare a energia elettrica) pari al 32 %. In pratica, producendo celle e pannelli a livello industriale e realizzando con i pannelli un campo fotovoltaico si possono ottenere efficienze attorno al 15%. Ad esempio, un impianto da 1 kW di potenza produce, nell’Italia meridionale, circa 1.600 kWh di energia. Questi pannelli, non avendo parti mobili, necessitano di pochissima manutenzione; in sostanza vanno solo puliti periodicamente; ogni dieci anni circa vanno sostituiti gli inverter che trasformano la tensione da continua in alternata. La durata operativa stimata dei pannelli fotovoltaici è di circa 30 anni. Il limite degli impianti fotovoltaici è rappresentato dal costo dei pannelli. E’ solo grazie a una legislazione che prevede incentivi economici all'installazione di impianti fotovoltaici e la possibilità di vendere, a tariffe agevolate, l'energia prodotta al gestore della rete di trasmissione, che la Germania è al primo posto al mondo per la potenza elettrica prodotta da energia solare. Analoghe iniziative, comunemente note come Conto Energia o Feed-in tariff, sono state intraprese da diversi stati europei che hanno ratificato il Protocollo di Kyoto, tra cui anche l'Italia. Per maggiori dettagli vedi la voce moduli fotovoltaici. Giova notare che a volte si confondono i termini pannello e modulo.

Pannelli fotovoltaici
Due pannelli formati ognuno da 12 moduli fotovoltaici montati su supporti a inseguimento solare.

Pannelli solari termici
I pannelli solari o collettori termici possono essere a circolazione naturale o forzata; i primi utilizzano il moto convettivo del liquido contenuto nei pannelli per consentirne la circolazione all'interno del sistema pannello-scambiatore di calore. In questo caso il serbatoio di accumulo che contiene lo scambiatore di calore deve trovarsi più in alto del pannello. I sistemi a circolazione forzata, invece, utilizzano una pompa che fa circolare il fluido all'interno di scambiatore e pannello quando la temperatura del fluido all'interno del pannello è più alta di quella all'interno del serbatoio di accumulo. Sistemi di questo tipo sono più complessi dal punto di vista dei controlli e delle apparecchiature impiegate (pompe, sensori di temperatura, valvole a tre vie, centraline di controllo), ma consentono di posizionare il serbatoio di accumulo, anche di grandi dimensioni, praticamente dove si vuole, ad esempio a terra e non sul tetto dove problemi di peso potrebbero renderne difficile la collocazione.

Pannello solare
Schema di un pannello solare:
1)Valvola
2)Serbatoio di accumulo
3)Condotto di inserimento
4)Pannello di assorbimento
5)Condotto di inserimento dell'acqua fredda

Pannelli solari a concentrazione
Il pannello solare a concentrazione concentra i raggi solari su un opportuno ricevitore; attualmente il tipo più usato è quello a specchi parabolici a struttura lineare che consente un orientamento monodimensionale (più economico) verso il sole e l'utilizzo di un tubo ricevitore in cui è fatto scorrere un fluido termovettore per il successivo accumulo di energia in appositi serbatoi. Il vettore classico è costituito da olii minerali in grado di sopportare alte temperature. Nel 2001 l'ENEA ha avviato lo sviluppo del progetto Archimede, volto all'utilizzo di sali fusi anche negli impianti a specchi parabolici a struttura lineare. Essendo necessaria una temperatura molto più alta di quella consentita dagli olii, si è provveduto a progettare e realizzare tubi ricevitori in grado di sopportare temperature maggiori di 600°C (contro quelle di 400°C massimi dei tubi in commercio), ricoperti di un doppio strato CERMET (ceramica/metallo) depositato con procedimento di sputtering. I sali fusi vengono accumulati in un grande serbatoio coibentato alla temperatura di 550°C. A tale temperatura è possibile immagazzinare energia per 1KWh equivalente con appena 5 litri di sali fusi. Da tale serbatoio i sali - un comune fertilizzante per agricoltura costituito da un 60% di nitrato di sodio (NaNO3) e un 40% di nitrato di potassio (KNO3) - vengono estratti e utilizzati per produrre vapore surriscaldato. I sali utilizzati vengono accumulati in un secondo serbatoio a temperatura più bassa (290°C). Ciò consente la generazione di vapore in modo svincolato dalla captazione dell'energia solare (di notte o con scarsa insolazione). L'impianto, lavorando ad una temperatura di regime di 550°C, consente la produzione di vapore alla stessa temperatura e pressione di quello utilizzato nelle centrali elettriche a coproduzione (turbina a gas e riutilizzo dei gas di scarico per produrre vapore), consentendo consistenti riduzioni di costi e sinergie con le stesse. Attualmente è stato realizzato un impianto con tali caratteristiche in Spagna ed è stato siglato un accordo di realizzazione di un impianto su scala industriale presso la centrale termoelettrica ENEL ubicata a Priolo Gargallo (Siracusa).
Particolato atmosferico.
Particolato, particolato sospeso, pulviscolo atmosferico, polveri sottili, polveri totali sospese (PTS), sono termini che identificano comunemente l'insieme delle sostanze sospese in aria (fibre, particelle carboniose, metalli, silice, inquinanti liquidi o solidi). Il particolato è l'inquinante che oggi è considerato di maggiore impatto nelle aree urbane, ed è composto da tutte quelle particelle solide e liquide disperse nell'atmosfera, con un diametro che va da pochi nanometri fino ai 500 micron e oltre.
Sorgenti
Gli elementi che concorrono alla formazione di questi aggregati sospesi nell'aria sono numerosi e comprendono fattori sia naturali che antropici, con diversa pericolosità a seconda dei casi. Fra i fattori naturali vi sono ad esempio:
polvere, terra, sale marino alzati dal vento (il cosiddetto "aerosol marino"),
incendi,
microrganismi,
pollini e spore,
erosione di rocce,
eruzioni vulcaniche,
polvere cosmica.
Fra i fattori antropici si include gran parte degli inquinanti atmosferici:
emissioni della combustione dei motori a combustione interna (autocarri, automobili, aeroplani);
emissioni del riscaldamento domestico (in particolare gasolio, carbone e legna);
residui dell'usura del manto stradale, dei freni e delle gomme delle vetture;
emissioni di lavorazioni meccaniche, dei cementifici, dei cantieri;
lavorazioni agricole;
inceneritori e centrali elettriche;
fumo di tabacco.
Il rapporto fra fattori naturali ed antropici è molto differente a seconda dei luoghi. È stato stimato che in generale le sorgenti naturali contribuiscono per il 94% del totale lasciando al fattore umano meno del 10%. Tuttavia queste proporzioni cambiano notevolmente nelle aree urbane dove l'apporto preponderante sono senza dubbio il traffico stradale e il riscaldamento domestico (ma quest'ultimo molto poco se si utilizzano caldaie a gas), nonché eventuali impianti industriali (raffinerie, cementifici, centrali termoelettriche, inceneritori ecc.).
Altro aspetto riguarda la composizione di queste polveri. In genere, il particolato prodotto da processi di combustione, siano essi di origine naturale (incendi) o antropica (motori, riscaldamento, legna da ardere, industrie, centrali elettriche, ecc.), è caratterizzato dalla presenza preponderante di carbonio e sottoprodotti della combustione; si definisce pertanto "particolato carbonioso". Esso è considerato, in linea di massima e con le dovute eccezioni, più nocivo nel caso in cui sia prodotto dalla combustione di materiali organici particolari quali ad esempio le plastiche, perché può trasportare facilmente sostanze tossiche che residuano da tale genere di combustione (composti organici volatili, diossine, ecc.). Per quanto riguarda i particolati "naturali", molto dipende dalla loro natura, in quanto si va da particolati aggressivi per le infrastrutture quale l'aerosol marino (fenomeni di corrosione e danni a strutture cementizie), a particolati nocivi come terra o pollini, per finire con particolati estremamente nocivi come l'asbesto. Un'altra fonte sono le ceneri vulcaniche disperse nell'ambiente dalle eruzioni che sono spesso all'origine di problemi respiratori nelle zone particolarmente esposte e molto raramente possono addirittura raggiungere quantità tali che, proiettate a una quota, possono rimanere nell'alta atmosfera per anni e sono in grado di modificare radicalmente il clima.
Importanza delle sorgenti antropiche
La questione è molto dibattuta. In generale, negli impianti di combustione non dotati di tecnologie specifiche, pare accertato che il diametro delle polveri sia tanto minore quanto maggiore è la temperatura di esercizio. In qualunque impianto di combustione (dalle caldaie agli inceneritori fino ai motori delle automobili e dei camion) un innalzamento della temperatura (al di sotto comunque di un limite massimo) migliora l'efficienza della combustione e dovrebbe perciò diminuire la quantità complessiva di materiali parzialmente incombusti (dunque di particolato). Lo SCENIHR (Scientific Committee on Emerging and Newly Identified Health Risks) comitato scientifico UE che si occupa dei nuovi/futuri rischi per la salute, considera i motori a gasolio e le auto con catalizzatori freddi o danneggiati i massimi responsabili della produzione di nanoparticelle. Lo SCHER (Scientific Committee on Health and Environmental Risks, Comitato UE per i rischi per la salute e ambientali) afferma che le maggiori emissioni di polveri fini (questa la dicitura esatta usata, intendendo PM2,5) è data dagli scarichi dei veicoli, dalla combustione di carbone o legna da ardere, processi industriali e altre combustioni di biomasse.
Naturalmente, in prossimità di impianti industriali come cementifici, altiforni, centrali a carbone, inceneritori e simili, è possibile (a seconda delle tecnologie e delle normative in atto) rilevare o ipotizzare un maggiore contributo di tali sorgenti rispetto al traffico. Secondo i dati dell'APAT (Agenzia per la protezione dell'ambiente) riferiti al 2003, la produzione di PM10 in Italia deriverebbe: per il 49% dai trasporti; per il 27% dall'industria; per l'11% dal settore residenziale e terziario; per il 9% dal settore agricoltura e foreste; per il 4% dalla produzione di energia. Secondo uno studio del CSST su incarico dell'Automobile Club Italia, sul totale delle emissioni di PM10 in Italia il 29% deriverebbe dagli autoveicoli a gasolio, e in particolare l'8% dalle automobili in generale e l'1-2% dalle auto Euro3 ed Euro4.
Si segnalano alcuni dubbi sulla formazione di polveri fini, ultrafini e nanopolveri che i filtri antiparticolato emetterebbero soprattutto nelle fasi di rigenerazione periodica. In ogni caso, la determinazione dei contributi percentuali delle varie fonti è un'operazione di estrema complessità e occasione di continue polemiche fra i diversi settori produttivi, ulteriormente accentuate dai fortissimi interessi economici in gioco.
Classificazione qualitativa
In base alle dimensioni (µm = micron, micròmetro o milionesimo di metro) e alla natura delle particelle si possono elencare le seguenti classi qualitative di particolato:
Aerosol: particelle liquide o solide sospese di diametro minore di 1 µm; sono dispersioni di tipo colloidale, che causano, ad esempio, all'alba e al tramonto, l'effetto Tyndall, facendo virare il colore della luce solare verso l'arancione.
Esalazioni: particelle solide di diametro inferiore a 1 µm, in genere prodotte da processi industriali.
Foschie: goccioline di liquido di diametro inferiore a 2 µm.
Fumi: particelle solide disperse di diametro inferiore a 2 µm, trasportate da prodotti della combustione.
Polveri: particelle solide di diametro variabile tra 0,25 e 500 µm.
Sabbie: particelle solide di diametro maggiore di 500 µm.
Identificazione e misura quantitativa
La quantità totale di polveri sospese è in genere misurata in maniera quantitativa (peso / volume). In assenza di inquinanti atmosferici particolari, il pulviscolo contenuto nell'aria raggiunge concentrazioni diverse (mg/m3) nei diversi ambienti, generalmente è minimo in zone di alta montagna, e aumenta spostandosi dalla campagna alla città, alle aree industriali. L'insieme delle polveri totali sospese (PTS) può essere scomposto a seconda della distribuzione delle dimensioni delle particelle. Le particelle sospese possono essere campionate mediante filtri di determinate dimensioni, analizzate quantitativamente ed identificate in base al loro massimo diametro aerodinamico equivalente (dae). Tenuto conto che il particolato è in realtà costituito da particelle di diversa densità e forma, il dae permette di uniformare e caratterizzare univocamente il comportamento aerodinamico delle particelle rapportando il diametro di queste col diametro di una particella sferica avente densità unitaria (1 g/cm3) e medesimo comportamento aerodinamico (in particolare velocità di sedimentazione e capacità di diffondere entro filtri di determinate dimensioni) nelle stesse condizioni di temperatura, pressione e umidità relativa. Si utilizza un identificativo formale delle dimensioni, il Particulate Matter, abbreviato in PM, seguito dal diametro aerodinamico massimo delle particelle. Ad esempio si parla di PM10 per tutte le particelle con diametro inferiore a 10 µm, pertanto il PM2,5 è un sottoinsieme del PM10, che a sua volta è un sottoinsieme del particolato grossolano ecc.
In particolare:
Particolato grossolano – particolato sedimentabile di dimensioni superiori ai 10 µm, non in grado di penetrare nel tratto respiratorio superando la laringe, se non in piccola parte.
PM10 – particolato formato da particelle inferiori a 10 micron (µm) (cioè inferiori a un centesimo di millimetro), è una polvere inalabile, ovvero in grado di penetrare nel tratto respiratorio superiore (naso e laringe). Le particelle fra circa 5 e 2,5 µm si depositano prima dei bronchioli.
PM2,5 – particolato fine con diametro inferiore a 2,5 µm (un quarto di centesimo di millimetro), è una polvere toracica, cioè in grado di penetrare profondamente nei polmoni, specie durante la respirazione dalla bocca.
Per dimensioni ancora inferiori (particolato ultrafine, UFP o UP) si parla di polvere respirabile, cioè in grado di penetrare profondamente nei polmoni fino agli alveoli; vi sono discordanze tra le fonti per quanto riguarda la loro definizione, per quanto sia più comune e accettata la definizione di UFP come PM0,1 piuttosto che come PM1 (di cui comunque sono un sottoinsieme):
PM1, con diametro inferiore a 1 µm
PM0,1, con diametro inferiore a 0,1 µm
nanopolveri, con diametro dell'ordine di grandezza dei nanometri (un nanometro sarebbe PM 0,001).
Hinds suddivide il particolato in tre categorie generiche, anche a seconda del meccanismo di formazione:
particolato ultrafine (UFP), con diametro infiriore a 0,1 µm e formato principalmente da residui della combustione (PM0,1)
particolato formato dall'aggregazione delle particelle più piccole, compreso tra 0,1 e 2,5 µm in diametro (PM2,5)
particolato formato da particelle più grossolane (maggiore di 2,5 µm) generate mediante processi meccanici da particelle più grandi.

polveri

Distribuzione delle polveri nell'apparato respiratorio



Pedologia.
La pedologia (dal greco pedon, suolo e logos, studio) è la scienza che studia la composizione, la genesi e le modificazioni del suolo, dovute sia a fattori biotici che abiotici. È una branca delle scienze della Terra in genere e dell'agronomia. Suo padre fondatore è ritenuto il geografo russo Vasilij Dokucaev.
Pericolosità della corrente elettrica
La soglia di percezione della correnti elettrica nell'uomo è circa di 0,5 mA in c.a. (corrente alternata) a frequenza industriale (f = 50÷60 Hz) e di 2 mA in c.c. (corrente continua), inoltre si deve tenere conto che l'effetto di una determinata corrente elettrica varia non solo per l'intensità, ma anche per la durata della percorrenza. Si noti che la tensione non è rilevante negli effetti sull'uomo, ma occorre una tensione minima per essere attraversati dalla corrente, quindi sotto i 50 V circa non si corrono rischi, ma al di sopra è ininfluente la tensione, gli effetti dipendono solo dall'intensità. Con intensità maggiori a quelle specificate si producono nel corpo umano i seguenti effetti:

  • Tetanizzazione muscolare: i muscoli sottoposti ad una corrente alternata, subiscono una sequenza di stimoli elettrici; non riuscendo a contrarsi e rilassarsi con la frequenza della corrente, i muscoli restano contratti permanentemente. Tale circostanza è particolarmente grave quando un oggetto in tensione viene impugnato volontariamente, poiché la tetanizzazione paralizza i muscoli impedendone il rilascio; la massima corrente per la quale si riesce a lasciare la presa viene chiamata corrente di rilascio e si aggira sui 10÷30 mA a f.i. (frequenza industriale).
  • Blocco respiratorio: tetanizzazione dei muscoli respiratori quando il contatto interessa la regione toracico-polmonare. Comporta ipossia quindi danni al cervello dopo pochi minuti.
  • Fibrillazione ventricolare: una corrente alternata sufficientemente elevata (> 50 mA) che interessi la regione toracica può provocare la perdita di coordinamento dei muscoli cardiaci, così il cuore non riesce più a pompare sangue causando ipossia e danni al cervello.
  • Arresto cardiaco.
  • Ustioni: dovuta ad elevati densità di corrente tra cute e conduttore in tensione, per effetto Joule, provoca elevante temperature per brevi periodi capaci di provocare gravi ustioni.
  1. Limiti di corrente:
    Si definisce soglia media di pericolosità:
    I_p = I_0 + {{Q} \over \Delta t}
    dove con Ip : corrente pericolosa e Δt: tempo di permanenza; questa individua il limite al di sotto del quale la corrente è percepibile ma non pericolosa; al di sopra di esso la corrente deve considerarsi potenzialmente pericolosa.
    I parametri dell'equazione si possono assumere, a frequenza industriale:
    I_0 = 10 \div 30 \, mA \setminus Q = 10 \, mAs.
  2. Limiti di tensione:
    Il corpo umano presenta prevalentemente un comportamento resistivo: la tensione U_p = R_u \cdot I_p che corrisponde alla corrente pericolosa è di difficile definizione perché la resistenza del corpo Ru può variare in un campo molto ampio, dipendendo da molteplici fattori quali i punti di contatto, l'estensione del contatto, la pressione, lo spessore della pelle e il suo grado di umidità. Si assume Ru > 2000Ω, per questo motivo non vengono ritenute pericolose tensioni sinusoidali con valore efficace U < 50V e tensioni continue con U < 120V, applicate per un tempo illimitato.

Una persona può venire a contatto con parti in tensione e quindi subire gli effetti del passaggio di corrente mediante contatto diretto oppure contatto indiretto. Quindi per evitare ciò si devo attuare delle contromisure imposte dalla norma vigente (norme CEI). La protezione contro i contatti diretti si attuano prevenendo i contatti accidentali con le parti in tensione:

  • isolamento delle parti attive con materiale isolante non removibile,
  • involucri o barriere tali da impedire ogni contatto con le parti in tensione,
  • ostacoli o distanziatori,
  • interruttori differenziali ad alta sensibilità, con correnti differenziali di soglia di Is ≤30 mA

La protezione contro i contatti indiretti si realizza nei seguenti modi:

  • Messa a terra delle masse,
  • Interruzione automatica dell'alimentazione tramite interruttori automatici,
  • Doppio isolamento delle apparecchiature
  • Separazione elettrica


Petrolio
Al pari del carbone e del gas naturale, anche il petrolio è una fonte fossile di origine organica. In particolare è composto da una miscela assai complessa di idrocarburi liquidi, solidi e gassosi, con presenza più o meno limitata di sostanze organiche ossigenate, azotate e solforate di diversa natura. La distribuzione mondiale delle riserve accertate di petrolio indica una forte concentrazione (oltre il 66%) nel Medio Oriente e in alcune aree dell’Asia, dell’Africa e dell’Europa orientale, mentre molto più modesti sono i giacimenti nelle altre aree del Pianeta. Per poter essere impiegato sul piano industriale il petrolio necessita di raffinazione. Con questo termine si intende un insieme di processi che hanno lo scopo di isolare dal greggio sostanze o miscele di sostanze adatte a vari impieghi, principalmente in campo energetico (carburanti per autotrazione, combustibili per centrali termoelettriche o per il riscaldamento), ma anche per altri usi, ad esempio per ricavare solventi, lubrificanti, bitumi oppure intermedi di base per l’industria petrolchimica (su cui si fonda la fabbricazione di numerosi prodotti di sintesi come materie plastiche, prodotti sintetici, detergenti, ecc.). Nonostante la lenta erosione della sua quota sui consumi primari di energia nel mondo, il petrolio è, e rimarrà ancora a lungo, la fonte energetica più utilizzata. Oltre il 37% dei consumi energetici mondiali è assicurato dal petrolio. In particolare, nell’America Centrale e Meridionale i consumi petroliferi rappresentano oltre il 45% del totale, mentre si attestano intorno al 40% nel continente nordamericano, in Africa e nell’Europa occidentale. All’interno dell’Unione Europea spicca il dato dell’Italia dove i consumi petroliferi rappresentano la quota preponderante (oltre il 48%) del fabbisogno energetico nazionale. Si tratta di un “primato” assai poco consolante per la fattura energetica nazionale, ove il petrolio gioca un ruolo preponderante essendo la fonte di energia più costosa. Il petrolio, infatti, come del resto anche le altre fonti fossili, è quasi interamente importato dall’Italia, con un grado di dipendenza dall'estero stabilmente superiore al 93%. In particolare, l’approvvigionamento nazionale di petrolio è assicurato per circa il 70% dal Medio Oriente e dal Nord Africa e, per la quota restante, dalla Federazione Russa e da altri Paesi europei. Tuttavia, se resta elevata in Italia la quota dei consumi petroliferi, si va sensibilmente modificando il quadro degli impieghi dei prodotti derivati dal petrolio. In particolare, nel settore termoelettrico si sta assistendo nel nostro Paese a un ricorso sempre più limitato all’olio combustibile a vantaggio del “carbone pulito” e del gas naturale. Questa tendenza è fortemente sostenuta da Enel, il cui piano di riconversione del proprio parco centrali punta, per ragioni ambientali ed economiche, a un sostanziale azzeramento entro il 2008 dell’uso di olio combustibile.

Riserve di petrolio
Riserve di petrolio Prospettive sulla diminuzione dei rimanenti 57 Z-Joule di petrolio sul pianeta. Il consumo annuo di petrolio era di 0,18 ZJ nel 2005. Esiste un'incertezza significativa attorno a questi numeri. Gli 11 ZJ che si prospettano come addendi futuri alle riserve recuperabili potrebbero essere troppo ottimistici. (Z = 10exp19)
Picco di Hubbert
La curva di Hubbert (o hubbertiana), così chiamata dal geofisico M. King Hubbert è una derivazione della funzione logistica. Un esempio della curva di Hubbert può essere espressa come:

 x = {e^{-t}\over(1+e^{-t})^2}={1\over2+2\cosh t}

La curva è molto simile, ma non identica, ad una distribuzione normale. È stata inizialmente intesa come modello per la stima della quantità di petrolio estraibile da un giacimento. Secondo questo modello, la quantità del petrolio estratto, e quindi prodotto, è determinata dalla velocità nello scoprire nuovi giacimenti petroliferi. Superato il punto di massima della funzione, (detto picco di Hubbert) si avrà un declino dell'estrazione di petrolio che tenderà infine a zero. Hubbert applicò per la prima volta il suo modello alla produzione petrolifera degli Stati Uniti, riuscendo a prevedere con dieci anni di anticipo che questa avrebbe raggiunto il suo massimo all'inizio degli anni settanta. In figura la curva di Hubbert.

Curva di Hubbert
Sulla base degli studi intorno al Picco di Hubbert per la risorsa petrolifera sono sorte diverse teorie scientifiche e, principalmente, economiche e politiche, alcune delle quali anche di stampo più o meno "catastrofista". Vogliamo qui solo menzionare, tra le più importanti, la teoria di Olduvai proposta da Richard Duncan, che lega l'esistenza stessa della civiltà industriale all'inclinazione "crescente" della curva di Hubbert, giungendo dunque a prevedere la fine di tale tipo di civiltà in un'epoca di curva di Hubbert "decrescente". Questo ovviamente postulando che la produzione energetica mondiale continui a basarsi prevalentemente sull'utilizzo del petrolio e di fonti fossili. Molti economisti sono critici nei confronti delle teorie collegate al picco del petrolio poiché considerano il bene energia come lo è il petrolio come bene sostituibile da un bene non energetico ma che la tecnologia eleva alla classe di bene energetico in caso di crisi mondiale dell'energia. In pratica si immagina che in caso di crisi e di prezzi elevati del greggio possano arrivare "naturalmente" una o più scoperte o un generale affinamento della tecnologia che riesca ad utilizzare meglio o sostituire il bene petrolio e ne faccia calare il prezzo. Per questo motivo economisti come Michael Lynch del MIT e molti altri avversano le teorie probabilistiche del peak oil poiché non si contemplano nuovi metodi per produrre energia. Si fa notare inoltre come la domanda petrolifera sia sostanzialmente anelastica ai prezzi, ovvero che il petrolio sia un bene primario, del quale non si può fare a meno; se a un certo punto gli investimenti necessari all'estrazione divengono proibitivi, la produzione non cesserà perché incontrerà una domanda comunque disposta a remunerarli. La teoria di Hubbert poi considera solamente logiche di mercato, mentre la produzione può essere finanziata in parte dall'intervento statale o da forme differenti per le quali l'investimento del privato ritorna remunerativo, e solo una parte dei costi è caricata sul consumatore.
Pila a combustibile
Una pila a combustibile (detta anche cella a combustibile dal nome inglese fuel cell) è un dispositivo elettrochimico che permette di ottenere elettricità direttamente da certe sostanze, tipicamente da idrogeno ed ossigeno, senza che avvenga alcun processo di combustione termica. L'efficienza delle pile a combustibile può essere molto alta; alcuni fenomeni però, come la catalisi e la resistenza interna, pongono limiti pratici alla loro efficienza. Il principio alla base delle pile a combustibile è quello della generazione diretta, a partire dalle sostanze reagenti (per esempio idrogeno e ossigeno) di una forza elettromotrice per mezzo di una reazione elettrochimica, in modo analogo alle pile elettriche, anziché attraverso processi di conversione di energia, come si fa invece nei generatori elettrici azionati da macchine a combustione termica. Infatti, il calore generato dalla combustione non può essere completamente convertito in elettricità a causa dei limiti imposti dal teorema di Carnot, che consegue dal secondo principio della termodinamica: in base a esso, la massima efficienza ηmax di una macchina termica che opera tra una temperatura Ta e una temperatura più bassa Tb (per esempio l'ambiente) è:

\eta_{max}=1-\frac{T_b}{T_a}

Anche nelle macchine termiche più efficienti, quali le turbine a gas combinate con turbine a vapore, a causa dei limiti dei materiali di costruzione, raramente l'efficienza può superare il 60%, e questo può avvenire solo su impianti a ciclo combinato di elevata potenza. Nei motori a combustione delle più moderne automobili, l'efficienza è spesso al di sotto del 30%. La reazione elettrochimica si basa sull'idea di spezzare le molecole del combustibile o del comburente (di solito ossigeno atmosferico) in ioni positivi ed elettroni; questi ultimi, passando da un circuito esterno, forniscono una corrente elettrica proporzionale alla velocità della reazione chimica, e utilizzabile per qualsiasi scopo. In pratica, la scelta dei combustibili è molto limitata, perché ionizzare molte molecole è difficile, e la reazione risulta avere una grande energia di attivazione, che a sua volta rallenta la reazione e rende l'uso pratico impossibile. L'idrogeno è un gas in grado di essere ionizzato facilmente, perché la sua molecola è costituita da due atomi legati da un legame relativamente debole (H-H); molto più debole, per esempio, di quello tra atomi di idrogeno e carbonio nella molecola del metano (CH4). Il comburente piu tipicamente usato è l'ossigeno dell'aria: non solo reagisce con l'idrogeno dando un prodotto innocuo come l'acqua, ma è anche disponibile in abbondanza e gratuitamente dall'atmosfera. Tuttavia, il doppio legame (O=O) tra gli atomi nella molecola dell'ossigeno è più forte che nel caso della molecola di idrogeno, e l'ossigeno rappresenta spesso un ostacolo maggiore nella catalisi delle reazioni elettrochimiche; si parla in gergo tecnico di sovratensione catodica, visto che l'ossigeno viene consumato al catodo della cella, e che una parte della tensione generata dalla cella viene assorbita per promuovere la reazione dell'ossigeno. In figura è mostrato lo schema di funzionamento di una pila a combustibile.

Schema di pila a acombustibile
Pila chimica
La pila, in chimica, è un dispositivo che converte energia chimica in energia elettrica. All'interno di una pila avviene una reazione di ossido-riduzione in cui una sostanza subisce ossidazione, perdendo elettroni, ed un'altra subisce riduzione, acquistandoli. Data la sua configurazione, la pila consente di intercettare e sfruttare il flusso di elettroni tra le due sostanze. Tale flusso genera una corrente elettrica continua, il cui potenziale elettrico è funzione delle reazioni di ossidazione e riduzione che vi avvengono. Una pila si scarica quando queste reazioni chimiche raggiungono lo stato di equilibrio. Nel 1799 Alessandro Volta riprese gli studi di Luigi Galvani sulla corrente elettrica, riuscendo a realizzare la prima pila (oggi detta voltaica), con i seguenti costituenti:

  • Un supporto di legno posto verticalmente su una base circolare
  • Dischetti di rame e zinco
  • Panno imbevuto di una soluzione acida formata da acqua e acido solforico
  • Due fili di rame

La pila consiste in dischetti di rame e zinco alternati, seguendo la logica rame, zinco, umido, rame, zinco, e così via il tutto tenuto a posto dalla struttura di legno esterna. Una volta disposti i dischetti e il panno sul supporto, collegando il primo e l'ultimo dischetto della colonna con due fili di rame, si viene a creare tra essi una differenza di potenziale in grado di produrre il passaggio di corrente. In realtà Volta credeva che il passaggio di corrente fosse dovuto alla differenza di potenziale originatasi in seguito al semplice contatto dei due metalli, mentre ora si sa che il passaggio di corrente è dovuto alla differenza di potenziale creata dai due metalli, ma il passaggio di corrente è provocato dalle reazioni chimiche al quale concorre anche il mezzo umido. Infatti si può notare che nella pila così formata lo zinco si consuma mentre il rame rimane intatto (può eventualmente ossidarsi). Questo perché lo zinco cede due elettroni e passa da Zn metallico a Zn2+, questi elettroni contrariamente a quanto si possa pensare non passano al rame, che serve solo per creare la differenza di potenziale, ma passano allo ione ossonio H3O+ formatosi dalla dissociazione ionica dell'acido solforico in acqua, che si trasforma in idrogeno molecolare gassoso H2. Infatti la differenza di potenziale che si può misurare con un potenziometro è di ca. 0,7 V (solo di uno strato rame, umido, zinco) che equivale alla semicoppia Zn/Zn2+ utilizzando come altra semicoppia quella dell'idrogeno H2/H3O+. Il dispositivo così costituito permise a Volta di produrre una corrente elettrica, di cui osservò il flusso riuscendo a indurre la contrazione dei muscoli di una rana morta. Successivamente, nel 1836, John Frederic Daniell elaborò una pila, chiamata pila Daniell, sfruttando il prototipo inventato da Volta e apportando miglioramenti in termini di voltaggio e sicurezza d'uso. La cella è costituita da un compartimento anodico formato da una barretta di zinco immersa in una soluzione di solfato di zinco, ZnSO4 e un compartimento catodico formato da una barretta di rame immersa in una soluzione di solfato di rame(2+), CuSO4. Le due semicelle sono separate da un setto poroso. In entrambi i comparti deve essere presente un elettrolita di supporto quale ad esempio il solfato di potassio K2SO4. Alla chiusura del circuito esterno con un conduttore, al catodo avviene la semireazione di riduzione

Cu2+(aq) + 2 e → Cu(s) E°+ = 0,34 V

per cui del catione rame scompare dalla soluzione e si deposita come metallo sulla bacchetta; all'anodo avviene la semireazione di ossidazione

Zn(s) → Zn2+(aq) + 2 e E°- = - 0,76 V

per cui dello zinco si stacca come catione dalla barretta e va in soluzione. Si ha la reazione somma:

Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s)

Per effetto di questa reazione nel comparto catodico mancherebbero cariche positive, mentre nel comparto anodico si avrebbe un eccesso di cariche positive dello zinco catione. Il tutto però viene compensato perché del catione potassio si sposta attraverso il setto poroso dal comparto anodico a quello catodico, ristabilendo l'elettroneutralità della soluzione. Gli elettroni nel circuito esterno girano dallo zinco al rame e quindi la corrente convenzionale positiva I, va dal rame allo zinco. Il potenziale teorico della pila Daniell è E° = E°+ - E°- = 1,10 V (ottenibile in condizioni quasistatiche reversibili), differenza tra il potenziale catodico (polo positivo) e quello anodico (polo negativo).

Le pile primarie, chiamate comunemente batterie, sono quelle pile le cui reazioni chimiche interne sono irreversibili. In altre parole, non è possibile invertire la reazione completa semplicemente fornendo energia alla pila; quindi, in sostanza, quando tutti i reagenti della pila si trasformano completamente nei prodotti finali, essa si scarica definitivamente divenendo inutilizzabile.

La prima pila a secco, cioè priva di elementi liquidi, prodotta industrialmente e commercializzata su ampia scala è la pila Leclanché, dal nome di Georges Leclanché. La paternità della prima pila a secco è, però, contesa tra Leclanché e Giuseppe Zamboni. La pila Leclanché è costituita da un anodo di zinco metallico, che funge anche da contenitore, e da un catodo costituito da una barretta di grafite, sulla cui superficie avviene la riduzione del biossido di manganese, miscelato a del cloruro d'ammonio a formare una pasta gelatinosa. La stechiometria della reazione di riduzione non è esattamente nota, tuttavia si può dire che le reazioni in una pila Leclanché sono le seguenti:

ossidazione Zn → Zn2+ + 2 e- Eo = - 0,76 V
riduzione 2 MnO2 + 2 NH4+ + 2 e- → 2 MnO(OH) + 2 NH3 Eo = 0,75 V
reazione complessiva Zn + 2 MnO2 + 2 NH4+ → Zn2+ + 2 MnO(OH) + 2 NH3 Eo = 1,51 V

Pila leclanchè

Rappresentazione schematica di una pila Leclanché; il catodo (+) è una barretta di grafite, il contenitore esterno di zinco funge da anodo (-)


Il cloruro d'ammonio, oltre a fornire gli ioni H+ per la reazione di riduzione, ha anche il compito di complessare gli ioni zinco prodotti dalla reazione di ossidazione

Zn2+ + 2 NH4+ + 2 OH- → [Zn(NH3)2]2+ + 2 H2O

mantenendo quindi bassa la concentrazione degli ioni Zn2+ liberi, e quindi mantenendo elevato il potenziale della reazione di ossidazione, legato alle concentrazioni delle specie ossidata e ridotta secondo l'equazione di Nernst. L'ammoniaca che si libera al catodo tende a formare un velo gassoso sulla sua superficie, che impedisce il flusso degli elettroni. Quando questo avviene, la pila smette di erogare corrente e diviene scarica.

La pila Weston, che deve il suo nome al chimico inglese Edward Weston che la creò nel 1893, è una nota pila a umido di riferimento utilizzata in laboratorio per la calibrazioni di strumenti di misura quali i voltmetri e i potenziometri. L'anodo è costituito da un amalgama Cd/Hg al 12,5% in Cd, mentre il catodo è formato da una pasta di solfato di mercurio(1+) (Hg2SO4) depositata su mercurio metallico. L'elettrolita è comune alle due celle ed è rappresentato, nella versione originaria ideata da Weston, da una soluzione satura di solfato di cadmio CdSO4; nelle moderne versioni si utilizza invece una soluzione insatura, onde avere una minore variabilità del potenziale erogato in funzione della temperatura. La forza elettromotrice della pila originaria vale 1,0183 V a 20°C.

  • Reazione chimica all'anodo (ossidazione)
Cdamalg. -> Cd2+ + 2 e-
  • Reazione chimica al catodo (riduzione)
Hg2SO4 + 2 e- → 2 Hg + SO42-
Usi: calibrazione di strumenti di misura quali voltmetri e potenziometri
Vantaggi: forza elettromotrice costante nel tempo e che presenta piccolissima variazione in funzione della temperatura (elevata riproducibilità)
Svantaggi: utilizzo di mercurio tossico, necessaria calibrazione periodica della pila insatura con una cella che utilizza la versione satura

Le pile alcaline sono l'evoluzione delle pile a secco. Sostanzialmente la loro struttura è identica. Tuttavia le batterie alcaline utilizzano una pasta, alcalina appunto, di idrossido di potassio (KOH) come elettrolita. Questa innovazione è fondamentale e ha il vantaggio di non produrre gas durante il funzionamento e di non avere cadute di tensione. La differenza di potenziale ai poli è di 1,5 V. Reazione chimica all'anodo (ossidazione) Zn + 2 OH- ? ZnO + H2O + 2 e- Reazione chimica al catodo (riduzione) MnO2 + 2 H2O + 2 e- ? Mn(OH)2 + 2 OH- Reazione completa Zn + MnO2 + H2O ? ZnO + Mn(OH)2. Usi: torce elettriche, giocattoli, strumenti elettronici vari. Vantaggi: tempo di vita più lungo, nessuna caduta di tensione anche ad elevata intensità di corrente erogata. Svantaggi: costo, più elevato rispetto alle pile a secco.

Le pile a mercurio hanno tipicamente una forma “a bottone”. Utilizzano un anodo di zinco e un catodo di acciaio e l'elettrolita è sempre una pasta alcalina di idrossido di potassio (KOH). La differenza di potenziale ai poli è di 1,3 V. Reazione chimica all'anodo (ossidazione)

Zn + 2OH- -> ZnO + H2O + 2e-

Reazione chimica al catodo (riduzione)

HgO + H2O + 2e- -> Hg + 2OH-

Reazione completa

Zn + HgO -> ZnO + Hg
Usi: Orologi, calcolatrici
Vantaggi: Dimensioni ridotte, voltaggio relativamente alto
Svantaggi: Il mercurio è un metallo pesante molto tossico e pericoloso per l’ambiente

Le pile ad argento sono molto simili a quelle a mercurio. Utilizzano un anodo di zinco e un catodo di argento e l'elettrolita è sempre una pasta alcalina di idrossido di potassio (KOH). La differenza di potenziale ai poli è di 1,6 V.

Reazione chimica all'anodo (ossidazione)

Zn + 2OH- -> ZnO + H2O + 2e-

Reazione chimica al catodo (riduzione)

Ag2O + H2O + 2e- -> 2Ag + 2OH-

Reazione completa

Zn + Ag2O -> ZnO + 2Ag
Usi: Macchine fotografiche, pacemaker cardiaci, alcuni apparecchi elettronici di precisione
Vantaggi: Dimensioni ridotte, voltaggio relativamente alto e molto stabile
Svantaggi: Costo molto elevato

Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A differenza delle pile primarie, somministrando energia elettrica a questi dispositivi, si inverte il senso della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di fatto, quindi, la pila si ricarica.

Accumulatore al piombo. La cella piombo-acida è il costituente fondamentale dei comuni accumulatori per auto. Utilizzano un anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di piombo (PbO2). L'elettrolita è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V infatti negli accumulatori per automobili troviamo sei celle piombo-acide in serie, che generano una differenza di potenziale complessiva di 12 V. Negli accumulatori moderni, infine, si utilizza una lega di piombo che inibisce l’elettrolisi dell’acqua, potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.

Reazione chimica all'anodo (ossidazione)

Pb + HSO4- -> PbSO4 + H+ + 2e-

Reazione chimica al catodo (riduzione)

PbO2 + 3H+ + HSO4- + 2e- -> PbSO4 + 2H2O

Reazione completa

PbO2 + Pb + 2H2SO4 -> 2PbSO4 + 2H2O
Usi: Alimentazione automobili e camion
Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita, funziona bene a basse temperature
Svantaggi: Il piombo è un metallo pesante ed è tossico. Perdita di capacità dovuta a stress meccanici

Le pile al nichel-metallo idruro (NiMH) stanno ormai sostituendo le vecchie batterie al nichel-cadmio (NiCd), più tossiche e meno efficienti. All’anodo abbiamo l’ossidazione dell’idrogeno assorbito su leghe metalliche di nichel, al catodo abbiamo la riduzione del nichel (III) e l'elettrolita è sempre una pasta basica di idrossido di potassio. La differenza di potenziale ai poli è di 1,2 V.

Reazione chimica all'anodo (ossidazione)

MH + OH- -> M + H2O + e-

Reazione chimica al catodo (riduzione)

NiO(OH) + H2O + e- -> Ni(OH) 2 + OH-

Reazione completa

MH + NiO(OH) -> M + Ni(OH)2
Usi: Apparecchiature elettroniche portatili varie, tra cui telefoni cordless, cellulari, videocamere. Lentamente sostituita da quella al litio.
Vantaggi: Leggera e potente.
Svantaggi: Si scarica anche se non utilizzata, “effetto memoria”.

I moderni accumulatori al litio sono potenti e leggeri, anche se ancora relativamente costosi. All’anodo abbiamo degli atomi di litio “immersi” in strati di grafite, il catodo è un suo sale (solitamente LiMn2O4) e l'elettrolita è una soluzione di perclorato di litio LiClO4 in etilencarbonato C2H4CO3, un solvente organico. La differenza di potenziale ai poli è di 3,7 V.

Reazione chimica all'anodo (ossidazione)

Lix -> x Li+ + x e-

Reazione chimica al catodo (riduzione)

Li1-xMn2O4 + x Li+ + x e- -> LiMn2O4

Reazione completa

Lix + Li1-xMn2O4 -> LiMn2O4
Usi: Apparecchiature elettroniche moderne, computer portatili, cellulari, videocamere.
Vantaggi: Estremamente potente e leggera: solo 7 grammi di metallo producono fino ad una mole di elettroni. Nessun “effetto memoria”.
Svantaggi: Piuttosto costosa, il solvente può essere infiammabile. Se non sono applicati alcuni accorgimenti possono letteralmente esplodere in modo spettacolare (e pericoloso)


Pila zinco-aria
Il tipo di batteria ricaricabile più propriamente definibile pila zinco-aria, ma più noto come accumulatore zinco-aria ha come caratteristica peculiare quella di impiegare l'ossigeno atmosferico come elettrodo che riceve elettroni (si riduce) e lo zinco come elettrodo che perde elettroni (si ossida), il movimento di elettroni genera una differenza di potenziale e quindi una tensione elettrica che può servire per alimentare vari tipi di circuito elettrico. Gli accumulatori zinco-aria appartengono alla categoria delle celle a combustione, dove lo zinco è il combustibile e l'ossigeno è il comburente. Quando le superfici degli elettrodi di zinco metallico si sono ossidate diventando ossido di zinco, la batteria può considerarsi scarica. La batteria non può essere ricaricata dall'utente, ma deve essere sostituita "al volo" da un altro pacchetto di queste batterie nuove. Il vecchio pacchetto viene "ricaricato" a parte (in realtà il diossido di zinco viene "rigenerato", con una procedura elettro-chimica viene deossidato a zinco metallico) nell'industria o nella stazione di servizio automatizzata che si occuperà di questo ciclo industriale. Un Kg di batteria zinco-aria fornisce circa 110-200 chilowatt/ora, questo è da circa 6,8 a 10,2 volte la densità energetica di un comune accumulatore piombo-acido (il più utilizzato nelle odierne automobili). In base a calcoli teorici e perfezionamenti tecnologici si potrebbe arrivare a densità energetiche fino a 1000 Wh/Kg. Il costo di produzione è inferiore a quello degli accumulatori piombo-acido.

Vantaggi.

  • Rispetto all' accumulatore nichel-cadmio si hanno lievi vantaggi nel rapporto carica/peso, la non presenza di metalli pesanti tossici da smaltire in discarica, e la totale inesistenza dell' effetto memoria.
  • Rispetto all' accumulatore litio-ione si hanno enormi vantaggi nella durata (soprattutto ad alte temperature) e soprattutto nella sicurezza (non hanno alcuna tendenza ad incendiarsi se danneggiate).
  • Rispetto all' accumulatore piombo-acido il vantaggio principale è quello del molto maggiore rapporto carica/peso, del minor costo del metallo, e dell'assenza di metalli pesanti da smaltire in discarica.

Svantaggi.

  • Le pile zinco-aria risentono molto della bassa temperatura e dell'umidità e inquinamento, che portano ad una riduzione della reattività dell'ossigeno atmosferico. In condizioni ideali, come luoghi caldi e desertici, si nota un aumento della potenza massima e dell'autonomia del veicolo (vedasi il test del 1997 in California). Esattamente il contrario avviene ad alta quota (dove cala la pressione parziale dell'ossigeno), ed in climi freddi ed umidi come in caso di pioggia, che vedono ridursi sia la potenza massima che l'autonomia del veicolo.
  • Non è possibile ricaricare queste battterie in casa e tantomeno impiegarle nel recupero dell'energia di frenata, o collegarle ad un generatore alimentato da un motore a combustione interna oppure il ricaricarle con celle solari sulla carrozzeria, ecc. Associandole ad altri tipi di batteria, si potrebbe ricuperare una parte dell' energia frenante o quella solare incidente tramite celle foto-voltaiche.

Piovosità anni 2012-2013.
Vedi articolo.
Pirolisi
La pirolisi è un processo di decomposizione termochimica di materiali organici, ottenuto mediante l’applicazione di calore e in completa assenza di un agente ossidante (normalmente ossigeno). In pratica mentre riscaldando il materiale in presenza di ossigeno avviene una combustione che genera calore e produce composti gassosi ossidati, effettuando invece lo stesso riscaldamento in condizioni di assenza totale di ossigeno il materiale subisce la scissione dei legami chimici originari con formazione di molecole più semplici. Il calore fornito nel processo di pirolisi viene quindi utilizzato per scindere i legami chimici, attuando quella che viene definita omolisi termicamente indotta. Tra i principali processi pirolitici sfruttati su larga scala spiccano il cracking industriale e il trattamento termico dei rifiuti. Prima del 1925 la pirolisi del legno costituì la fonte principale di metanolo. La pirolisi dei rifiuti, utilizzando temperature comprese tra 400 e 800°C, converte il materiale dallo stato solido in prodotti liquidi (cosiddetto tar o olio di pirolisi) e/o gassosi (syngas), utilizzabili quali combustibili o quali materie prime destinate a successivi processi chimici. Il residuo carbonioso solido ottenuto può venire ulteriormente raffinato fornendo prodotti quali ad esempio il carbone attivo. I prodotti della pirolisi sono sia gassosi, sia liquidi, sia solidi, in proporzioni che dipendono dai metodi di pirolisi (pirolisi veloce, lenta, o convenzionale) e dai parametri di reazione. Un pirolizzatore si differenzia da un gassificatore in quanto lavorando in assenza di ossigeno (spesso si sfrutta un flusso caldo di un gas inerte quale l'azoto) attua la pirolisi propriamente detta, mentre un gassificatore in realtà lavorando in presenza di piccole quantità di ossigeno realizza anche una parziale ossidazione e come tecnologia rappresenta una via di mezzo tra l'inceneritore e il pirolizzatore. Uno dei maggiori problemi legati alla produzione di energia basata sui prodotti della pirolisi è la qualità di detti prodotti, che non ha ancora raggiunto un livello sufficientemente adeguato con riferimento alle applicazioni, sia con turbine a gas sia con motori diesel. In prospettiva, anche con riferimento alle taglie degli impianti, i cicli combinati ad olio pirolitico appaiono i più promettenti, soprattutto in impianti di grande taglia, mentre motori a ciclo diesel, utilizzanti prodotti di pirolisi, sembrano più adatti ad impianti di piccola potenzialità. La pirolisi diretta viene generalmente attuata in apparecchiature (caldaie) in cui avviene anche lo scambio di calore tra i gas di combustione ed i fluidi di processo (acqua, olio diatermico, ecc.). La combustione di prodotti e residui agricoli si attua con buoni rendimenti, se si utilizzano come combustibili sostanze ricche di glucidi strutturati (cellulosa e lignina) e con contenuti di acqua inferiori al 35%. I prodotti utilizzabili a tale scopo sono i seguenti:

  • legname in tutte le sue forme;
  • paglie di cereali;
  • residui di raccolta di legumi secchi;
  • residui di piante oleaginose (ricino, cartamo, ecc.);
  • residui di piante da fibra tessile (cotone, canapa, ecc.);
  • residui legnosi di potatura di piante da frutto e di piante forestali;
  • residui dell’industria agro-alimentare.

Le caldaie a letto fluido rappresentano la tecnologia più sofisticata e dispendiosa che sta ricevendo, però, notevoli attenzioni; infatti essa permette il conseguimento di numerosi vantaggi quali la riduzione degli inquinanti e l’elevato rendimento di combustione. Esistono molte tecnologie particolari: il sistema Thermofuel®, ad esempio, permette di ottenere, a partire dalla plastica, diesel sintetico attraverso pirolisi condotta a temperature più basse (370-420 °C). La pirolisi può essere anche utilizzata come parte integrante di altri processi quali il trattamento meccanico-biologico e la digestione anaerobica.
Politica europea per l'energia
All'inizio del 2007 l'Unione europea (UE) ha presentato una nuova politica energetica, espressione del suo impegno a favore di un'economia a basso consumo di energia più sicura, più competitiva e più sostenibile. Una politica comune rappresenta la risposta più efficace alle sfide energetiche attuali, che sono comuni a tutti gli Stati membri. Essa pone nuovamente l'energia al centro dell'azione europea, di cui è stata all'origine con i trattati che hanno istituito la Comunità europea del carbone e dell'acciaio (trattato CECA) e la Comunità europea dell'energia atomica (trattato Euratom), rispettivamente nel 1951 e nel 1957. Gli strumenti di mercato (essenzialmente imposte, sovvenzioni e sistema di scambio di quote di emissione di CO2), lo sviluppo delle tecnologie energetiche (in particolare le tecnologie per l'efficienza energetica e le energie rinnovabili, o le tecnologie a basso contenuto di carbonio) e gli strumenti finanziari comunitari sostengono concretamente la realizzazione degli obiettivi della politica. Comunicazione della Commissione al Consiglio europeo e al Parlamento europeo, del 10 gennaio 2007, dal titolo "Una politica energetica per l'Europa" [COM(2007) 1].
Potenza elettrica
In elettrotecnica la potenza è definita come il lavoro svolto da una carica elettrica in un campo elettrico nell'unità di tempo. Si tratta semplicemente della definizione data in fisica nel caso particolare in cui le uniche forze presenti siano quelle dovute al campo elettrico. Esprimendola tramite le grandezze usate in elettrotecnica si ottiene:

p(t) = v(t)\cdot i(t)

dove p(t) è la potenza entrante (uscente) in una porta di un componente n-porta se la tensione v(t) e la corrente i(t) sono misurati con un verso che rispetti la convenzione degli utilizzatori (convenzione dei generatori). Generalmente la potenza espressa in funzione del tempo viene chiamata potenza istantanea per distinguerla dalle grandezze usate nei sistemi periodici (che sono invece delle medie sul periodo).
Potenza di picco (Wp)
È la potenza massima prodotta da un dispositivo fotovoltaico in condizioni standard di funzionamento (irraggiamento 1000 W/m2 e temperatura 25°C).
Potenza nominale
La potenza nominale (o massima, o di picco, o di targa) dell’impianto fotovoltaico è la potenza elettrica dell’impianto determinata dalla somma delle singole potenze nominali (o massime, o di picco, o di targa) di ciascun modulo fotovoltaico facente parte del medesimo impianto, misurate alle condizioni standard (temperatura pari a 25 °C e radiazione pari a 1.000 W/m2).
Potenziale elettrico
Data una regione di spazio in cui è presente un campo elettrico, si definisce potenziale elettrico in un punto il valore dell'energia potenziale rilevato da una carica elettrica positiva di prova posta in quel punto per unità di carica. L'energia potenziale della carica è il livello di energia che la carica possiede a causa della sua posizione all'interno del campo elettrico; pertanto il potenziale elettrico della carica di prova è il rapporto tra l'energia potenziale e il valore della carica stessa, cioè:

\operatorname V=\frac{U}{q}

Il potenziale è dunque una quantità scalare e non dipende dal valore della carica di prova. L'unità di misura del potenziale elettrico è il "volt" (simbolo V). Si dice che tra due punti A e B di una regione di spazio sede di un campo elettrico c'è una differenza di potenziale di 1 V se la forza elettrica compie il lavoro di 1 J per portare una carica di 1 C da A a B. Il potenziale elettrico, noto anche con il nome di potenziale scalare, viene indicato dalla lettera V, o a volte anche dalla lettera greca φ. Esso si ricava a partire dal lavoro del campo elettrico su una carica q:

dW = q \vec E_0 \cdot d\vec s

Se vogliamo calcolare il lavoro lungo una linea l da un punto A ad un punto B dobbiamo calcolare l'integrale:

W = \int_{A}^{B} q \vec E_0 \cdot d\vec s


Potenziamento dell’impianto fotovoltaico
Il potenziamento è l’intervento tecnologico eseguito su un impianto entrato in esercizio da almeno due anni, consistente in un incremento della potenza nominale dell’impianto, mediante aggiunta di moduli fotovoltaici la cui potenza nominale complessiva sia non inferiore a 1 kW.
Prefisssi del Sistema Internazionale (SI)
Vedi Zetta.
Processi energetici
Processi che comportano generazione o consumo di energia.
Produttore
Persona fisica o giuridica che produce energia elettrica, indipendentemente dalla proprietà dell’impianto di produzione.
Punto di connessione alla rete
Punto di confine tra la rete del distributore o del gestore e la rete o l’impianto del cliente.
Punto di consegna
Punto in cui l'energia elettrica viene immessa in rete (generalmente una centrale elettrica).
PWR
Vedi:: Reattore nucleare a fissione.
Punto di riconsegna
Punto in cui l'energia elettrica viene prelevata dalla rete (generalmente un'impresa).
Radiazione solare
Energia elettromagnetica che viene emessa dal sole in seguito ai processi di fusione nucleare che in esso avvengono. La radiazione solare (o energia) al suolo viene misurata in kWh/m2.
Rapporti Enea Energia - Ambiente.
2009-2010. 2007 - 2008. 2006.
Reattore nucleare a fissione
Un reattore nucleare a fissione è un sistema complesso in grado di gestire una reazione a catena in modo controllato e utilizzato come componente base nelle centrali nucleari che possono contenere più reattori nucleari nello stesso sito. Esistono reattori nucleari di ricerca, nei quali l'energia prodotta è trascurabile e reattori di potenza, utilizzati dalle centrali nucleari nei quali l'energia termica prodotta sotto forma di vapore acqueo viene convertita in energia elettrica attraverso turbine e alternatori. Allo stato attuale tutti i reattori nucleari si basano sul processo di fissione nucleare sebbene vi siano importanti studi su reattori a fusione nucleare che in futuro dovrebbero sostituire o affiancare gli attuali reattori a fissione.

Per una buona precisine scientifica occorre sapere che i primi 16 reattori a fissione nucleare naturale divennero critici circa 1,7 miliardi di anni fa. In Gabon, nelle 3 miniere di Oklo, sono stati trovati minerali di uranio con concentrazione anormalmente bassa di 235U; il fenomeno è stato spiegato, grazie anche al ritrovamento di altri prodotti di decadimento, con la formazione naturale di concentrazioni di 235U superiori (1,7 miliardi di anni fa) al 3 %, e disposte in modo da costituire massa critica. Oggi questo non è più possibile a causa del più veloce decadimento dell' 235U rispetto all' 238U, la cui concentrazione è ormai ovunque molto più bassa, attorno allo 0,7 %.

Il primo reattore nucleare di costruzione umana è quello realizzato dall'équipe di Enrico Fermi a Chicago, nel reattore CP-1 (Chicago Pile-1), in cui si ottenne la prima reazione a catena controllata ed autosostenuta il 2 dicembre 1942. Quasi contemporaneamente venivano allestiti ad Oak Ridge l'impianto pilota l'X-10 (critico nel 1943) nell'ambito del laboratorio MetLab e a Hanford il B-reactor (critico nel settembre 1944), ambedue finalizzati alla produzione di plutonio, il primo come unità pilota ed il secondo per la produzione in grande scala. Nel dicembre 1954 il reattore di Obninsk, URSS divenne critico, e fu il primo reattore nucleare per uso civile; esso produceva solo 5 MW elettrici, ma fu comunque un precursore. Come i successori della filiera sovietica, era un reattore del tipo acqua-grafite, in cui il raffreddamento del nocciolo veniva assicurato da acqua leggera e la moderazione dei neutroni da blocchi di grafite, ottimo conduttore del calore oltre che efficace moderatore del flusso neutronico. Nel 1954 il reattore BORAX (Borax-I) divenne critico, ma non avendo turbine, non produceva energia elettrica. Dopo l'aggiunta delle turbine (e il cambio di nome a Borax-II), nel 1955 questo iniziò a produrre commercialmente energia elettrica, fornendo la cittadina che lo ospitava (Arco, Idaho, USA), se pure in piccola quantità (6,4 MW). Borax, a differenza del predecessore Obninsk-1 e del successore Calder Hall, era di tipo BWR (Boiling Water Reactor, o reattore ad acqua bollente, in cui il fluido di raffreddamento è acqua leggera) in cambiamento di fase. Nel 1956, infine, parte il primo reattore commerciale di grande potenza, e quindi economicamente significativo, quello di Calder Hall, in Cumbria, Regno Unito (50 MW), del tipo gas-grafite. In Italia, la prima centrale (sempre del tipo gas-grafite GEC-Magnox, acquistata dall'Inghilterra) fu quella di Latina, critica (cioè "accesa") il 27 dicembre 1962 e che produceva 153 MWe (megawatt elettrici), seguita da quella del Garigliano (1963), del tipo BWR General Electric a ciclo duale, da 150 MWe e da quella di Trino Vercellese (1964), del tipo PWR Westinghouse, da 260 MWe. L'IAEA a giugno 2008 elencava 439 reattori nucleari a fissione in attività e 34 in costruzione destinati alla produzione di energia, soprattutto in oriente (Cina, India, Russia, Korea).

Qualunque sia la tipolgia di reattore, esso ha alcuni componenti fondamentali. La sorgente di energia è il combustibile presente nel nocciolo del reattore, composto da materiale fissile (tipicamente una miscela di 235U e 238U), arricchita fino al 5% in 235U, che, producendo neutroni e subendo la fissione ad opera degli stessi, emette energia sotto forma di calore. Questo calore è asportato da un fluido refrigerante (gassoso o liquido, o che subisce un cambio di fase nel processo) che lo trasporta ad un utilizzatore, quasi sempre un gruppo turbo-alternatore per la produzione di energia elettrica. Un moderatore, solitamente grafite o acqua leggera (Fermi negli esperimenti sui neutroni termici a Roma utilizzò la paraffina, comunque elementi contenenti molto idrogeno), rallenta la velocità dei neutroni in modo da aumentare l'importanza delle fissoni termiche dell'235U. Le barre di controllo sono barre metalliche (in genere leghe di argento, cadmio e indio o carburi di boro) atte ad assorbire neutroni, ovviamente senza emetterne a loro volta; possono essere inserite nel nocciolo e servono per tenere sotto controllo ed eventualmente arrestare la reazione a catena di fissione. Il combustibile quindi genera in continuazione una certa quantità (fissa) di neutroni, e quando i sistemi di controllo (le barre) sono non inserite (almeno parzialmente), la quantità statistica di neutroni che scompaiono nel nocciolo è pari alla quantità di neutroni prodotti dallo stesso: questo è il cosiddetto punto di criticità del reattore. Al di sopra di questo punto il reattore si dice sovra-critico.

I reattori cosiddetti "provati" sono quelli di cui è stata verificata la stabilità operativa per usi civili commerciali. Oggi sono conosciuti vari tipi di reattore nucleare, generalmente classificati in base al tipo di combustibile utilizzato, al sistema di raffreddamento/generazione vapore e al tipo di moderatore. I primi modelli, come si è visto, a partire dal CP-1, erano del tipo gas-grafite, poi commercialmente sviluppato in varie versioni tra cui le principali sono i reattori Magnox (Magnesium Uranium Oxide) (GEC) e RBMK. Ambedue usavano (in realtà vi sono parecchi reattori RBMK tuttora in uso, e qualche Magnox nella versione Advanced Gas Cooled Reactor) uranio arricchito come combustibile. Il grande vantaggio dei modelli a gas è nella possibilità di utilizzare fluidi inerti come fluido refrigerante, evitando così i problemi di corrosione propri dell'acqua ad alta temperatura (che inoltre, quando irradiata, si scinde parzialmente nei componenti, generando pericoloso idrogeno nonché ossigeno libero che aggrava ulteriormente i problemi di corrosione) e nella bassa densità del refrigerante che non assorbe quindi neutroni in maniera significativa. Il problema maggiore, viceversa, sta nel relativamente basso coefficiente di scambio termico del gas, e nell'impossibilità di ottenere la moderazione dei neutroni attraverso il fluido stesso, obbligando quindi all'utilizzazione di costose (e instabili, a temperature elevate) strutture in grafite o all'utilizzo dell'acqua. Si sono quindi affermati i modelli raffreddati (e moderati) ad acqua, che sostanzialmente sono delle caldaie in cui il focolare è sostituito dall'insieme degli elementi di combustibile. Di questi esistono due modelli, o filiere: quelli in cui la vaporizzazione dell'acqua avviene a contatto degli elementi di combustibile, o comunque nello stesso recipiente che le contiene, detti di tipo BWR (Boiling Water Reactor - si vedano anche sopra i dati del Borax), che quindi inviano in turbina un vapore più o meno debolmente radioattivo, e quelli che utilizzano un circuito intermedio, per cui un fluido refrigerante (di solito ancora acqua) entra a contatto del combustibile, si scalda e, senza cambiare di fase, circola in un generatore di vapore esterno in cui cede calore ad altra acqua, che stavolta vaporizza e genera energia elettrica nel gruppo turbina-alternatore. Sono detti PWR (Pressurized Water Reactor). Il vapore che arriva in turbina in condizioni di normale funzionamento non è più radioattivo. Vi sono stati tentativi di utilizzare combustibili meno costosi (ossia uranio non arricchito, normalmente presente in natura), e sono stati proposti due modelli di reattore simili, e studiati in parte in collaborazione: il CiReNe (CISE Reattore a Nebbia), sviluppato originariamente dal Centro Italiano Studi Esperienze dell'ENEL, ed il CANDU (Canada Deuterium Uranium) sviluppato dall'Atomic Energy Commission Canadese. Questi reattori, per ovviare alla relativamente debole economia neutronica dovuta ad un tenore ridotto di 235U, utilizzano come fluido refrigerante e moderatore acqua pesante, che ha una bassissima sezione d'urto (ossia probabilità) di cattura dei neutroni. La differenza tra le due filiere sta nel circuito di raffreddamento, ad acqua bollente per il CiReNe (da cui il nome di reattore a nebbia), che lo qualifica come BHWR (Boiling Heavy Water Reactor), e ad acqua pressurizzata per il CANDU, che lo qualifica come PHWR (Pressurized Heavy Water Reactor). La filiera CANDU ha avuto una sua affermazione commerciale soprattutto in Canada ed in nazioni potenzialmente interessata alle sua capacità plutonigene (India, Argentina) mentre il progetto CIRENE è stato sospeso prima della sua conclusione, a causa della moratoria nucleare italiana, durante la realizzazione dell'impianto prototipo a Latina. Vanno citati, tra i reattori di potenza, quelli utilizzati per la trazione. Le necessità, in questo caso, sono quelle di leggerezza e ottimo contenimento delle radiazioni: a tale scopo, la filiera PWR è generalmente usata, in quanto permette di tenere turbine e generatori in zona sicura, essendo il fluido esente da radiazioni. In realtà il circuito primario è stato realizzato anche con fluidi diversi, come nel reattore italiano R.O.S.P.O. (Reattore Organico Sperimentale Potenza Zero), realizzato come prototipo per la futura (e mai realizzata) nave Enrico Fermi a propulsione nucleare, in cui venivano utilizzati prodotti organici cerosi, simili ai comuni oli diatermici - sempre allo scopo di ridurre le dimensioni. Malgrado i molti progetti (la nave tedesca Otto Hahn, quella americana Savannah, e altre sono state effettivamente realizzate, ma senza grande successo), la propulsione nucleare è oggi usata solo nei sottomarini militari (e alcuni di ricerca), nelle grandi portaerei e nei rompighiaccio russi della classe Lenin.
Reattore nucleare a fusione.
Un reattore nucleare a fusione è un ipotetico sistema in grado di gestire una reazione di fusione nucleare in modo controllato. Allo stato attuale non esistono reattori nucleari a fusione operativi per produrre energia elettrica, ma gli unici impianti operativi sono piccoli impianti di ricerca in grado di sostenere la reazione di fusione nucleare per un tempo molto ridotto. Essendo la fusione nucleare una forma di energia molto interessante che potrebbe in teoria fornire energia all'umanità per un tempo illimitato si stanno effettuando ingenti investimenti in questo tipo di reattori anche se si ritiene che i primi impianti potrebbero essere operativi non prima del 2050. Tra i vari progetti di ricerca il più ambizioso attualmente è il progetto internazionale ITER. Il progetto ITER punta a sviluppare un reattore sperimentale in grado di sostenere una reazione di fusione nucleare per diversi minuti. Il progetto ITER ha un budget di 10 miliardi di Euro e va sottolineato che non mira a produrre direttamente energia elettrica ma punta a dimostrare la capacità dell'impianto di sostenere una reazione nucleare controllata basata sulla fusione nucleare che produca più energia di quanta ne consumi. Oggi è in corso la costruzione in scala 1:1 del primo reattore per la fusione del progetto ITER. Nel sito scelto di Cadarache in Francia è prevista la produzione del primo plasma [ primo feedback di processo ] entro il 2019. La produzione di energia elettrica verrà demandata al progetto successivo chiamato DEMO. DEMO si avvantaggerà dell'esperienza derivata dal progetto ITER e integrerà il reattore con tutte le infrastrutture necessarie alla produzione di energia elettrica in modo efficiente. Per ottenere una buona resa energetica il reattore del progetto DEMO dovrà essere necessariamente più grande del reattore ITER anche se le dimensioni definitive sono ancora oggetto di studio. Dopo lo sviluppo del progetto DEMO si potrà progettare una centrale nucleare a fusione per uso industriale che quindi tenga in debita considerazione anche gli aspetti economici. La denominazione provvisoria in ambito europeo del progetto successivo a DEMO è PROTO. I materiali che entrano nella reazione sono il deuterio, facilmente reperibile in natura, ed il trizio, che invece, a causa del suo breve periodo di decadimento, non è presente in natura. La reazione è: deuterio (2) + trizio (3) —> elio(4) + neutrone. Questo comporta che sia la centrale a dover generare la quantità di trizio richiesta per le reazioni nucleari che dovranno produrre energia (per ITER è prevista una richiesta di trizio di circa 250 g/d, mentre per DEMO, che dovrà funzionare in continuo, la richiesta sarà sensibilmente più elevata). Pertanto uno dei componenti chiave della futura centrale energetica a fusione sarà il blanket, che è la parte di centrale in cui i neutroni di reazione reagiscono con il litio 6 per produrre trizio La reazione è: litio(6) + neutrone —> elio (4) + trizio (3) .
Reattore nucleare AP1000 (Reattore a sicurezza passiva). Il reattore di tipologia AP1000 è una tipologia di reattore di III generazione prodotta dalla Toshiba-Westinghouse Electric Company, sarà la prima tipologia di reattore di III Generazione a ricevere l'approvazione dall'ente di regolamentazione per il nucleare americano (NRC). Questa tipologia di reattori è essenzialmente la versione potenziata del modello AP600 (il suo predecessiore), che riesce a generare, però, fino a 1154 MW. Gli AP1000 sono fra gli ipotetici reattori che l'Italia è intenzionata a costruire per il suo nuovo piano nucleare, essendo la Ansaldo Nucleare licenziataria della Westinghouse per l'Europa, ed uno dei maggiori fornitori per i reattori AP1000 cinesi, ed avendo firmato l'Italia un piano d'intesa con gli USA per scambio di conoscenze nell'ambito nucleare. In Cina la filiera AP1000 è molto quotata, infatti nei propositi della Westinghouse e della Cina c'è l'intento di avere 100 o più reattori AP1000 in funzione o in costruzione per il 2020. Gli Scopi principali del progetto sono quelli di fornire un reattore con sicurezze maggiori, maggiore economicità della centrale e quindi competitività economica e semplificazione costruttiva, tramite una collaudata filiera di reattori PWR Westinghouse. L'AP1000 è un reattore ad acqua pressurizzata PWR a due loop, con potenza elettrica in uscita di circa 1154 MW. I sistemi di sicurezza sono incentrati sulla sicurezza passiva del reattore e sulla semplificazione in fatto di sicurezza e costruzione, questi permettono di avere alti coefficienti di sicurezza senza l'utilizzo di gruppi elettrogeni i caso di mancanza di corrente dall'esterno (come invece è necessario oggi per avere la certezza di alimentare i sistemi interni). In caso di incidente, il reattore non richiede l'intervento di un operatore per un lungo periodo, questo fa si che la possibilità di errore umano nell'emergenza sia molto ridotto, e si da anche tempo per la mobilitazione di assistenza che pervenga da fuori la centrale. La probabilità di inconvenienti è ulteriormente diminuita tramite l'utilizzo di moderni dispositivi, che sono anche ridondanti per permettere che nel caso uno fallisca, un altro entri subito in funzione senza compromettere la sicurezza, in questo modo gli effetti di potenziali conseguenze per malfunzionamenti della macchina sono molto ridotti. Ulteriori sistemi di sicurezza sono poi passivi, quindi non richiedono l'intervento umano per l'attivazione, questi sono la gravità e la convezione naturale dell'aria, che permettono (tramite le taniche di acqua sistemate sulla sommità del reattore) di raffreddare il reattore naturalmente per molte ore dopo un inconveniente grave, questo sistema è chiamato PCCS, acronimo di Passive Core Cooling System ed entra in funzione automaticamente. Le valvole in questo sistema sono infatti alimentate dalla corrente nella posizione di chiusura, venendo a mancare l'alimentazione queste si aprono e liberano il liquido refrigerante. La sicurezza di un impianto è calcolata essere, per danneggiamento grave del nocciolo, 2.41 × 10-7, molto al di sotto delle richieste dell'ente regolatore (10-4).
Reattore nucleare di IV generazione
I reattori nucleari di IV generazione (Gen IV) sono un gruppo di 6 famiglie di progetti per nuove tipologie di reattore nucleare a fissione che, pur essendo da decenni allo studio, non si sono ancora concretizzati in impianti utilizzabili diffusamente in sicurezza. Si ritiene saranno disponibili commercialmente fra alcune decine di anni (2030-2040). Non si tratta delle uniche possibilità di sviluppo dopo la 3° generazione: la ricerca sulla "4° gen." è stata promossa dal Forum Internazionale GIF (Generation IV International Forum) fondato nel 2000 dal Department of Energy degli Stati Uniti d'America (DOE) ed a cui hanno aderito alcuni paesi. Rappresenta una proposta di evoluzione del settore, non l'unica. Inoltre, non tutti i paesi che hanno firmato il documento d'intenti del GIF hanno poi firmato effettivi protocolli di collaborazione tecnologica. Molti tipi di reattore sono stati considerati all'inizio del programma GIF; comunque, la lista è stata ridotta per focalizzarsi sulle tecnologie più promettenti e soprattutto su quelle che potevano più probabilmente soddisfare gli obiettivi dell'iniziativa "Gen IV". Tre sistemi sono nominalmente reattori termici ed altri tre sono reattori autofertilizzanti a neutroni veloci. Alcuni possono essere teoricamente implementati come termici o come veloci. Il sistema VHTR é inoltre studiato per la capacità teorica di generare calore di alta qualità (cioè ad altissima temperatura) per la produzione d'idrogeno impiegabile forse in un futuro nelle celle a combustibile o per altre applicazioni industriali. Tuttavia non ha un ciclo del combustibile chiuso. I reattori a neutroni "veloci" offrono la possibilità di "bruciare" molti tipi di elementi della serie degli attinidi e di produrre più combustibile nucleare di quello che consumano (in gran parte plutonio, con i rischi connessi). Il reattore MSR si caratterizza anche per la possibilità di usare torio e di essere autofertilizzante anche usando neutroni "lenti" (termici).
Reattore nucleare europeo ad acqua pressurizzata
Il reattore nucleare europeo ad acqua pressurizzata, meglio noto con la sigla EPR (European Pressurized Reactor) è un reattore nucleare di III generazione, a fissione, nel quale la refrigerazione del nocciolo e la moderazione dei neutroni vengono ottenuti grazie alla presenza nel nocciolo di acqua naturale (detta anche leggera per distinguerla dall'acqua pesante) in condizioni sottoraffreddate. Il reattore è quindi della tipologia PWR. È stato progettato e sviluppato principalmente dalla società francese Framatome (Areva NP) per il mercato Europeo, in particolare quello francese dominato dal gruppo EdF ma è prevista la sua esportazione sia sul mercato cinese, dove sono in costruzione 2 reattori per il sito Taischan 1 nella provincia del Guangdong, che sul mercato USA nella versione US-EPR, sottoposta alla certificazione del progetto da parte dell'ente di controllo NRC alla fine del 2007. I principali scopi del progetto dell'EPR sono un'aumentata sicurezza e, allo stesso tempo, una migliore competitività economica, tramite miglioramenti graduali e collaudati. Il reattore EPR può utilizzare come combustibili ossido di uranio arricchito al 5% oppure MOX (miscela di ossidi di uranio e plutonio) fino al 100% del nocciolo.

Il progetto del reattore nucleare EPR prevede molteplici sistemi di protezione sia attivi che passivi contro vari tipi di incidente:

  • quattro sistemi indipendenti di refrigerazione d'emergenza, ognuno capace da solo di refrigerare il nocciolo del reattore dopo il suo spegnimento;
  • un contenimento metallico attorno al reattore, a tenuta per le eventuali fuoriuscite di materiale radioattivo in caso di incidente con rottura del circuito primario;
  • un contenitore (core catcher) ed un'area di raffreddamento passivo del materiale fuso, nell'improbabile evento che il nocciolo di combustibile nucleare radioattivo fuso possa fuoriuscire dal recipiente in pressione;
  • doppia parete esterna in calcestruzzo armato, con uno spessore totale di 2,6 metri, progettata per resistere all'impatto diretto di un grosso aereo di linea.

Reattore Superphénix
Superphénix o SPX era una centrale elettrica nucleare francese sul fiume Rodano presso Creys-Malville, a circa 60km dal confine Svizzero e 100km dal confine italiano. Alimentata da un reattore nucleare veloce autofertilizzante sperimentale, ha terminato la produzione commerciale di energia elettrica nel 1996 e l'impianto è stato chiuso nel 1997. Il progetto della centrale iniziò nel 1968, dopo l'abbandono dei reattori gas-grafite. Si scelse un reattore autofertilizzante veloce per il timore di quegli anni di venire tagliati fuori dalle forniture energetiche (petrolio e uranio): la cosiddetta "economia del plutonio" sembrava, date le condizioni di quegli anni, una alternativa plausibile. La costruzione venne approvata nel 1972 e durò dal 1974 al 1981, ma la produzione di energia non iniziò fino al 1985. I costi salirono rapidamente durante la produzione. L'impianto fu condotto dal consorzio NERSA di cui la EDF deteneva il 51% ed ENEL il 33%. Ci furono molte proteste popolari durante la costruzione e l'operatività: una marcia di 60.000 persone nel luglio 1977 fu dispersa dalle forze dell'ordine francesi con un morto e oltre un centinaio di feriti.

La potenza nominale della centrale era di 1.200 MW, ma in tutto il periodo di produzione non vi arrivò mai nemmeno vicino, bensì al massimo a circa il 30% di tale potenza. La cautela era comprensibile, essendo un impianto sperimentale, primo nel suo genere: con il passare del tempo inoltre iniziarono a verificarsi problemi di corrosione e perdite dovute alla forte reattività chimica del sodio usato come refrigerante (fra l'altro infiammabile al contatto di aria ed acqua). L'impianto fu chiuso temporaneamente nel settembre 1990: due precedenti incidenti in quell'anno erano culminati in un terzo che innescò uno spegnimento automatico del reattore, e tre mesi dopo, il 13 dicembre 1990, subì danni strutturali (crollo del tetto della sala macchine) in seguito ad una forte nevicata; la produzione non riprese fino al 1992, dopo una nuova autorizzazione governativa. Dei nove anni di apertura, per ben quattro la produzione elettrica fu nulla o trascurabile.
Recuperatore di calore entalpico.
E' un sistema di ricambio d'aria con le seguenti carattetristiche.
Durante il funzionamento invernale recupera parte dell'energia, contenuta nell'aria di rinnovo espulsa dagli ambienti, che diversamente andrebbe dispersa nell'atmosfera, utilizzandola per pre-riscaldare l'aria in entrata dall'esterno.
Durante il funzionamento estivo, lo scambio risulta maggiormente efficace nei climi più caldi, dove l'aria fresca espulsa è utilizzata per pre-raffreddare l'aria in entrata dall'esterno.
Il recupero dell'energia dispersa implica la riduzione del fabbisogno termico dei locali dell'edificio e quindi la possibilità di scegliere un impianto di riscaldamento e di climatizzazione di taglia inferiore, con conseguente diminuzione delle emissioni nocive e sensibili risparmi a lungo termine sull'energia consumata e sui costi dell'impianto.
Normalmente per il ricambio dell'aria di un ambiente si ricorre all'apertura delle finestre; questo impianto consente un notevole risparmio di energia.
Rendimento energetico
La quantità di lavoro eseguita o di profitto ottenuto per unità di risorsa energetica impiegata.
Rendimento di combustione
L'efficienza di una caldaia viene quantificata con il rendimento di combustione, che rappresenta la percentuale dell'energia derivante dalla combustione trasferita al fluido termovettore. A esempio, in una caldaia che ha un rendimento dell'85%, il 15% dell'energia contenuta nel combustibile va perso. In altri termini, maggiore è il rendimento della caldaia, maggiore è il risparmio di combustibile, il che si traduce in un risparmio energetico ed economico. Le caldaie tradizionali sono dotate di un bruciatore in cui l'aria comburente viene convogliata con un flusso costante. Hanno un rendimento medio che si aggira intorno all'85%-86%: nei periodi meno freddi, quando non viene erogata tutta la potenza disponibile, l'efficienza decade in maniera significativa perchè - non avendo un controllo significativo dell'aria comburente - la combustione non avviene nelle condizioni ottimali. E, di conseguenza, il consumo di combustibile aumenta in modo proporzionale. Le caldaie possono essere classificate secondo la loro efficienza energetica. Tale distinzione è definita nel D.P.R. 660/96, regolamento di attuazione della direttiva 92/42/CEE. Il regolamento definisce, in base alla potenza nominale, 4 classi di rendimento delle caldaie: a 1, 2, 3, e 4 stelle.
Relatività da Galileo a Einstein
Vedi articolo.
Resilienza
In ecologia e biologia la resilienza è la capacità di un ecosistema, inclusi quelli umani come le città, o di un organismo di ripristinare l'omeostasi, ovvero la condizione di equilibrio del sistema, a seguito di un intervento esterno (come quello dell'uomo) che può provocare un deficit ecologico, ovvero l'erosione della consistenza di risorse che il sistema è in grado di produrre rispetto alla capacità di carico. Resilienza urbana.
Resistenza elettrica
La resistenza elettrica è una grandezza fisica scalare che misura la tendenza di un conduttore di opporsi al passaggio di una corrente elettrica quando è sottoposto ad una tensione. Questa opposizione dipende dal materiale con cui è realizzato, dalle sue dimensioni e dalla sua temperatura. Uno degli effetti del passaggio di corrente in un conduttore è il suo riscaldamento (effetto Joule).

La resistenza è data da:

 R = \frac{V}{I}

dove:

  • R è la resistenza tra gli estremi del componente
  • V la tensione a cui è sottoposto il componente
  • I è l'intensità di corrente che attraversa il componente

Nel sistema internazionale l'unità di misura della resistenza elettrica è l'ohm, indicato con la lettera greca maiuscola omega: Ω. L'equazione sopra riportata non esprime la legge di Ohm: questa equazione è semplicemente la definizione di resistenza. La legge di Ohm, invece, si riferisce a una relazione lineare fra corrente e tensione per alcune classi di conduttori, per i quali il rapporto tra tensione e corrente è costante, indipendentemente dalla tensione applicata. Per queste classi di conduttori, allora, la definizione sopra di resistenza diventa anche la prima legge di Ohm. Nei circuiti in corrente continua, per i conduttori a resistenza costante (per esempio fili metallici, soluzioni elettrolitiche), è valida la legge di Ohm, che stabilisce che la corrente I è proporzionale alla tensione V applicata. Il fattore di proporzionalità G si chiama conduttanza. Esso è il reciproco della resistenza R. Esso vale:

G=\frac{1}{R};\,I=G\cdot V

La conduttanza è misurata in siemens (simbolo: una S maiuscola). Le unità di misura riportate sono quelle del Sistema Internazionale di unità di misura. Quando, al variare della tensione applicata, la corrente varia in maniera proporzionale (e quindi il loro rapporto, la resistenza, si mantiene costante) si dice che il componente ha un comportamento ohmico in quanto segue la legge di Ohm. In generale, non esistono materiali a resistenza nulla o infinita, tali da permettere un passaggio di corrente senza perdere parte della potenza in calore, o tali da impedire il passaggio di qualsiasi corrente elettrica. In altre parole, non eiste in natura nè un perfetto conduttore elettrico nè un perfetto isolante elettrico e si può scrivere che:

0 < R < + \infty.

Con la corrente alternata la resistenza è generalmente dipendente dalla frequenza ed è denominata Impedenza. L'impedenza si compone della resistenza reale R indipendente dalla frequenza e di una reattanza X (Resistenza fittizia), che è costituita da induttori e rispettivamente capacità.

Z = R + jX

Operando un condensatore o un induttore in un circuito a corrente alternata, vale comunque anche per loro la legge di Ohm. Un condensatore presenta allora la sua resistenza d'isolamento e l'induttore la resistenza del suo avvolgimento. La reattanza induttiva XL e quella capacitiva XC sono delle resistenze fittizie. Esse provocano uno sfasamento tra la tensione e la corrente. I componenti circuitali ideali non trasformano nessuna energia in calore. Nella pratica i componenti hanno sempre una parte ohmica. In corrente continua la reattanza induttiva di un induttore ideale è nulla e si aumenta in corrente alternata col crescere della frequenza:

X_L=2\cdot {\pi}\cdot f\cdot L

La reattanza capacitiva di un condensatore ideale è illimitata in corrente continua e diminuisce in corrente alternata col crescere della frequenza:

X_C=-\frac{1}{2\cdot {\pi}\cdot f\cdot C}


Resistività elettrica
La resistività elettrica, anche detta resistenza elettrica specifica, è l'attitudine di un materiale a opporre resistenza al passaggio delle cariche elettriche. La resistività ρ, la cui unità di misura nel sistema internazionale (SI) è ohm per metro, è indipendente dalla geometria del provino ma è correlata ad R attraverso l'espressione:

 \rho={{RS}\over l}

dove:

  • ρ è la resistività statica misurata in ohm per metro (Ω x m)
  • R è la resistenza elettrica di un campione specifico di materiale (misurata in ohm),
  • l è la distanza tra i punti tra i quali è misurata la tensione (misurata in metri)
  • S è l'area della sezione del campione perpendicolare alla direzione della corrente (misurata in metri quadrati).

Da questa equazione, ne deriva l'inversa dove, nota la lunghezza L, la sezione S e la resistività ρ specifica di un conduttore, la sua resistenza R è data da

 R={\rho{L \over S}}

La resistività può anche essere definita come:

 \rho={E \over J}

dove:

  • E è l'intensità del campo elettrico misurato in volt al metro,
  • J è la densità di corrente in ampere al metro quadrato.

Infine è anche definita come l'inverso della conduttività elettrica:

 \rho = {1 \over \sigma}

dove σ è la conduttività elettrica.
Rete
Una "rete" è un insieme di stazioni elettriche, di linee aree o in cavo e di altri impianti elettrici collegati tra di loro allo scopo di convogliare l'energia elettrica prodotta dalle centrali verso i consumatori finali.
Rete di trasmissione nazionale (RTN)
E’ l’insieme di linee di una rete usata per trasportare energia elettrica, generalmente in grande quantità, dai centri di produzione alle aree di distribuzione e consumo come individuata dal decreto del Ministro dell’industria 25 giugno 1999 e dalle successive modifiche e integrazioni.
Rete interconnessa
Complesso di reti di trasmissione e distribuzione collegate mediante uno o più dispositivi di interconnessione.
Riciclaggio.
Rifacimento dell’impianto fotovolatico
E’ l’intervento impiantistico-tecnologico eseguito su un impianto entrato in esercizio da almeno venti anni che comporta la sostituzione con componenti nuovi almeno di tutti i moduli fotovoltaici e del gruppo di conversione della corrente continua in corrente alternata.
Rifiuti, Creare valore dai
Vai all'articolo che tratta l'argomento.
Rigassificatore
Un rigassificatore è un impianto che permette di riportare lo stato fisico di un fluido dallo stato liquido a quello gassoso. Solitamente il gas viene liquefatto (da cui la definizione di gas naturale liquefatto) mediante un forte abbassamento della temperatura, per poter essere trasportato in apposite navi dette metaniere e ritrasformato nello stato aeriforme per poter essere immesso nelle condotte della rete di distribuzione. Questa soluzione viene adottata quando il luogo di produzione del gas naturale è lontano dal luogo di utilizzo, e non è conveniente realizzare un collegamento mediante gasdotto. Il trasporto in forma liquida è conveniente rispetto al trasporto in forma gassosa grazie alla densità molto superiore, che richiede volumi di trasporto molto inferiori. Raggiunto il Rigassificatore il metano viene immagazzinato in un contenitore criogenico, e riportato in forma gassosa e immesso nella rete quando ve n'è il bisogno. Il processo di rigassificazione viene avviato con l'attracco di una metaniera presso il pontile dell'impianto. Il gas in forma liquida, a bassa temperatura (-160°C) e ad alta pressione viene inviato in un serbatoio di stoccaggio dove mantiene le medesime condizioni fisiche. Successivamente viene inviato ad un vaporizzatore che agendo sulla temperatura e sulla pressione effettua la gassificazione con l'espansione del gas tornato allo stato naturale. La variazione di temperatura avviene in genere tramite lo scambio termico in fasci tubieri tra gas liquido e acqua mare, che cede il proprio calore al gas; la pressione invece viene ridotta tramite l'espansione del gas in appositi serbatoi. A questo punto il gas può essere immesso nella rete di distribuzione.
Risorse non rinnovabili
Ogni risorsa finita presente in natura che, relativamente alla scala cronologica dell'uomo, una volta esaurita non può essere rinnovata. La maggior parte delle risorse finite possono rinnovarsi solo in un intervallo di tempo geologico e tutti i combustibili fossili e le risorse minerarie rientrano in questa categoria. Negli ultimi anni, in cui l'esaurimento delle risorse è divenuto un fatto sempre più comune, il processo del riciclaggio ha ridotto la dipendenza delle risorse non rinnovabili ancora da estrarre.
Risorse rinnovabili
Ogni prodotto che in teoria non può essere totalmente consumato grazie alla sua capacità di riprodursi (biologicamente) o di rigenerarsi (fisicamente). Le risorse rinnovabili appartengono alle fonti inesauribili (come l'energia solare), ad un importante ciclo fisico (come il ciclo idrologico), oppure ad un sistema biologico (come tutte le piante e gli animali che si riproducono). Negli ultimi anni, l'attività dell'uomo ha gravemente ridotto alcune risorse precedentemente classificate quali rinnovabili, per esempio il patrimonio ittico del Mare del Nord e numerose foreste. Questo si è verificato quando la risorsa è stata sfruttata ad un ritmo maggiore rispetto a quello con cui è in grado di rinnovarsi.
Risparmio energetico.
Sotto il nome di risparmio energetico si annoverano varie tecniche atte a ridurre i consumi dell'energia necessaria allo svolgimento delle diverse attività umane, senza cadere nel Paradosso di Jevons. Il risparmio può essere ottenuto sia modificando i processi energetici in modo che ci siano meno sprechi, sia utilizzando tecnologie in grado di trasformare l'energia da una forma all'altra in modo più efficiente, sia ricorrendo all'auto-produzione.
Uno degli esempi più comuni è dato dalla sostituzione delle lampadine ad incandescenza con quelle fluorescenti che emettono una quantità di energia luminosa diverse volte superiore alle prime a parità di energia consumata.
Anche nel riscaldamento degli edifici ci sono accorgimenti più o meno semplici per risparmiare energia, come l'uso delle valvole termostatiche, l'uso di cronotermostati ed altri più impegnativi, come la sostituzione degli infissi obsoleti, delle caldaie vecchie con caldaie a condensazione, l'isolamento termico delle pareti.
Un risparmio energetico si può avere anche a livello di produzione di energia elettrica utilizzando sistemi di cogenerazione atti a migliorare i rendimenti dei vari processi, che consistono in tecnologie atte ad ottenere energia elettrica e calore; oppure si utilizzano in "cascata" gli stessi flussi energetici a crescenti entropie per utenze differenziate o, infine, si effettuano forme di recupero energetico a circuito chiuso.
Oppure si sfrutta l'energia dissipata nel moto degli esseri umani o delle automobili, come è già stato fatto in Olanda, ad esempio con pavimenti sensibili alla pressione, posti nelle scale dei metrò più frequentati, che producono energia elettrica.
Utilizzare energia elettrica per produrre calore rappresenta uno spreco perché si trasforma un'energia nobile in calore, che è un'energia di seconda specie. In base ai primi due principi della termodinamica, l'energia meccanica-elettrica può interamente essere convertita in calore, mentre il calore può essere riconvertito solo in parte in energia. Questo spreco deriva dal fatto che molte forme di energia (termoelettrica e geotermoelettrica, nucleare, solare) sono trasformate in calore usato per produrre energia elettrica che viene utilizzata per il riscaldamento: ad ogni passaggio c'è aumento di entropia e perdita di rendimento termodinamico. Talora il riscaldamento elettrico conviene dal punto di vista dell'economia individuale. In Francia, ad esempio, è diffuso perché l'energia elettrica prodotta col nucleare costa meno del riscaldamento col metano.
Utilizzare per la climatizzazione degli ambienti pompe di calore e recuperatori di calore. Agevolazioni fiscali per il risparmio energetico.
Ritiro dedicato
Il ritiro dedicato è una modalità semplificata a disposizione dei produttori per la vendita dell’energia elettrica immessa in rete, in alternativa ai contratti bilaterali o alla vendita diretta in borsa. Consiste nella cessione dell’energia elettrica immessa in rete al Gestore dei Servizi Energetici – GSE S.p.A. (GSE), che provvede a remunerarla, corrispondendo al produttore un prezzo per ogni kWh ritirato. Al GSE è attribuito il ruolo di:
•soggetto che ritira commercialmente l'energia elettrica dai produttori aventi diritto e la rivende sul mercato elettrico;
•utente del dispacciamento in immissione e utente del trasporto in immissione in relazione alle unità di produzione nella disponibilità dei produttori;
•interfaccia unica, in sostituzione del produttore, verso il sistema elettrico tanto per la compravendita di energia quanto per i principali servizi connessi.
A chi è rivolto
Possono richiedere l’accesso al regime di ritiro dedicato gli impianti alimentati da fonti rinnovabili e non rinnovabili che rispondano alle seguenti condizioni:
•potenza apparente nominale inferiore a 10 MVA alimentati da fonti rinnovabili, compresa la produzione imputabile delle centrali ibride;
•potenza qualsiasi per impianti che producano energia elettrica dalle seguenti fonti rinnovabili: eolica, solare, geotermica, del moto ondoso, maremotrice, idraulica (limitatamente agli impianti ad acqua fluente);
•potenza apparente nominale inferiore a 10 MVA alimentati da fonti non rinnovabili, compresa la produzione non imputabile delle centrali ibride;
•potenza apparente nominale uguale o superiore a 10 MVA, alimentati da fonti rinnovabili diverse dalla fonte eolica, solare, geotermica, del moto ondoso, maremotrice e idraulica, limitatamente, per quest’ultima fonte, agli impianti ad acqua fluente, purché nella titolarità di un autoproduttore.
Rivoluzioni scientifiche
Vedi articolo.

Clicca l'iniziale per trovare la parola cercata

A B C D E F G H I J K L M N O P Q R V W X Y Z


LOGO

S T U

Scambio
Modalità di riconciliazione tra l’energia elettrica consegnata e riconsegnata, applicata nel caso in cui la consegna e la riconsegna dell’energia elettrica non avvengono simultaneamente.
Scorie radioattive.
In genere si definisce scoria radioattiva lo scarto di combustibile nucleare esausto derivante dalla fissione nucleare. Questa definizione però è incompleta, il combustibile esausto è infatti considerato scoria nucleare di III categoria, cioè scorie ad alta radiotossicità e a grande persistenza. Si classificano scorie di I e II categoria invece prodotti contaminati o rifiuti radiologici da ambito nucleare, industriale e radioterapico; per esempio le tute antiradiazioni usate da chi lavora nelle centrali hanno una radioattività bassissima e sono classificate come scorie nucleari di I categoria.
Semiconduttori
I semiconduttori sono materiali che hanno una resistività intermedia tra i conduttori e gli isolanti. I semiconduttori sono alla base di tutti i principali dispositivi elettronici e microelettronici quali i transistor, i diodi e i diodi ad emissione luminosa (LED). Le proprietà dei semiconduttori diventano interessanti se vengono opportunamente drogati con impurità. Le loro caratteristiche quali resistenza, mobilità, concentrazione dei portatori di carica sono importanti per determinare il campo di utilizzo. La risposta di un semiconduttore a una portante dipende dalle sue caratteristiche intrinseche e da alcune variabili esterne come la temperatura. La principale caratteristica dei solidi è la distribuzione di livelli energetici in bande separate da intervalli proibiti. Nei conduttori vi è la possibilità per gli elettroni di accedere a livelli vuoti ricevendo energia da un campo elettrico esterno; questo comporta una densità di corrente concorde al campo. Consideriamo la configurazione a bande di conduzione. Nei conduttori l'ultima banda non è completamente riempita e quindi esistono livelli permessi non vuoti e accessibili. Questa banda è la banda di conduzione. Gli elettroni delle bande inferiori, che sono tutte piene, non acquistano energia e non influiscono nel processo di conduzione. L'ultima banda piena si chiama banda di valenza. La configurazione delle bande di conduzione, non è l'unica che permetta di avere proprietà di conduzione. Può accadere che l'ultima banda completamente piena si sovrapponga a quella successiva semivuota. Questa sovrapposizione spiega perché, ad esempio, il magnesio ha una buona conducibilità elettrica pur avendo la banda di conduzione vuota come gli isolanti. Nel Mg la banda di conduzione (orbitali 3p) è vuota ma non c'è il gap energetico con la banda di valenza piena 3s perché questa "sale" a coprire parte della banda 3p. Non sono conduttori i solidi refrattari in cui l'ultima banda contenente elettroni è completamente piena e non è sovrapposta alla banda successiva. Questa è la configurazione che caratterizza gli isolanti e i semiconduttori. L'ampiezza della zona proibita è definita energia di gap.

Semiconduttori intrinseci. Nel silicio e nel germanio l'energia di gap a temperatura ambiente (300 K) è di E = 1.12 eV per il silicio, E = 0.42 eV per il germanio. Questi solidi si comportano come isolanti a temperature prossime allo zero assoluto. Quando la temperatura aumenta non è trascurabile la probabilità che gli ultimi elettroni, presenti nella banda di valenza, possano passare alla banda di conduzione, per eccitazione termica. Gli elettroni passati alla banda di conduzione sotto l'azione di un campo elettrico esterno danno luogo a una densità di corrente je. Ogni elettrone che passa dalla banda di valenza alla banda di conduzione, lascia un livello vuoto definito lacuna. La presenza delle lacune rende disponibili altri livelli che possono essere occupati da altri elettroni della banda di valenza e quindi si può avere un moto ordinato di cariche, sotto l'azione di un campo elettrico anche nella banda di valenza. Si parla quindi di una densità di corrente nella banda di valenza jh.. Chiamando ne, nh le concentrazioni degli elettroni e delle lacune e ve, vh le velocità di deriva, una opposta e una concorde al campo elettrico esterno, la densità di corrente totale è data da

  \vec{j} = \vec{j_e} + \vec{j_n} = (-e) n_e \vec{v_e} + e n_h \vec{v_h}

e considerando le mobilità (le mobilità sono diverse tra di loro perché descrivono due condizioni fisiche diverse)

 \mu_e = \frac{v_e}{E} \, ; \qquad \mu_h = \frac{v_h}{E}

abbiamo che

\mathbf{\vec{j} } = e( n_e \mu_e  +n_h \mu_h) \vec{E}

Nei semiconduttori descritti sin qui, le cariche sono quelle fornite esclusivamente dagli atomi del semiconduttore stesso. In questa condizione \mathbf{n_e = n_h = n_i}; questa uguaglianza definisce i semiconduttori intrinseci per i quali abbiamo che

\mathbf{\vec{j} } = e n_i ( \mu_e  + \mu_h) \vec{E} = \sigma_i \vec E

dove σi si chiama conduttività del materiale. La concentrazione ni dei portatori di carica dipende dalla temperatura secondo la

funzione  n_i= C (\mathit{k_{\mathbf{B} } }  T)^{\frac{3}{2}}  e^{\frac{-E_g}{2 \mathit{k_{\mathbf{B} } }  T}} dove C è una costante che dipende dal materiale e  \mathit{k_{\mathbf{B}} } è la costante di Boltzmann. Questa

formula è valida quando    E_g \gg \mathit{k_{\mathbf{B} } }  T verificata sempre quando il materiale è solido.

Semiconduttori estrinseci o drogati sono quei semiconduttori ai quali vengono aggiunte impurità tramite il processo di drogaggio. Piccole percentuali di atomi diversi aumentano le proprietà di conduzione del semiconduttore: per quanto detto sui legami dei semiconduttori intrinseci, sappiamo che questi hanno legami tetravalenti cioè ogni atomo è legato ad altri quattro atomi dello stesso tipo nel reticolo cristallino, ciò è dovuto all'esistenza di quattro elettroni di valenza degli atomi (silicio, germanio) del semiconduttore. Aggiungendo atomi pentavalenti cioè che hanno cinque elettroni di valenza entro il conduttore (fosforo, arsenico, antimonio) si ha un aumento di elettroni di conduzione: questo tipo di drogaggio viene chiamato drogaggio di tipo n. Se invece aggiungiamo atomi trivalenti al semiconduttore cioè atomi che hanno tre elettroni di valenza nei livelli energetici più esterni (boro, gallio, indio), questi creano delle cosiddette trappole per gli elettroni, cioè creano legami che non sono stabili entro il conduttore e attraggono gli elettroni liberi in modo da stabilizzarsi. A tutti gli effetti, l'assenza di elettroni all'interno del reticolo cristallino di un semiconduttore può essere considerata come una presenza di una carica positiva detta lacuna che viaggia entro il conduttore esattamente come l'elettrone (ovviamente tenendo conto della carica). Questo tipo di drogaggio viene chiamato drogaggio di tipo p. Statisticamente un semiconduttore drogato tipo n o tipo p segue la legge di azione di massa, cioè in un semiconduttore estrinseco:

n \cdot p = n_{i}^{2}

cioè il prodotto delle concentrazioni (numero elettroni o numero lacune per metro cubo) rimane costante. Siano ND, NA le concentrazioni di impurezze rispettivamente degli atomi pentavalenti e trivalenti: esse sono il numero di atomi droganti per metro cubo immessi nel semiconduttore, D sta a significare che gli atomi sono donatori cioè forniscono elettroni, A che sono accettori cioè forniscono lacune. In un semiconduttore tipo n, N_A = 0, n \gg p:

n \approx N_D

cioè il numero di elettroni di conduzione in un semiconduttore tipo n è circa uguale a quello delle impurità pentavalenti presenti (o meglio, la concentrazione di elettroni liberi è approssimativamente uguale alla densità di atomi donatori). Dalla legge di azione di massa deriva che:

p \approx \frac{n_{i}^{2}}{N_D}.

Ovviamente relazioni analoghe valgono anche per i semiconduttori drogati tipo p.

n \approx \frac{n_{i}^{2}}{N_A}.

La corrente nei semiconduttori. La corrente nei semiconduttori può essere dovuta sia all'azione di un campo elettrico esterno sia alla presenza di un gradiente di concentrazione di portatori di carica. Il primo tipo di corrente è la classica corrente elettrica detta corrente di deriva o di drift, la seconda avviene per il fenomeno della diffusione elettrica. La densità di corrente di diffusione per le lacune e per gli elettroni sono:

- q D_p \cdot \frac{dp}{dx}
q D_n \cdot \frac{dn}{dx}

dove q è ovviamente la carica, Dp, Dn sono costanti di diffusione e le frazioni rappresentano esattamente i gradienti delle concentrazioni (p, n) in funzione della lunghezza. La corrente totale in un semiconduttore sarà allora la somma di queste due correnti e sarà descritta dall'equazione detta equazione di drift-diffusion:

J_p = q \mu_p \cdot p E - q D_p \cdot \frac{dp}{dx}
J_n = q \mu_n \cdot n E + q D_n \cdot \frac{dn}{dx}

dove μp, μn sono le mobilità dei portatori di carica.

I coefficienti D, μ sono fenomeni termodinamici e quindi non sono fra loro indipendenti ma vale l'equazione di Einstein:

V_T = \frac{D_p}{\mu_p} = \frac{D_n}{\mu_n}

dove VT è l'equivalente in tensione della temperatura e vale V_T = \frac{k T}{q} = \frac{T}{16000}, dove k è la costante di Boltzmann e T la temperatura assoluta in gradi kelvin.

Giunzione p - n. Una giunzione p-n può essere creata drogando regioni vicine di un semiconduttore con droganti di tipo p e di tipo n. Se una tensione elettrica positiva viene applicata al lato di tipo p, i portatori di carica positivi, le lacune, maggioritari in questa regione sono spinti verso la giunzione. Ugualmente, i portatori di carica maggioritari nel lato n, gli elettroni, vengono attratti dalla tensione positiva e quindi sono attratti verso la giunzione. Poiché si ha una abbondanza di portatori di carica presso la giunzione, la corrente può scorrere attraverso la giunzione, sotto l'azione di una sorgente, come una batteria. Se invece la polarizzazione della tensione viene invertita, le lacune e gli elettroni vengono allontanati dalla giunzione, lasciando una regione di silicio quasi non conduttore che non consente il flusso di corrente. La giunzione p-n è la base del dispositivo elettronico chiamato diodo, che consente il flusso di corrente solo in una direzione del dispositivo. Due giunzioni p-n molto ravvicinate tra di loro formano invece il dispositivo a tre terminali transistor bipolare (che può essere o p-n-p o n-p-n).
Servizi ausiliari
Servizi necessari per la gestione di una rete di trasmissione o distribuzione quali ad esempio i servizi di regolazione di frequenza, riserva, potenza reattiva, regolazione della tensione e riavviamento della rete.
Sievert
Il sievert (simbolo Sv) è l'unità di misura della dose equivalente di radiazione nel Sistema Internazionale ed è una misura degli effetti e del danno provocato dalla radiazione su un organismo. La dose equivalente ha le stesse dimensioni della dose assorbita, ovvero energia per unità di massa. Nel Sistema Internazionale si ha: 1Sv=1J/1kg=m2/s2. Per dare un'idea del valore di un sievert, si tenga presente che la dose che in media un uomo assorbe in un anno per esposizione alla radioattività naturale è di 2,4 millisievert. Una radiografia ordinaria comporta per il paziente un assorbimento di 1 millisievert, una TAC comporta una dose di 3 ~ 4 millisievert, invece per una PET o una scintigrafia si va dai 10 ai 20 millisievert. In radioterapia si forniscono invece dosi molto più massicce di radiazioni, dell'ordine delle decine di millisievert, anche oltre i 40 millisievert, ma concentrate limitatamente ed esclusivamente sul tumore da distruggere. Per quanto riguarda gli effetti sulla salute, 1 sievert assorbito in un'ora può causare lievi alterazioni temporanee dell'emoglobina. 2~5 sievert causano nausea, perdita dei capelli, emorragie. 4 sievert assorbiti nel giro di una settimana su tutto il corpo portano alla morte nel 50% dei casi se non si interviene terapeuticamente. Oltre 6 sievert, la sopravvivenza è improbabile. Va considerata anche l'intensità di dose equivalente definita come la dose equivalente ricevuta nell'unità di tempo o tasso di dose. L'intensità di dose equivalente si misura in sievert al secondo (Sv/s). Infatti, per quanto il danno biologico sia direttamente legato alla dose equivalente, un organismo ha una certa facoltà di riparare nel tempo il danno biologico causato dalla radiazione.
Silicio
E' l'elemento chimico della tavola periodica degli elementi che ha come simbolo Si e come numero atomico il 14. Un metalloide tetravalente, il Silicio è meno reattivo del suo analogo chimico, il carbonio. È il secondo elemento per abbondanza nella crosta terrestre dopo l'ossigeno, componendone il 25,7% del peso. Si trova in argilla, feldspato, granito, quarzo e sabbia, principalmente in forma di biossido di silicio, silicati e alluminosilicati (composti contenenti silicio, ossigeno e metalli). Il silicio è il componente principale di vetro, cemento, semiconduttori, ceramica e silicone. Nella sua forma cristallina, il silicio ha colore grigio e una lucidità metallica. Anche se è un elemento relativamente inerte, reagisce con gli alogeni e gli alcali diluiti, ma la maggior parte degli acidi (eccetto l'acido fluoridrico) non lo intaccano. Il silicio elementare trasmette più del 95% di tutte le lunghezze d'onda della luce infrarossa. Il silicio è alla base di tutti i silicati, minerali formati da silicio e ossigeno più altri elementi in forma ionica. I silicati sono contenuti nei magmi e per la struttura tetraedica della silice, il magma diventa più viscoso, e capace di trattenere maggiori quantità di gas. In base al contenuto di silice si determina l'acidità di un magma e delle rocce dal quale derivano. Se è poco presente il magma si dirà basico. Il silicio è un elemento molto utile, ed è vitale per molte industrie. Il diossido di silicio in forma di sabbia e argilla è un importante ingrediente del cemento e dei mattoni, ed è molto importante per la vita animale e vegetale. Le diatomee estraggono la silice dall'acqua per costruire i muri protettivi delle loro cellule; gli equiseti lo concentrano nel fusto della pianta usandolo per conferirgli robustezza e notevole resistenza alla masticazione, per scoraggiare gli erbivori. Altri usi:

  • È un materiale refrattario usato nella produzione di materiali ad alte temperature, e i suoi silicati sono impiegati nella fabbricazione di smalti e terraglie.
  • Il silicio è un importante costituente di alcuni tipi di acciaio; il suo limite di concentrazione è del 5%, in quanto oltre si ha un notevole abbassamento della resilienza a causa del suo potenziale di accrescimento della grana cristallina. Rende inoltre possibile far separare grafite negli acciai anche già a partire da concentrazioni di carbonio maggiori di 0,50%. Si segnala la sua presenza (1-2%) negli acciai per molle, dove accresce il limite elastico, avvicinandolo a quello di rottura, e favorisce la temprabilità.
  • La silice della sabbia è un componente principale del vetro.
  • Il carburo di silicio, chiamato anche carborundum, è uno dei più importanti abrasivi.
  • Il silicio ultrapuro è un semiconduttore intrinseco (o puro) e può essere drogato con arsenico, fosforo, gallio o boro per renderlo più conduttivo e utilizzarlo in transistor, celle solari (solar cells) , e altre apparecchiature a semiconduttori, che sono utilizzate in elettronica e altre applicazioni ad alta tecnologia. Esistono due tipi di drograggio legati al silicio che permettono di dare eccesso di elettroni alla banda di conduzione (semiconduttore di tipo n) o lacune di elettroni alla banda di valenza (semiconduttore di tipo p).
  • Il silicio può essere usato nei laser per produrre luce coerente con una lunghezza d'onda di 4560 angstrom.
  • I siliconi sono composti flessibili contenenti legami silicio-ossigeno o silicio-carbonio; sono ampiamente usati in forma di gel per impianti artificiali del seno e per le lenti a contatto.
  • Il silicio idrogenato amorfo si è mostrato promettente per la produzione di celle solari e apparati elettronici a basso costo.
  • La silice è uno dei principali ingredienti dei mattoni a causa della sua bassa attività chimica.

La produzione. Il silicio viene preparato commercialmente tramite riscaldamento di silice ad elevato grado di purezza, in una fornace elettrica usando elettrodi di carbonio. A temperature superiori a 1900°C, il carbonio riduce la silice in silicio secondo l'equazione chimica

SiO2 + C → Si + CO2

Il silicio liquido si raccoglie in fondo alla fornace, e viene quindi prelevato e raffreddato. Il silicio prodotto tramite questo processo viene chiamato silicio di grado metallurgico(MGS) ed è puro al 98%. Per raggiungere gradi di purezza superiori necessari ad esempio per realizzare dispositivi elettronici a semiconduttore, è necessario praticare un ulteriore purificazione ad esempio con il metodo Siemens.

Purificazione con metodi fisici. Le prime tecniche di purificazione del silicio erano basate sul fatto che quando il silicio viene fuso e risolidificato, l'ultima parte di silicio che solidifica contiene la maggior parte delle impurità. Il primissimo sistema di purificazione, descritto nel 1919 e usato su scala limitata per la fabbricazione di componenti dei radar durante la seconda guerra mondiale, richiedeva la polverizzazione del silicio di grado metallurgico e la sua parziale dissoluzione in acido. Quando veniva polverizzato, il silicio si spezzava in modo che le zone più deboli e ricche di impurità restassero all'esterno del risultante grano di silicio. come risultato, il silicio ricco di impurità era il primo a disciogliersi quando trattato con l'acido, lasciando un prodotto più puro. Nella fusione a zona, il primo metodo di purificazione del silicio ad essere utilizzato su scala industriale, sbarre di silicio di grado metallurgico venivano riscaldate partendo da una delle sue estremità, fino a quando questa iniziava a fondersi. Il riscaldatore quindi veniva lentamente spostato lungo la sbarra mantenendo una piccola porzione fusa mentre il silicio si raffreddava e risolidificava dietro di essa. Poiché la maggior parte delle impurità tendeva a rimanere nella parte fusa piuttosto che risolidificarsi, alla fine del processo queste si erano spostate nell'ultima parte della sbarra ad essere fusa. Questa estremità veniva quindi tagliata e gettata, ripetendo il processo se una purezza più elevata era necessaria.

Purificazione con metodi chimici.Oggigiorno il silicio viene purificato convertendolo in un composto che può essere purificato più facilmente del silicio stesso, e quindi convertito di nuovo in silicio puro. Il triclorosilano è il composto di silicio più comunemente usato in questo processo, anche se a volte si utilizzano anche il tetracloruro di silicio e il silano. Questi composti, liquidi o gassosi, vengono purificati per distillazione frazionata fino ad ottenere una miscela di composti di solo silicio. Dopodiché questi gas vengono soffiati sopra a del silicio ad alta temperatura e si decompongono, depositando silicio policristallino ad alta purezza. Nel processo Siemens, sbarre di silicio ultrapuro sono esposte al triclorosilano a 1150°C; il gas di triclorosilano si decompone e deposita dell'altro silicio sulla sbarra, allargandola secondo la reazione chimica

2 HSiCl3 → Si + 2 HCl + SiCl4

Il silicio prodotto da questo e da processi simili viene chiamato silicio policristallino. Il silicio policristallino ha un livello di impurità pari a 1 parte per miliardo o inferiore.

Cristallizzazione. Il processo Czochralski viene usato per creare cristalli singoli di silicio ad alta purezza, che vengono impiegati nei semiconduttori a stato solido. In figura è mostrata una barra di silicio monocristallino.

 

Barra monocristallina di silicio.

Il processo Czochralski è una tecnologia introdotta nei sistemi produttivi industriali agli inizi degli anni ‘50, che permette di ottenere blocchi di silicio di estrema purezza con la forma di pani cilindrici. Il processo prende il nome dal ricercatore polacco Jan Czochralski, che lo scoprì nel 1916 mentre stava studiando la cristallizzazione dei metalli. Come abbiamo visto, il Silicio è il materiale di base per la realizzazione dei semiconduttori, (transistor, circuiti integrati, microprocessori) ed altri dispositivi microelettronici. Per la creazione di un circuito integrato "planare" (cioè con i componenti disposti su un piano) è necessario avere un substrato di semiconduttore estremamente puro, detto wafer, altrimenti si compromette il funzionamento del circuito finale. Il wafer deve essere formato da silicio puro e questi atomi devono essere disposti "ordinatamente" in un reticolo cristallino (monocristallino); in natura infatti il silicio si può trovare (come normalmente accade) anche in forma amorfa, con gli atomi che non risultano disposti secondo un determinato reticolo. Il silicio è un atomo tetravalente, in quanto appartenente al quarto gruppo della tavola periodica; la disposizione degli elettroni di legame fa si che una struttura cristallina di silicio sia formata da un insieme di piramidi a base quadrata, ognuna delle quali data da un atomo che possiamo considerare trovarsi nel centro della piramide e dai quattro elettroni di legame che si vengono sostanzaialmente a trovare sui vertici della struttura. Il processo consiste nel sollevamento verticale (a bassissima velocità) di un seme monocristallino di silicio, immerso inizialmente per pochi millimetri in un crogiolo contenete silicio puro fuso. Il seme monocristallino è, in pratica, una bacchetta con sopra un sottile strato di silicio in forma monocristallina. Gli atomi di silicio fuso, a contatto con il seme monocristallino, si orientano secondo il reticolo atomico della struttura del silicio; si tratta di un processo simile alla formazione di un cristallo di quarzo, ma con la differenza che in natura un cristallo di quarzo si forma in milioni di anni, mentre con questo processo di laboratorio un "pane" di silicio monocristallino si ottiene in pochi giorni. La temperatura del silicio nel crogiuolo è mantenuta di pochi gradi superiore a quella di fusione, e aderendo al seme monocristallino, che gradualmente viene estratto dalla massa fusa, si solidifica molto rapidamente conservando la struttura monocristallina del seme a cui aderisce. Il controllo rigoroso della temperatura del materiale fuso, dell'atmosfera nella camera, e della velocità di estrazione, nonché assenza assoluta di vibrazioni, consente la produzione di fusi perfettamente cilindrici e altamente puri, hanno praticamente l'aspetto di una sorta di "mortadella di vetro" (in effetti, il silicio puro monocristallino ha l'aspetto e la fragilità del vetro). Per fare un'analogia, il processo di formazione del cilindro è vagamente simile a quello per la creazione di zucchero filato. L'operazione successiva consiste nel tagliare il fuso tramite un disco diamantato, ottenendo i sottili dischi con spessore di pochi decimi di millimetro chiamati wafer; i Wafer costituiranno quindi il supporto (substrato) per i diversi dispositivi elettronici. Dato che la quantità di dispositivi ricavabili da una singola fetta è proporzionale al suo diametro, col tempo si è cercato di realizzare fusi con diametro sempre maggiore; attualmente si realizzano fusi con un diametro di circa 30 centimetri; considerando che l'area di silicio necessaria ad un microprocessore è di circa un centimetro quadro, da un wafer di 20 centimetri di diametro se ne ricavano 300 (un diametro di 20 cm produce un'area utilizzabile di quasi 400 cm quadri), mentre da un wafer con diametro di 30 centimetri se ne possono ricavare fino a 700 (area di 800-900 cm quadri).
Silicio amorfo
Tipo di silicio per celle fotovoltaiche i cui atomi non sono legati tra loro secondo uno schema cristallino.
Silicio cristallino
Tipo di silicio a struttura cristallina (monocristallino o policristallino). Vedi figura.
Silicio monocristallino
Silicio costituito da un singolo cristallo.
Silicio policristallino
Silicio costituito da più cristalli.
Sistema Elettrico Nazionale
Complesso degli impianti di produzione, delle reti di trasmissione e di distribuzione nonché dei servizi ausiliari e dei dispositivi di interconnessione e dispacciamento ubicati nel territorio nazionale.
Sistemi ausiliari
Servizi necessari per la gestione di una rete di trasmissione o distribuzione quali ad esempio i servizi di regolazione di frequenza, riserva, potenza reattiva, regolazione della tensione e riavviamento della rete.
Sistemi semplici di produzione e consumo
I sistemi semplici di produzione e consumo (SSPC) sono sistemi caratterizzati dall’insieme dei sistemi elettrici, connessi direttamente o indirettamente alla rete pubblica, all’interno dei quali il trasporto di energia elettrica per la consegna alle unità di consumo che li costituiscono non si configura come attività di trasmissione e/o di distribuzione, ma come attività di autoapprovvigionamento energetico. Tali sistemi comprendono:
a) i sistemi di autoproduzione (SAP);
b) i sistemi efficienti di utenza (SEU);
c) gli altri sistemi esistenti (ASE);
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU).
A loro volta nell’ambito dei SAP è possibile distinguere:
a) le cooperative storiche dotate di rete propria;
b) i consorzi storici dotati di rete propria;
c) gli altri sistemi di autoproduzione (ASAP),
dove:
- la cooperativa storica dotata di rete propria è ogni società cooperativa di produzione e distribuzione dell’energia elettrica di cui all’articolo 4, numero 8, della legge 6 dicembre n. 1643/62, che ha nella propria disponibilità una rete per il trasporto e la fornitura dell’energia elettrica ai propri soci;
- i consorzi storici dotati di rete propria sono i consorzi o le società consortili costituiti per la produzione di energia elettrica da fonti energetiche rinnovabili e per gli usi di fornitura autorizzati nei siti industriali anteriormente al 1 aprile 1999, che ha nella propria disponibilità una rete per il trasporto e la fornitura dell’energia elettrica ai propri soci.
In particolare le cooperative storiche dotate di rete propria ed i consorzi storici dotati di rete propria sono ricompresi nell'ambito dei SAP esclusivamente in relazione all’attività di trasporto e fornitura di energia elettrica per i propri clienti soci diretti. Escludendo dagli SSPC le cooperative storiche dotate di rete propria ed i consorzi storici dotati di rete propria, si ottengono gli altri sistemi semplici di produzione e consumo (ASSPC) che, pertanto, sono l’insieme delle seguenti sottocategorie di SSPC:
a) gli altri sistemi di autoproduzione (ASAP);
b) i sistemi efficienti di utenza (SEU);
c) altri sistemi esistenti (ASE);
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU) diversi dalle cooperative storiche e dai consorzi storici. Più in dettaglio:
a) l’altro sistema di autoproduzione (ASAP) è un sistema in cui una persona fisica o giuridica produce energia elettrica e, tramite collegamenti privati, la utilizza in misura non inferiore al 70% annuo per uso proprio ovvero per uso delle società controllate, della società controllante e delle società controllate dalla medesima controllante;
b) il sistema efficiente di utenza (SEU) è un sistema in cui uno o più impianti di produzione di energia elettrica, con potenza complessivamente non superiore a 20 MWe e complessivamente installata sullo stesso sito, alimentati da fonti rinnovabili ovvero in assetto cogenerativo ad alto rendimento, gestiti dal medesimo produttore, eventualmente diverso dal cliente finale, sono direttamente connessi, per il tramite di un collegamento privato senza obbligo di connessione di terzi, all’unità di consumo di un solo cliente finale (persona fisica o giuridica) e sono realizzati all’interno di un’area, senza soluzione di continuità, al netto di strade, strade ferrate, corsi d’acqua e laghi, di proprietà o nella piena disponibilità del medesimo cliente e da questi, in parte, messa a disposizione del produttore o dei proprietari dei relativi impianti di produzione;
c) gli altri sistemi esistenti (ASE) sono sistemi, non già rientranti nelle altre configurazioni definite con il presente provvedimento nell’ambito degli SSPC, in cui una linea elettrica di trasporto collega una o più unità di produzione gestite, in qualità di produttore, dalla medesima persona giuridica o da persone giuridiche diverse purché tutte appartenenti al medesimo gruppo societario, ad una unità di consumo gestita da una persona fisica in qualità di cliente finale o ad una o più unità di consumo gestite, in qualità di cliente finale, dalla medesima persona giuridica o da persone giuridiche diverse purché tutte appartenenti al medesimo gruppo societario. In sostanza, gli ASE vengono definiti al fine di attribuire una qualifica a tutti i sistemi esistenti, non classificabili tra le reti elettriche, che non possono rientrare nelle altre tipologie espressamente previste dalle leggi vigenti.
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU) sono realizzazioni che soddisfano tutti i requisiti di cui ai punti i e ii e almeno uno dei requisiti di cui ai punti iii., iv. e v.:
i. sono realizzazioni per le quali l’iter autorizzativo, relativo alla realizzazione di tutti gli elementi principali (unità di consumo e di produzione, relativi collegamenti privati e alla rete pubblica) che la caratterizzano è stato avviato in data antecedente al 4 luglio 2008;
ii. sono sistemi esistenti all’1 gennaio 2014, ovvero sono sistemi per cui, alla predetta data, sono stati avviati i lavori di realizzazione ovvero sono state ottenute tutte le autorizzazioni previste dalla normativa vigente;
iii. sono sistemi che rispettano i requisiti previsti per i SEU;
iv. sono sistemi che connettono, per il tramite di un collegamento privato senza obbligo di connessione di terzi, esclusivamente unità di produzione e di consumo di energia elettrica gestite dal medesimo soggetto giuridico che riveste, quindi, il ruolo di produttore e di unico cliente finale all’interno di tale sistema. L’univocità del soggetto giuridico deve essere verificata all’1 gennaio 2014 ovvero, qualora successiva, alla data di entrata in esercizio del predetto sistema;
v. sono SSPC già in esercizio alla data di entrata in vigore del presente provvedimento.
I SEESEU possono essere classificati in tre categorie:
d1) i SEESEU-A sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e iv. di cui alla precedente lettera d); i SEESEU-A, intesi come i sistemi esistenti (nel senso specificato ai punti i., ii.) caratterizzati dalla presenza di un unico soggetto giuridico che, al tempo stesso, assume la qualifica di cliente finale e di produttore. Tali sistemi costituiscono l’insieme minimo dei SEESEU previsto dal decreto legislativo 115/08 e non richiedono la potenza massima di 20 MW nè la presenza esclusiva di impianti alimentati da fonti rinnovabili o cogenerativi ad alto rendimento;
d2) i SEESEU-B sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e iii. di cui alla precedente lettera d); i SEESEU-B, intesi come i sistemi esistenti (nel senso specificato ai punti i., ii.) che rispettano i requisiti previsti per i SEU (possono quindi presentare un solo cliente finale e un solo produttore tra loro diversi, oltre che impianti alimentati da fonti rinnovabili o cogenerativi ad alto rendimento aventi una potenza massima di 20 MW). Rientrano tra i SEESEU-B, a decorrere dall’1 gennaio 2016 e secondo le modalità di seguito riportate, anche i sistemi inizialmente classificati tra i SEESEU-C;
d3) i SEESEU-C sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e v. di cui alla precedente lettera d); i SEESEU-C, intesi come i sistemi esistenti (nel senso specificato ai punti i., ii.) e già in esercizio all’1 gennaio 2014.
La qualifica di SEESEU-C, che consente di usufruire del trattamento previsto per i SEU, è una qualifica transitoria, consentita fino al 31 dicembre 2015 (cioè fino al termine dell’attuale periodo regolatorio) al fine di salvaguardare investimenti effettuati prima dell’entrata in vigore del decreto legislativo 115/08 nell’ipotesi che le tariffe di trasmissione e di distribuzione, nonché gli oneri generali di sistema trovassero applicazione alla sola energia elettrica prelevata dalla rete pubblica anziché all’energia elettrica consumata. I SEESEU-C possano essere successivamente annoverati tra i SEESEU-B, continuando quindi ad usufruire dei benefici previsti per i SEU anche dopo il 31 dicembre 2015, qualora siano rispettati tutti i seguenti vincoli:
- alla data dell’1 gennaio 2014 i soggetti giuridici, eventualmente diversi, che gestiscono le unità di consumo di energia elettrica devono appartenere ad un unico gruppo societario, indipendentemente dalla presenza di uno o più soggetti giuridici che gestiscono gli impianti di produzione;
- entro il 31 luglio 2015 tutti gli impianti di produzione presenti all’interno della predetta configurazione devono essere gestiti da un unico produttore e tutte le unità di consumo presenti all’interno della predetta configurazione devono essere gestite da un unico cliente finale, non necessariamente coincidente con il predetto produttore;
- entro il 31 luglio 2015 i predetti impianti di produzione devono essere alimentati da fonti rinnovabili o cogenerativi ad alto rendimento sulla base della valutazione preliminare di impianto di cogenerazione ad alto rendimento.
Rientrano tra i SEESEU-C anche i consorzi storici dotati di rete propria, esclusivamente in relazione all’attività di trasporto e fornitura di energia elettrica per i propri clienti soci diretti.
Poiché ogni sistema potrebbe rientrare in più di una tipologia tra quelle sopra elencate, è necessario definire una scala di priorità per l’attribuzione della qualifica spettante ad un sistema semplice di produzione e consumo; tale priorità viene definita in modo da assegnare a ciascun sistema semplice di produzione e consumo la qualifica che, tra quelle spettanti, comporta il massimo beneficio possibile.
Pertanto, un sistema elettrico che possiede tutti i requisiti per poter essere classificato in almeno due delle categorie, viene classificato come:
i) SEESEU-A, qualora il predetto sistema rispetta i requisiti di cui alla lettera d1);
ii) SEESEU-B, qualora il predetto sistema non rispetta i requisiti per essere classificato come SEESEU-A, ma rispetta i requisiti di cui alla lettera d2);
iii) SEU, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, ma rispetta i requisiti di cui alla lettera b);
iv) SEESEU-C, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, né come SEU, ma rispetta i requisiti di cui alla lettera d3);
v) ASAP, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, né come SEU, né come SEESEU-C, ma rispetta i requisiti di cui alla lettera a);
vi) ASE, qualora il predetto sistema rispetta esclusivamente i requisiti di cui alla lettera c).
Nuove configurazioni impiantistiche caratterizzate dalla presenza di una o più unità di consumo e una o più unità di produzione, che non rientrano nella categoria delle reti elettriche, né in alcuno dei sottoinsiemi che compongono
SISTRI.
Il SISTRI (Sistema di Controllo della Tracciabilità dei Rifiuti) è il sistema informativo voluto dal Ministero dell'Ambiente italiano per monitorare i rifiuti pericolosi tramite la tracciabilità degli stessi. Si tratta, in pratica, di trasferire in formato digitale i previgenti adempimenti documentali precedentemente svolti in forma cartacea e basati sul Modello unico di dichiarazione ambientale (MUD), sul Registro di carico e scarico dei rifiuti e sul Formulario di identificazione dei rifiuti (FIR). Il sistema si basa sull'utilizzo di due apparecchiature elettroniche: una cosiddetta "black box" (cioè un trasponder), da montare sui mezzi adibiti al trasporto dei rifiuti per tracciarne i movimenti, e una token usb da 4 Gb equipaggiata con un software per autenticazione fonte e firma elettronica che viaggia assieme ai rifiuti, su cui sono salvati tutti i dati ad essi relativi. Sono obbligati ad aderire: tutti i produttori iniziali di rifiuti pericolosi; tutti i produttori iniziali di rifiuti non pericolosi derivanti da lavorazioni industriali, da lavorazioni artigianali, da trattamenti effettuati sulle acque, da trattamento di rifiuti e costituiti da fanghi da abbattimento delle emissioni in atmosfera con più di 10 dipendenti; tutti i trasportatori di rifiuti speciali prodotti da terzi; i trasportatori di propri rifiuti speciali pericolosi; i gestori di impianti di recupero e smaltimento, gli intermediari e i commercianti di rifiuti senza detenzione degli stessi; i comuni e gli enti e le imprese che gestiscono i rifiuti urbani nel territorio della regione Campania. Il numero delle imprese coinvolte all'inizio del programma è stato stimato in 400 mila, e a fine del 2010 si contavano 300 mila aziende e 60 mila trasportatori iscritti.
Sito
Insieme dei punti di misura che insistono su un'area, nella disponibilità di un unico soggetto (persona fisica o giuridica), senza soluzione di continuità, ad eccezione delle aree separate unicamente da strada, strada ferrata o corsi d'acqua, o comunque collegate da una linea elettrica nella esclusiva disponibilità del soggetto medesimo.
Smart city.
Le città consumano il 70% dell’energia dell'UE. Su questo enorme potenziale di risparmio energetico le istituzioni europee fanno leva per ridurre del 20% le emissioni entro il 2020 e al contempo sviluppare un'economia low carbon entro il 2050. La formula individuata associa l’utilizzo più razionale delle risorse all’integrazione delle tecnologie pulite. L’Europa incoraggia quindi le comunità 'intelligenti' che vadano verso soluzioni “integrate e sostenibili in grado di offrire energia pulita e sicura a prezzi accessibili ai cittadini, ridurre i consumi e creare nuovi mercati in Europa e altrove”. In particolare, la sfida è rivolta alle realtà urbane di medie dimensioni, che uno studio condotto nel 2007 dal Politecnico di Vienna, l’Università di Lubiana e il Politecnico di Delft, stima in circa 600 (ospitando quasi il 40 % di tutta la popolazione europea urbana). A dispetto dell’enorme potenziale, queste città sono spesso oscurate delle grandi metropoli. Individuate tra le comunità con un numero di abitanti tra 100.000 e 500.000, un bacino d’utenza inferiore a 1,5 milioni di persone e almeno un’università, troverebbero proprio nella ridotta estensione territoriale il loro punto di forza. È la flessibilità che ne deriva, secondo gli studiosi, a renderle 'smart', in altre parole brave, intelligenti, dinamiche. Il termine 'smart' l’UE lo riferisce, in particolare, a quelle città capaci di incidere positivamente sulla qualità urbana secondo una valutazione basata sui parametri economico, sociale, culturale, ambientale, abitativo e gestionale. Per approfondire leggi articolo.
Smart grid
In linea di principio, la smart grid (conosciuta anche come "rete intelligente" o della "generazione diffusa") è una evoluzione delle reti di energia elettrica che dal XX secolo generalmente distribuiscono energia elettrica da pochi generatori o centrali a un grande numero di utenti. L'innovazione consente di far viaggiare l’energia elettrica da più nodi rendendo la rete in grado di rispondere tempestivamente alla richiesta di maggiore o minore consumo di uno o più utenti e rendendo immediata e ottimale la gestione come un vero e proprio organismo intelligente. Perseguire questo risultato è complesso ma si sta raggiungendo per gradi. Ad esempio, al momento è possibile distinguere le ore di maggiore richiesta dalle ore di minore consumo facendo pagare un costo superiore a chi utilizza l'energia nelle ore di punta attraverso il meccanismo delle fasce orarie e dando contemporaneamente un incentivo maggiore a chi produce nelle medesime ore. Queste reti sono regolate da opportuni software di gestione che realizzano un controllo ad Informazione. Una smart grid possiede inoltre strumenti di monitoraggio intelligenti per tenere traccia di tutto il flusso elettrico del sistema, come pure strumenti per integrare energia rinnovabile nella rete. Quando il costo dell'energia diventa minore una smart grid può decidere di attivare processi industriali oppure elettrodomestici casalinghi. Molti governi al mondo stanno spingendo verso la costruzione di sistemi di distribuzione e gestione intelligenti dell'energia elettrica, indirizzati all'indipendenza energetica e alla lotta al riscaldamento globale. I contatori intelligenti fanno parte di queste iniziative.
Soggetto responsabile
Il DM 19 febbraio 2007 definisce il soggetto responsabile dell’esercizio dell’impianto come colui che ha diritto, nel rispetto delle disposizioni del DM, a richiedere e ottenere le tariffe incentivanti.
Soglia di idoneità
Parametro che individua l'idoneità di un soggetto sulla base del quantitativo annuo di consumi elettrici. Il livello minimo di tali consumi è fissato dal Decreto Bersani.
Sole
Dal punto di vista energetico, con l’espressione “energia solare” si intende l’energia raggiante sprigionata dal Sole per effetto delle reazioni termonucleari che avvengono nel suo interno, e trasmessa alla Terra sotto forma di radiazione elettromagnetica. La potenza massima della radiazione solare nelle ore centrali della giornata, alle latitudini dei Paesi europei mediterranei, è di oltre 1 kW/m2; in tali zone l' energia incidente sull'unità di superficie orizzontale (m2) può raggiungere in un giorno, nelle migliori condizioni estive, circa 25 Mega Joule (come termine di riferimento, l'energia chimica contenuta in 1 kg di gasolio è pari a circa 42 MJ). L’energia solare è la fonte di energia più diffusa, disponibile ovunque e in quantità che sono, almeno in teoria, largamente superiori ai fabbisogni energetici. La sua utilizzazione, tuttavia, pone problemi tecnici ed economici complessi, legati alla bassa densità energetica della radiazione solare, alla sua discontinuità (dovuta all’alternanza tra ore diurne e notturne, ma anche al ciclo delle stagioni), alla sua aleatorietà (determinata dalle mutevoli condizioni meteorologiche) e, infine, al valore modesto dei rendimenti di conversione. L’insieme di questi fattori determina un divario notevole tra le capacità potenziali di sfruttamento dell’energia solare e le possibilità pratiche di impiego. L’energia solare può essere utilizzata, tramite l’uso di collettori o pannelli solari, per la produzione di acqua calda a bassa temperatura (inferiore a 100 °C) utilizzata per usi igienico-sanitari. Questa forma di utilizzo si sta diffondendo in alcuni Paesi europei, mentre in altri, tra cui l’Italia (che pure dispone di buone condizioni climatiche) stenta a decollare. L’energia solare può tuttavia essere utilizzata anche per la produzione di energia elettrica, sia tramite sistemi che alimentano cicli di conversione termodinamica, sia attraverso la conversione fotovoltaica. Quest’ultima è basata sulla capacità di alcuni materiali semiconduttori opportunamente trattati, come il silicio, di generare direttamente energia elettrica quando vengono esposti alla radiazione solare. La conversione fotovoltaica, che vanta oramai numerose applicazioni in tutto il mondo, si sta rivelando, sul piano industriale, una tecnologia promettente per le sue caratteristiche di modularità, affidabilità e per le ridotte esigenze di manutenzione. Su di essa, pertanto, si stanno concentrando gli investimenti e si stanno determinando i principali progressi nel campo dello sfruttamento dell’energia solare. Impianti fotovoltaici sono stati realizzati anche in Italia, ma il peso di questa fonte nell’ambito della produzione elettrica da fonti rinnovabili si presenta ancora oggi marginale. Enel è presente in questo settore, che rappresenta in ogni caso un’opzione energetica di grande interesse per il futuro, con due importanti realizzazioni: l’impianto fotovoltaico di Serre Persano in provincia di Salerno, uno dei più grandi impianti al mondo in esercizio (3 MW), e l’impianto solare termico da 20 MW presso la centrale Archimede di Priolo (Siracusa), progettato insieme all’ENEA. Quest’ultimo impianto, in fase di completamento, si basa su un’idea innovativa di sfruttamento dell’energia solare, consistente in un processo di integrazione industriale tra un impianto solare termodinamico e una centrale convenzionale con ciclo combinato a gas.
Sostenibilità
In anni recenti questo termine è stato applicato agli organismi viventi e ai loro ecosistemi. Con riferimento alla società tale termine indica un "equilibrio fra il soddisfacimento delle esigenze presenti senza compromettere la possibilità delle future generazioni di sopperire alle proprie" (Rapporto Brundtland del 1987). Il termine, nel suo impiego in ambito ambientale, si riferisce alla potenziale longevità di un sistema di supporto per la vita umana, come il sistema climatico del pianeta, il sistema agricolo, industriale, forestale, della pesca, e delle comunità umane che in genere dipendono da questi diversi sistemi. In particolare tale longevità è messa in relazione con l'influenza che l'attività antropica esercita sui sistemi stessi. Il termine trae la sua origine dall'ecologia, dove indica la capacità di un ecosistema di mantenere processi ecologici, fini, biodiversità e produttività nel futuro. Perché un processo sia sostenibile esso deve utilizzare le risorse naturali ad un ritmo tale che esse possano essere rigenerate naturalmente. Sono emerse oramai chiare evidenze scientifiche che indicano che l'umanità sta vivendo in una maniera non sostenibile, consumando le limitate risorse naturali della Terra più rapidamente di quanto essa sia in grado di rigenerare. Di conseguenza uno sforzo sociale collettivo per adattare il consumo umano di tali risorse entro un livello di sviluppo sostenibile, è una questione di capitale importanza per il presente ed il futuro dell'umanità.
Sottocampo
Collegamento elettrico in parallelo di più stringhe. L’insieme dei sottocampi costituisce il campo fotovoltaico.
Stringa
Insieme di moduli o pannelli collegati elettricamente in serie per ottenere la tensione di lavoro del campo fotovoltaico.
Superi
Penali relative ad eventuali prelievi e/o immissioni di potenza effettuati in eccesso rispetto all'impegno di potenza, fissati nell'opzione tariffaria di trasporto definita dal Gestore della Rete.
Syngas
La parola Syngas nasce dall'unione delle due parole Synthetis Gas e indica non un gas vero e proprio, bensì una miscela di gas, essenzialmente monossido di carbonio CO e idrogeno H2, con la presenza in quantità variabile anche di metano CH4 e anidride carbonica CO2, che può essere ottenuta in vari modi. Uno di questi la gassificazione del carbone (molto usata fino alla metà degli anni cinquanta quando ha cominciato ad affermarsi il metano) consisteva nel riscaldamento del comune coke per ottenerne appunto syngas che veniva utilizzato come gas per illuminazione nelle città. Si ha formazione di Syngas anche nella produzione di idrogeno da idrocarburi solidi e liquidi e come risultato dei processi di fermentazione anaerobica nelle discariche. Tale gas può essere utilizzato come combustibile, per generare energia elettrica attraverso l'uso di una comune turbina a gas, motore a ciclo diesel, o in modo diretto tramite le pile a combustibile (Fuel-cells) di tipo DMFC.

Telecomunicazioni e relative frequenze.
Vedi articolo.
Teleriscaldamento
Il teleriscaldamento è una forma di riscaldamento (di abitazioni, scuole, ospedali ecc.) che consiste essenzialmente nella distribuzione, attraverso una rete di tubazioni isolate e interrate, di acqua calda, acqua surriscaldata o vapore (detti fluido termovettore), proveniente da una grossa centrale di produzione alle abitazioni e ritorno alla stessa centrale. La distribuzione effettuata con acqua calda, circa 80 - 90 °C, riduce tutta una serie di problematiche relative alla posa delle tubazioni e alle dilatazioni termiche delle stesse, ma le tubazioni saranno di diametro maggiore rispetto a quelle necessarie in caso di utilizzo di acqua surriscaldata o del vapore. Le centrali di produzione possono sfruttare diversi combustibili per produrre il calore necessario: gas naturale, oli combustibili, carbone, biomassa o anche rifiuti. La produzione di calore può essere anche associata a quella di energia elettrica: si parla in questo caso di cogenerazione. A destinazione il fluido termovettore riscalda, attraverso uno scambiatore di calore acqua-acqua o vapore-acqua (generalmente a piastre), l'acqua dell'impianto di riscaldamento della abitazione. Lo scambiatore, che in pratica sostituisce la caldaia o le caldaie, può produrre anche acqua di uso sanitario.In Italia lo scambiatore è soggetto, come le caldaie, alle normative e controlli ISPESL ed alla direttiva europea PED sugli apparecchi a pressione. Ogni impianto deve inoltre anche essere certificato secondo la legge 46/90. La tecnologia del teleriscaldamento è molto diffusa nel Nord Europa, ma da alcuni anni si sta diffondendo anche in Italia. La prima città italiana a dotarsi di un sistema di teleriscaldamento, all'inizio degli anni '70, è stata Brescia, seguita negli anni '80 da Torino che oggi possiede la rete di teleriscaldamento più estesa d'Italia; buone reti di TLR esistono anche a Reggio Emilia, Verona, Milano, Forlì, Mantova, Imola, Bologna, Ferrara, Lodi, Bardonecchia, Legnano, Cavalese, Brunico ecc. La tecnologia è adoperata spesso per riscaldare molti edifici pubblici, ad esempio certe case popolari dell'Aler a Milano e altrove.

Efficienza.In quanto impianto centralizzato di enormi dimensioni, la centrale di teleriscaldamento è molto più efficiente di qualunque caldaia condominiale: non solo per le tecnologie più avanzate di cui fa uso, ma anche perché, mentre una caldaia piccola (specie se collegata a un solo appartamento) si spegne e riaccende in continuazione man mano che la casa si riscalda e poi raffredda, in una caldaia più grande tutte queste oscillazioni della domanda si compensano a vicenda permettendole di funzionare continuamente alla stessa potenza, il che aumenta di molto l'efficienza. Inoltre, un grande impianto anche dal punto di vista delle emissioni inquinanti è controllato molto di più di qualsiasi caldaia privata (si ricorda che nel milanese si stima che nel periodo invernale gli impianti di riscaldamento siano l'origine della metà delle polveri sottili emesse, perciò il comune di Milano dal 1º novembre 2005 vieta l'accensione di impianti di riscaldamento alimentati a carbone o olio combustibile). Perciò il teleriscaldamento, sostituendosi a molte caldaie inefficienti e inquinanti, può costituire un miglioramento energetico-ambientale superiore a quello – già notevole – calcolabile misurando semplicemente le "calorie estratte". La distanza dei luoghi scaldati rispetto alla centrale, oltre un certo limite di alcuni chilometri, comporta delle eccessive dispersioni di calore durante il tragitto, che non rendono più conveniente il teleriscaldamento dal punto di vista economico e termodinamico. All'aumentare della distanza si anche possono rendere necessarie delle stazioni intermedie che aumentino la pressione e la temperatura dell'acqua.

Condizionamento. Un lato che è in via di sviluppo è lo sfruttamento del calore per il condizionamento. Questa tecnologia, attualmente poco diffusa, era alla base del primo frigorifero del '700, alimentato a carbone, che sfruttava il calore della combustione per azionare un circuito in cui una sostanza era in grado di trasferire il calore da un ambiente all'altro. In numeri, fornendo 1 kWh di calore (di almeno 70/80°C), è possibile asportare da un ambiente 0,7 kWh termici e creare 1,7 kWh sotto forma di calore a bassissima temperatura (sotto i 55°C), utile quindi per il riscaldamento e per la creazione di acqua calda per usi sanitari. I condizionatori elettrici consumano elettricità per produrre il calore necessario; in questo modo si ha una degradazione di un'energia pregiata per ottenere la quale si è precedentemente degradata altra energia, generalmente in centrali termoelettriche il cui rendimento si aggira generalmente sul 40% e che disperdono nell'ambiente il resto dell'energia sotto forma di calore: si ha dunque un doppio spreco, perché da un lato non si sfrutta del calore prezioso, e dall'altro si spreca l'elettricità prodotta. Pertanto, utilizzare direttamente una fonte di calore per produrre freddo costituisce un aumento dell'efficienza e un risparmio energetico, specie se il calore proviene da un impianto di teleriscaldamento che ceda il calore di scarto di altri processi, come accade nella cogenerazione e nell'incenerimento. In figura sono mostrate tubazioni per teleriscaldamento.

Tubazioni per il teleriscaldamento.


Temperatura critica
In fisica si parla di temperatura critica in differenti ambiti, nel caso della transizione dei fluidi si definisce critica la temperatura al di sopra della quale una sostanza non può esistere allo stato liquido. Nel caso della transizione superconduttiva si definisce critica la temperatura al di sotto della quale il materiale diviene superconduttore. Più in generale si può chiamare temperatura critica quella temperatura alla quale avviene una transizione di fase.

Il caso dei fluidi. Come già detto, nel caso dei fluidi, si definisce temperatura critica la temperatura al di sopra della quale una sostanza non può esistere allo stato liquido, neanche essendo sottoposta a compressione.
Definita per la sostanza allo stato gassoso l'equazione di stato di Van der Waals (vedi voce)
(p+\frac{n^2 a}{V^2})(V-nb)=nRT
e tracciate sul diagramma di Clapeyron (pV) le curve corrispondenti alle temperature costanti, si ottiene che esse sono decrescenti per valori superiori ad una data Tc, mentre al di sotto di questa non sono monotone. Evidentemente quelle inferiori non possono descrivere bene il comportamento del gas, ammettendo compressioni isoterme con diminuzione della pressione. Per cui nell'area sottostante la curva Tc la sostanza si presenta anche in forme non gassose (ovvero in forma liquida, o in una coesistenza delle due fasi), e il grafico sperimentale non corrisponde a quello di Van Der Waals.
Dalla Tc in su invece la sostanza esiste solo sotto forma di gas, e pertanto la temperatura detta è quella critica. Si ricava che
T_c=\frac{8a}{27Rb}

Tensione elettrica
La tensione elettrica in un campo elettrico \vec{E} generico quantifica il lavoro necessario per spostare una carica (unitaria) tra i due punti estremi di una curva σ, equivale quindi all'integrale di linea

 V_{ab} = \int_{\sigma} \vec{E} \cdot \vec{d\sigma}

dove "\cdot" rappresenta il prodotto scalare tra quantità vettoriali. Quindi mentre la corrente elettrica misura il flusso della carica, la tensione misura l'energia richiesta per far fluire questa carica. Se il campo è conservativo, ammette potenziale e l'integrale di linea dipende solo dagli estremi di integrazione. In questo caso la tensione equivale alla differenza di potenziale, l'integrale è nullo su qualsiasi linea chiusa e vale, quindi, la legge di Kirchhoff delle tensioni. La definizione operativa di tensione utilizzata in elettrotecnica, elettronica e nella teoria dei circuiti, essendo basata sulla ipotesi di operare su circuiti a parametri concentrati è quella conservativa, ed è quindi sinonimo di differenza di potenziale.
Tensione (bis)

  • Altissima: tensione superiore a 150 kV
  • Alta :tensione compresa fra 35 e 150 kV
  • Media: tensione compresa fra 1 e 35 kV
  • Bassa: tensione inferiore a 1 kV


Tensione alternata
Tensione tra due punti di un circuito che varia nel tempo con andamento di tipo sinusoidale. È la forma di tensione tipica dei sistemi di distribuzione elettrica, come pure delle utenze domestiche e industriali.
Tensione continua
Tensione tra due punti di un circuito che non varia di segno e di valore al variare del tempo. È la forma di tensione tipica di alcuni sistemi isolati (ferrovie, navi) e degli apparecchi alimentati da batterie.
Termovalorizzatori
I termovalorizzatori sono impianti principalmente utilizzati per lo smaltimento dei rifiuti mediante un processo di combustione ad alta temperatura (incenerimento) che dà come prodotti finali un effluente gassoso, ceneri e polveri. Negli impianti più moderni, il calore sviluppato durante la combustione dei rifiuti viene recuperato e utilizzato per produrre vapore, poi utilizzato per la produzione di energia elettrica o come vettore di calore (ad esempio per il teleriscaldamento). Questi impianti con tecnologie per il recupero vengono indicati col nome di inceneritori con recupero energetico, o più comunemente termovalorizzatori. Il termine termovalorizzatore, seppur di uso comune, è talvolta criticato in quanto sarebbe fuorviante. Infatti, secondo le più moderne teorie sulla corretta gestione dei rifiuti gli unici modi per "valorizzare" un rifiuto sono prima di tutto il riuso e poi il riciclo, mentre l'incenerimento (anche se con recupero energetico) costituisce semplice smaltimento ed è dunque da preferirsi alla sola discarica indifferenziata. Si fa notare che il termine non viene inoltre mai utilizzato nelle normative europea e italiana di riferimento, nelle quali si parla solo di "inceneritori". Le categorie principali e quantitativamente predominanti di rifiuti avviati ai termovalorizzatori sono:

  • Rifiuti Solidi Urbani (RSU);
  • Rifiuti speciali.

A queste si possono aggiungere categorie particolari come i fanghi di depurazione, i rifiuti medici o dell'industria chimica. Vi è poi una grande quantità di rifiuti non inceneribili (classificati "inerti") provenienti da costruzioni e demolizioni: questi costituiscono una percentuale di circa il 25% del totale, pari a ~30 milioni di tonnellate l'anno (dati 2001). Prima di procedere all'incenerimento i rifiuti possono essere trattati tramite processi volti a eliminare i materiali non combustibili (vetro, metalli, inerti) e la frazione umida (la materia organica come gli scarti alimentari, agricoli, ecc...). I rifiuti trattati in questo modo sono definiti CDR (ovvero combustibile derivato dai rifiuti) o più comunemente ecoballe.Vedi figura.

Rifiuti pronti per essere avviati al termovalorizzatore.

Tecnologie di incenerimento. Gli inceneritori più diffusi in Europa sono del tipo "a griglie". Trattandosi sostanzialmente di impianti che sfruttano il calore sviluppato dalla combustione, non è importante solo il tonnellaggio di combustibile (i rifiuti), ma anche il suo potere calorifico, ovvero il calore sviluppato durante la combustione (in genere pari a circa 9000-13000 MJ/t). In altre parole, un inceneritore progettato (ed autorizzato) per bruciare 100.000 t di rifiuti con potere calorifico di 13.000 MJ/t, può arrivare a bruciare anche il 45% in più se i rifiuti hanno potere calorifico di 9000 MJ/t. Il funzionamento di un "termovalorizzatore" a griglie può essere suddiviso in sei fasi fondamentali:

  1. Arrivo dei rifiuti — Provenienti dagli impianti di selezione dislocati sul territorio (ma anche direttamente dalla raccolta del rifiuto), i rifiuti sono conservati in un'area dell'impianto dotato di sistema di aspirazione, per evitare il disperdersi di cattivi odori. Con un carroponte i materiali sono depositati nel forno attraverso una tramoggia. La tecnologia di produzione della frazione combustibile (CDR) ed il suo incenerimento sfrutta la preventiva disidratazione biologica dei rifiuti seguita dalla separazione degli inerti (metalli, minerali, ecc.) dalla frazione combustibile, che può essere "termovalorizzata" producendo energia elettrica con resa nettamente migliore rispetto all'incenerimento classico e con una diminuzione di impatto ambientale.
  2. Combustione — Il forno è solitamente dotato di una o più griglie mobili (forno "a griglie") per permettere il continuo movimento dei rifiuti durante la combustione. Una corrente d'aria forzata viene inserita nel forno per apportare la necessaria quantità di ossigeno che permetta la migliore combustione, mantenendo alta la temperatura (fino a 1000 °C e più). Per mantenere tali temperature, qualora il potere calorifico del combustibile sia troppo basso, talvolta viene immesso del gas metano in una quantità variabile fra i 4 e 19 m³ per tonnellata di rifiuti. Accanto a una camera di combustione primaria viene associata una camera di combustione secondaria (camera di post-combustione), con lo scopo di completare la combustione dei fumi nel rispetto della normativa vigente.
  3. Produzione del vapore surriscaldato — La forte emissione di calore prodotta dalla combustione di metano e rifiuti porta a vaporizzare l'acqua in circolazione nella caldaia posta a valle, per la produzione di vapore surriscaldato ad alto contenuto entalpico.
  4. Produzione di energia elettrica — Il vapore generato mette in movimento una turbina che, accoppiata a un motoriduttore e a un alternatore, trasforma l'energia termica in energia elettrica producendo corrente alternata per espansione del vapore surriscaldato.
  5. Estrazione delle ceneri — Le componenti dei rifiuti non combustibili vengono raccolte in una vasca piena d'acqua posta a valle dell'ultima griglia. Le scorie, raffreddate in questo modo, sono quindi estratte e smaltite in discariche speciali. Ovviamente, separando preventivamente gli inerti dalla frazione combustibile si ottiene una riduzione delle scorie. L'acqua di raffreddamento (circa 2.5 m3/t) deve essere depurata prima di essere scaricata in ambiente. Le ceneri sono classificate come rifiuti speciali non pericolosi, mentre le polveri fini (circa il 4% del peso del rifiuto in ingresso) intercettate dai sistemi di filtrazione sono classificate come rifiuti speciali pericolosi. Entrambe sono smaltite in discariche per rifiuti speciali; ci sono recenti esperienze di riuso delle ceneri pesanti.
  6. Trattamento dei fumi — Dopo la combustione i fumi caldi (circa il 140-150% in peso del rifiuto in ingresso) passano in un sistema multi-stadio di filtraggio, per l'abbattimento del contenuto di agenti inquinanti sia chimici che solidi. Dopo il trattamento e il raffreddamento i fumi vengono rilasciati in atmosfera a circa 140° C.

Termovalorizzatore a griglie. Questi impianti possiedono un grosso focolare, con griglie metalliche normalmente a gradini formate da barre o rulli paralleli. La griglia può essere mobile o fissa e in diverse zone vengono raggiunte differenti temperature che permettono un più graduale riscaldamento. È presente anche un sistema di raffreddamento. Oltre alla normale combustione primaria, viene effettuata anche una combustione secondaria, ottenuta con un'ulteriore insufflazione d'aria che genera una notevole turbolenza, permettendo di migliorare il miscelamento aria-combustibile. Le ceneri prodotte vengono raccolte e raffreddate in vasche piene d'acqua. Gli inceneritori più vecchi e impiantisticamente più semplici consistevano in una camera di mattoni con una griglia posta rispettivamente sopra e sotto la raccolta delle ceneri. Mentre quella posta superiormente, e avente una apertura in cima o lateralmente, veniva utilizzata per caricare il materiale da bruciare, quella inferiore permetteva la rimozione del residuo solido incombusto tramite l'apertura laterale. In confronto con le altre tipologie, gli impianti con griglie mobili sono quelli maggiormente sfruttati per i rifiuti urbani e permettono, grazie al movimento dei rifiuti all'interno della camera di combustione, una ottimizzazione della combustione stessa. Una singola griglia è in grado di trattare più di 35 t/h di rifiuti e può lavorare 8.000 ore l'anno con una sola sospensione dell'attività, per la durata di un mese, legata alla manutenzione e controlli programmati.Una parte dell'aria necessaria alla combustione primaria viene fornita dal basso della griglia e questo flusso viene anche sfruttato per raffreddare la griglia stessa. Il raffreddamento è importante per il mantenimento delle caratteristiche meccaniche della griglia, e molte griglie mobili sfruttano anche il raffreddamento tramite un flusso interno di acqua. L'aria necessaria alla combustione secondaria viene immessa ad alta velocità superiormente alla griglia e ha lo scopo di portare a completamento la reazione di combustione, realizzando una condizione di eccesso di ossigeno e una turbolenza che assicura un mescolamento ottimale di combustibile e comburente. È da notare però che alle griglie è legato un certo insieme di problematiche tecniche tra le quali spicca il deposito di polveri, con la necessità di un certo livello di manutenzione periodica programmata.

Termovalorizzatore a griglie

Interno del forno di un inceneritore a griglie

Termovalorizzatore a letto fluido. La combustione a letto fluido è ottenuta inviando dal basso un forte getto di aria attraverso un letto di sabbia. Il letto quindi si solleva, mentre le particelle si mescolano e sono sotto continua agitazione. A questo punto vengono introdotti i rifiuti e il combustibile. Il sistema sabbia/rifiuto/combustibile viene mantenuto in sospensione sul flusso di aria pompata e sotto violento mescolamento e agitazione, assumendo in tale modo caratteristiche simil-fluide (da cui il letto fluido). Questo processo, detto fluidizzazione, ha l'effetto di diminuire la densità del sistema in oggetto pur senza alterarne la natura originaria. Tutta la massa di rifiuti, combustibile e sabbia circola completamente all'interno della fornace. La tecnologia a letto fluido è di comune utilizzo nell'ambito dell'ingegneria chimica, e viene utilizzata ad esempio anche in reattori per attuare la sintesi chimica e nell'ambito della petrolchimica. Una camera di combustione a letto fluido permette di ridurre le emissioni di ossidi di zolfo (SOx) mescolando calcare o dolomite in polvere alla sabbia: in tal modo infatti lo zolfo non viene ossidato formando gas, bensì precipita sotto forma di solfato. Tra l'altro, tale precipitato caldo permette di migliorare lo scambio termico per la produzione di vapor acqueo. Dato che il letto fluido consente anche di operare a temperature inferiori (800°C), operando a tali temperature è possibile ridurre le emissioni di ossidi di azoto (NOx). Uno studio comparativo ha confrontato le emissioni di polveri sottili, caratterizzandone dimensione, composizione e concentrazione, e di elementi traccia relativamente all'utilizzo di una camera a griglie e di una camera a letto fluido (FBC) a monte dei sistemi di filtraggio. È emerso che le emissioni di particelle con diametro inferiore a 1 µm (PM1) sono approssimativamente quattro volte maggiori nel caso delle griglie, con valori di 1-1,4 g/Nm3 (grammi al normalmetrocubo) contro i 0,25-0,31 g/Nm3 del letto fluido. È stata misurata anche la quantità totale media di ceneri prodotte, che è risultata essere di 4,6 g/Nm3 nel caso del letto fluido e di 1,4 g/Nm3 nel caso delle griglie. Il letto fluido ha il vantaggio di richiedere poca manutenzione e ovviamente, data la particolare costituzione, non necessita di componenti in movimento. Possiede anche un rendimento leggermente superiore rispetto ai forni a griglia, ma richiede combustibile a granulometria piuttosto omogenea. Le tipologie di letto fluido più sfruttate rientrano principalmente in due categorie: sistemi a pressione atmosferica (fluidized bed combustion, FBC) e sistemi pressurizzati (pressurized fluidized bed combustion, PFBC). Questi ultimi sono in grado di generare un flusso gassoso ad alta pressione e temperatura in grado di alimentare una turbina a gas che può realizzare un ciclo combinato ad alta efficienza.

Termovalorizzatore a forno rotativo. Gli impianti a forno rotativo hanno utilizzo di elezione nell'ambito dello smaltimento dei rifiuti industriali e speciali, ma possono anche essere utilizzati per i RSU. Si hanno due camere di combustione: la camera di combustione primaria consiste in un tubo cilindrico costruito in materiale refrattario e inclinato di 5-15°, il cui movimento attorno il proprio asse di rotazione viene trasmesso ai rifiuti. La rotazione fa accumulare all'estremità del cilindro le ceneri e il resto della frazione non combusta solida, che viene infine raccolta all'esterno. I gas passano invece in una seconda camera di combustione stavolta fissa. La camera di combustione secondaria è necessaria per portare a completamento le reazioni di ossidazione in fase gassosa. In relazione alla pericolosità del rifiuto trattato, le emissioni gassose possono richiedere un più accurato sistema di pretrattamento prima dell'immissione in atmosfera. Molte particelle tendono a essere trasportate insieme con i gas caldi, per questo motivo viene utilizzato un "post-bruciatore" dopo la camera di combustione secondaria per attuare una ulteriore combustione.

Termovalorizzatore a multi step. Il nome di questa tecnologia è legato al passaggio su più focolari del materiale da trattare. I rifiuti vengono trasportati attraverso la fornace muovendo una dentatura meccanica che fa parte di braccia agitanti montate su un asse centrale rotante che si estende a una certa altezza dal focolare. I rifiuti in entrata vengono caricati da una estremità, mentre i residui della combustione vengono asportati dall'altra estremità. Il carico/scarico dei rifiuti viene ripetuto automaticamente secondo il numero di focolari presenti. Un modello specifico è il forno di pirolisi a piani, studiato in origine per l'incenerimento di fanghi di varia natura (inclusi i fanghi biologici inattivati) ed occasionalmente usato nell'incenerimento di RSU che abbiano buone caratteristiche di trasporto. Con questo metodo, oltre ai rifiuti industriali e solidi urbani, è possibile trattare anche fanghi di varia origine.

Recupero energetico. Negli impianti più moderni, il calore sviluppato durante la combustione dei rifiuti viene recuperato e utilizzato per produrre vapore, poi utilizzato per la produzione di energia elettrica o come vettore di calore (ad esempio per il teleriscaldamento). Il rendimento di tali impianti è però molto minore di quello di una normale centrale elettrica, poiché i rifiuti non sono un buon combustibile per via del loro basso potere calorifico, e le temperature raggiunte in camera di combustione sono inferiori rispetto alle centrali tradizionali. Talvolta per aumentare l'efficienza della combustione insieme ai rifiuti viene bruciato anche del gas metano. L'indice di sfruttamento del combustibile di inceneritori e centrali elettriche può essere aumentato notevolmente abbinando alla generazione di energia elettrica il teleriscaldamento, che permette il recupero del calore prodotto che verrà poi utilizzato per fornire acqua calda. Tuttavia non sempre il calore recuperato può essere effettivamente utilizzato per via delle variazioni stagionali dei consumi energetici; ad esempio, in estate lo sfruttamento del calore può calare notevolmente, a meno che non siano presenti attrezzature che permettano di sfruttarlo per il raffreddamento. Oggi gran parte degli inceneritori sono dotati di qualche forma di recupero energetico ma va rilevato che solo una piccola minoranza di impianti è collegata a sistemi di teleriscaldamento e pertanto viene recuperata solo l'elettricità. L'efficienza energetica di un termovalorizzatore è variabile tra il 19 e il 27% se si recupera solo l'energia elettrica ma aumenta molto col recupero del calore (cogenerazione). Ad esempio, nel caso dell'inceneritore di Brescia si ha un rendimento del 26% in produzione elettrica e del 58% in calore per teleriscaldamento, con un indice di sfruttamento del combustibile dell'84%. A titolo di confronto una moderna centrale termoelettrica a ciclo combinato, il cui scopo primario è ovviamente quello di produrre elettricità, ha una resa del 57% per la produzione elettrica, e se abbinata al teleriscaldamento raggiunge l'87%.] Tipicamente per ogni tonnellata di rifiuti trattata possono essere prodotti circa 0,67 MWh di elettricità e 2 MWh di calore per teleriscaldamento. Volendo invece confrontare il rendimento energetico delle varie tecnologie di trattamento termico dei rifiuti, il discorso è molto più complesso, meno documentato e fortemente influenzato dal tipo di impianto. In linea di massima le differenze sono dovute al fatto che, mentre in un inceneritore i rifiuti vengono direttamente bruciati ed il calore viene usato per produrre vapore, negli impianti di gassificazione/pirolisi i rifiuti vengono invece convertiti parzialmente in gas (syngas) che può essere poi utilizzato in cicli termodinamici più efficienti, come ad esempio un ciclo combinato sopra richiamato. La possibilità di utilizzare diversi cicli termodinamici permette a tali impianti maggiore flessibilità nella regolazione dei rapporti fra produzione di calore e di elettricità, rendendoli meno sensibili alle variazioni stagionali dei consumi energetici (in altre parole d'inverno si può produrre più calore e d'estate più elettricità).

Le scorie. L'incenerimento dei rifiuti produce scorie solide pari circa al 10-12% in volume e 15-20% in peso dei rifiuti introdotti, e in più ceneri per il 5%.Gran parte della massa immessa nei forni viene infatti combusta ottenendo dei fumi che verranno opportunamente pretrattati prima di essere emessi dal camino.

  • Le ceneri volanti e le polveri intercettate dall'impianto di depurazione dei fumi sono rifiuti speciali altamente tossici (in quanto concentrano molti degli inquinanti più nocivi), che come tali sono soggetti alle apposite disposizioni di legge e sono poi conferiti in discariche speciali.
  • Le scorie pesanti, formate dal rifiuto incombusto – acciaio, alluminio, vetro e altri materiali ferrosi, inerti o altro –, sono raccolte sotto le griglie di combustione e possono poi essere divise a seconda delle dimensioni e quindi riciclate se non troppo contaminate.

Le scorie sono generalmente smaltite in discarica e costituiscono una grossa voce di spesa. Tuttavia, possono rivelarsi produttive: un esempio di riciclaggio di una parte delle scorie degli inceneritori è l'impianto BSB di Noceto, nato dalla collaborazione fra CIAl (Consorzio Imballaggi Alluminio) e Bsb Prefabbricati; qui si trattano le scorie provenienti dai termovalorizzatori gestiti dalle società Silea S.p.A. (impianto di Lecco) e Hera (impianti di Rimini, Ferrara, Forlì, Ravenna) con 30.000 tonnellate di scorie l'anno da cui si ricavano 25.000 tonnellate (83%) di materiale destinato alla produzione di calcestruzzo, 1.500 tonnellate (5%) di metalli ferrosi e 300 tonnellate (1%) di metalli non ferrosi di cui il 65% di alluminio. Infine, circa l'11% delle scorie non può essere recuperato. Le scorie e le ceneri vengono caricate su un nastro trasportatore; i rottami ferrosi più consistenti sono subito raccolti, quelli più piccoli vengono rimossi poi con un nastro magnetico. Appositi macchinari separano dal resto i rimanenti metalli a-magnetici (prevalentemente alluminio); tutto il resto, miscelato con opportune dosi di acqua, inerti, cemento e additivi, e reso così inerte, va a formare calcestruzzo subito adoperato per la produzione di elementi per prefabbricati. A titolo di confronto, si segnala che il solo inceneritore di Brescia produce circa 240.000 tonnellate di scorie. Tuttavia, alcuni studi hanno dimostrato la tossicità dei calcestruzzi contenenti scorie, anche se con tecniche opportune la si può ridurre significativamente: sono ancora in corso degli studi. Non è noto il bilancio energetico totale (e le relative emissioni) di queste procedure ed in che quota questo eroda il recupero energetico della filiera di trattamento dei rifiuti mediante incenerimento. Un'altra tecnologia che si sta sperimentando è la vetrificazione delle ceneri con l'uso della torcia al plasma. Con questo sistema si rendono inerti le ceneri, risolvendo il problema dello smaltimento delle stesse come rifiuti speciali, inoltre si studia la possibilità di un loro riutilizzo come materia prima per il comparto ceramico e cementizio.
Terna SpA
E' la società responsabile in Italia della trasmissione e del dispacciamento dell'energia elettrica sulla rete ad alta e altissima tensione su tutto il territorio nazionale.
Terra
L'energia geotermica è costituita dal calore contenuto all'interno della Terra, che nelle zone più profonde può raggiungere i 4.000 °C. Esso trae origine dal residuo calore primitivo del pianeta e dalle reazioni nucleari legate al decadimento radioattivo di alcuni materiali terrestri (uranio, torio, potassio, ecc.). Per gli usi industriali ed energetici con energia geotermica si fa riferimento oggi al calore endogeno disponibile fino a profondità di 4-6 km, benché le attuali tecnologie di perforazione consentano di raggiungere profondità anche di 10 km. L'energia geotermica può essere considerata inesauribile; si propaga per conduzione nelle rocce compatte e per convezione in quelle permeabili e fratturate, affluendo in superficie con un gradiente di temperatura medio di circa +3 °C ogni 100 metri. La Terra è quindi un immenso serbatoio di calore: si calcola che l'energia termica contenuta entro i primi 5 km sia equivalente a circa 500.000 volte gli attuali fabbisogni mondiali. Si tratta però di energia fortemente dispersa e solo raramente recuperabile in condizioni economicamente vantaggiose. Per contro ha la caratteristica di essere relativamente costante nel tempo, priva di fluttuazioni meteorologiche (diurne o stagionali) e, cosa che più interessa dal punto di vista economico, può concentrarsi in zone caratterizzate da anomalie termiche (vulcanesimo secondario), ove può raggiungere livelli di temperatura industrialmente sfruttabili. In tali zone l’acqua di falda viene riscaldata dal calore geotermico e resa disponibile (in modo naturale oppure grazie a perforazioni artificiali) sotto forma di fluido più o meno caldo (più raramente anche vapore surriscaldato) utilizzabile per scopi termici (riscaldamento) o per la produzione di energia elettrica, a seconda della temperatura e delle caratteristiche del fluido stesso. L’Italia è il Paese ove l’energia geotermica è stata per la prima volta sfruttata a fini industriali ed è tuttora uno dei principali produttori di energia geotermolettrica. Sono passati oltre 100 anni dal 4 luglio 1904, quando in Toscana, a Larderello, si riuscì ad accendere cinque lampadine grazie alla trasformazione in energia elettrica della forza del vapore prelevato dal sottosuolo. Da allora la storia della geotermia è diventata un vanto dell’industria energetica italiana. Le risorse impiegate hanno reso la Toscana la Regione italiana con il più elevato ricorso a fonti rinnovabili. La geotermia copre, infatti, circa un quarto dei consumi energetici regionali e le centrali geotermiche, con la loro produzione, soddisfano il fabbisogno di energia elettrica di circa 2 milioni di famiglie. Di anno in anno, inoltre, la geotermia sta consolidando la sua posizione all’interno della produzione nazionale di energia elettrica da fonti rinnovabili e anche nei prossimi anni è previsto un incremento della sua produzione.
Trasformatore
E' una macchina elettrica statica (perché non contiene parti in movimento) appartenente alla categoria più ampia dei convertitori. In particolare il trasformatore consente di convertire i parametri di tensione (simbolo V unità di misura [V] volt) e corrente (simboli I unità di misura [A] ampere) in ingresso rispetto a quelli in uscita, pur mantenendo costante la quantità di potenza elettrica (a meno delle perdite per effetto dell'isteresi e delle correnti parassite). Il trasformatore è una macchina in grado di operare solo in corrente alternata, perché sfrutta i principi dell'elettromagnetismo legati ai flussi variabili. Il trasformatore ha importanza fondamentale nel mondo di oggi: senza di esso le grandi reti di trasporto dell'energia elettrica che collegano le centrali elettriche a milioni di industrie e di case non potrebbero funzionare
Trasformazioni topologiche di fase
Vedi articolo.
Trasmissione
Attività di trasporto e trasformazione dell’energia elettrica lungo le reti interconnesse ad alta ed altissima tensione, dagli impianti di produzione ovvero, nel caso di energia importata, dal punto di consegna della stessa, al sistema di distribuzione.
Trattamento acque reflue urbane
Vedi articolo.
Trigenerazione
La trigenerazione implica la produzione contemporanea di energia meccanica (elettricità), calore e freddo utilizzando un solo combustibile. Le tradizionali centrali termoelettriche convertono soltanto 1/3 dell’energia del combustibile in elettricità,mentre il resto viene perso sotto forma di calore. Ne consegue l’esigenza di incrementare l’efficienza della produzione elettrica. Un metodo che va in questa direzione è la produzione combinata di calore ed elettricità (C.H.P.) dove più di 4/5 dell’energia del combustibile è convertita in energia utilizzabile, con benefici sia finanziari che economici.
Turbina a gas
La turbina a gas, detta anche turbogas, è una macchina motrice che trasforma in energia meccanica l’energia chimica contenuta nel combustibile. La turbina a gas semplice è costituita da un compressore calettato sullo stesso albero di una turbina e da una camera di combustione situata tra questi due componenti. Il termine turbina a gas talvolta si riferisce soltanto alla sezione turbina e non alla macchina completa. Il principio di funzionamento è il seguente: l'aria viene compressa ed in seguito inviata in camera di combustione nella quale l'ossidazione del combustibile innalza l'entalpia della corrente gassosa che prosegue il suo percorso espandendo in turbina. La turbina trascina il compressore e l'energia netta risultante viene utilizzata nel campo delle applicazioni industiali come energia meccanica per trascinare macchine o trasformata in energia elettrica mediante un alternatore, mentre nel campo della propulsione aeronautica per trascinare eliche (turboshaft, turboprop) o per fornire la spinta (turbojet, turbofan). Da un punto di vista termodinamico, il funzionamento ideale delle turbine a gas è descritto dal Ciclo Brayton, in cui l’aria è compressa isoentropicamente, la combustione avviene a pressione costante e l’espansione in turbina avviene isoentropicamente fino alla pressione di aspirazione. Nel ciclo reale attrito e turbolenza provocano:

  • Compressione non isoentropica – dato un certo rapporto di compressione, l'entalpia allo scarico del compressore è più alta rispetto a quella ideale (maggiore lavoro di compressione).
  • Espansione non isoentropica - dato un certo rapporto di compressione, l'entalpia allo scarico della turbina è più alta rispetto a quella ideale (minore lavoro di espansione).
  • Perdite di carico in camera di combustione – riducono il salto di pressione disponibile per l’espansione e quindi anche il lavoro utile.

Come per qualunque macchina termica, un’alta temperatura di combustione produce un’alta efficienza, come dimostrato dal ciclo ideale di Carnot, in cui si dimostra che il rendimento è tanto più elevato, quanto più è alto il rapporto tra temperatura massima e minima del ciclo. Il fattore limitante è la capacità dei materiali che costituiscono la macchina (acciaio, super leghe a base nichel o cobalto e materiali ceramici) a resistere a temperatura e pressione. La ricerca si è infatti concentrata verso le tecniche rivolte al raffreddamento dei componenti, le quali consentono alle palette più sollecitate, quelle della turbina, di resistere continuativamente a temperature superiori a 1.500 K. In molte applicazioni si cerca anche di recuperare il calore allo scarico, altrimenti dissipato. I rigeneratori sono scambiatori di calore che trasferiscono il calore dei gas di scarico all’aria compressa, prima della combustione. Nella configurazione del ciclo combinato, la caldaia a recupero trasferisce il calore ad un sistema che alimenta una turbina a vapore. Nel caso della cogenerazione il calore recuperato serve per produrre acqua calda. Gli impianti che sfruttano questo recupero di calore, sono definiti impianti combinati, in quanto combinano il ciclo Brayton della turbina a gas con quello Rankine della turbina a vapore. Da un punto di vista meccanico, le turbine a gas possono essere considerevolmente più semplici rispetto ai motori a combustione interna alternativi. Le turbine più semplici possono avere un solo organo mobile (escludendo il sistema combustibile): il rotore composto da albero, compressore, turbina e alternatore. Le turbine a gas più sofisticate possono avere alberi multipli, centinaia di palette di turbina, palette statoriche regolabili e sistemi complessi di tubazioni, combustori e scambiatori di calore. In generale, al diminuire della taglia della turbina aumenta il regime di rotazione dell’albero (o degli alberi), in quanto la velocità periferica delle pale è un limite progettuale. I motori aeronautici operano intorno ai 10.000 giri/min (sezione di alta pressione) e le micro turbine intorno ai 100.000 giri/min. I cuscinetti portanti e reggispinta sono una parte critica per la progettazione. Tradizionalmente sono stati usati cuscinetti idrodinamici a olio, oppure cuscinetti a sfere raffreddati a olio. La tendenza attuale è verso i cuscinetti ad aghi che sono comunemente utilizzati nelle micro turbine e nelle APU (Auxiliary Power Units: Unità di Potenza Ausiliarie). In figura è mostrata una turbina a gas in fase di montaggio.

Turbina a gas i
Unità trattamento aria (UTA).
L'Unità trattamento aria, più nota con l'acronimo U.T.A. è una macchina utilizzata negli impianti di climatizzazione, siano essi a tutta aria o misti aria/acqua. Il loro scopo è quello di prelevare l'aria dall'esterno trattandola a seconda delle richieste climatiche degli ambienti interni. I parametri che sono coinvolti nel trattamento dell'aria sono:
temperatura
umidità
velocità
purezza
per ciascuno di questi parametri esiste un organo o un componente della macchina in grado di controllarlo, regolarlo e/o modificarlo.
La U.T.A. è definita macchina per il semplice fatto che è dotata di un ventilatore capace di aspirare l'aria dall'esterno e di spingerla verso i punti di diffusione in ambiente. Ma il ventilatore in realtà è solo l'ultimo pezzo dell'unità, che può essere assimilata ad una tubazione lungo la quale si incontrano tutti i componenti necessari al corretto funzionamento dell'impianto. Quando l'aria attraversa l'U.T.A. generalmente incontra:
una serranda di presa
un recuperatore
un filtro a bassa efficienza
una batteria di scambio termico (pre-riscaldamento)
una batteria di scambio termico (raffreddamento e deumidificazione)
una sezione umidificante
una batteria di scambio termico (post-riscaldamento)
un filtro ad alta efficienza
un ventilatore (mandata)
un silenziatore.
Nel caso di impianto a tutt'aria con ricircolo, esiste anche una zona di miscela con l'aria riincanalata nell'impianto, che può essere posta o nella parte iniziale o nella parte centrale della macchina. Vi sono unità che non presentano il recuperatore di calore, e addirittura macchine che non sono dotate di batteria di post-riscaldamento, poiché quest'ultimo può essere effettuato a livello periferico (post-riscaldamento di zona). Il recupero energetico viene spesso effettuato ai fini del risparmio di energia. Quando una U.T.A. è dotata di recuperatore, oltre al ventilatore di mandata è presente anche un ventilatore di ripresa dell'aria trattata; in questo modo si hanno due percorsi indipendenti, aria da trattare ed aria trattata. Il recupero di calore può essere di 2 tipi: sensibile e latente. Nel primo caso si ha una cessione del contenuto entalpico di uno dei 2 fluidi in modo da pre-riscaldare (d'inverno) o pre-raffreddare (d'estate) l'aria da trattare. Il recupero latente si ha solo d'estate, e può essere spiegato in questo modo: in estate l'aria è molto umida, e per eliminare l'umidità l'unico mezzo è quello di farla condensare. Per poter condensare questo vapore acqueo è necessario prelevare una quantità di calore nota come calore latente di vaporizzazione. Quindi l'aria trattata, fredda e deumidificata, assorbe questo calore e opera una pre-deumidificazione dell'aria da trattare. Ovviamente nel caso si abbia un recupero latente è presente anche uno sensibile.
UNIVERSO a grande scala
Vedi articoli specifici.
UNIVERSO. L'evoluzione dell'
Vedi articolo specifico.
Uso razionale di energia
Operazione tecnologica con la quale si tenta di realizzare gli stessi prodotti o servizi con un minor consumo di energia primaria, eventualmente avvalendosi in misura maggiore di altre risorse (capitale, lavoro, materiali).
Varese Ligure
Un modello energetico da imitare. Vedi articolo.

Clicca l'iniziale per trovare la parola cercata

A B C D E F G H I J K L M N O P Q R S T U


LOGO

V W X Y Z

Van der Waals (Equazione di stato di)
La legge di van der Waals è una legge fisica che descrive il comportamento dei gas reali. Rappresenta un'estensione della legge dei gas perfetti, rispetto alla quale consente una migliore descrizione dello stato gassoso per le alte pressioni e in prossimità del punto di ebollizione. La legge prende il nome dal fisico olandese Johannes Diderik van der Waals (1837-1923), che la propose in un lavoro del 1873; per la formulazione di questa legge lo studioso fu insignito del premio Nobel per la fisica nel 1910. La legge di van der Waals è una equazione di stato che estende la legge dei gas perfetti:

{p}\,{V} = {n}\,{R}\,{T}\,\!

con l'introduzione di due valori a e b (dette costanti di van der Waals) che dipendono dalla sostanza in esame. La formulazione della legge di van der Waals è la seguente:

\left( {p}+ {a}  \frac {n^{2}}{V^{2}}\right)\cdot \left( {V}-{n} {b} \right) ={n}\,{R}\, {T}

Dove p è la pressione del gas, n la quantità di sostanza (numero di moli),V il volume occupato, R la costante universale dei gas e T la temperatura assoluta. Sostituendo eventualmente il volume totale del gas V con il volume molare Vm, si ottiene una espressione più generica priva del fattore n

\left( {p}+   \frac {a}{V_{m} ^{2}}\right)\cdot \left( {V_{m}}- {b} \right) ={R}\, {T}

Quando le molecole si trovano molto vicine tra di loro, cioè praticamente a contatto, risentono delle forze repulsive dei rispettivi elettroni (che come è noto orbitano intorno ai nuclei e sono carichi negativamente). Le molecole si comportano quindi approssimativamente come delle sfere rigide che non possono avvicinarsi a distanza minore di 2r (dove r è il raggio delle sfere). Quando due molecole si urtano escludono un volume pari ad una sfera di raggio 2r, cioè 32 π r³/3; il volume escluso dalle due molecole e 8 π r³/3. La presenza di forze repulsive viene descritta semplicemente sostituendo al volume V il "volume libero" V - n b, dove b è il volume molare "escluso" (detto covolume), cioè il volume propriamente occupato dalle molecole di una mole di gas. Nel gas perfetto non esiste volume escluso, ovvero le molecole sono immaginate come puntiformi.A basse pressioni tale volume è trascurabile rispetto a quello in cui si muovono le molecole, mentre non lo è più a pressioni molto elevate. Se la pressione del gas non è troppo elevata, il modello di Van der Waals e il modello di gas perfetto non differiscono di molto. Ciò è dovuto al fatto che:

  • il volume escluso b è trascurabile rispetto V; a esempio, nel caso di CO2, b= 43 cm³, mentre il volume molare standard (a 0°C e 1 atmosfera) è pari a 22. 414 cm³;
  • le distanze tra le molecole sono abbastanza grandi da rendere il termine a/V² sostanzialmente nullo. Sempre nel caso di CO2 il termine a/V² rappresenta solo il 7 per mille della pressione atmosferica.

In questi casi l'equazione di stato dei gas perfetti rappresenta una buona approssimazione del gas "reale".

Curva di van der waals
Confronto tra legge dei gas perfetti (in verde) e legge di Van der Waals (in rosso) per il biossido di carbonio (CO2). Legenda: p = pressione; V = volume; T = temperatura; R = costante dei gas; A = zona delle forze repulsive; B = zona delle forze attrattive.

Se la pressione del gas è più elevata si osservano invece differenze significative tra i due modelli):

  • nella zona delle medie pressioni, tra 5 e 15 MPa (50-150 atm) il volume V diminuisce sufficientemente da fare sentire il peso del termine a/V²; questo significa che le forze di attrazione tra le molecole non sono più trascurabili ed hanno l'effetto di ridurre la pressione rispetto all'ipotetico gas perfetto in cui le molecole non interagiscono.
  • Nella zona delle alte pressioni, maggiori di 15 MPa, il volume si è ridotto al punto che b non è più trascurabile rispetto a V; in questo modo l'espressione V - nb nel denominatore dell'equazione (3) diventa un numero significativamente minore di V, con relativo aumento di pressione e "sorpasso" della curva di Van der Waals rispetto a quella dei gas perfetti.

Vapore
In fisica è uno stato fisico della materia, definibile come stato gassoso a temperatura inferiore alla propria temperatura critica. Nel linguaggio comune, vapore è utilizzato come sinonimo di vapore acqueo, anche detto vapore d'acqua. Dal punto di vista fisico gas e vapore si distinguono perché il gas non può in alcun modo essere condensato (ridotto allo stato liquido) se non dopo essere stato portato a temperatura inferiore a quella critica. A esempio l'aria può essere compressa sino a migliaia di atmosfere di pressione rimanendo gas; per renderla liquida è necessario che la sua temperatura sia minore di circa - 150 °C. Data la caratteristica dei composti puri di avere una evaporazione isotermica, un vapore può trovarsi in equilibrio con la fase liquida (ossia alla temperatura di ebollizione del composto alle condizioni di pressione date) : si parla in tal caso di vapore saturo. Se la temperatura del vapore è superiore a quella di ebollizione, si parla di vapore surriscaldato.
Vapore saturo
E' un vapore che si trova in uno stato di equilibrio con la fase liquida, in cui il numero di particelle che dalla fase liquida passano alla fase gassosa è uguale al numero di quelle che si condensano nel liquido; contrapposto al vapore surriscaldato che invece, portato a temperature più elevate, è puramente gassoso. A seconda del titolo può essere distinto in vapore saturo secco (titolo uguale a 1) o vapore saturo umido (titolo minore di uno). È il comune vapore che si può osservare in cucina ed è quello che viene generalmente prodotto nelle caldaie a tubi di fumo (vedi). Il vapore saturo è meno efficiente dal punto di vista termodinamico e può presentare fenomeni di condensazione del vapore nella fase di espansione dello stesso nei cilindri. Nel caso di liquido + vapore in condizione di vapore saturo la pressione esercitata dal vapore sul liquido prende il nome di tensione di vapore. Da un punto di vista molecolare l'evaporazione consiste nella fuga di molecole veloci dalla superficie di un liquido. Quando il liquido si trova alla temperatura di TK (Terakelvin), le molecole hanno energia di traslazione che in media è uguale a 3/2kT. Se il vapore viene continuamente soffiato via,il processo di evaporazione procede in tempi molto rapidi, poiché le molecole veloci vengono sottratte al liquido e l'energia cinetica delle molecole restanti diminuisce. Quando invece il vapore rimane sopra il liquido alcune molecole allo stato di vapore riescono a tornare indietro. Se l'evaporazione avviene in un ambiente chiuso,all'inizio vi sarà una grossa fuoriuscita di molecole dal liquido. L'ambiente diventa saturo di vapore, vale a dire che il vapore ha raggiunto la massima concentrazione permessa per la temperatura a cui si trova.
Vapore surriscaldato
S i dice del vapore portato alla temperatura superiore a quella corrispondente a quella di vaporizzazione °C, cosa che comporta la completa vaporizzazione dell'acqua, al fine di migliorare il rendimento termodinamico dell'intero motore a vapore. Il surriscaldamento si ottiene prelevando in caldaia il vapore saturo e facendogli percorrere il surriscaldatore, un insieme di tubi che vengono investiti direttamente dai gas di combustione.Rispetto al vapore saturo nel vapore surriscaldato aumentano, a parità di pressione, temperatura ed entalpia (ossia il contenuto termico). Il miglioramento del rendimento che si ottiene è paragonabile a quello dato dalla doppia espansione, almeno sulle locomotive a vapore, ma con una notevole semplificazione della macchina a vapore.
Vegetazione urbana.
Vedi articolo dedicato all'argomento.
Velocità di deriva o di drift di portatori carichi.
Nella definizione di densità di corrente ci si trova di fronte ad una velocità dei portatori di carica. Questa velocità non è la velocità propria degli elettroni o dei portatori di carica positiva (ioni o altro). La velocità di agitazione termica delle particelle entro un conduttore o un gas è dovuta all'agitazione termica e ubbidisce alle distribuzioni statistiche e al principio di equipartizione dell'energia ed è dell'ordine di 105m / s. In effetti si può facilmente stimare:

\frac {1}{2} m_e \bar v_{t}^{2} = \frac {3}{2} k_B T

dove m_e = 9,1 \cdot 10^{-31} \, Kg è la massa di un elettrone, k_B = 1,4 \cdot 10^{-23} \, J/K è la costante di Boltzmann e

T = 300 \, K è la temperatura ambiente assoluta. Risulta, pertanto:

\bar v_t = \sqrt {\frac {3k_BT}{m_e}} = 1,18 \cdot 10^{5} \, m/s.

Oltre a questo moto casuale, perché ci sia un flusso di carica, i portatori di carica devono muoversi di un'uguale velocità di deriva o di trascinamento. Gli elettroni di conduzione sono i portatori di carica nei metalli e seguono percorsi irregolari, saltando da un atomo all'altro, ma muovendosi nel complesso nella direzione del campo elettrico. La loro velocità di deriva è circa dell'ordine di  10^{-5} \, m/s cioè frazioni di millimetro al secondo. Possiamo stimare questa velocità usando l'energia:

<v_{d}> = \frac {qE}{m_e} \cdot <t> \simeq 10^{-3,-4} \ m/s,

dove <t> è il tempo medio del cammino libero medio tra gli urti di due elettroni. La velocità di deriva si può anche calcolare secondo l'equazione:

I=nAvQ \!\

dove

I \!\ è l'intensità di corrente
n \!\ è il numero di portatori di carica per unità di volume
A \!\ è l'area della sezione del conduttore
v \!\ è la velocità di deriva, e
Q \!\ è la carica di ciascun portatore di carica.

Le correnti elettriche nei solidi tipicamente fluiscono molto lentamente. Per esempio, in un cavo di rame di sezione pari a 0,5 mm², con una corrente di 5 A, la velocità di deriva è nell'ordine del millimetro al secondo. Invece, in un tubo catodico, quasi vuoto, gli elettroni si muovono su linee quasi rette a circa un decimo della velocità della luce. Questa bassa velocità non impedisce ai segnali elettrici di trasmettersi a velocità dell'ordine della velocità della luce, poiché quello che si propaga non è la carica elettrica, ma il campo elettrico attraverso il conduttore. Questa ultima considerazione ci permette di vedere che il vettore densità di carica è proporzionale al campo elettrico, infatti:

\vec J = nq\vec v_{d} = n \frac {q^2 \vec E}{2m_e} \frac {l_m}{v_{t}} = \sigma \cdot \vec E

dove l_m = 10^{-8} \ m è il cammino libero medio degli elettroni e vt è la velocità di agitazione termica degli elettroni.

In questo modo \vec J = \sigma \vec E dove σ è la conduttività elettrica ed è il fattore di proporzionalità.
Vendita (Società di)
Sono i soggetti autorizzati ad intrattenere rapporti commerciali di vendita con i clienti finali in libero mercato.
Vento
L’energia del vento (eolica), legata ai movimenti delle masse d’aria tra le zone di alta e bassa pressione atmosferica, è diffusa ovunque sulla Terra, ma solo in alcune zone è sufficientemente intensa e regolare da presentare interesse ai fini di una utilizzazione pratica. Lo sfruttamento dei venti per ricavarne energia utile dapprima per la navigazione, poi per l'irrigazione e la lavorazione di prodotti agricoli, risale agli albori della civiltà umana ed è tutt’oggi praticato in vari modi. Più recente, invece, è la conversione dell’energia eolica in energia elettrica. Questo processo avviene con macchine denominate aerogeneratori, che concettualmente derivano dai tradizionali mulini a vento. Un aerogeneratore, infatti, è costituito da un rotore formato da alcune pale (in genere una, due o tre) fissate su un mozzo e progettate per sottrarre al vento parte della sua energia cinetica. Tramite la rotazione delle pale viene azionato il generatore di energia elettrica. In concreto, però, i moderni aerogeneratori hanno davvero ben poco in comune con i tradizionali mulini a vento, poiché si tratta di macchine molto sofisticate, realizzate con materiali idonei a resistere a sollecitazioni che - nel caso delle macchine più grandi - sono confrontabili a quelle delle ali di aeroplani. Le estremità delle pale possono infatti raggiungere velocità superiori anche di cinque volte a quella del vento e, nel caso di raffiche anomale o di tempeste, ai bordi si possono raggiungere velocità quasi supersoniche. La velocità del vento ha, naturalmente, un ruolo determinante sia nella progettazione delle macchine, sia nella valutazione del potenziale eolico di un sito. Ai fini di uno sfruttamento economicamente vantaggioso dell’energia eolica è pertanto fondamentale lo studio delle variazioni della velocità del vento in un determinato sito, che deve essere condotto sulla base di osservazioni di lungo periodo. L’energia eolica è una fonte priva di emissioni: la conversione in energia elettrica avviene, infatti, senza alcun rilascio di sostanze nell’atmosfera. In termini di impatto ambientale, l’unica accortezza che è necessario assumere è quella di un corretto inserimento delle centrali (costituite da un insieme di aerogeneratori, a volte alcune decine) nel contesto paesaggistico circostante. Tra le nuove fonti rinnovabili è inoltre quella tecnologicamente più matura e più vicina alla competitività economica con le tradizionali fonti di produzione elettrica . Ciò spiega il forte sviluppo che sta conoscendo in questi ultimi anni; in particolare nell’ Unione Europea, ove la potenza eolica installata è la maggiore a livello mondiale. Paesi come la Germania, la Spagna e la Danimarca si pongono all’avanguardia in questo settore, ma è rilevante anche lo sviluppo dell’energia eolica in Italia , benché nel nostro Paese siano presenti numerosi fattori che condizionano negativamente lo sviluppo di tale fonte (la scarsa ventosità media, la conformazione in gran parte montuosa del territorio, l’elevata densità abitativa e la diffusa presenza sul territorio di beni culturali e siti archeologici). Il contributo dell’eolico alla produzione nazionale di energia elettrica da fonti rinnovabili non solo è in costante crescita, ma è anzi quello che ha registrato il maggiore incremento nell’ultimo decennio. In particolare, nello scenario nazionale che vede un forte sviluppo di campi eolici nelle Regioni meridionali.
Verso convenzionale dell'energia elettrica
Si assume come verso positivo (o entrante) dell’energia quello in ingresso alla Rtn. Si assume come verso negativo (o uscente) dell’energia quello uscente dalla Rtn.
Vettoriamento
Servizio di trasporto dell'energia elettrica da uno o più punti di consegna ad uno o più punti di riconsegna, come definito dalla Delibera 13/99 dell'Autorità per l'Energia Elettrica e il Gas (AEEG).
Volt (V)
Unità di misura della tensione esistente tra due punti in un campo elettrico. Ai capi di una cella fotovoltaica si stabilisce una tensione di circa 0,5 Volt; circa 17 Volt ai capi di un tipico modulo fotovoltaico (nel punto di massima potenza).
Voltura
Consiste nella risoluzione del contratto esistente e contestuale stipula di un nuovo contratto di fornitura di energia elettrica, da parte di altro intestatario e senza alcun intervento tecnico sul misuratore (a parità di potenza impegnata).
Vuoto quantistico
Vedi articolo specialistico.
Watt (W)
E' l'unità di misura della potenza del Sistema Internazionale. Un watt equivale a 1 joule al secondo (1 J/s) o, in unità elettriche, 1 voltampere. Il watt prende il nome da James Watt per il suo contributo nello sviluppo della macchina a vapore. In elettrotecnica si utilizzano comunemente anche il VA (voltampere) e il VAR (voltampere reattivo) come unità di misura rispettivamente della potenza apparente e della potenza reattiva. Dimensionalmente equivalenti al watt, il loro uso è giustificato dal fatto che indicano grandezze che generalmente non possono essere sommate direttamente. Alcuni dei multipli e sottomultipli più utilizzati del watt, sono:

  • milliwatt (mW) = 10-3 W = 0,001 W
  • chilowatt (kW) = 103 W = 1.000 W
  • megawatt (MW) = 106 W = 1.000.000 W
  • gigawatt (GW) = 109 W = 1.000.000.000 W
  • terawatt (TW) = 1012 W = 1.000.000.000.000 W

Watt di picco (Wp)
Unità di misura usata per indicare la potenza che un dispositivo fotovoltaico può produrre in condizioni sandard di funzionamento (irraggiamento 1.000 W/m2 e temperatura 25°C).
Wattora (Wh)
E' una misura di energia; corrisponde alla potenza di un watt fornita per un'ora, quindi 3.600 joule. Non appartiene al SI, in quanto contiene la misura del tempo in ore; è comunemente utilizzata per la tariffazione dell'energia. Quindi una lampadina che assorbe 100 W, in due ore consuma 200 Wh (720.000 J).
Zetta
Zetta è un prefisso SI che esprime il fattore 10exp21, ovvero 1000exp7, ovvero 1 000 000 000 000 000 000 000, ovvero mille miliardi di miliardi. È stato adottato nel 1991 dalla CGPM. Deriva dal francese sept e ricorda la settima potenza di 1000. Qualche anno prima, per esprimere lo stesso fattore, era stato introdotto non ufficialmente il prefisso Hepa, apparentemente derivato dalla parola greca, hepta, sette.

Prefissi del Sistema Internazionale

10n Prefisso Simb. Nome Equivalente decimale
1024 yotta Y Quadrilione 1 000 000 000 000 000 000 000 000
1021 zetta Z Triliardo 1 000 000 000 000 000 000 000
1018 exa E Trilione 1 000 000 000 000 000 000
1015 peta P Biliardo 1 000 000 000 000 000
1012 tera T Bilione 1 000 000 000 000
109 giga G Miliardo 1 000 000 000
106 mega M Milione 1 000 000
103 kilo k Mille 1 000
102 etto h Cento 100
10 deca da Dieci 10
10−1 deci d Decimo 0,1
10−2 centi c Centesimo 0,01
10−3 milli m Millesimo 0,001
10−6 micro µ Milionesimo 0,000 001
10−9 nano n Miliardesimo 0,000 000 001
10−12 pico p Bilionesimo 0,000 000 000 001
10−15 femto f Biliardesimo 0,000 000 000 000 001
10−18 atto a Trilionesimo 0,000 000 000 000 000 001
10−21 zepto z Triliardesimo 0,000 000 000 000 000 000 001
10−24 yocto y Quadrilionesimo 0,000 000 000 000 000 000 000 001


LOGO

www.impresaoggi.com