Definizione e caratteristiche dell’entropia
Qual é il contrario di entropia?
In meccanica statistica, l’entropia viene definita come una grandezza indicativa del disordine presente in un qualsiasi sistema fisico.
Nella termodinamica, il significato di entropia si collega al secondo principio secondo cui il calore tende a passare spontaneamente da un corpo con temperatura più elevata verso un altro con temperature minore, creando un flusso che continua fino al raggiungimento dell’equilibrio.
Per entropia fisica si intende la misura di tale equilibrio, risultante da trasformazioni successive di tipo molecolare.
La definizione di entropia è strettamente collegata al grado di disordine di un sistema, secondo cui se tale indice è basso, il sistema è ordinato, se invece questo indice è alto, il sistema è disordinato.
L’entropia termodinamica può essere vista anche come la quantità di energia che si rende disponibile all’interno di un sistema chiuso, dove si verificano scambi di calore più e meno intensi.
Il contrario del termine entropia è “sintropia”, che, secondo le definizioni più accettate, indica “ordine”: si tratta di un vocabolo di derivazione greca il cui significato è appunto quello opposto a disordine.
La sintropia è pertanto la tendenza di un sistema a raggiungere la più adeguata configurazione derivante solitamente dalla migliore differenziazione delle sue parti.
La dicotomia:
entropia=disordine;
sintropia=ordine;
costituisce uno dei principali capisaldi della fisica, secondo i principi di una teoria unitaria universalmente accettata come valida a partire dalle ricerche scientifiche dei primi del ‘900.
A cosa serve l’entropia?
L’entropia serve a quantificare le trasformazioni che, nel tempo, si verificano perché un sistema sia in grado di raggiungere uno stato d’equilibrio (fisico oppure biologico).
Questo concetto è applicabile non soltanto a sistemi di piccole dimensioni (come oggetti), ma anche enormi: si parla infatti di entropia dell’universo riferendosi alle continue trasformazioni che esso subisce nel tempo.
Quando l’entropia è bassa, l’energia è al massimo, mentre al contrario quando l’entropia è alta, l’energia è minima, seguendo processi irreversibili.
La formula dell’entropia è la seguente:
S=J/K
dove J indica la quantità di calore scambiato e misurato in Joule;
K indica la temperatura a cui si verifica lo scambio, misurata in gradi Kelvin.
Il concetto di entropia, che è piuttosto complesso, è collegabile sia alla termodinamica che alla meccanica quantistica poiché nel primo caso si assiste a una trasformazione di calore e nel secondo caso a uno spostamento di particelle.
Sapere cos’é l’entropia consente di prevedere l’evoluzione di alcuni sistemi fisici, le cui regole rispondono alla formula S=J/K, applicabile direttamente oppure indirettamente.
Di solito si fa riferimento al concetto entropia=disordine, anche se tale uguaglianza deve venire interpretata con le dovute limitazioni.
Un sistema associato a un aumento di entropia è più disordinato rispetto a un altro che si collega a una diminuzione di entropia che tende pertanto alla sintropia (ordine).
Bisogna sempre prendere in considerazione il tipo di sistema che viene analizzato in quanto ognuno di essi si distingue per molecole differenti e per diverse modalità di spostamento e quindi di trasformazione.
In alcuni casi si parla infatti di sistemi cristallini, che sono quelli più ordinati, oppure di semi-cristallini (parzialmente ordinati) e amorfi (disordinati), basandosi sulle loro caratteristiche per stabilire con precisione l’entità dell’entropia ad essi collegata.
Chi scoprì l’entropia?
Il concetto di entropia fu introdotto per la prima volta nel XIX secolo dal fisico Sadi Carnot che nel 1824 scoprì questa variabile fisica.
In seguito il significato di entropia venne ampliato con altre considerazioni sul movimento casuale delle molecole e quindi sulla loro disposizione nei sistemi fisici e biologici.
Le leggi dell’entropia esprimono il concetto secondo cui le trasformazioni avvengono spontaneamente in un’unica direzione e cioè verso la zona di maggiore disordine.
Una delle proprietà fondamentali dell’entropia afferma che in un sistema isolato questa variabile aumenta in maniera irreversibile e non diminuisce mai.
Applicabile a moltissimi settori della fisica, l’entropia permette ai ricercatori non soltanto di quantificare le trasformazioni, ma anche di prevedere il loro andamento nel breve e nel lungo periodo di tempo.
Da cui si può capire l’estrema importanza di questo concetto.