Documente Academic
Documente Profesional
Documente Cultură
Donde (s), para sólido, g (gases) indican abreviadamente el estado material de los reactivos y de los productos.
Los cálculos de las ecuaciones químicas se aplican de esta manera no solo a las cantidades de moléculas y los
moles de las sustancias que intervienen sino también a los calores o entalpías de reacción, teniendo en cuenta
que estos vienen dados en kJ por mol (Kilojulios por mol). En la ecuación anterior, la variación de entalpía de la
reacción en kJ/mol esta escrita a la derecha y se refiere a la ecuación tal cual está escrita. Este calor se
desprende por mol de ecuación, o por cada dos moles de clorato potásico o por cada tres moles de oxigeno que
se obtiene.
Cuando una reacción química ocurre puede liberar energía en modo de calor al entorno o puede absorber calor
del mismo. De acuerdo con el criterio de signos utilizados, si sistema cede energía al entorno se dice entonces
que la reacción es una reacción exotérmica) y y por el contrario si el sistema de reacción toma
energía calorícia del exterior la reacción es una reacción endotérmica y entonces .
Ejemplos:
Reacción exotérmica ( )
Reacción exotérmica ( )
Reacción endotérmica ( )
Cuando la sal común NaCl se disuelve en agua, una pequeña cantidad de energía calorífica es absorbida
Reacción endotérmica ( )
indica que la reacción se realiza en condiciones estándar 25 ºC (298 K) y 1 atm de presión.
La Ley de Hess
La Ley de Hess, es un método indirecto de calcular el Calor de Reacción ó Entalpia
de Reacción. La ley de Hessse puede enunciar como sigue:cuando los reactivos se
convierten a productos, el cambio de entalpía es el mismo, independientemente de
que la reacción se efectúe en una paso o en una serie de pasos.
Entropía
En termodinámica, la entropía (simbolizada como S) es una magnitud física para
un sistema termodinámico en equilibrio. Mide el número
de microestados compatibles con el macroestado de equilibrio, también se puede
decir que mide el grado de organización del sistema, o que es la razón de un
incremento entre energía interna frente a un incremento de temperatura del
sistema.
La entropía es una función de estado de carácter extensivo y su valor, en
un sistema aislado, crece en el transcurso de un proceso que se da de forma
natural. La entropía describe lo irreversible de los sistemas termodinámicos. La
palabra entropía procede del griego (ἐντροπία) y significa evolución o
transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la
década de 1850;12 y Ludwig Boltzmann, quien encontró en 1877 la manera de
expresar matemáticamente este concepto, desde el punto de vista de la
probabilidad.
Entropía y termodinámica
Magnitud termodinámica que mide la parte de la energía no utilizable para realizar trabajo
y que se expresa como el cociente entre el calor cedido por un cuerpo y su temperatura
absoluta.4
Dentro de la termodinámica o rama de la física que estudia los procesos que surgen a
partir del calentamiento de energías y de la puesta en movimiento de diferentes elementos
naturales. La entropía figura dentro de esta rama de la física como una especie de
desorden de todo aquello que es sistematizado, es decir, como la referencia o la
demostración de que cuando algo no es controlado puede transformarse y desordenarse.
La entropía, además, supone que de ese caos o desorden existente en un sistema surja
una situación de equilibrio u homogeneidad que, a pesar de ser diferente a la condición
inicial, suponga que las partes se hallan ahora igualadas o equilibradas.
Esta idea de desorden termodinámico fue plasmada mediante una función ideada
por Rudolf Clausius a partir de un proceso cíclico reversible. En todo
proceso reversible la integral curvilínea de
sólo depende de los estados inicial y final, con independencia del camino seguido (δQ es
la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta).
Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T),
denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:
.
Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en
lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación
siguiente:
Tenemos entonces que: Como sucede para la energía potencial, también para que
la energía interna, lo que importa es su cambio. Si se escoge un valor arbitrario
para la energía interna en un sistema patrón de referencia, su valor en cualquier
otro estado puede recibir un valor determinado. Esta ecuación se conoce como la
primera ley de la termodinámica, al aplicarla debemos recordar que se considera
positiva cuando el calor entra al sistema y que será positivo cuando el trabajo lo
hace el sistema.
Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al
sistema y que sea positivo cuando la energía sale del sistema como trabajo. Se
llegó a esta convención, porque fue el estudio de las máquinas térmicas lo que
provocó inicialmente el estudio de la termodinámica. Simplemente es una buena
forma económica tratar de obtener el máximo trabajo con una maquina de este
tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas
naturalmente se convierten en cantidades de interés.
Hay algunas preguntas importantes que no puede decir la primera ley. Por
ejemplo, aunque nos dice que la energía se conserva en todos los procesos, no
nos dice si un proceso en particular puede ocurrir realmente. Esta información nos
la da una generalización enteramente diferente, llamada segunda ley de la
termodinámica, y gran parte de los temas de la termodinámica dependen de la
segunda ley.
Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar
que si cualquiera de los enunciados es falso, el otro también debe serlo.
Supóngase que es falso el enunciado de Clausius, de tal manera que se pudieran
tener un refrigerador que opere sin que se consuma el trabajo. Podemos usar una
máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto de hacer
trabajo y devolver parte del calor a un cuerpo frío.
Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la
entropia se ha definido como: En donde k es la constante de Bolzmall es la
probabilidad termodinámica. En vista de la anterior disertación, la tercera ley
equivale a establecer que: cuando 0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía
mínima para una sustancia que obedezca la tercera ley. Hay varios casos referidos
en la literatura en donde los cálculos basados en la tercera ley no están
desacuerdo con los experimentos. Sin embargo, en todos los casos es posible
explicar el desacuerdo sobre la base de que la sustancia no es “pura”, esto es,
pueda haber dos o más isótopos o presentarse moléculas diferentes o, también,
una distribución de no equilibrio de las moléculas. En tales casos hay más de un
estado cuántico en el cero absoluto y la entropia no tiende a cero.