Sunteți pe pagina 1din 6

CAPITULO 5 ENTROPA Y NEGUENTROPA Cada acto que realizamos en el curso del da implica fuerza y energa.

En general, todo sistema diseado para alcanzar un objetivo requiere de energa. Esta energa dentro del sistema puede convertirse en energa cintica o potencial. En general, podemos sealar que el trabajo que realizamos a nivel de suelo se transforma en energa cintica y en perdida por friccin. La energa potencial se encuentra relacionada con la masa del cuerpo y los cambios de altura. Normalmente al realizar un trabajo, el sistema desarrolla ambas formas de energa. Las leyes de la termodinmica Ellas se encuentran relacionadas con los intercambios de energa y con la tendencia de sus flujos, especialmente de la energa calrica. Cuando dos cuerpos que poseen la misma temperatura son colocadas uno al lado de otro, sus temperaturas permanecen constantes. Esta es la llamada ley cero de la termodinmica. Entre uno y otro cuerpo no existe flujo neto de energa calrica. Ambos cuerpos se encuentran en equilibrio. La primera ley de la termodinmica dice que en un sistema cerrado la energa es conservada. No se gana ni se pierde. Qu sucede cuando los dos objetos no poseen la misma temperatura? La respuesta est en la segunda ley de la termodinmica que dice que existir un flujo neto de energa y siempre desde el cuerpo ms caliente al ms frio. El cambio de estados ms ordenados u organizados a estados menos ordenados y organizados, es una cantidad definida y medible, denominada entropa. Es el factor que implica el hecho de que mientras la energa total contenida en un sistema cerrado permanece constante con el incremento de la entropa, esa energa puede ser utilizada cada vez menos. Entropa No es un concepto o una idea simblica, sino una cantidad fsica mensurable tal como el largo de una cuerda. Cuando llevamos una sustancia a cualquier otro estado mediante pasos lentos y reversibles la entropa aumenta en una cantidad que se calcula dividiendo cada pequea porcin de calor que debemos agregar en ese proceso, por la temperatura absoluta en la cual lo agregaremos y sumando todas estas pequeas contribuciones. Podemos afirmar que la entropa del universo es siempre creciente. En efecto, si se considera al universo como un sistema aislado inevitablemente, de acuerdo con la termodinmica, ira pasando de estados ms organizados hacia estados menos organizados, hasta llegar a una un caos final. Evidentemente, esta conclusin no encierra grandes esperanzas en cuanto a la supervivencia del hombre, de la tierra y del universo. Las leyes fsicas solo pueden ser aplicadas dentro de ciertos lmites y para ciertos rdenes de magnitud. La entropa ejerce su accin en los sistemas aislados, es decir, aquellos que no comercian con su medio. Luego podemos afirmar concretamente que estos sistemas se encuentran condenados al caos y a la destruccin. Todo esto es vlido para los sistemas cerrados, pero qu pasa con los sistemas abiertos o los sistemas vivos? Cuando un sistema no vivo es aislado y colocado en un medio uniforme, todo movimiento muy pronto llega hasta punto muerto. Se alcanza un estado permanente en que no ocurre ningn suceso observable; los fsicos llaman a esto; estado de equilibrio termodinmico o de mxima entropa. Cmo logra un organismo viviente evitar ese

decaimiento que observbamos en los sistemas cerrados? La respuesta evidente es: comiendo, bebiendo, respirando y asimilando. La Entropa y los Sistemas Abiertos Recapitulando lo que dijo anteriormente se puede sealar la entropa como una ley, la cual podemos concluir a partir de la segunda ley de la termodinmica, el cual nos indica que los sistemas tienden a alcanzar su estado ms probable. En el mundo de la fisca el estado ms probable de un sistema es el caos, el desorden y la desorganizacin. Para entender mejor los sistemas abiertos ponemos el ejemplo de la fabricacin de ladrillos de arcilla, el estado en que se encuentra la tierra ser de desorden. Si de la tierra de greda se desea fabricar ladrillos ser necesario organizarla o agruparla. En este sentido se puede decir que se ah organizado un conjunto de granos de arcilla. Cuando se realiza la construccin de un edificio se hace una organizacin de los ladrillo en una segunda etapa, representado de esta manera un estado mucho mas organizado y una distribucin de menos probable de los granos de arcilla. Considerando la accin de tiempo sobre el muro del edificio vemos como los ladrillos vuelven y se descomponen a su estado mas probable que es la arcilla, a esta descomposicin se lo denomina entropa. Pero si observamos algunos aspectos en la accin de tiempo podemos darnos cuenta que por ejemplo la iglesia, algunas empresas, la industria se han mantenido y esto se debe a que se han ido organizando al pasar de un estado a otro. La Neguentropa y la subsistencia del sistema Hemos visto que naturalmente las cosas u organismos vivos por ms resistentes que sean tienden a aumentar su grado de entropa (desgaste) con el tiempo, pero tratan de adquirir entropa negativa para alargar su vida o su utilidad La Neguentropa es la entropa negativa que es lo contrario a la entropa, entonces podemos definirlo como aquella que es en s una medida de orden. De este modo el mecanismo mediante el cual el organismo se mantiene estacionario ya un nivel bastante alto de ordenamiento(es decir, a un nivel bajo de entropa) realmente consiste en extraer continuamente orden (u organizacin) de su medio. De esta forma los sistemas abiertos al extraer orden del medio y reemplazar con el desorden producido por sus procesos vitales rompen la ley inexorable que ataca a los sistemas (la entropa creciente). De esto podemos decir entonces que: El sistema cerrado tiene una vida contada, sucumbe ante la entropa creciente. El sistema abierto presenta caractersticas tales que est en condiciones de subsistir y an de eliminar la ley de entropa (pone orden). La generacin de la Neguentropa

Supongamos que tenemos un sistema con una corriente de entrada x y una corriente de salida (y) e y a su vez debe generar a x pero debido al desgaste de energa (entropa) en el proceso de transformacin dentro del sistema la corriente de salida y es menor a la corriente de entrada x. Entonces cada vez que y es menor el sistema tiende a llegar al equilibrio (mxima entropa). Para combatir este proceso es necesario disponer de energa adicional (recursos). Si la energa generada por la corriente de salida y es mayor a la necesaria para adquirir la corriente de entrada x destinada al proceso de transformacin, entonces si podemos obtener energa adicional, de esta forma generamos la entropa negativa. Entonces la condicin debera ser y>x Al mismo tiempo nuestro sistema para poder sobrevivir debe desarrollar algunos subsistemas como y(a + b) Y(a)= energa que el sistema entrega al medio para adquirir x Y (b)= Energa que se guarda(o vuelve al sistema) para combatir la entropa. O= proceso (organizacin que se desarrolla dentro del sistema para combatir la entropa, utilizando la energa b) T= Proceso de transformacin (-)Ax=entropa negativa

X T (-)Ax O

y(a+b)

y(a)

Y(b)

En general podemos decir que los sistemas sociales no gastan toda la energa creada por la corriente de salida en el proceso de fabricacin o en general en la produccin. La organizacin del sistema representa al proceso que lucha o se opone a la entropa, y la energa gastada en mantener el sistema organizado es la entropa negativa o neguentropa. Entropa e informacin Sabemos que las informaciones son comunicadas desde un punto emisor hasta un punto receptor dentro del sistema social, pero es evidente que la informacin puede sufrir deformaciones, interrupciones o accidentes, cambios en su contenido en el transcurso de los canales de distribucin, es decir que existe la probabilidad que el mensaje se desorganice en el proceso de comunicacin. En general podemos decir que la informacin que

proporciona un mensaje al ser transmitido, tiende a disminuir, pero nunca a aumentar. Esta prdida de informacin equivale a la entropa. Pero la informacin se puede considerar como una disminucin de incertidumbre o del caos, y en este sentido, la informacin tiende a combatir la entropa, es decir que la informacin es una neguentropa. Hemos demostrado que un sistema se encuentra en su mxima entropa cuando sus probabilidades son las mismas es decir que tienen una igual distribucin de probabilidades y que un estado menor de entropa tiene probabilidades desiguales, en este sentido podemos suponer que: Informacin => (-) entropa o bien Informacin => Neguentropa

Podemos decir que la informacin acumulada evita la igualdad o equilibrio de modo que evita la entropa, la informacin una vez elaborada representa una accin organizada tendiente a combatir la entropa positiva del medio. P (1)=P (2)=P (3)=P (4)P(N)=1/N Por ejemplo, si estamos dentro de una pieza completamente oscura y se nos pide que encontremos una moneda que est en el suelo, la probabilidad de que se encuentre en algn punto determinado (una esquina) es igual a la probabilidad de que se encuentre en cualquier otro punto (cerca de la ventana, debajo de una mesa, etc.) en efecto, la moneda puede estar en cualquier parte. En ese momento, nos encontramos en un estado de mxima entropa o incertidumbre total: no sabemos que hacer, pero si la moneda al caer al suelo ha sonado, este sentido es una informacin que recibimos y que nos indica una cierta rea del suelo donde podra estar la moneda. Esta informacin hace variar las probabilidades. Ahora sabemos positivamente que la moneda esta cercar de la puerta; por lo tanto, las probabilidades de ese sector aumentan, mientras disminuyen las probabilidades de que la moneda se encuentre en otros sectores; incluso, algunas de esta se hacen cero (sabemos q no est cerca de la mesa ni cerca de la ventana). Hemos pasado desde un estado mximo entropa (de igual distribucin de las probabilidades) a un estado con menor entropa (probabilidades desiguales). En este sentido, podemos suponer la relacin: Informacin => (-) Entropa O bien: Informacin => Neguentropia A un mas la ciberntica ha llegado a definir la entropa negativa (o neguentropia) y la informacin mediante una transicin en dos sentidos: Neguentropia <= => Informacin Informacin y organizacin

Hemos indicado ms arriba que mientras la entropa es una medida de desorden, la informacin es una mediad de organizacin. Esto quiere significar que si comenzamos a obtener informaciones referentes a algunos hechos desordenados y al azar, es posible que comencemos a encontrar ciertas relaciones y que finalmente, podramos estructurar un modelo que nos describa la conducta de esos eventos. March y Simn sealan que l capacidad de una organizacin para mantener un modelo de actividad altamente complejo e interdependiente se encuentra limitada, en parte, por su capacidad para manejar y elaborar la comunicacin requerida para la coordinacin. Ellos plantean las siguientes hiptesis: Mientras ms mayor se la eficiencia de la comunicacin dentro de la organizacin, mayor ser la tolerancia hacia la interdependencia. Un sistema social implica una restriccin de las comunicaciones entre sus miembros. Si tomamos un grupo desorganizado, 60 personas por ejemplo, comunicndose al azar dentro de una pieza grande, el nmero potencial de canales de comunicacin es 1770. Si ellos se encuentran organizados en una red de 12 combinaciones de 5 personas de modo que cada persona de cada grupo de 5 tuviera un papel claramente definido y fuera interdependiente de las otras 4, el nmero de canales dentro del grupo de trabajo seria reducido a 10. Por otro parte, Katz y Kahn seala enfticamente que moverse de un estado desorganizado a un grupo organizado requiere de la introduccin de restricciones para reducir lo difuso y la comunicacin al azar. Se canaliza la informacin con el fin de cumplir con los objetivos de la organizacin. En trminos de la teora de la informacin, la comunicacin libre, sin restriccin produce ruidos dentro del sistema, sin un modelo, sin pensar, sin precisin existe un sentido pero no msica. Sin estructura, sin ritmo, sin especificaciones, existe una torre de babel de lenguas e idiomas, pero no existe un sentido. Thelen resume de la siguiente manera la contribucin de Ashby en relacin al problema de la selectividad en la comunicacin: Cualquier sistema viviente es una asociacin infinitamente compleja de subsistemas. El complejo suprasistema posee todas las propiedades de un sistema adems de comunicaciones atreves de las fronteras de los subsistemas. El brillante tratamiento de Ashby muestra que la estabilidad del suprasistema tomara un tiempo infinitivamente extenso para ser lograda si existieran comunicaciones compleja y rica entre los subsistemas, porque, en realidad, todas las variables de todos los subsistemas tendran que ser satisfechas de inmediato, de un suceso totalmente improbable. Si se restringiera la comunicacin entre los subsistemas, o si esto fuera temporalmente aislado, entonces cada subsistema lograra su propia estabilidad con un mnimo de interferencia del medio en cambio de los otros subsistemas que buscan estabilidad. Con comunicacin restringidas y limitadas es posible acumular xito (por ejemplo atreves de pruebas y aproximaciones sucesivas) mientras que en el suprasistema individual el xito es el resultado de una accin que involucra todo o nada as como la forma atreves de la cual se mueve el sistema total hacia su equilibrio depende mucho de las correcciones funcionales entre sus partes. La adaptacin de todo el sistema hace uso de dos condiciones: correccin suficiente de modo que la operacin de un subsistema pueda activar a otro, con el fin de que las contribuciones de todos puedan contribuir al total; y suficiente separacin entre los subsistemas, para que sea posible alguna especializacin de funciones y que el sistema como un todo pueda aproximarse hacia ese Equilibrio. Pero, jams un suprasistema

tendr un equilibrio en todos sus subsistemas en el mismo momento. Cada subsistema tiene un poder de veto sobre el equilibrio de otro subsistema y, bajo una variedad de condiciones, un subsistema puede dominar a otro. Lo que hemos sealado en este ltimo prrafo significa que, para que el sistema pueda operar dentro de cierto equilibrio, es necesario un limitacin de las comunicaciones, es decir, que lo sistemas sociales deben poseer una red selectiva de comunicacin. Pero por otra parte, un exceso de informacin parece limitar o disminuir la efectividad de la organizacin. En efecto, el sistema social posee una capacidad limitada para elaborar la informacin. En otras palabras, una corriente cerrada de informacin superior a la capacidad de elaboracin que posee el sistema, disminuye la habilidad de este para operar en su medio; en efecto, puede actuar como una fuerza de entropa positiva.

S-ar putea să vă placă și