Documente Academic
Documente Profesional
Documente Cultură
Una forma menos común, pero muy efectiva en simplificaciones, de escribir el número e es la siguiente:
ISAAC NEWTON
El inglés Isaac Newton (1642-1727) es conocido especialmente por sus trabajos en física y mecánica, en
particular por su formulación de las leyes de la gravedad. No obstante, fue también un matemático muy
destacado, fundador junto a Gottfried Wilhelm Leibniz del cálculo infinitesimal, y autor de notables
desarrollos algebraicos.
JUSTIFICACIÓN MEDIANTE PROCEDIMIENTOS GRÁFICOS DE
ALGUNAS IGUALDADES SINGULARES
Relacionada con este concepto, se llama variación media de una función f (x) en un intervalo [a, b] al cociente
siguiente:
El valor de este cociente coincide con la pendiente de la recta que pasa por los puntos de coordenadas (a, f
(a)) y (b, f (b)).
Cuando los dos puntos del intervalo [a,b] están lo suficientemente próximos entre sí, el cociente anterior
indica la variación instantánea de la función. En tal caso, el valor de b podría expresarse como b = a + h,
siendo h un valor infinitamente pequeño.
Este límite también puede expresarse de las dos formas alternativas siguientes:
Tal es la interpretación geométrica de la derivada de una función en un punto: coincide con la pendiente de la
recta tangente a la función en dicho punto.
La derivada de una función en un punto coincide con la pendiente de la recta tangente a la función en dicho
punto.
Derivadas laterales
Como sucedía con los límites, se pueden definir los conceptos de derivadas laterales de una función en un
punto.
Dada una función f (x) y considerado un punto a de su dominio de definición, se define su derivada por la
derecha, y se denota como f ¿ (a+), al límite siguiente:
Por su parte, la derivada por la izquierda de f (x) en el punto a, denotada por f ¿ (a-), se define como el
siguiente límite:
Una función se dice derivable cuando tiene derivadas por la derecha y por la izquierda, y sus valores
coinciden.
DERIVADAS SUCESIVAS
Al derivar una función se obtiene, a su vez, una función. Por tanto, en ciertos casos será posible derivar la
derivada. Así, la segunda derivada de una función y = f (x) se escribirá como y¿ o f ¿ (x), la tercera derivada
(derivada de la segunda derivada) se denotará por y¿¿ o f ¿¿ (x), y así sucesivamente. Un ejemplo típico de
funciones derivables infinitas veces son las funciones trigonométricas seno y coseno.
COCIENTE INCREMENTAL
Ejemplo de una función que tiene derivadas por la derecha y por la izquierda que no son iguales entre sí. Esta
función no es derivable en x = 1.
Una notación utilizada comúnmente para indicar el incremento de la función f (x) dividido por el incremento
del valor de la variable independiente suele ser:
D f (x) / Dx.
La Función Cuadrática
Las relaciones entre las variables dependiente e independiente de una función no siempre siguen una forma
de crecimiento lineal. Una modalidad común de estas relaciones es la familia de las llamadas funciones
cuadráticas, cuya representación gráfica es una parábola.
Función y = x2
La función real de variable real en la que la variable dependiente varía con el valor del cuadrado de la
variable independiente se denomina función cuadrática. La expresión general de la función cuadrática es la
siguiente:
y = f (x) = ax2 + bx + c
Interpretación geométrica
Por su naturaleza, las funciones cuadráticas son continuas, y se representan gráficamente mediante parábolas.
Así, una función cuadrática y = ax2 + bx + c se corresponde con la ecuación de una parábola donde
las abscisas de los puntos de intersección de la misma sobre el eje horizontal son las soluciones de la ecuación
que resulta de igualar a cero dicha función, es decir:
La media aritmética de estas dos abscisas proporciona el valor de la abscisa del vértice de la parábola:
xv = -b/2a.
La forma más sencilla de función cuadrática, y = ax2, es una parábola cuyo vértice se encuentra en el origen de
coordenadas, por lo que corresponde a una función simétrica con respecto al eje vertical.
Toda función cuadrática se puede escribir como y = a(x ? p)2 + q, cuya forma gráfica es idéntica a la de y = ax2,
aunque desplazada p unidades en el eje horizontal y q en el eje vertical.
Por tanto, se trata de determinar los puntos comunes de una función lineal (la recta) y una función cuadrática
(la parábola).
Este sistema de ecuaciones puede resolverse por medios algebraicos (por igualación y resolviendo la
ecuación de segundo grado que resulta) o por medios gráficos (ver t8).
Cada semiplano definido por una recta puede expresarse por medio de una inecuación lineal. Genéricamente,
puede decirse que la recta y = ax + b divide al plano en los dos siguientes semiplanos:
El primer semiplano («superior») está formado por los puntos que cumplen la inecuación y > ax + b.
El segundo semiplano («inferior») se compone de los puntos que verifican la inecuación y < ax + b.
Este enfoque facilita la resolución gráfica de los sistemas de inecuaciones lineales por medio de su
representación a modo de semiplanos limitados por funciones afines (rectas geométricas).
Cuando una inecuación lineal incluye el signo de igualdad ( o ), el semiplano comprenderá a la recta que lo
delimita. En caso de desigualdad estricta, los puntos de recta quedarán excluidos del semiplano.
Una recta divide al plano en una región «superior» y otra «inferior». En la imagen, el punto (2,8) está en el
semiplano superior, y el punto (2,5),en el semiplano inferior.
EL TIRO PARABÓLICO
Un ejemplo clásico de función cuadrática en la física viene dado por la trayectoria que sigue un proyectil
lanzado desde un cañón situado a ras de tierra hasta que alcanza un objetivo situado aproximadamente a la
misma altitud. En condiciones ideales de ausencia de rozamiento por el aire y otros factores perturbadores, la
bala de cañón describiría una parábola perfecta del cañón al objetivo. La ecuación de esta trayectoria es:
Polinomios
En la formulación abstracta de problemas matemáticos se recurre con frecuencia a las llamadas expresiones
algebraicas, que no son sino conjuntos de letras y números unidos entre sí por signos aritméticos. Los
polinomios son casos especiales de expresiones algebraicas donde las variables o indeterminadas aparecen
siempre elevadas a un exponente positivo y entero.
Los coeficientes, o valores constantes ai, con i = 0, 1, 2, ..., n. El que multiplica a la variable elevada al
mayor grado se denomina coeficiente principal (denotado por an), mientras que el que no contiene
variable se llama término independiente (a0).
La variable x.
Los exponentes a los que se eleva la variable.
Los polinomios con sólo un término se llaman monomios; con dos, binomios; con tres, trinomios; etcétera.
Se conoce por grado de un polinomio el mayor exponente al que se eleva la variable.
Análogamente, para sumar o restar polinomios de una misma variable se aplica el siguiente procedimiento:
Se ordenan de mayor a menor los términos de ambos polinomios, dejando huecos para los términos
ausentes.
Se suman o restan los monomios semejantes.
Producto de polinomios
Entre dos monomios de una misma variable puede definirse también la operación producto, que resulta en un
nuevo monomio cuyo coeficiente es el producto de los coeficientes y cuyo grado es la suma de los grados de
los dos monomios originales. Así, si M1 (x) = a1 xn y M2 (x) = a2 xm, el producto M1 (x) M2 (x) = (a1 a2) xn+m.
De esta forma, el producto de dos polinomios se define como la multiplicación de cada uno de los términos
(monomios) del primer polinomio por todos los términos del segundo, sumando y agrupando después los
términos resultantes.
El producto de polinomios verifica las propiedades interna (produce un nuevo polinomio), asociativa,
conmutativa, existencia de elemento neutro (el polinomio unidad) y distributividad con respecto a la suma, es
decir:
P(x) [Q(x) + R(x)] = P(x) Q(x) + P(x) R(x).
Cociente de polinomios
La división o cociente entre dos monomios semejantes es un nuevo monomio cuyo coeficiente es la división
entre los coeficientes y cuyo grado es la resta de los grados de los dos monomios originales. Para que este
cociente sea una operación interna (es decir, para que el resultado sea otro monomio), el grado del dividendo
debe ser mayor o igual que el del divisor.
El cociente entre dos polinomios P (x) y Q (x), es otro polinomio C (x) que verifica:
Según esta regla, para dividir el polinomio P (x) = 6x3 - 3x + 5 por el binomio x - 2, se procedería del modo
siguiente:
1. Se colocan en una fila los coeficientes del polinomio dividendo ordenado, escribiendo 0 cuando algún
término esté ausente.
2. Se coloca al margen el valor del término independiente del binomio, cambiado de signo.
4. Se multiplica el término independiente del binomio por el primer coeficiente del polinomio y se suma el
resultado al segundo.
7. Los otros valores obtenidos son los coeficientes del polinomio cociente.
VALOR NUMÉRICO
Se entiende por valor numérico de un polinomio al que resulta de sustituir la variable por un número. Por
ejemplo, el valor numérico del polinomio
P (x) = 5x2 + 3x - 3,
para un valor de x = 3, es
P(3) = 5 × 9 + 3 × 3 - 3 = 51
PAOLO RUFFINI
Paolo Ruffini (1765-1822), matemático italiano, ideó la regla que lleva su nombre para la división de
polinomios y demostró que las ecuaciones de grado superior a cuatro no pueden resolverse mediante radicales.
Matrices
El concepto de matriz se fraguó a lo largo de los siglos XVIII y XIX con el objetivo de sistematizar los métodos
de resolución de sistemas de ecuaciones lineales con numerosas incógnitas. En la actualidad, la teoría de
matrices se ha convertido en una poderosa herramienta al servicio de muchas disciplinas científicas, desde la
física y las ciencias naturales hasta la economía.
En sentido genérico, los elementos de la matriz se simbolizan por aij, siendo i el número de fila y j el número
de columna que ocupan. Las matrices también se representan por la notación A = (aij), con i = 1, 2, 3, ..., m, y j
= 1, 2, 3, ..., n.
Una matriz formada por m filas y n columnas se dice que tiene orden o dimensión m x n. Dos matrices del
mismo orden se consideran iguales cuando son iguales, dos a dos, los elementos que ocupan el mismo lugar.
Clases de matrices
En términos generales, una matriz tiene m filas y n columnas, siendo m n. En tal caso, la matriz se
llama rectangular. Ahora bien, cuando el número de filas y el de columnas coinciden, la matriz es cuadrada,
con dimensión n x n; en este caso, los elementos de la matriz de subíndices a11, a22, a33, ..., ann ocupan la
llamada diagonal principal de la matriz. Esta diagonal adquiere importancia en la resolución
de determinantes (ver t 16).
Una matriz cuadrada se denomina triangular cuando todos los elementos situados por encima o por debajo de
la diagonal principal son nulos.
Una matriz se denomina diagonal cuando todos los elementos, excepto los de la diagonal principal, son cero.
Otro concepto importante en la teoría de matrices es el de matriz traspuesta. Dada una matriz A de orden m x
n, su traspuesta, denotada por At, es otra matriz de dimensión n x m, donde se han intercambiado las filas de la
primera matriz por columnas y las columnas, por filas.
Suma de matrices
Al sumar dos matrices de igual orden o dimensión se obtiene una nueva matriz cuyos elementos se calculan
como la suma de los elementos de la misma fila y columna de las dos matrices, que actúan como sumandos.
Dadas dos matrices A = (aij) y B = (bij), con i = 1, 2, 3, ..., m y j = 1, 2, 3, ..., n, ambas de orden m x n, la matriz
suma de las dos se obtendría de la forma siguiente:
Conmutativa A + B = B + A.
Asociativa A + (B + C) = (A + B) + C.
Como ampliación del concepto de producto, puede definirse la potencia enésima de una matriz como el
producto de ésta por sí misma n veces. Para que una matriz pueda multiplicarse por sí misma tiene que ser
cuadrada. Es decir:
DETERMINANTES Y
Aunque el concepto de determinante se entiende hoy como subsidiario del de matriz, cronológicamente fue
propuesto más de un siglo antes. El término matriz se debe al matemático inglés James Joseph
Sylvester (1814-1897) quien lo comenzó a emplear hacia 1850 con el significado de «madre» de los
determinantes.
TABLAS Y GRAFOS
La representación de problemas y ecuaciones mediante matrices está muy relacionada con otras dos técnicas
complementarias: la tabular,muy semejante a la matricial, donde se recogen los datos significativos en filas y
columnas con una cabecera que identifica su significado; y la obtenida mediante grafos, o conjuntos de puntos
(nodos), unidos entre sí mediante líneas o segmentos que conforman diversas ramas o caminos de acción.
MODELO INPUT-OUTPUT
Los modelos conocidos como input-output, o de doble entrada, propuestos por W.W. Leontief, premio Nobel
de Economía de 1973, constituyen una de las aplicaciones más directas de la teoría de matrices al ámbito
macroeconómico, y se utilizan para orientar los sectores productivos, predecir las demandas de producción y
propiciar mejores relaciones entre los diversos dominios de la economía.
Teorema De Rouché-Fröbenius
Con el enunciado del teorema debido al francés Eugène Rouché y al alemán Georg Ferdinand Fröbenius se
hace posible resolver cualquier tipo de sistema de ecuaciones de primer grado, tenga o no solución. En
esencia, este teorema se basa en el análisis del rango de las matrices representativas del sistema.
Normalmente, al calcular los determinantes de las matrices de coeficientes y ampliada, se obtiene una
dependencia de los parámetros, de manera que del estudio de sus posibles valores se deduce si el sistema es
compatible (determinado o indeterminado) o incompatible.
La matriz de los coeficientes, denotada por C, es la que forman los factores que multiplican a las
incógnitas (orden m x n).
La matriz de los términos independientes es otra matriz columna (orden m x 1) con los términos que no
poseen incógnita.
La matriz ampliada es la que se forma con la matriz de los coeficientes a la que se añade (a la derecha) la
columna de los términos independientes: orden m x (n + 1).
ROUCHÉ
El matemático francés Eugène Rouché (1832- 1910) es particularmente conocido por la formulación del
teorema que lleva su nombre, para la resolución de sistemas de ecuaciones lineales.
Métodos matriciales
Un sistema de ecuaciones lineales puede expresarse en forma matricial de la manera siguiente:
CX=B
donde C es la matriz de los coeficientes, X la de las incógnitas y B la de los términos independientes (ver t15).
En la resolución de sistemas de ecuaciones lineales por métodos matriciales se emplean normalmente dos
procedimientos alternativos: el de la matriz inversa y el método de eliminación gaussiana.
El método de la matriz inversa (ver t15) consiste en hallar la matriz inversa de C para obtener la matriz de las
incógnitas, efectuando la operación C-1 B
X = C-1 B
Por su parte, el método de eliminación gaussiana (ver t15) consiste en obtener una matriz triangular
equivalente a la matriz ampliada del sistema.
Interpretación geométrica
Si se considera que una ecuación del tipo ax + by + cz + d = 0 puede interpretarse geométricamente como la
ecuación de un plano, un sistema cuadrado de tres ecuaciones lineales se corresponde con tres planos en el
espacio cartesiano. De esta forma, las soluciones del sistema son los puntos de confluencia de los tres planos.
En el análisis geométrico de las posiciones relativas de dos planos, pueden darse tres situaciones distintas:
Si los planos se cortan en una recta común, se dicen secantes.
Cuando tienen todos sus puntos en común, se llaman coincidentes.
Si no se cortan, se dicen paralelos.
El estudio geométrico de planos en el espacio tiene interés para la discusión de sistemas de ecuaciones lineales.
Regla de Cramer
Un sistema de ecuaciones lineales se dice de Cramer cuando cumple las siguientes condiciones:
Es un sistema cuadrado, con igual número de ecuaciones que de incógnitas.
El determinante de la matriz de los coeficientes asociada es distinto de cero.
En consecuencia, un sistema de Cramer es siempre compatible determinado (tiene una solución única).
Para calcular la incógnita xi del sistema de ecuaciones lineales, se sustituye la columna i de la matriz de
coeficientes por los términos independientes, se obtiene el determinante de la matriz resultante y se divide
este valor por el del determinante de la matriz de los coeficientes. Por tanto, la solución de un sistema de
Cramer se obtiene hallando cada incógnita Xi según la fórmula:
MATRIZ INVERSA
Para obtener la matriz inversa de una matriz A dada (por ejemplo, de orden 3), se recurre a la siguiente
fórmula:
GABRIEL CRAMER
Gabriel Cramer (1704- 1752), matemático suizo, destacó por sus trabajos sobre geometría analítica y la
inclinación de las órbitas planetarias. A él se debe la regla que lleva su nombre, para la resolución de sistemas
de ecuaciones lineales mediante determinantes.
Programación Lineal
La programación lineal es una técnica de modelización matemática desarrollada a partir de la década de
1930. Desde entonces, se ha aplicado con frecuencia en los procesos de toma de decisión de numerosos
ámbitos económicos y productivos, como la planificación de empresa y la ingeniería industrial.
El grupo de las soluciones posibles recibe el nombre de conjunto restricción o conjunto solución factible. La
solución debe situarse en el área definida por las inecuaciones de restricción, que se conoce por región
factible.
Región factible del sistema de inecuaciones lineales:
La región factible puede estar acotada, como en la figura, o no acotada. Cuando está acotada, se representa
gráficamente como un polígono con un número de lados menor o igual que el de restricciones (en la figura, el
polígono acotado tiene cuatro lados, y las restricciones también son cuatro).
Se llama solución óptima a la que maximiza o minimiza la función objetivo. Esta solución si es única siempre
se encuentra en un vértice o punto extremo de la región factible.
Tipos de soluciones
En los problemas de programación lineal con dos variables pueden darse varios tipos de soluciones óptimas:
Solución única.
Solución múltiple (infinitas soluciones).
Solución no acotada (ausencia de solución), cuando la función objetivo no tiene valores extremos, pues la
región factible es no acotada.
Solución no factible, cuando no existe región factible por falta de puntos comunes en el sistema de
inecuaciones.
Solución degenerada, si en un solo punto (que se dice degenerado) coinciden tres o más de las rectas que
limitan la región factible.
APUNTE HISTÓRICO
Los orígenes del desarrollo de la programación lineal se encuentran en los trabajos del matemático
estadounidense de origen húngaro John von Neumann (1903-1957) acerca de la teoría de los juegos. No
obstante, se considera auténticos impulsores de esta técnica al soviético Leónid Kantorovich (1912- 1986) y al
estadounidense de origen ruso Wassily Leontief (1906), ambos galardonados con el premio Nobel de
Economía aunque en años diferentes y por desarrollos matemáticos distintos.
Determinantes
Los determinantes constituyen potentes herramientas que se utilizan comúnmente para la resolución de
sistemas de ecuaciones lineales. Aunque anteriores históricamente a las matrices, en la actualidad se
emplean como entidades matemáticas complementarias de éstas últimas.
Determinantes y matrices
El determinante correspondiente a una matriz cuadrada A, es el valor de la suma de determinados productos
que se realizan con los elementos que componen la matriz.
Dada una matriz cuadrada A de orden n, su determinante se denota por el símbolo |A| o det (A). El cálculo del
valor de este determinante se realiza según diversos procedimientos.
Determinantes de orden 2
El caso más sencillo de determinante es el que corresponde a una matriz cuadrada orden 2. Entonces, el
determinante es un número real obtenido como la siguiente suma de factores:
Regla de Sarrus
Cuando la matriz original A es de orden 3, para calcular su determinante se recurre al uso de la llamada regla
de Sarrus. Este determinante se obtiene de la suma de seis términos:
Tres positivos, formados por los siguientes productos de tres factores: los tres elementos de la diagonal
principal y los elementos de las dos líneas paralelas a esta diagonal, multiplicados por el vértice opuesto.
Otros tres negativos, también constituidos por productos de tres factores: los tres elementos de la
diagonal secundaria y los de las líneas paralelas a ella, multiplicados por el vértice opuesto.
Menores complementarios
Dada una matriz cuadrada de orden n, se denomina menor complementario a cada una de la matrices de
orden (n - 1) que se obtienen al suprimir la fila y la columna donde se encuentra un elemento (aij) de la matriz
original.
Dada una matriz cuadrada A, se define su matriz adjunta, que se denota por A* o Adj(A), como aquella en la
que los elementos de A están reemplazados por sus adjuntos respectivos:
Desarrollo de un determinante
El valor de un determinante puede obtenerse a partir de los adjuntos de los elementos de su matriz
correspondiente. Así, dada una matriz A, el valor de su determinante |A| es igual a la suma de los productos de
cada uno de los elementos de una de sus filas o sus columnas por los adjuntos respectivos de dichos elementos.
Por ejemplo, si:
En este caso, el determinante se ha desarrollado por la primera fila. En general, un determinante puede
desarrollarse por filas o por columnas.
Este tipo de desarrollo permite calcular el valor del determinante de matrices cuadradas de orden superior a
3, simplemente reduciendo este orden sucesivamente, por la regla de los adjuntos, hasta 3, y después
aplicando la regla de Sarrus.
PIERRE-SIMON DE LAPLACE
El francés Pierre-Simon de Laplace (1749-1827), autor de notables desarrollos matemáticos útiles en las
descripciones de la mecánica física, fue también el primero en desarrollar un determinante por sus adjuntos.
ARTHUR CAYLEY
El inglés Arthur Cayley (1821-1895), uno de los matemáticos más prolíficos de la historia, fue autor de la
notación actualmente utilizada en la definición y el manejo de determinantes.
Propiedades De Los Determinantes
El uso de determinantes simplifica de forma muy notable la resolución de sistemas de ecuaciones lineales.
Para ello, se aplican propiedades generales que permiten acometer la discusión y la resolución de tales
sistemas mediante un procedimiento riguroso.
Cálculo de determinantes
En el manejo de determinantes se pueden establecer algunas propiedades que facilitan las operaciones de
cálculo. Tales propiedades son:
1. Una matriz cuadrada con una fila o una columna en la que todos los elementos son nulos tiene un
determinante igual a cero.
2. El determinante de una matriz con dos filas o dos columnas iguales es nulo.
3. Cuando dos filas o dos columnas de una matriz son proporcionales entre sí (una se puede obtener
multiplicando la otra por un factor), su determinante es cero.
4. Al intercambiar dos filas o dos columnas de una matriz, su determinante cambia de signo.
5. Al multiplicar todos los elementos de una fila o una columna de una matriz por un número, el
determinante de la matriz resultante es igual al de la original multiplicado por ese mismo número.
6. El determinante de una matriz triangular o una matriz diagonal es igual al producto de los elementos
de su diagonal principal.
7. Cuando a una fila (o columna) de una matriz se le suma o resta una combinación lineal de otras filas (o
columnas), el valor de su determinante no se altera.
Propiedad 4.
matriz.
5. La suma de los productos de los elementos de una fila o columna de una matriz por los adjuntos de otra
fila o columna es siempre nula.
6. La matriz de los adjuntos de una matriz A dada de dimensión n tiene un determinante igual al
determinante de A elevado a n-1.
El método de Gauss
La aplicación de las propiedades de los determinantes permite obtener el valor de un determinante dado a
través de su transformación en otro de igual valor. Un procedimiento particularmente interesante es el
llamado método de Gauss, que consiste en:
Elegir el primer elemento de la diagonal principal del determinante.
Aplicar las propiedades de cálculo de los determinantes hasta lograr que todos los elementos de la
columna del elegido, salvo él mismo, sean iguales a cero.
Elegir el segundo elemento de la diagonal principal y aplicar las propiedades de los determinantes para
obtener que todos los elementos de su columna situados debajo de él sean nulos.
Aplicar sucesivamente este método hasta obtener un determinante triangular o diagonal, cuyo valor será
el producto de los elementos de su diagonal principal.
Entonces, se llama rango de una matriz al máximo orden de sus menores no nulos. El rango se simboliza por
rang (A).
MATRICES ESPECIALES
La matriz nula tiene rango 0; es decir, rang (0) = 0. La matriz identidad tiene rango igual a su orden. Toda
matriz diagonal, cuyos elementos son todos nulos excepto los de la diagonal principal, tiene rango igual a su
orden.
Para dicha matriz A de orden n, se dice que existe una matriz inversa A-1 también de orden n, cuando el
producto de ambas es igual a la matriz identidad: A A-1 = A-1 A = I.
Toda matriz que tiene inversa se dice inversible o regular, mientras que cuando carece de inversa se
denomina matriz singular.
Para calcular la matriz inversa de una dada, puede recurrirse a la resolución de las ecuaciones que plantearía el
producto de matrices A X = I, siendo los coeficientes de A e I conocidos y los de X correspondientes a las
incógnitas. También se puede aplicar el llamado método de reducción o gaussiano, según el siguiente
esquema:
Dada la matriz original A = (aij), con i, j = 1, 2, ..., n, se forma primero su matriz ampliada (A | I).
Después, se aplican operaciones elementales sobre las filas de la matriz hasta conseguir reducir A a la
matriz unidad. Las mismas transformaciones se van haciendo en I. La nueva matriz obtenida es A-1.
Las operaciones elementales que se pueden aplicar a las matrices ampliadas son:
Multiplicación de una fila por un número distinto de cero.
Suma ordenada a los elementos de una fila del múltiplo de los de otra.
Intercambio de filas.
Expresión matricial de un sistema de ecuaciones lineales
Cualquier sistema de ecuaciones lineales puede escribirse siempre en forma matricial de la siguiente forma:
donde A es la matriz de los coeficientes, X la matriz de las incógnitas y B la matriz de los términos
independientes.
Cuando la matriz de los coeficientes no es inversible, el sistema no tiene solución (es incompatible).
PROGRAMACIÓN LINEAL
La técnica de realización de programas llamada programación lineal se inspira fundamentalmente en la teoría
de vectores, matrices y espacios vectoriales. Esta técnica se originó a partir de los trabajos desarrollados por
W.W. Leontief para la resolución de problemas matemáticos propios de las ciencias económicas.
MATRICES ELEMENTALES
La transformación de la ampliada de una matriz mediante operaciones elementales ha dado origen al concepto
de matrices elementales. Una matriz elemental se define como una matriz cuadrada que puede obtenerse a
partir de la matriz identidad con una única operación elemental realizada sobre sus filas.
PROPIEDADES DE LAS MATRICES
Si una matriz A tiene inversa, se cumplen las siguientes propiedades:
x1 x2 x3 h1 h2 h3
h1 3 4 2 1 0 0 0 300
h2 2 1 2 0 1 0 0 200
h3 1 3 3 0 0 1 0 150
Z -2 -4 -5 0 0 1 1 0
Variables y coeficientes
Para determinar las variables de un problema mediante el método del símplex, es preciso hallar primero la base
de resolución. En esta base:
Se incluye una variable de decisión, la que posee el coeficiente negativo mayor. La columna a la que
corresponde se llama columna pivote.
Se excluye una variable de holgura. Se divide cada término por el correspondiente de la columna pivote y
se calcula el menor cociente positivo.
Se aplica entonces el método de eliminación gaussiana para anular los términos de la columna pivote, tantas
veces como se precisa hasta que en la última fila sólo haya coeficientes positivos. (Tal será la solución).
Como en todo problema de programación lineal, han de cumplirse las siguientes etapas:
Definir las variables del problema (por ejemplo, las cantidades de partida solicitadas en cada destino, el
coste de envío de una unidad de mercancía a cada destino).
Escribir conceptualmente el sistema de inecuaciones asociado a las restricciones del problema (por
ejemplo, el número de unidades máximas producidas en cada origen y las requeridas en cada destino).
Definir conceptualmente la función objetivo, que determina el coste.
APUNTE HISTÓRICO
El problema del transporte fue analizado en profundidad en la década de 1940 por los matemáticos F. L.
Hitchcock y
T. P. Koopmans En esos mismos años, G. Stigler aplicó técnicas similares para determinar los regímenes
alimenticios óptimos en las personas.
Esquema gráfico de distribución de una mercancía desde dos centros de origen a tres destinos posibles.
OPTIMIZACIÓN MÍNIMA
En el método del símplex, en problemas de optimización mínima, la variable de decisión que entra en la base
es aquella cuyo valor sea el mayor de los positivos, y el procedimiento finaliza cuando todos los términos de la
última fila de la tabla son negativos.
DANTZIG
George Bernard Dantzig (1914), matemático estadounidense, es reconocido como el creador, en 1947, del
método del símplex para hallar soluciones óptimas en problemas de programación lineal con tres o más
variables.
Conceptos De Probabilidad
Muchos fenómenos de la naturaleza, como la caída libre de un cuerpo en la superficie terrestre, pueden
predecirse mediante leyes deterministas. Otros, en cambio, se rigen por el azar, aun cuando se produzcan
siempre en unas mismas condiciones. Por ejemplo, ¿qué número saldrá al lanzar un dado? Los sucesos que
obedecen al azar se denominan aleatorios o estocásticos, y su comportamiento se estudia a través del cálculo
de probabilidades.
Sucesos estocásticos
Por definición, se llama experimento aleatorio, estocástico o estadístico al que puede producir resultados
diferentes en unas mismas condiciones. Lanzar una moneda al aire o tirar un dado son ejemplos comunes de
experimentos aleatorios.
Cada uno de los resultados de un experimento aleatorio se llama suceso elemental, y el conjunto de todos los
sucesos elementales distintos que pueden producirse en el experimento se denomina espacio muestral. Por
ejemplo, el espacio muestral de un experimento aleatorio consistente en tirar un dado es E = {1, 2, 3, 4, 5, 6}.
Los diversos subconjuntos del espacio muestral se denominan sucesos estocásticos. Algunos tipos especiales
de sucesos estocásticos son:
Suceso seguro, que se produce siempre. Matemáticamente, corresponde al espacio muestral E.
Suceso imposible, que no ocurre nunca y que corresponde al subconjunto (espacio vacío) de E.
Suceso contrario o complementario de uno dado (si se produce el suceso A, su complementario no
ocurre, y a la inversa). Matemáticamente: = E - A.
Dos sucesos estocásticos con algún suceso elemental común se dicen compatibles; en caso contrario, se
llaman incompatibles.
Probabilidad de un suceso
Dado un experimento aleatorio, se denomina probabilidad a una función que asigna a cada suceso estocástico
un número que refleja el tanto por uno de veces que ocurre el suceso dentro del experimento. Por tanto, el
valor de la probabilidad indica la frecuencia relativa de cada suceso estocástico dentro del experimento
aleatorio.
La función probabilidad expresa como P (A), y se distingue por las siguientes características:
La probabilidad del suceso seguro es 1: P (E) = 1.
La probabilidad del suceso imposible es 0: P () = 0.
La probabilidad de cualquier suceso está comprendida entre 0 y 1: 0 P (A) 1.
P (A B) = P (A) + P (B) - P (A B)
Los Porcentajes
El porcentaje es una de las expresiones matemáticas que más usamos en la vida cotidiana. Por otra parte, la
información que aparece en los medios de comunicación está repleta de datos expresados en porcentajes. Por
ejemplo, ¿quién no ha oído decir alguna vez?: "Rebajas del 10% en todos los artículos del hogar" o "El paro
aumentó el último trimestre un 0,5%". Un porcentaje es la proporción de una cantidad respecto a otra y
representa el número de partes que nos interesan de un total de 100.
Se puede definir el tanto por ciento como una fracción que tiene denominador 100. En este caso, el 45% es la
fracción decimal.
Como el porcentaje es una fracción decimal, se puede expresar también en número decimal. Así, 45% = =
0,45 (se ha dividido 45 entre 100).
Cualquier porcentaje se puede expresar en forma de fracción o número decimal y, a su vez, cualquier número
decimal o fracción se puede expresar en porcentaje:
Porcentaje Se lee Fracción Decimal Significado
Cálculo de porcentajes
Existen dos formas para hallar un porcentaje o tanto por ciento
1. Para calcular el porcentaje de una cantidad, multiplicamos la cantidad por el número que indica el porcentaje
y dividimos el resultado entre 100.
Ejemplo:
El 20% de los estudiantes de un colegio, que tiene 240 alumnos, practica deporte. ¿Cuántos estudiantes
practican deporte?
Para hallar la respuesta multiplicamos 240 por 20 y dividimos el resultado entre 100:
2. Para calcular el porcentaje de una cantidad, multiplicamos la cantidad por la expresión decimal de dicho
porcentaje.
Ejemplo:
Para calcular el 20% de 240, basta con multiplicar 240 por 0,2:
240 · 0,2 = 48
Variaciones: incrementos y descuentos
INCREMENTOS
Un incremento se produce cuando a una cantidad se le suma un porcentaje de la misma para obtener una
cantidad mayor.
Ejemplo:
Si una camiseta, sin el 16% de IVA, cuesta 12,00 ¬, para saber cuánto cuesta con IVA hay que:
1. Calcular el incremento que sufre el precio de la camiseta. Para ello, hallamos el porcentaje de la cantidad
(16% de 12,00): 12 · 0,16 = 1,92 (0,16 es la expresión decimal del porcentaje 16%).
2. Sumar la cantidad (12,00) y su incremento (1,92) para obtener el precio final: 12,00 + 1,92 = 13,92 ¬
El precio de la camiseta tiene un incremento debido al IVA y, por tanto, es necesario disponer de un total de
13,92 euros para comprarla.
DESCUENTOS
Un descuento se produce cuando a una cantidad se le resta un porcentaje de la misma para obtener otra
cantidad menor.
Ejemplo:
Vamos a calcular el precio de un libro que antes costaba 42,00 ¬ y ahora tiene el 5% de descuento:
1. Calculamos el descuento que sufre el precio del libro. Para ello, hallamos el porcentaje de la cantidad (5% de
42,00): 42,00 · 0,05 = 2,10 (0,05 es la expresión decimal del porcentaje 5%).
2. Restamos la cantidad (42,00) menos su descuento (2,10) para obtener el precio final: 42,00 - 2,10 = 39,90 ¬ El
precio del libro tiene un recuento y, por tanto, habría que disponer de 39,90 euros para comprarlo.
Es lo mismo decir que se divide una tarta en 100 partes y se cogen 25 que decir que se cogen 0,25 de una tarta,
o que se divide en 1.000 partes y se cogen 250. Por tanto, el 0,25, el 25 % o el 250 por mil son expresiones
equivalentes y significan lo mismo.
En realidad, no es más que multiplicar o dividir tanto el numerador como el denominador por 10 ó 100, según
cada caso.
Aplicaciones de los porcentajes
Los porcentajes se usan para:
Relacionar una parte con el todo: Ejemplo: "El 58% de los aspirantes a ingresar en la Universidad son
mujeres".
Determinar una proporción entre dos cantidades: Ejemplo: "La proporción de levadura y harina para el
bizcocho es del 3%".
Describir a la población, indicando el peso relativo de una magnitud sobre ella. Ejemplo: "El 16% de la
población de Euskadi tiene estudios superiores". Gran parte de la estadística se expresa en porcentajes. En
Euskadi, el Instituto Vasco de Estadística (EUSTAT), elabora numerosos estudios estadísticos sobre la
población vasca.
Determinar la variación relativa de una cantidad: Ejemplo: "El nivel del agua almacenada en los embalses
ha subido un 8% en lo que va de año".
El interés bancario
Las entidades financieras (bancos, cajas de ahorros, etc.) dan a sus clientes un interés por tener depositado su
dinero. Es directamente proporcional a la cantidad guardada y al tiempo que dura el depósito, y se mide en
tanto por ciento.
Ejemplo:
La caja de ahorros local ofrece a Marta un 4% anual para los 6.000 ¬ que tiene ahorrados. ¿Qué interés
obtendrá Marta por su capital a final de año?
Por tanto,
Donde:
I es el interés bancario.
c es el capital.
r es el rédito.
t es el tiempo.
Sistema Sexagesimal
Aunque progresivamente ha sido abandonado con el paso del tiempo, el sistema sexagesimal se utilizó con
profusión en el pasado para medir ángulos y resolver triángulos y funciones trigonométricas. En la actualidad,
se sigue empleando en este contexto, aunque en menor medida. También quedan vestigios del mismo en el
sistema horario de división del tiempo.
En el mundo cotidiano persisten dos aplicaciones muy comunes del sistema sexagesimal:
La medida de ángulos en grados, minutos y segundos (por ejemplo 23º15?47?). En el Sistema
Internacional de unidades, se ha suprimido el grado sexagesimal como medida estándar para
reemplazarlo por el radián.
La subdivisión del tiempo: una hora se divide en 60 minutos y un minuto, en 60 segundos. Este sistema
horario se combina con el sistema duodecimal, de base 12, que se emplea para medir el número de horas
del día (en dos bloques de doce horas). Nuevamente, estas subdivisiones tienen valor sólo en el mundo
cotidiano; en el ámbito científico, se trabaja con el segundo como unidad base de tiempo y con un sistema
de numeración decimal, (décimas de segundo, centésimas,... ).
Cambios de base
El cambio de base de sexagesimal a decimal y a la inversa, no ofrece ninguna novedad conceptual con
respecto a cualquier otro cambio de este tipo (ver t2). No obstante, como en la práctica no se usan cantidades
sexagesimales «puras», sino expresadas en unidades y sus fracciones (grados, minutos y segundos para los
ángulos; horas, minutos y segundos para el tiempo), las conversiones presentan ciertas peculiaridades.
Para pasar de una cantidad de tiempo medido en formato sexagesimal a la unidad decimal (el segundo), se
procede según la siguiente fórmula de conversión:
Medida de ángulos
En el sistema decimal habitual, los ángulos planos se miden en términos de una unidad denominada radián. No
obstante, es muy frecuente efectuar esta medida según el sistema de numeración sexagesimal, en grados,
minutos y segundos.
Un radián (símbolo rad) se define como un ángulo central cuyo arco mide un radio de circunferencia. De
esta forma, para barrer toda una circunferencia se necesitan 2 radianes.
Un grado sexagesimal (símbolo º) es la 90ª parte de un ángulo recto, entendido éste como el que forman
dos rectas perpendiculares entre sí. Por tanto, una circunferencia completa describe un ángulo de 360º.
El grado sexagesimal se divide en unidades menores llamadas minutos (?) y segundos (?), según las siguientes
equivalencias:
1º = 60?, 1? = 60?.
Los ángulos que se diferencian en un número exacto de vueltas de circunferencia se consideran equivalentes en
el estudio de sus funciones trigonométricas asociadas (por ejemplo, a y b tales que b = a + 2 n, siendo n un
número entero).
REDUCCIÓN DE UN ÁNGULO
Si un ángulo tiene un valor superior a 360º, se puede reducir a otro equivalente dividiéndolo por esta cantidad.
El resto de la división será el ángulo equivalente. Por ejemplo, el ángulo 2.450º puede escribirse como 360 × 6
+ 290, luego equivale a uno de 290º.
EL SISTEMA BABILONIO
El primer sistema sexagesimal conocido en la historia fue el creado en la antigua Mesopotamia entre los años
2.000 y 3.000 a. C. Este sistema usaba la cuña para representar unidades del 1 al 10 y la cuña
horizontal para representar las decenas. A partir del número 59, usaba un criterio posicional.
La pervivencia actual del sistema sexagesimal en la medida de los ángulos y el tiempo se debe a su adopción
por los griegos para los desarrollos aritméticos.
LA DIVISIBILIDAD DE 60
Cuadrantes angulares.
El éxito del sistema sexagesimal se centra, sin duda, en la flexible divisibilidad de su base, el número 60.
Descomponiendo este número en sus factores primos:
se observa que 60 es divisible por 1, 2, 3, 4, 5, 6, 10, 12, 15, 20, 30 y 60.
SUPERFICIES DE REVOLUCIÓN
En términos generales, se denomina superficie de revolución a toda figura geométrica que se forma al hacer
girar una recta móvil alrededor de otra fija. Conos, cilindros y, en sentido amplio, esferas son grandes
categorías genéricas de figuras engendradas por la rotación de elementos geométricos en torno a un eje fijo.
Cilindros
Cuando se hace girar una recta alrededor de otra recta fija paralela a ella, de forma que la distancia entre ambas
se mantiene constante, se engendra una superficie cilíndrica de revolución. La recta fija se denomina eje y la
paralela que realiza el giro es la generatriz. Si esta superficie cilíndrica se cierra con dos planos paralelos que
cortan al eje se obtiene un cilindro.
Clases de cilindros.
Los principales elementos de un cilindro son sus bases, o caras determinadas por los planos paralelos, y
la altura o cualquier segmento perpendicular entre las dos bases.
El cilindro se denomina de revolución si las bases son perpendiculares a las generatrices. El área de un
cilindro de revolución es igual a la suma de las áreas de las bases más el área lateral. Si r es el radio de las
bases y h la altura del cilindro, se tiene que:
A = 2rh + 2r2
Conos
Cuando la superficie proviene del giro de una recta en torno a otra fija que se interseca con ella, se obtiene
una superficie cónica de revolución. La recta fija es el eje, y la móvil se conoce como generatriz. El eje y la
generatriz se cortan en un punto llamado vértice.
Nuevamente, al delimitar la porción abierta de esta superficie con un plano que corta a todas las generatrices,
se obtiene un cono, cuyos elementos principales son:
La base, o porción del plano de delimitación comprendida entre las generatrices.
La altura, o segmento trazado en perpendicular desde el vértice del cono a la base.
La superficie lateral, comprendida entre la base y el vértice.
Si la base del cono es perpendicular al eje, el cono es de revolución, cuya área viene dada por la expresión
(siendo g la generatriz y r el radio de la base):
A = rg + r2
Esferas
Una superficie esférica es la que se engendra por la rotación de una semicircunferencia alrededor de un
diámetro. La esfera resultante puede definirse como el lugar geométrico de los puntos del espacio que
equidistan de un punto fijo llamado centro. La distancia del centro a cualquier punto de la esfera es su radio.
Volumen de cilindros, conos y esferas
El volumen de una superficie cerrada se expresa como la medida del espacio que ocupa. En los cilindros y
conos, este volumen se determina en función de la superficie de la base y la altura. En la esfera depende
exclusivamente del radio.
Volumen de un cilindro.
Razones trigonométricas
Para definir las razones trigonométricas se parte de un ángulo no recto dentro de un triángulo rectángulo.
La abscisa x y la ordenada y del triángulo pueden tomar valores positivos o negativos, según se dibuje el
triángulo por encima o por debajo del eje X o a la derecha o a la izquierda del eje Y.
Las seis razones trigonométricas que pueden definirse para el ángulo son:
Seno del ángulo (símbolo, sen), o cociente entre el cateto opuesto al ángulo y la hipotenusa. Puede tomar
valores entre -1 y +1; su inversa es la cosecante (cosec).
Coseno (cos), o cociente entre el cateto contiguo y la hipotenusa. El coseno de un ángulo está
comprendido entre -1 y +1, y su inversa es la secante (sec).
Tangente (tg), o cociente entre el cateto opuesto y el contiguo. Su valor no está acotado, y oscila entre -
y +; su inversa es la cotangente (cotg).
sen2 + cos2 = 1
Entre las razones trigonométricas inversas pueden definirse las relaciones:
Las relaciones establecidas nos permiten, conocidas una de las razones trigonométricas de un ángulo y su
posición en un cuadrante determinado, conocer las demás.
Sumas y diferencias de ángulos
Si se conocen las razones trigonométricas de dos ángulos y , es posible determinar las de los ángulos suma
( + ) y diferencia ( - ), del siguiente modo:
sen ( ) = sen cos sen cos cos ( ) = cos cos sen sen
También pueden deducirse las razones del ángulo doble y el ángulo mitad:
Otras relaciones geométricas interesantes son las de la suma y resta de razones trigonométricas de ángulos
distintos:
a2 = b2 + c2 - 2 b c cos A.
Esta expresión se conoce como teorema del coseno y sirve para calcular el valor del tercer lado de un
triángulo cuando se conocen los otros dos y el del ángulo opuesto.
Por otra parte, el teorema del seno establece que en cualquier triángulo la proporción entre el valor de cada
lado y el seno del ángulo opuesto es constante. Es decir:
FUNCIONES TRIGONOMÉTRICAS
La abstracción de las razones trigonométricas da lugar a la definición de las llamadas funciones
trigonométricas (seno, coseno, tangente, etcétera, y sus correspondencias hiperbólicas). Estas funciones tienen
múltiples aplicaciones en la descripción de fenómenos físicos, en particular los de naturaleza periódica y
ondulatoria.
TRIGONOMETRÍA PLANA
La trigonometría se define como la rama de las matemáticas que estudia las relaciones numéricas existentes
entre los lados y los ángulos de un triángulo. Cuando este triángulo está contenido en un plano, se habla
de trigonometría plana.
En cambio, si se define el triángulo como el conjunto de tres puntos pertenecientes a la superficie de dos
dimensiones de una esfera, las relaciones entre sus ángulos y lados se definen por medio de la
llamada trigonometría esférica. Esta rama utiliza razones equivalentes a la trigonometría plana denominadas
razones hiperbólicas.
Estas expresiones, conocidas como leyes de las tangentes, tienen numerosas aplicaciones en cálculo numérico,
en particular en el uso de logaritmos.
ELEMENTOS DE EUCLIDES
Los principios sobre triángulos y razones trigonométricas conocidos por la cultura griega clásica, en parte
heredados de otras civilizaciones (egipcia, babilonia) y en parte desarrollados por diversos pensadores helenos,
están recopilados en la obra monumental Elementos, del insigne filósofo y matemático Euclides (siglos III-II a.
C.).
Triángulos rectángulos
Para resolver completamente un triángulo rectángulo basta con conocer un lado y un ángulo o, también, dos
lados. Los elementos utilizados en la resolución de triángulos rectángulos son:
Triángulo rectángulo.
El principio de que la suma de los dos ángulos no rectos es igual a 90º.
El teorema de Pitágoras.
Las razones trigonométricas siguientes:
Según el teorema del cateto, en un triángulo rectángulo el valor de cada cateto se obtiene como la media
proporcional entre la hipotenusa y la proyección del cateto sobre ella.
El teorema de Pitágoras afirma que el cuadrado de la hipotenusa es igual a la suma de los cuadrados de
los catetos.
Cálculo Vectorial
El desarrollo científico de la física se ha sustentado modernamente en los principios de las matemáticas. Uno
de los conceptos básicos para la definición de las magnitudes físicas es el vector, una entidad dotada de
módulo, dirección y sentido en la que se inspira la elaboración de los modelos y postulados más elementales
de la física teórica.
Vectores
Las magnitudes vectoriales se especifican mediante entidades matemáticas llamadas vectores, que se
caracterizan por tres propiedades:
Módulo, una cantidad numérica siempre positiva que expresa la intensidad de la magnitud. Para el
vector , su módulo se expresa | | o, simplemente, a.
Dirección, o recta que contiene al segmento que mide la magnitud vectorial.
Sentido, u orientación de la magnitud dentro del segmento de dirección.
Suma de dos vectores. (a) Se lleva el segundo vector sobre el extremo del primero. (b) Después, se traza el
vector suma
Otras dos operaciones sencillas del álgebra vectorial son las siguientes:
La diferencia entre vectores, que se obtiene como la suma del primer vector y del opuesto del segundo
(aquel vector que tiene igual módulo y dirección que éste pero sentido contrario).
El producto de un escalar (un número) por un vector produce un nuevo vector con la misma dirección y
sentido que el original, módulo igual al del vector multiplicado por el número y sentido idéntico cuando el
escalar es positivo y opuesto si es negativo.
Escrito en función de los componentes de los vectores, el producto vectorial se expresa como:
La Presión Atmosférica
La Tierra está rodeada por una masa de fluido gaseoso llamada atmósfera. El peso de la atmósfera, que
ejerce una presión por unidad de superficie, provoca un efecto de adaptación en todos los seres vivos. Así,
por ejemplo, en los mamíferos dicha presión se compensa con una tensión sanguínea interna sustentada por
una vasta red de capilares.
La atmósfera
La capa de fluido que rodea a la superficie terrestre se conoce como atmósfera. La mezcla de gases que
compone la atmósfera, constituida principalmente por nitrógeno y oxígeno, se denomina aire.
Presión atmosférica
El peso por unidad de superficie que ejerce el aire sobre los cuerpos situados en la atmósfera se llama presión
atmosférica. Esta presión se detecta en los fenómenos cotidianos de la naturaleza. Así, por ejemplo, al pegar
una ventosa sobre una superficie lisa sin que quede aire encerrado en su interior, la presión atmosférica la
mantiene firmemente adherida, de manera que no cae por su peso.
Esquema de la experiencia de Torricelli para medir la presión atmosférica. Al rellenar el tubo con mercurio e
invertirlo sobre la cubeta con el extremo cerrado en su posición superior, se vacía el tubo hasta que el líquido
alcanza una altura de 76 cm. Esta altura se debe a la acción de la presión atmosférica, que empuja al mercurio
hacia arriba por el tubo.
La presión atmosférica se mide como una altura equivalente a 76 cm de mercurio. Así pues:
Ley de Boyle-Mariotte
Del estudio del comportamiento del aire, el británico Robert Boyle (1627-1691) y el francés Edmé Mariotte
(1620-1684) dedujeron, de forma independiente, el principio de compresibilidad de los gases, también
llamado ley de Boyle-Mariotte.
Este principio establece que, para una masa determinada de gas y a una temperatura constante, el producto de
la presión del gas por el volumen que ocupa mantiene siempre un mismo valor. Es decir:
Representación gráfica de la ley de Boyle-Mariotte.
Manómetros
La presión de los fluidos se mide con un dispositivo especial denominado manómetro. Existen dos clases
principales:
Ordinarios, construidos como tubos en forma de U, que contienen mercurio u otro líquido manométrico y
que miden en realidad diferencias de presiones.
Metálicos, que se basan en el uso de la elasticidad de los cuerpos, de manera que se conecta el fluido
sujeto a la medición a un tubo metálico elástico tal que su curvatura se modifica con arreglo a la variación
de la presión atmosférica.
Fuerzas en equilibrio
En la física clásica se considera que el movimiento es una consecuencia de la acción de fuerzas mecánicas. El
hecho de que un sistema esté en reposo no indica que sobre él no actúen fuerzas, sino que éstas se encuentran
contrarrestadas o equilibradas por otras de su especie. Así sucede, por ejemplo, con un cuerpo apoyado sobre
un plano horizontal, donde el peso está compensado por la resistencia del plano.
Por su interés especial, la estática centra algunos de sus estudios más interesantes en sistemas singulares, como
son el plano inclinado, las poleas simple y compuesta y la palanca.
Planos inclinados
Planos inclinados Desde el punto de vista de la mecánica, se llama plano inclinado a una superficie lisa sobre
la que se sitúa un cuerpo material que está levantado un cierto ángulo sobre la horizontal.
Fuerzas que intervienen en un sistema de plano inclinado: el peso P (con sus componentes tangencial, P y
normal, P) y el rozamiento F .
Si se considera que no existe rozamiento, sobre el cuerpo actuaría una sola fuerza, el peso P, que se
descompone en dos partes: la componente tangencial (PT) y la componente normal (PN). Ésta última está
compensada por la resistencia del plano, por lo que sólo resulta activa la componente tangencial. En estas
condiciones, el cuerpo se deslizaría hacia abajo por el plano inclinado debido a la acción de dicha componente,
de manera que:
La aceleración de caída es proporcional a sen .
Para un mismo ángulo , todos los cuerpos caen con idéntica aceleración.
Ahora bien, cuando se considera el efecto del rozamiento como una fuerza que se opone a la componente
tangencial del peso, pueden darse dos casos posibles:
Si el rozamiento es inferior a la componente tangencial del peso, el cuerpo se deslizará hacia abajo por el
plano inclinado, aunque con menor aceleración que si no existiera rozamiento.
Si la fuerza de rozamiento contrarresta a la componente tangencial del peso, el cuerpo permanecerá en
reposo.
La fuerza de rozamiento es de tipo disipativo, ya que actúa como freno al movimiento del cuerpo
material.
Poleas
Otro sistema interesante desde el punto de vista de la estática es la polea simple, un sencillo conjunto formado
por dos cuerpos materiales suspendidos de los dos extremos de una cuerda que pasa por el contorno de una
rueda sostenida por un eje.
Sin tener en cuenta los efectos del rozamiento, existe movimiento en el sentido del cuerpo de mayor peso, y se
alcanzará la situación de reposo cuando la tensión de la cuerda iguale ambos pesos.
Este esquema puede complicarse cuando se emplean poleas engranadas entre varios pesos suspendidos, en
cuyo caso en el cálculo del movimiento final del conjunto influyen tanto la magnitud de los pesos como los
radios de las poleas utilizadas.
Esquema de una polea simple de la que penden dos masas desiguales (máquina de Atwood).
Ley de la palanca
La palanca es un sistema físico muy simple formado por una barra rígida en uno de cuyos extremos se sitúa un
cuerpo material pesado. Modificando el punto de apoyo de la barra en el suelo, es posible levantar con mayor
o menor facilidad el cuerpo, aplicando para ello una fuerza en el extremo contrario.
En situación de equilibrio, el producto de las fuerzas por los brazos (distancias respectivas desde el extremo de
la barra al punto de apoyo) es constante:
Por ello, si se acerca el punto de apoyo al peso, se requerirá una fuerza menor para levantarlo. Este principio se
conoce como ley de la palanca de Arquímedes.
PRINCIPIO DE RELATIVIDAD
Galileo Galilei (1564-1642) aportó con sus trabajos sobre mecánica y astronomía un nuevo método en el que
se sustentó la revolución científica del siglo XVII.
Al estudiar los fenómenos de caída de los graves y el plano inclinado, Galileo dedujo el principio de la
relatividad que lleva su nombre, en virtud del cual las leyes de la mecánica son iguales para un observador que
se encuentre en reposo o se desplace con un movimiento rectilíneo uniforme.
INGENIOS MECÁNICOS
Los planos inclinados, las palancas y las poleas se han usado desde la Antigüedad para mover y levantar
grandes pesos. No en vano el filósofo e inventor griego Arquímedes llegó a afirmar que con una palanca
adecuada sería capaz de «mover el mundo».
LEYES DE LA MECÁNICA
Los trabajos sobre sistemas estáticos y en movimiento de Arquímedes y Galileo, en sus distintas épocas,
sirvieron de base al inglés Isaac Newton (1642-1727) para definir las leyes básicas de la dinámica y de la
gravitación universal.
Presión Hidrostática. El Principio De Arquímedes
La inmensa mayoría de los materiales presentes en la Tierra se encuentran en estado fluido, ya sea en forma de
líquidos o de gases. No sólo aparecen en dicho estado las sustancias que componen la atmósfera y la hidrosfera
(océanos, mares, aguas continentales), sino también buena parte del interior terrestre. Por ello, el estudio de las
presiones y propiedades hidrostáticas e hidrodinámicas tiene gran valor en el marco del conocimiento del
planeta.
Los fluidos
Se denomina fluido a toda sustancia que tiene capacidad de fluir. En esta categoría se encuadran los líquidos y
los gases, que se diferencian entre sí por el valor de su densidad, que es mayor en los primeros. La densidad se
define como el cociente entre la masa de un cuerpo y el volumen que ocupa:
Presión hidrostática
Dado un fluido en equilibrio, donde todos sus puntos tienen idénticos valores de temperatura y otras
propiedades, el valor de la presión que ejerce el peso del fluido sobre una superficie dada es:
Por tanto, la diferencia de presión entre dos puntos A y B cualesquiera del fluido viene dada por la expresión:
La diferencia de presión hidrostática entre dos puntos de un fluido sólo depende de la diferencia de altura que
existe entre ellos.
Esquema de una prensa hidráulica: un recipiente relleno de líquido con dos émbolos de distinta superficie.
Al aplicar una fuerza F1 sobre el primer émbolo, se genera una presión en el fluido que se transmite hacia el
segundo émbolo, donde se obtiene una fuerza F2. Como la presión es igual al cociente entre la fuerza y la
superficie, se tiene que:
Como S2 > S1, la fuerza obtenida en el segundo émbolo es mayor que la que se ejerce en el primero. Por ello,
con una prensa hidráulica es posible alzar grandes pesos aplicando fuerzas pequeñas o moderadas.
Por tanto, en un cuerpo sumergido actúan dos fuerzas de sentido contrario: el peso descendente y el empuje
ascendente.
Si el empuje es mayor que el peso, el cuerpo sale a flote; en caso contrario, se hunde.
Principio de Arquímedes
Todo cuerpo completamente sumergido desaloja un volumen de fluido igual a su propio volumen. En
condiciones de equilibrio, un cuerpo sumergido en un fluido experimenta una fuerza de empuje vertical
ascendente que es igual al peso del volumen de líquido desalojado. Este enunciado se conoce como Principio
de Arquímedes, y se expresa como:
donde f es la densidad del fluido, Vc el volumen del líquido desalojado (volumen de cuerpo sumergido) y g la
gravedad.
EJEMPLOS DE FLUIDOS
VASOS COMUNICANTES
Vasos comunicantes.
Se llama vasos comunicantes a recipientes de líquidos comunicados entre sí, en general por su base. Estos
vasos tienen la propiedad de que, en condiciones de equilibrio, el líquido que los llena tiene igual presión en
todos sus puntos situados a la misma altura y, consiguientemente, alcanza una misma altura sea cual sea la
forma de los vasos.
SISTEMAS HIDRÁULICOS
El principio de la prensa hidráulica se aplica en numerosos dispositivos prácticos, como los gatos o elevadores
hidráulicos, la grúa hidráulica y los frenos hidráulicos de los automóviles.
BLAISE PASCAL
Blaise Pascal (1623-1662) fue un notable filósofo y matemático francés que descubrió el principio de la
prensa hidráulica. También se le considera fundador de la teoría de las probabilidades.
En términos físicos, el trabajo W se define como el producto escalar de la fuerza aplicada por la distancia
recorrida.
Así pues, el trabajo es una magnitud escalar, que alcanza su valor máximo cuando la fuerza se aplica en la
dirección y el sentido del movimiento.
De la definición anterior se deduce que las fuerzas aplicadas perpendicularmente a la dirección del
movimiento producen un trabajo nulo.
El trabajo para mover un cuerpo depende de la fuerza aplicada sobre el objeto y de la distancia recorrida. En la
figura, se obtiene el mismo trabajo empujando el cuerpo oblicuamente por la plataforma que con ayuda de una
polea.
El valor del trabajo puede obtenerse también mediante una representación gráfica con el valor de la fuerza
en el eje de ordenadas y la distancia en el eje de abscisas.
(a) Trabajo de una fuerza variable, determinado como el área comprendida entre la curva y el eje de abscisas.
(b) Trabajo de una fuerza constante para todo el recorrido.
Concepto de energía
La realización de trabajo puede verse también como un consumo de energía. No obstante, la noción de energía
es más amplia que la de trabajo. Aunque, genéricamente, se define energía como la capacidad de un cuerpo
para realizar trabajo, también comprende el calor, o transferencia de energía de un sistema material a otro,
como una de sus manifestaciones más comunes.
Un muelle estirado y un cuerpo sostenido sobre una superficie pueden realizar trabajo, al comprimirse o caer al
suelo. Ambos son ejemplos de sistemas provistos de energía susceptible de convertirse en trabajo.
Relación entre energía y trabajo
El trabajo es una manifestación de la energía. Ahora bien, por su definición, el trabajo es una magnitud escalar
que atendiendo a la disposición de la fuerza y el desplazamiento puede ser positiva, negativa o nula:
Cuando el trabajo es positivo, se dice que la fuerza inductora ha aportado energía. Así sucede cuando se
comprime un muelle o se levanta un peso.
Si el trabajo es negativo, la fuerza ha absorbido energía (por ejemplo, al soltar un muelle o dejar caer un
objeto).
Si el trabajo es nulo, no existen variaciones en el balance energético del sistema.
Ejemplo de trabajo nulo, donde el cuerpo se desliza por una superficie horizontal que es perpendicular al peso
(en el ejemplo, esta fuerza ni absorbe ni aporta energía).
UNIDADES DE TRABAJO
En el Sistema Internacional, el trabajo mecánico se mide en julios, donde 1 julio (J) = 1 newton (N) x 1 metro
(m). En el sistema CGS, se utiliza como unidad el ergio. Por la equivalencia entre trabajo y energía, esta última
magnitud se expresa también en Julios (SI) y ergios (CGS).
Evangelista Torricelli (1608-1647), científico italiano, ha pasado a la historia por sus trabajos sobre la presión
atmosférica.
TIPOS DE VECTORES
Un vector se llama ligado cuando se asocia a un punto fijo de un sistema (por ejemplo, la velocidad en los
puntos de un cuerpo en movimiento). En cambio, los vectores deslizantes son aquellos que pueden aplicarse
indistintamente en varios puntos del cuerpo o sistema considerado (por ejemplo, en los movimientos de
rotación). Las operaciones del álgebra vectorial (suma, diferencia, productos vectoriales y escalares) se aplican
sobre todo a vectores deslizantes.
EQUIVALENCIA DE VECTORES
Vectores equivalentes.
Dos vectores se dicen iguales o, también, equivalentes o equipolentes cuando al transportar uno de ellos
paralelamente a sí mismo se puede hacer coincidir con el otro.
Ley de inercia
La primera ley de la mecánica, llamada ley de inercia, sostiene que todo cuerpo aislado no sometido a ninguna
fuerza externa mantiene indefinidamente su estado de reposo o de movimiento.
Esta constante mI recibe el nombre de masa de inercia. En forma vectorial, la segunda ley de Newton se
expresa como:
La fuerza que impulsa a los cuerpos hacia la superficie de la Tierra se llama peso, y la aceleración que éste
induce recibe el nombre de gravedad. Ambas magnitudes se relacionan por la siguiente expresión:
Siendo mG una constante de proporcionalidad que se conoce por masa gravitatoria. El Principio de
Equivalencia de la física defiende que la masa inercial y la masa gravitatoria tienen un mismo valor numérico,
por lo que ambas se conocen genéricamente por masa (símbolo m).
Aceleración de la gravedad
Del principio de equivalencia de masas y de la ley de gravitación universal de Newton (ver t21) puede
determinarse el valor de la aceleración de la gravedad según la siguiente fórmula:
En los movimientos rectilíneos, la componente normal o centrípeta es nula, mientras que tiene un valor
significativo en los desplazamientos curvilíneos.
En los movimientos circulares, si la fuerza centrípeta no existiera, el móvil tendería a seguir con un
movimiento rectilíneo. Es la fuerza centrípeta la que hace «caer» al móvil al centro de la trayectoria.
ISAAC NEWTON
El inglés Isaac Newton (1642-1727) resumió en sus tratados numerosos principios y leyes revolucionarias
sobre la mecánica, la gravitación universal, la óptica y la dinámica de fluidos.
CAÍDA LIBRE
El movimiento de caída libre es aquel por el que un cuerpo se precipita a tierra desde una cierta altura
impulsado por su propio peso. En este movimiento, la fuerza que actúa es el peso P, y la aceleración presente
es la gravedad, g = 9,81 m/s2. El desplazamiento resultante es un movimiento uniformemente acelerado.
SISTEMAS INERCIALES
Las leyes de Newton son válidas sólo en los llamados sistemas de referencia inerciales, que son aquellos que
no están sometidos a ninguna aceleración. En la realidad estos sistemas no existen, ya que todos los cuerpos
están sujetos a fuerzas y movimientos con aceleración. Así, la Tierra, que suele utilizarse frecuentemente como
un sistema inercial, no sólo orbita alrededor del Sol y gira en torno a su propio eje de rotación, sino que
también acompaña al Sistema Solar y a la Vía Láctea en sus desplazamientos cósmicos.
Interacción gravitatoria
Se llama interacción gravitatoria a la atracción mutua que ejercen entre sí dos cuerpos cualesquiera provistos
de masa. La magnitud de la fuerza que se asocia es directamente proporcional a la masa de los cuerpos
considerados y guarda proporcionalidad inversa con el cuadrado de la distancia que los separa.
Dirección y sentido de las fuerzas de atracción gravitatoria entre dos cuerpos.
La expresión de la fuerza gravitatoria se conoce como Ley de gravitación universal de Newton (ver t21) y
se formula de la siguiente manera:
siendo m1 y m2 las masas, r la distancia que existe entre ellas y G la llamada constante de gravitación
universal.
El valor de G, cuya primera determinación se había atribuido hasta hace poco al científico británico Henry
Cavendish, es igual a: G = 6,67 · 10-11 N m2 kg-2 (ver t5).
Definición de peso
Un caso particular de interacción gravitatoria es el peso, que se define como la fuerza de atracción que ejerce
la masa de la Tierra sobre la de cualquier cuerpo situado en su superficie o proximidades. Por tanto, el peso se
expresa como:
siendo la masa de la Tierra. En la superficie terrestre, r coincide con el radio del planeta, y su símbolo
es (ver t5).
Gravedad
La relación entre el peso de un cuerpo y su masa recibe el nombre de intensidad del campo gravitatorio o, más
sencillamente, gravedad. Según la ley de la gravitación universal, en la superficie de la Tierra la gravedad
tiene un valor de:
Cuando se mide a alturas considerables desde la superficie terrestre (por ejemplo, a bordo de un avión o en
una cumbre de alta montaña), el valor de g disminuye, ya que aumenta la distancia al centro de la Tierra. Es
decir, el peso de un cuerpo es menor a mayores alturas.También varía ligeramente según el punto donde se
mida, ya que la Tierra no es perfectamente redonda.
Masa y peso
El peso es una magnitud variable, cuyo valor depende de la distancia exacta al centro de la Tierra; por tanto, no
es característico de cada cuerpo.
La relación entre masa y peso viene dada por el valor de una constante llamada gravedad. Si se aplica la ley
fundamental de la dinámica de Newton (ver t5), se obtiene que la gravedad es una forma especial de
aceleración. Así, la expresión vectorial del peso es la siguiente:
Centro de gravedad
El peso de un cuerpo puede verse como la resultante de todas las fuerzas que actúan sobre los componentes
elementales de la materia que lo integra. Sin embargo, para simplificar los cálculos, se considera que, en cada
cuerpo, el peso se aplica sobre un solo punto, denominado centro de gravedad (en abreviatura, cdg).
En los cuerpos dotados de algún tipo de simetría, el centro de gravedad coincide con el centro de simetría (por
ejemplo, el centro geométrico de un cubo).
Fuerzas y movimientos
El peso es una clase de fuerza y, como tal, puede inducir movimiento. Así sucede cuando se deja caer un
cuerpo desde una cierta altura: por efecto del peso, adquiere una aceleración g que lo precipita contra el suelo.
Sin embargo, cuando el cuerpo descansa sobre una superficie horizontal, y en ausencia de fuerzas externas,
permanece en reposo. El peso sigue existiendo, aunque está compensado por la reacción del plano de la
superficie. Se dice entonces que el cuerpo está en equilibrio.
Para que exista equilibrio en un cuerpo o sistema se han de cumplir dos condiciones:
Que la resultante total de las fuerzas que actúan sobre él sea nula, es decir, no existe traslación.
Que la suma total de los momentos de giro de dichas fuerzas sea también nula, con lo que no existe
tampoco rotación.
HENRY CAVENDISH
Henry Cavendish (1731- 1810), físico y químico británico, estudió el aire y el hidrógeno, la
composición del agua y la electricidad. No obstante, es conocido sobre todo por haber determinado el
valor de la densidad y la masa de la Tierra, de donde puede extraerse el valor de la constante de
gravitación universal G.
NOCIÓN EXTENDIDA DE PESO
El peso sigue siempre la vertical desde el centro de gravedad del cuerpo.
La balanza es el instrumento clásico de medida de las masas de los cuerpos. El modelo tradicional
de balanza cuenta con dos platillos y un fiel que se desplaza sobre una escala graduada, y la medida
se basa en la comparación con cuerpos de masa conocida (las pesas).
En su acepción más general, el concepto de peso se usa también para la fuerza gravitatoria de
atracción que ejercen la Luna o los planetas sobre los cuerpos de su superficie. En la Luna, los cuerpos
pesan una sexta parte menos que en la Tierra, al ser mucho menor la masa del satélite.
MOMENTO DE UNA FUERZA
El momento de una fuerza se define como el producto vectorial de su vector de posición por el vector fuerza,
es decir:
Movimientos Rectilíneo Y Circular
La mayoría de los movimientos observados en la naturaleza son muy complejos, aunque en numerosas
ocasiones pueden interpretarse como combinaciones de desplazamientos rectilíneos y/o circulares, con o sin
aceleración.
donde xD es la posición inicial del cuerpo con respecto al punto origen de referencia, su velocidad, t la
variable tiempo y x (t) la posición genérica del cuerpo en un instante t.
Representación gráfica de la ley horaria del movimiento rectilíneo uniforme. La pendiente de la recta es la
velocidad de desplazamiento.
Las ecuaciones que describen estos tipos de movimientos son las siguientes:
donde vD es la velocidad del objeto en el instante inicial, xD el espacio inicial recorrido desde el origen y a la
aceleración que experimenta el cuerpo, o variación de la velocidad con respecto al tiempo. La aceleración,
constante en este caso, puede ser positiva o negativa (deceleración). En las expresiones anteriores, v(t) es
la función velocidad y x(t) representa la ley horariadel movimiento.
Representación gráfica de la ley horaria de una partícula sometida a una aceleración constante (a) positiva y (b)
negativa.
Como caso particular de aceleración se puede citar la gravedad (simbolizada por g y con valor igual a 9,81
m/s2), que actúa sobre todos los cuerpos situados en la superficie terrestre por efecto de la atracción gravitatoria
que ejerce el planeta.
con D, el ángulo inicial de desplazamiento del cuerpo con respecto al origen, su velocidad angular, t el
tiempo y (t) la posición angular del cuerpo en un instante t.
Movimiento parabólico
Otro tipo de movimiento estudiado por la cinemática es el parabólico, que no es rectilíneo ni totalmente
circular. Ejemplos clásicos de movimiento parabólico son los descritos por las balas de cañón, un balón de
baloncesto lanzado hacia la canasta o una pelota de golf golpeada con un palo.
Altura máxima
En todas estas ecuaciones, v0 es la velocidad inicial del móvil, z0 su altura inicial, g la aceleración de la
gravedad y el ángulo inicial que forma la trayectoria del móvil con la horizontal en el momento del
lanzamiento.
Fase de aceleración de un vehículo en recta con una presión uniforme sobre el pedal del acelerador.
Tiro horizontal, un caso especial de lanzamiento de un proyectil cuando éste parte de su altura
máxima.
· Movimiento del extremo de la aguja de un reloj (uniforme).
· Desplazamiento de un punto de la rueda de un vehículo.
· Movimiento del engranaje de un motor.
· Desplazamiento de una piedra atada a una cuerda tensa que gira.
Energía cinética
El trabajo realizado por fuerzas que ejercen su acción sobre un cuerpo o sistema en movimiento se expresa
como la variación de una cantidad llamada energía cinética, cuya fórmula viene dada por:
El producto de la masa m de una partícula por el cuadrado de la velocidad v se denomina también fuerza
viva, por lo que la expresión anterior se conoce como teorema de la energía cinética o de las Fuerzas Vivas.
Un ejemplo clásico de energía potencial gravitatoria es un cuerpo situado a una cierta altura h sobre la
superficie terrestre. El valor de la energía potencial gravitatoria vendría entonces dado por:
Si se deja caer el cuerpo, adquiere velocidad y, con ello, energía cinética, al tiempo que va perdiendo altura y
su energía potencial gravitatoria disminuye.
Energía potencial elástica
Otra forma común de energía potencial es la que posee un muelle cuando se comprime. Esta energía potencial
elástica tiene un valor igual a:
donde x es la posición del extremo del muelle y k una constante de proporcionalidad. Al soltar el muelle, se
libera energía potencial elástica, al tiempo que el extremo del muelle adquiere velocidad (y, también, energía
cinética).
Al comprimir un muelle, se realiza un trabajo que se acumula como una energía potencial elástica.
Energía mecánica
En los procesos físicos, la energía suele almacenarse en los cuerpos en forma combinada de tipo cinético y
potencial. Esta suma de energías se denomina energía mecánica, y se escribe genéricamente como:
Fuerzas que intervienen en un cuerpo lanzado hacia arriba: una genera movimiento (energía cinética) y la otra,
el peso, va acumulando energía potencial gravitatoria hasta el punto más elevado de la trayectoria.
Conservación de la energía mecánica
Uno de los principios básicos de la física sostiene que la energía no se crea ni se destruye, sino que sólo se
transforma de unos estados a otros. Este principio se extiende también a la energía mecánica. Así, en un
sistema aislado, la suma de energías cinética y potencial entre dos instantes de tiempo se mantiene constante.
De este modo, la energía cinética se transforma en potencial, y a la inversa, pero la suma de ambas siempre
se conserva (cuando el sistema está aislado y no se aplican fuerzas disipativas).
Potencia mecánica
La energía transferida (o el trabajo realizado) por unidad de tiempo bajo la acción de una fuerza se
denomina potenciamecánica, y se expresa como:
La unidad de potencia en el Sistema Internacional es el vatio (símbolo W), equivalente a un julio dividido por
un segundo (1 W = 1 J / 1 s).
LA FUERZA DE ROZAMIENTO
Transformación de trabajo en calor por la acción de una fuerza disipativa (el rozamiento).
No todas las fuerzas presentes en la naturaleza son capaces de realizar trabajo útil. Existen algunas, llamadas
disipativas, como la de rozamiento o fricción, que se opone al movimiento y se invierte en calentar las
superficies de contacto (no puede recuperarse, por tanto, en forma de energía cinética).
TRABAJO NETO
Cuando sobre un sistema actúan varias fuerzas conjugadas, cada una de ellas contribuye independientemente a
la realización de un trabajo. A efectos teóricos, se considera que sólo actúa sobre el cuerpo la fuerza resultante
de todas las aplicadas, que efectuaría un trabajo neto susceptible de absorber o de aportar energía en sus
múltiples manifestaciones.
Por otra parte, dentro de los cuerpos deformables se consideran también dos grandes grupos:
Cuerpos elásticos, que son aquellos que recuperan su forma original, no deformada, cuando deja de
actuar la fuerza que se ejercía sobre ellos.
Cuerpos no elásticos, en los cuales una fuerza aplicada origina deformaciones permanentes.
En los cuerpos elásticos, las deformaciones causadas son directamente proporcionales a las magnitudes de las
fuerzas aplicadas.
Ley de Hooke
El comportamiento de los cuerpos elásticos constituye un fenómeno de notable interés para la física. Según la
llamada ley de Hooke, las deformaciones causadas en un cuerpo elástico son directamente proporcionales a las
fuerzas que las provocan. Es decir:
La inversa de esta constante, simbolizada por k = 1 / k?, se denomina constante elástica, y es característica de
cada cuerpo. De acuerdo con este principio, para distintas fuerzas aplicadas sobre un cuerpo elástico se
producen diferentes deformaciones proporcionales a ellas:
La ley de Hooke se dedujo por medios experimentales.
La presión
El grado de deformación que sufre un cuerpo depende de la magnitud de la fuerza y de la extensión de
superficie sobre la que ésta se aplique. En tal sentido, se define presión como la magnitud determinada por el
cociente entre el módulo de la fuerza F y la superficie S perpendicular sobre la que se ejerce.
La presión es una magnitud escalar, que queda definida íntegramente por una cantidad numérica.
Para una fuerza dada, la presión es tanto mayor cuanto menor sea la superficie sobre la que se aplica, y a la
inversa. Este principio se aprovecha en numerosos mecanismos y dispositivos cotidianos; por ejemplo:
Las agujas y los cuchillos tienen punta o filo (de superficie muy pequeña) para obtener una presión
máxima con una fuerza moderada.
Los esquíes y las traviesas del ferrocarril sirven para aumentar la superficie de apoyo y evitar que el
esquiador se hunda en la nieve o el tren se aplaste contra el suelo.
Fuerzas de rozamiento
Una forma especial de fuerzas que actúan sobre los cuerpos es el rozamiento. Las fuerzas de rozamiento o
fricción se oponen siempre al desplazamiento de los cuerpos y se explican como el resultado del roce de las
partículas de éstos con las del medio que los rodea (por ejemplo, el aire y el suelo). En el caso particular de un
cuerpo que se desliza por una superficie inclinada:
Las fuerzas de rozamiento no varían con la velocidad del cuerpo en movimiento ni con la extensión de la
superficie de contacto.
El módulo de estas fuerzas es directamente proporcional al valor de la fuerza normal que actúa entre el
cuerpo y la superficie de contacto; la constante de proporcionalidad se denomina coeficiente de
rozamiento, se simboliza por y carece de dimensiones:
EL SÓLIDO RÍGIDO
Todo cuerpo considerado indeformable se denomina genéricamente sólido rígido. Al interpretarse como un
sistema ideal donde las distancias relativas entre sus puntos permanecen siempre fijas, el sólido rígido sirve
como modelo para numerosos estudios teóricos sobre movimientos de traslación y rotación.
EL DINAMÓMETRO
Un dinamómetro es un resorte o muelle que se estira, al ser sometido a deformación, a lo largo de una escala
graduada. Por su carácter elástico, cumple la ley de Hooke, por la cual es posible determinar la magnitud de las
fuerzas aplicadas midiendo el valor de la deformación del muelle sobre la escala.
UNIDADES DE PRESIÓN
La unidad de presión en el Sistema Internacional es el pascal (símbolo Pa), que es igual a un newton (N)
dividido por un metro cuadrado, es decir: 1 Pa = 1 N/m 2 ; también se usa con frecuencia su múltiplo llamado
kilopascal (símbolo kPa).
Otras unidades muy utilizadas de presión son el milibar (equivalente a 100 Pa) y su múltiplo el bar (igual a
1.000 milibares), y la atmósfera (1 atm = =101.292 Pa » 105 Pa).
Robert Hooke (1635- 1703), que trabajó con Robert Boyle en la construcción de la bomba de aire para el
estudio de la presión, realizó una de sus principales aportaciones a la ciencia con el descubrimiento de la ley
empírica de la elasticidad.
Acción Y Reacción. Conservación Del Momento
La aportación conceptual más novedosa de la mecánica newtoniana a las ciencias físicas fue el principio de
acción y reacción. Esta idea, que no ha perdido actualidad con el progreso científico, permitió avanzar hacia
modelos globales basados en principios de conservación de las entidades físicas esenciales.
Los cuerpos A y B ejercen mutuamente fuerzas iguales y de sentido contrario entre sí.
Conviene advertir que estas fuerzas de acción y reacción nunca dan lugar a un equilibrio o compensación
dinámica, ya que siempre actúan sobre cuerpos diferentes.
Fuerza resultante
Cuando sobre un mismo cuerpo material actúan varias fuerzas simultáneas, se observa como efecto una única
fuerza llamada resultante, que se calcula como la suma vectorial de todas las fuerzas individuales
participantes.
En los cuerpos en reposo confluyen siempre conjuntos de fuerzas que se compensan mutuamente, con lo que la
resultante final es nula.
Cantidad de movimiento
Si a la definición de impulso de una fuerza se le aplica la ley fundamental de Newton para la dinámica (ver t5),
se obtiene que:
De este modo, el impulso de una fuerza puede definirse como la variación de una cantidad igual al producto de
la masa por la velocidad del cuerpo. Este producto se denomina cantidad de movimiento o momento lineal,
y se expresa como:
Este principio de conservación de la cantidad de movimiento o del momento lineal es una consecuencia
directa de la ley de acción y reacción, y se expresa como:
El tiempo y el espacio
Dos magnitudes elementales de la física son el espacio y el tiempo. Íntimamente relacionados, el tiempo (t)
permite ordenar los sucesos físicos en una escala que distingue entre pasado, presente y futuro, mientras que el
espacio (s) puede verse como un medio abstracto en el que se desplazan los cuerpos. Se describe normalmente
mediante tres coordenadas que corresponden a la altura, la anchura y la profundidad.
En la física clásica, se considera que el tiempo transcurre siempre de manera uniforme, y que el espacio es un
medio indeformable que subyace a toda realidad física. Sin embargo, la mecánica relativista sostiene que tanto
el tiempo como el espacio no son magnitudes fijas, sino que su medida depende de la velocidad de
desplazamiento que experimente el observador con respecto a unos ejes fijos tomados como referencia.
Sistema de referencia físico, formado por tres ejes cartesianos espaciales (altura, anchura y profundidad) y un
eje temporal.
Trayectoria de un cuerpo
El movimiento de un cuerpo medido en un sistema de referencia se observa, a lo largo de la secuencia del paso
del tiempo, como una trayectoria u órbita, que puede adoptar diversas formas: rectilínea, curva, parabólica,
mixta, etc. Uno de los objetivos de la cinemática consiste en hallar la ley que rige el tipo de trayectoria que
seguirá un cuerpo o un sistema en su desplazamiento en el espacio a lo largo del tiempo.
Trayectoria de un cuerpo, descrita por las posiciones sucesivas que ocupa en el espacio en cada instante.
La variación con respecto al tiempo de la posición de un cuerpo en el espacio se conoce como ley horaria del
movimiento.
La velocidad lineal media de un punto móvil es igual al cociente entre el espacio medio recorrido entre las
posiciones 1 y 2 y el tiempo transcurrido.
La velocidad que posee un cuerpo en un momento dado, se llama instantánea y se expresa como:
En el Sistema Internacional, el ángulo se mide en radianes, y la velocidad angular se expresa en radianes por
segundo.
En un movimiento circular descrito según una circunferencia de radio R, la relación entre la velocidad y
aceleración lineal (a lo largo de la curva de la circunferencia) y angulares (según los ángulos descritos)
instantáneas es la siguiente:
UNIDADES DE ESPACIO Y TIEMPO
En el Sistema Internacional, el espacio se mide en metros y el tiempo en segundos. El metro (símbolo m) se
define como la distancia que recorre la luz en el vacío en un periodo de 1/299.792.458 segundos. El segundo
(s) se define como la duración de 9.192.631.770 periodos de la radiación que corresponde a la transición entre
dos niveles hiperfinos del átomo Cesio 133 en su estado fundamental.
DIAGRAMA V-T
Un ángulo en radianes se define por el cociente entre la longitud de arco y el radio que le corresponde.
La ley horaria se representa gráficamente con un diagrama espacio-tiempo (s-t). Para ilustrar la descripción de
un movimiento se usan también los diagramas velocidad-tiempo (v-t), que son característicos para cada tipo de
desplazamiento.
A escala microscópica, la temperatura es proporcional al grado de agitación interna de las moléculas que
integran un cuerpo.
Magnitudes termométricas
Los cambios de temperatura provocan alteraciones en las propiedades físicas de los cuerpos sobre los que
actúan. Las cualidades de los cuerpos que se alteran con la temperatura se denominan magnitudes
termométricas, algunas de las cuales son:
El color (por ejemplo, el hierro enrojece al calentarse por encima de cierta temperatura).
El volumen: la mayoría de los sólidos y los líquidos se dilatan al calentarse; lo mismo sucede con los gases,
siempre y cuando lo permita el recipiente que los contiene.
La resistencia eléctrica de los conductores aumenta, en general, con la temperatura.
El color de un cuerpo es, en ocasiones, una magnitud termométrica, ya que cambia con la temperatura.
Equilibrio térmico
Cuando se ponen en contacto dos cuerpos con temperaturas diferentes, las moléculas que se encuentran en la
frontera entre ambos experimentan colisiones hasta que las temperaturas respectivas de los cuerpos se
equiparan. Finalmente, se alcanza una situación de equilibrio térmico, que resulta de gran utilidad en los
procedimientos de medición de las temperaturas.
Dos sistemas a diferentes temperaturas puestos en contacto terminan por alcanzar una situación de equilibrio
térmico.
Termómetros
El instrumento más común de medida de la temperatura es el termómetro. El primero de estos instrumentos
fue ideado en 1603 por el científico italiano Galileo Galilei, se basaba en el principio por el cual una columna
de agua encerrada en un tubo se dilata al aumentar la temperatura y se contrae cuando ésta disminuye.
Esquema de un pirómetro, un instrumento de medida de temperaturas muy elevadas que convierte en una
corriente eléctrica mensurable la luz que procede de un cuerpo incandescente.
Termopares
Otro instrumento de medición de temperaturas es el termopar, un dispositivo constituido por la unión de dos
metales diferentes (por ejemplo, cromo y níquel). La variación de temperatura induce una diferencia de
potencial eléctrico entre ambas partes del termopar, según un fenómeno conocido como efecto Seebeck, cuyo
valor depende de la temperatura del conjunto.
LÍMITES DE LA TEMPERATURA
Los termómetros se suelen calibrar con las temperaturas de fusión y ebullición del agua.
La temperatura más baja contemplada en la física se denomina cero absoluto y corresponde a ¿273,15 ºC. En
cambio, no se conoce un límite superior para los valores de la temperatura, que pueden alcanzar millones de
grados en las estrellas.
TERMÓMETRO DE FAHRENHEIT
En 1714, el físico alemán Gabriel Fahrenheit construyó el primer termómetro de mercurio. Rellenó para ello
una ampolla con este líquido, que puso en contacto con una mezcla de hielo y sal; después soldó a la ampolla
un tubo capilar y graduó la altura a la que ascendía el líquido como valor de la temperatura de fusión del agua.
Más tarde, introdujo el dispositivo en agua hirviendo y marcó una nueva señal en el tubo, correspondiente a la
altura alcanzada por el mercurio, para el punto de ebullición del agua.
Escalas De Temperatura
La medida de la temperatura ambiental se ha venido realizando, de forma más o menos sistemática, desde
los tiempos del Renacimiento. En los siglos sucesivos, se han propuesto varias escalas de medida de
temperaturas, basadas principalmente en los puntos de fusión y ebullición del agua como valores de
referencia. Entre ellas, la más utilizada en la vida cotidiana es la escala centígrada o Celsius. En cambio, en el
ámbito científico se utiliza predominantemente la escala absoluta o Kelvin.
Medida de la temperatura
La temperatura se mide por medio de diversos instrumentos y dispositivos, de los que el más conocido es el
termómetro de mercurio. En esencia, todos estos instrumentos se basan en la observación de las
llamadas magnitudes termométricas, que son cualidades de los cuerpos susceptibles de modificación por
efecto de los incrementos o los descensos de temperatura (por ejemplo, el hierro se enrojece al calentarse).
En los procedimientos de medida aplicados se sustentan las principales escalas termométricas hoy día
utilizadas, y que se basan en los puntos de fusión y ebullición del agua para determinar las escalas de
graduación de sus valores.
Escala Celsius
El termómetro de mercurio, corrientemente utilizado para medir temperaturas, consiste en una columna de
mercurio encerrada en un tubo capilar, de manera que al variar la temperatura se modifica la altura del líquido
dentro de la columna. La relación entre la temperatura T y la diferencia de altura de mercurio en el tubo
responde a una función lineal de la forma:
Los valores de m y b dependen de la escala termométrica elegida, y suelen fijarse asignando a los puntos de
fusión y ebullición del agua valores convencionales concretos.
La escala Celsius, también llamada centígrada, asigna el valor 0 a la temperatura de fusión del agua y el valor
100 al punto de ebullición del agua, en condiciones de presión normal (igual a 1 atmósfera).Entre estos dos
valores se define una escala dividida en cien tramos, cada uno de los cuales corresponde a un grado
centígrado o Celsius.
Esta escala, muy utilizada en la vida cotidiana en numerosos países del mundo, admite valores negativos
(también referidos como temperaturas «bajo cero»).
Representación gráfica de la temperatura, a modo de una función lineal.
Escala Fahrenheit
En la función lineal de la temperatura con respecto a la longitud, es posible elegir los valores de referencia para
m y b de otras muchas maneras. En la actualidad, en los países anglosajones aún sigue usándose la escala
Fahrenheit, establecida de manera que:
Al punto de congelación del agua en condiciones de presión normal (1 atmósfera) se le asigna el valor 32.
Al punto de ebullición normal del agua se le atribuye el valor 212.
Las relaciones que permiten pasar de un valor en escala Celsius (TC) y a la inversa a Fahrenheit (TF) son las
siguientes:
Escala absoluta
El descubrimiento de que la temperatura posee un valor mínimo insuperable, estimado en ¿273,15 ºC, propició
que, en el ámbito científico, se adoptara como base de referencia de la medida de temperaturas la escala
absoluta o Kelvin.
Esta escala elige como valor origen el ¿273,15, también llamado cero absoluto, de manera que la equivalencia
entre la escala absoluta y la Celsius viene dada por la expresión siguiente:
Gráfica de representación de la escala absoluta o Kelvin. La recta que refleja la función lineal corta al eje de
abscisas en el punto de valor ¿273,15.
Para evitar este problema se usan termómetros de gas diluido, de mayor precisión, y que se basan en el uso
de un gas encerrado en un recipiente con un émbolo (para mantener constante la presión y medir variaciones
de volumen como magnitud termométrica) o en un dispositivo que permita mantener constante el volumen del
gas para determinar las variaciones de su presión (que se usaría como magnitud termométrica para medir
temperaturas).
WILLIAM THOMSON
El aristócrata escocés William Thomson (1824- 1907), conocido también como barón Kelvin, fue uno de los
científicos más eminentes del siglo XIX, y proyectó su influencia sobre un gran número de pensadores de su
generación. El nombre dado a la unidad de temperatura en el Sistema Internacional, el kelvin, pretende ser un
homenaje a la contribución de este destacado científico en el campo de la termodinámica.
CERO ABSOLUTO
El valor llamado cero absoluto de temperaturas (origen de la escala absoluta o Kelvin) equivale a ¿273,15 ºC.
Según la teoría física, este valor es inalcanzable para cualquier partícula material, dado que en él las partículas
no tendrían ninguna energía cinética interna, alcanzando un estado de quietud total.
OTRAS ESCALAS
Además de las tres escalas de temperatura más conocidas (absoluta o Kelvin, Celsius y Fahrenheit), se han
propuesto otras de utilidad en determinados campos de la ciencia y la técnica. Entre ellas, sobresalen la escala
Rankine (ºR), preferida en ciertos ámbitos de la ingeniería, que es una escala absoluta cuya división en grados
se basa en la Fahrenheit y no en la Celsius; y la escala Réaumur (ºRe), donde el intervalo se divide en 80
grados y el origen se sitúa en el punto de congelación del agua.
La electricidad en la naturaleza
La carga eléctrica es una de las propiedades básicas de la materia. Aunque la comprensión extensa de sus
manifestaciones se resistió durante siglos al escrutinio de la ciencia, ya hacia el año 600 a. C. los filósofos
griegos describieron con detalle el experimento por el cual una barra de ámbar frotado atrae pequeños
pedacitos de paja u otro material ligero (electrización por frotamiento).
Los fenómenos eléctricos, indivisiblemente unidos a los magnéticos, están presentes en todas partes, ya sea en
las tormentas, la radiación solar o el cerebro humano. Modernamente, sus propiedades se aprovechan en
múltiples campos de actividad, y la electricidad se ha convertido en una forma esencial de consumo y
transporte de energía.
Por su naturaleza eléctrica, los cuerpos físicos se clasifican en conductores, que transmiten la electricidad
fácilmente, y aislantes o dieléctricos, que oponen una resistencia elevada a su paso.
Los semiconductores presentan una conductividad intermedia entre estas dos clases.
Cargas eléctricas
La esencia de la electricidad es la carga eléctrica. Esta cualidad existe en dos clases distintas, que se
denominan cargas positivas y negativas. Las cargas eléctricas de la misma clase o signo se repelen
mutuamente y las de signo distinto se atraen.
En realidad, la carga eléctrica de un cuerpo u objeto es la suma de las cargas de cada uno de sus constituyentes
mínimos: moléculas, átomos y partículas elementales. Por ello se dice que la carga eléctrica está cuantizada.
Además, las cargas se pueden mover o intercambiar, pero sin que se produzcan cambios en su cantidad total
(ley de conservación de la carga).
En el estado normal de los cuerpos materiales, las cargas eléctricas mínimas están compensadas, por lo que
dichos cuerpos se comportan eléctricamente como neutros. Hace falta una acción externa para que un objeto
material se electrice.
La electrización de un cuerpo se consigue extrayendo del mismo las cargas de un signo y dejando en él las de
signo contrario. En tal caso, el cuerpo adquiere una carga eléctrica neta no nula.
Fuerza eléctrica
Los fenómenos de la electrización y la conducción pueden explicarse como el resultado de la acción
de fuerzas eléctricas. Entre dos cargas próximas inicialmente en reposo siempre se establece un tipo de
fuerzas, llamadas electrostáticas, de tal forma que, si las partículas cargadas son suficientemente pequeñas
como para que puedan considerarse puntuales, se cumple en las siguientes condiciones:
La fuerza establecida entre ambas tiene una dirección que coincide con una línea recta imaginaria que une
las dos cargas.
La fuerza ejercida sobre una carga apunta hacia la otra cuando las dos tienen distinto signo (fuerza
atractiva).
El sentido de la fuerza se dirige hacia el lado opuesto de la carga cuando ambas tienen el mismo signo
(fuerza repulsiva).
Ilustración de las fuerzas electrostáticas. En (a) las dos cargas son positivas o negativas; en (b) una es positiva
y la otra, negativa.
Ley de Coulomb
La magnitud de las fuerzas eléctricas de atracción y repulsión entre cargas se rige por el principio
fundamental de la electrostática, también llamado ley de Coulomb. Esta ley establece que la fuerza de
atracción (o repulsión) entre dos cargas eléctricas puntuales de distinto (o igual) signo es directamente
proporcional al producto del valor de sus cargas e inversamente proporcional al cuadrado de la distancia que
las separa:
donde e0 es una constante denominada permitividad eléctrica del vacío, cuyo valor es 8,8542·10-12 C2/N·m2.
LA ELECTRICIDAD
Es una forma de energía producida por el movimiento de electrones de los átomos. Estos tienden a repelerse o
atraerse.
BENJAMIN FRANKLIN
El extremo en punta del pararrayos atrae la descarga eléctrica del rayo y el cable recoge la corriente eléctrica y
la canaliza a tierra, sin que afecte a personas, animales u objetos que se encuentren cerca.
Benjamin Franklin (1706-1790) fue, además de un político influyente en el proceso de independencia de los
Estados Unidos, un afamado científico e inventor. A él se deben las primeras observaciones experimentales de
las tormentas, muchos de los términos hoy usados en electricidad (como conductor o batería) y la invención
del pararrayos.
CHARLES-AUGUSTIN DE COULOMB
Charles-Augustin de Coulomb (1736-1806), un ingeniero militar francés que vivió largos años en las Indias
occidentales, impulsó con la expresión de la ley fundamental de la electrostática, que lleva su nombre, el
nacimiento de la teoría de campos y el electromagnetismo moderno.
Ley De Faraday-Henry
El experimento de Oersted puso de manifiesto que las corrientes eléctricas son capaces de engendrar
campos magnéticos. Para completar la comprensión de las relaciones entre la electricidad y el magnetismo
era necesario constatar el proceso inverso: cómo producir una corriente eléctrica a partir de un campo
magnético. Los trabajos del británico Michael Faraday (1791-1867) y el estadounidense Joseph Henry (1797-
1878) sirvieron para sentar definitivamente las bases del electromagnetismo.
Experimento de Faraday
La creación de una corriente eléctrica en un circuito a partir de fenómenos magnéticos puede lograrse
mediante un sencillo experimento ideado independientemente por Faraday y por Henry.
Experimento de Faraday. Cuando se mantiene en reposo un imán frente a un circuito eléctrico en forma de
espira (a), el galvanómetro no detecta corriente. Si se acerca el imán al circuito (b), se produce corriente en un
sentido, y cuando se aleja (c), el flujo de corriente toma sentido contrario.
La interpretación que dio Faraday a este experimento es que la aparición de la corriente se debía a la variación
que se producía al mover el imán en el número de líneas de campo magnético que atravesaban el circuito.
Flujo magnético
Para contar el número de líneas de campo que atravesaban el circuito en forma de espira de su experimento,
Faraday definió el concepto de flujo magnético como el producto escalar de la densidad del campo magnético
por el vector representativodel área de la espira (perpendicular a la superficie y con módulo igual a dicha
área):
siendo el ángulo que forma la dirección del campo magnético con la normal a la superficie considerada.
Ley de Lenz
El sentido de la corriente que circula por la espira del experimento de Faraday-Henry se define según la
llamada ley de Lenz(por el físico estonio Heinrich Lenz, 1804- 1865): la corriente inducida por un campo
magnético variable adopta el sentido por el cual tiende a oponerse a la causa que la provoca.
Según la ley de Lenz, al acercar el imán al circuito se genera una corriente que induce un campo magnético
que repele al imán (a). Cuando la barra imantada se aleja (b), la corriente generada engendra un campo que
tiende a atraer al imán hacia el circuito.
El campo magnético cambia de signo cuando se pasa de una cara a otra de la espira, ya que se modifica
entonces el sentido de su vector de superficie representativo (en la dirección perpendicular).
El flujo magnético se mide en el Sistema Internacional en una unidad llamada weber (símbolo Wb), que
equivale a un campo magnético de un tesla (T) aplicado sobre una superficie de un metro cuadrado. Es decir: 1
Wb = 1 T / 1 m 2 .
INDUCCIÓN MUTUA
Cuando se sitúan próximos dos circuitos eléctricos por los que fluye una corriente variable, cada uno induce en
el otro una f.e.m. que, según la ley de Lenz, tiende a oponerse a la f.e.m. que genera la corriente original del
circuito. Este fenómeno se conoce como inducción mutua.
AUTOINDUCCIÓN
Cuando por un circuito aislado fluye una corriente eléctrica variable, se engendra un campo magnético también
variable que induce, a su vez, una corriente eléctrica sobre el propio circuito. La f.e.m. inducida tiende a
oponerse a la original del circuito, en un fenómeno llamado autoinducción.
Un solenoide con un número total de espiras N, un número de espiras por unidad de longitud n y un área de
espira A tiene un coeficiente de autoinducción L = m0NnA. El coeficiente de autoinducción se mide en henrios
(símbolo H).
Las fuerzas de atracción y repulsión entre ambos conductores son de origen magnético, como demostró
experimentalmente el físico francés André-Marie Ampère (1775-1836).
Los conductores de dos corrientes de igual sentido se atraen (a) y se repelen cuando las corrientes son de
sentido contrario (b).
Dadas dos cargas puntuales q1 y q2 , que se mueven con velocidades y sin aceleración, entre ellas se
crean fuerzas de origen magnético definidas por las expresiones:
Fuerza de q1 en q2:
Fuerza de q2 en q1:
El elemento de corriente se define como un segmento infinitesimal de hilo conductor orientado en el sentido de
la corriente y cuya longitud es insignificante comparada con las dimensiones globales del hilo.
Dadas dos corrientes de intensidades I1 e I2 que circulan por hilos conductores próximos, la fuerza magnética
que se establece entre dos elementos de corriente diferenciales y de cada hilo viene dada por:
Por tanto, la fuerza magnética engendrada entre corrientes eléctricas próximas es directamente
proporcional al producto de las intensidades de corriente e inversamente proporcional al cuadrado de la
distancia que separa a los conductores.
ANDRÉ-MARIE AMPÈRE
André-Marie Ampère (1775-1836) fue el fundador de la disciplina científica llamada electrodinámica, origen
del electromagnetismo moderno. Fue autor de los dos principios que llevan su nombre y que constituyen la
base de esta rama de la física.
PERMEABILIDAD MAGNÉTICA
La constante de proporcionalidad de la primera ley de Ampere, KM, se expresa también por medio de una
constante llamada permeabilidad magnética del vacío, m0, según la relación
KM = m0 / 4p.
En un medio en general, la permeabilidad magnética determina la facilidad de imantarse de un cuerpo, y su
valor en el vacío es
m0 = 4p10-7 H/m.
Resistencia equivalente
La asociación de resistencias eléctricas puede considerarse conceptualmente como una única resistencia
equivalente, cuyo valor se determina a partir de las magnitudes de las resistencias individuales asociadas y del
esquema de conexión.
En el cálculo de la resistencia equivalente se consideran sólo los elementos resistivos propiamente dichos, y no
los cables u otros integrantes del circuito que poseen una resistencia eléctrica intrínseca, aunque baja.
Resistencias en serie
Cuando la corriente que circula por todas las resistencias de una asociación tiene la misma intensidad, se dice
que éstas están conectadas en serie o en cascada. En un esquema de resistencias en serie varía la diferencia
de potencial entre cada una de las resistencias asociadas.
Resistencias en paralelo
Varias resistencias asociadas están dispuestas en paralelo cuando entre los extremos de todas ellas existe una
misma diferencia de potencial. Sin embargo, por cada una circula una intensidad de corriente diferente.
En un esquema de resistencias en paralelo, la resistencia equivalente se calcula como:
Asociación de condensadores
Al igual que ocurre con las resistencias, es posible asociar varios condensadores según distintos esquemas de
conexión, de forma que todos ellos se comporten globalmente como si se tratara de un único condensador
equivalente. La capacidad del condensador equivalente depende de la de los condensadores asociados y del
tipo de disposición que se elija para ellos.
Condensadores en serie
En una forma común de asociación, varios condensadores pueden disponerse serie, o en cascada, cuando la
armadura de cada condensador se une con la armadura de signo contrario del condensador siguiente:
Condensadores en paralelo
En la asociación de condensadores en paralelo, se conectan entre sí las armaduras de igual signo de todos los
condensadores, de forma que el circuito principal se divide en varias ramas:
CLASES DE CONDENSADORES
Según la naturaleza del dieléctrico interpuesto entre sus armaduras, los condensadores pueden ser de:
· Papel impregnado o metalizado.
· Cerámica.
· Mica.
· Plástico.
· Aire.
· Vacío.
· Bipelícula (plástico-metal).
El Campo Electrostático
En la física moderna, la noción de fuerza ha sido progresivamente desplazada por la de campo. Aplicado a la
electrostática, este concepto permite sustituir la idea de las fuerzas puntuales que nacen y mueren en las
cargas eléctricas por el principio de que la sola presencia de una carga induce una perturbación en el espacio
que puede afectar a cualquier otra carga presente en sus proximidades. El manejo de campos permite
describir los fenómenos según las propiedades observadas, sin referirse a las causas originales que los
producen.
El vector campo eléctrico
La presencia de una o varias cargas eléctricas en el espacio induce en su entorno un campo eléctrico (de
símbolo E), que influye en el comportamiento de otras cargas circundantes. El valor cuantificado de esta
interacción se determina por la intensidad de campo eléctrico, que se define como la fuerza que actúa en un
punto dado del campo por unidad de carga positiva.
La dirección del campo es la de la recta que une la posición de la carga que lo engendra con la del punto
donde se mide el campo.
El sentido del campo es, por convenio, repulsivo cuando la carga origen es positiva y atractivo si dicha
carga es negativa (coincide con el de la fuerza electrostática).
El módulo del campo depende del valor de la carga que lo crea, su signo, el medio y la distancia de dicha
carga a aquella en la que se mide la perturbación.
Módulo, sentido y dirección del campo eléctrico. La carga (a) es positiva y la (b), negativa.
donde K es la misma constante que aparece en la ley de Coulomb de la electrostática, cuyo valor es 9 ·
109 N·m2/C2, aproximadamente (ver t30).
Las líneas de campo
Para comprender mejor el concepto de campo eléctrico se recurre a representaciones visuales basadas
en líneas de campo o de fuerza, para indicar la dirección, el sentido y la intensidad del campo.
En esencia, las líneas de campo señalan cómo se comportaría una carga eléctrica positiva cuyo valor es la
unidad, cuando se introdujera en el dominio de acción del campo eléctrico representado.
Según este enfoque, el campo eléctrico es abierto, ya que sus líneas de fuerza nunca entran y salen en una
misma carga.
Líneas de fuerza de un campo eléctrico. Mientras que las líneas creadas por una carga positiva salen de la
carga (a), las engendradas por una carga negativa se sumergen en ella (b).
Líneas de fuerza de un sistema de cargas. Las líneas de campo salen de la carga positiva y entran en la
negativa.
El dipolo eléctrico
El estudio del campo eléctrico es particularmente interesante en un sistema conocido por dipolo eléctrico, que
está constituido por dos cargas de igual valor, una positiva y otra negativa, situadas a una cierta distancia, en
general pequeña.
La característica principal del dipolo eléctrico es el momento dipolar, que se define como el producto del
valor de la carga por la distancia que existe entre ambas cargas. Esta magnitud es vectorial, y matemáticamente
se escribe como:
Al introducir un dipolo eléctrico en un campo electrostático, el dipolo tiende a reorientarse con su carga
positiva apuntando en el sentido de las líneas del campo. La acción del campo crea así un momento de giro M
definido por la expresión:
siendo p el momento dipolar, E la intensidad del campo eléctrico y el ángulo que forman el eje del dipolo y
el campo.
A escala atómica, algunas moléculas tienen un momento dipolar permanente (como el agua), que influye de
forma decisiva en algunas de sus propiedades químicas. Tales moléculas se denominan polares.
MICHAEL FARADAY
Michael Faraday (1791- 1867) fue el primero en introducir el concepto de campo en el que se apoyan
numerosas teorías modernas de la física.También se le considera uno de los fundadores del electromagnetismo
y, en su honor, se ha llamado faradio a la unidad de capacidad eléctrica.
EL ALCANCE DEL CAMPO ELÉCTRICO
Al duplicar el valor de la carga se dobla también la intensidad del campo eléctrico asociado, con lo que las
líneas de campo se aprietan y duplican su densidad.
Aunque en teoría la perturbación introducida por un campo eléctrico en el espacio se extendería ilimitadamente
hasta el infinito, lo cierto es que sus efectos dejan de ser apreciables a partir de una distancia determinada. A
grandes rasgos, puede decirse que el campo eléctrico predomina sobre otras interacciones desde la escala
atómica (para distancias mayores de 10 -13 cm) hasta la macroscópica normal manejada en la Tierra. Para
distancias menores son más intensas las fuerzas nucleares, mientras que en la escala cósmica predominan las
gravitatorias.
El valor de la energía eléctrica de un cuerpo conductor provisto de una carga eléctrica neta no nula se
determina como el semiproducto de la capacidad de almacenamiento de carga por su potencial eléctrico
elevado al cuadrado:
Análogamente, la potencia eléctrica, definida como la variación de energía con respecto al tiempo, se puede
expresar como:
De las equivalencias anteriores, sólo la última es universal, mientras que las que implican la presencia de una
resistencia se aplican sólo a la conversión de energía en calor.
Efecto Joule
Una de las principales aplicaciones de la energía eléctrica proviene de su posibilidad transformación en calor.
Esta conversión, conocida por efecto Joule, se explica como el resultado de los choques que experimentan las
cargas eléctricas del cuerpo por que circula la corriente, que elevan así su temperatura.
A partir de la equivalencia entre trabajo y calor (1 J = 0,24 cal) se obtiene la siguiente expresión matemática
para el efecto Joule:
donde Q se expresa en calorías y las restantes magnitudes en las unidades del Sistema Internacional.
El efecto Joule se aprecia en numerosos fenómenos cotidianos. Por ejemplo, se emplea para generar calor a
partir de la electricidad mediante calefactores eléctricos. Pero también tiene efectos indeseables en los
circuitos, ya que provoca el calentamiento de los motores eléctricos, de las bombillas de iluminación y de los
cables, con el consiguiente riesgo de incendio y las perdidas de energía.
GENERADORES DE ENERGÍA ELÉCTRICA
UNIDADES DE POTENCIA
La potencia eléctrica se mide en vatios (símbolo W) en el Sistema Internacional. Un vatio se define como la
variación de energía o trabajo de un julio en una unidad de tiempo de un segundo (1 W = 1 J / 1s). Pero
también puede expresarse en términos de unidades eléctricas, como el producto de un voltio por un amperio.
JAMES PRESCOTT JOULE
James Prescott Joule (1818-1889), físico británico, dedicó su vida a demostrar las equivalencias de las formas
de energía eléctrica, mecánica y calorífica. Sobre sus estudios teóricos se elaboró también la primera ley de la
termodinámica.
Fuerza De Lorentz
Se produjo un gran salto en los estudios eléctricos y magnéticos cuando se comprendió que al enrollar un hilo
conductor en forma de espiras o solenoides se intensificaban enormemente los campos magnéticos
asociados a la corriente eléctrica. Tal es el principio de los electroimanes y de los generadores eléctricos
modernos.
Una consecuencia importante que se desprende de este teorema es que el flujo del campo magnético a
través de una superficie cerrada arbitraria es siempre cero, ya que las líneas del campo magnético son
cerradas.
Campo que produce un solenoide, nulo entre cada dos espiras y máximo en el centro.
El campo magnético que genera un solenoide tiene propiedades muy semejantes al de un imán de barra.
Espectrógrafo de masas
Una aplicación del movimiento de cargas eléctricas en el seno de un campo magnético es el espectrógrafo de
masas.
Este dispositivo consta de un haz de isótopos ionizados (con carga eléctrica positiva) y de un generador de
campo magnético constante , que modifica su trayectoria. Como su velocidad es perpendicular al campo, las
partículas describen una trayectoria circular de radio:
Cada isótopo del átomo posee distinta masa, con lo que el radio de su trayectoria circular es también diferente.
Así, el espectrógrafo de masas permite separar los diferentes isótopos de un mismo elemento, que no se
podrían diferenciar por métodos químicos convencionales.
Momento magnético
Cuando en vez de una carga puntual se considera una corriente eléctrica que fluye por un circuito cerrado, la
influencia de un campo magnético se manifiesta en:
Una fuerza magnética global nula, ya que las fuerzas ejercidas sobre distintos elementos de corriente se
compensan unas a otras.
Un momento de giro neto, que provoca la rotación del circuito según la orientación del campo magnético.
siendo la magnitud del campo y el momento magnético del circuito, que es un vector con la dirección y el
sentido del campo generado por el circuito y cuyo módulo vale m = A · I, siendo A el área que comprende el
circuito e I la intensidad de corriente.
ELECTROIMANES
Si se introduce una barra de hierro dulce en el eje central de simetría de un solenoide, se incrementa
significativamente la intensidad del campo magnético generado por la corriente. Este dispositivo, que se
conoce por electroimán, tiene numerosas aplicaciones en generadores y motores de corriente eléctrica, así
como otros muchos dispositivos.
Fuerzas Magnéticas.
Los fenómenos magnéticos eran conocidos desde la Antigüedad, aunque su conexión con la electricidad no
empezó a intuirse hasta bien entrado el siglo XVIII. Para el nacimiento del electromagnetismo como uno de
los pilares de la ciencia moderna resultaron fundamentales las experiencias desarrolladas por el físico danés
Hans Christian Oersted (1777-1851).
Propiedades magnéticas
Ya en la antigua Grecia se conocían los imanes naturales, sustancias que, como la magnetita, son capaces de
atraer a otros metales, sobre todo al hierro.
También se había constatado el fenómeno de la imantación, por el cual algunos cuerpos adquieren
propiedades características de los imanes cuando se ponen en contacto con ellos.
Los imanes artificiales así creados pueden quedar imantados de forma temporal o permanente. El fenómeno
de la imantación se denomina ferromagnetismo y las sustancias que lo experimentan, ferromagnéticas.
Ejemplos de ellas son el hierro, el níquel y el cobalto.
Interacción magnética
El fenómeno del ferromagnetismo constituye un caso particular de interacción magnética. Entre dos imanes
distintos se establecen fuerzas de repulsión o atracción que dependen de las posiciones relativas entre los
imanes.
Este comportamiento se explica por la existencia en los imanes de dos zonas de características opuestas,
llamadas polo nortey polo sur, tales que, entre dos imanes:
los polos del mismo tipo se repelen,
los polos de distinto tipo se atraen.
Los polos magnéticos del mismo tipo se repelen y los de distinto tipo se atraen.
La fuerza de atracción o repulsión es inversamente proporcional a la distancia que existe entre los polos, lo que
revela una analogía con la ley de Coulomb de la electrostática (ver t30).
El campo magnético se expresa visualmente mediante líneas de fuerza que, en los imanes, parten del polo
norte y desembocan en el polo sur. Por tanto, las líneas de un campo magnético son siempre cerradas, dado
que todo imán se comporta como un dipolo magnético.
Líneas de fuerza del campo magnético. Estas líneas nacen siempre en el polo norte magnético y se sumergen
en el polo sur del imán. En la imagen se muestra también una brújula, que se orienta según la dirección del
campo.
Experimento de Oersted
El campo magnético también aparece asociado a las cargas eléctricas en movimiento. Al situar la aguja
imantada de una brújula en las proximidades del hilo conductor de un circuito eléctrico por el que fluye
corriente, la brújula abandona su posición norte sur para reorientarse en una dirección perpendicular al hilo.
Esta sencilla experiencia, realizada por el danés Oersted en 1819, ofreció la primera prueba de la relación entre
la electricidad y el magnetismo.
De su interpretación se deduce que las cargas eléctricas en movimiento generan en el espacio circundante un
campo eléctrico y otro magnético de dirección perpendicular al anterior.
Experimento de Oersted. Al acercar la brújula al hilo conductor por el que circula corriente, la aguja imantada
se orienta en dirección perpendicular al hilo.
EL CAMPO MAGNÉTICO TERRESTRE.
La Tierra se comporta como un gigantesco imán cuyos polos magnéticos se hallan próximos a los geográficos,
aunque con su denominación invertida (el polo sur magnético está cerca del norte geográfico, y a la inversa).
LA BRÚJULA
La invención de la brújula, atribuida a los chinos, supuso un avance fundamental para el hombre. El invento es
sencillo: si se suspende un imán de manera que quede horizontalmente en equilibrio, gira de forma que uno de
sus extremos apunta aproximadamente al norte geográfico.
EL DIPOLO MAGNÉTICO
Es bien sabido que al partir un imán se obtienen otros dos imanes con polos norte y sur en sus extremos. Estos
polos no se pueden separar; es decir, no existe el monopolo magnético.
Todo imán es, por tanto, un dipolo magnético con un momento magnético característico. A este momento
magnético se asocian giros y pares de fuerza de gran importancia en los fenómenos electromagnéticos
Todo elemento infinitesimal de corriente por el que circula una intensidad I engendra en el espacio
circundante un campo magnético cuya magnitud depende del valor de la corriente y de la distancia a la que se
mide la perturbación.
Este campo viene definido por una magnitud vectorial llamada densidad de flujo magnético infinitesimal y,
cuyo símbolo es .
Campo magnético engendrado en un punto P por un elemento de corriente, por el que circula una intensidad
eléctrica I.
Ley de Biot-Savart
La densidad de flujo magnético infinitesimal permite calcular el valor total del campo magnético asociado a
una corriente eléctrica que fluye por un circuito a partir de una simple operación de suma de los elementos
infinitesimales de corriente.
Matemáticamente, esta suma se expresa como una integral extendida a todo el circuito C, por lo que la
densidad de flujo magnético asociada a una corriente viene dada por:
Esta ley fue definida, de forma aún rudimentaria, por los físicos franceses Jean-Baptiste Biot (1774-1862) y
Félix Savart (1791-1841).
A escala infinitesimal, el valor de la fuerza que genera el campo inducido por la primera corriente en un
elemento de corriente del segundo circuito se denomina fuerza de Laplace y se expresa como:
En el plano macroscópico, extendido a todo el circuito, la interacción se llama fuerza de Lorentz y se indica
como:
A partir de la resolución de la integral de campo de la ley de Biot-Savart para este caso particular, se concluye
que:
El modulo del campo magnético total en un punto cualquiera es inversamente proporcional a la distancia a
que se encuentra del conductor.
La dirección del campo es perpendicular al conductor.
Su sentido se determina según la regla de la mano derecha, y coincide con el del giro de un tornillo con
rosca a derechas, que avanzara en el sentido de la corriente.
Campo magnético engendrado por un conductor rectilíneo ilimitado por el que circula corriente.
MAGNITUDES DE CAMPO MAGNÉTICO
Para la descripción del campo magnético se utilizan varias magnitudes físicas relacionadas. La intensidad del
campo magnético (simbolizada por ), mide el campo producido por las corrientes que circulan por hilos
conductores. Por su parte, la densidad de flujo magnético , añade a la anterior los efectos derivados de las
propiedades magnéticas del material, mediante un coeficiente denominado permeabilidad magnética m.
Finalmente, la polarización magnética , ofrece una medida del momento intrínseco dipolar de los cuerpos,
sin considerar los campos exteriores. Estas tres magnitudes están relacionadas por la siguiente expresión
matemática:
NIKOLA TESLA
(1856-1943), investigador e inventor estadounidense de origen croata, fue el descubridor del campo magnético
rotatorio en el que se basan los dispositivos actuales de corriente alterna. En su honor se llamó tesla a la unidad
de densidad de flujo magnético en el Sistema Internacional.
Por convenio, se supone que la fuerza electromotriz (f.e.m.) alterna tiene la forma , por lo que
la intensidad de corriente equivale a , siendo e los valores máximos de estas dos
magnitudes.
Circuito C. (a) Proceso de carga del condensador. (b) Conexión del circuito al alternador. (c) En cada
semiperiodo de corriente alterna, las placas del condensador se cargan positiva y negativamente.
Circuito RLC
El circuito de corriente alterna formado por alternador, resistencia, solenoide y condensador (llamado circuito
RLC) tiene una f.e.m. eficaz dada por:
Cuando se cumple esta condición, se dice que el circuito ha entrado en resonancia y el valor se
llama frecuencia de resonancia.
donde el valor cos . se llama factor de potencia y . es el ángulo que forman los factores correspondientes de la
f.e.m. y de la intensidad de corriente.
ESQUEMAS
Representación gráfica de un fasor, vector giratorio que se utiliza comúnmente para ilustrar el comportamiento
del voltaje (o tensión) y la corriente alterna.
Esquema de un circuito RLC, con resistencia, inductancia y capacitancia.
Matemáticas Financieras
La actividad económica y financiera exige complejos cálculos numéricos que, no obstante, responden a
modelos y fórmulas matemáticas de cierta sencillez. Con todo, la creciente variedad de productos financieros
y de modelos de evaluación de la riqueza ha dado origen a una rama especializada de las matemáticas dentro
del campo de la economía y las finanzas.
i = C0 r t.
El capital final se determina como la suma del capital inicial más el interés producido.
C = C0 + i.
Interés compuesto
Si los intereses producidos por un préstamo o ahorro no se retiran, sino que se acumulan al capital inicial para
incrementar las ganancias, se habla de interés compuesto.
La fórmula utilizada para calcular el capital final C, que renta un capital inicial C0, colocado a un rédito r
expresado en tanto por 1, durante n periodos anuales, durante t años, es la siguiente:
Anualidad de capitalización
Un ejemplo particular de operación financiera a interés compuesto es la denominada anualidad de
capitalización. En este procedimiento, el cliente deposita cada principio de año una cantidad fija (la anualidad
de capitalización) en la entidad financiera, que no retira hasta el fin del plazo acordado, de manera que al cabo
del mismo ha producido un capital acumulado.
Suponiendo que la anualidad de capitalización es C0 y que el plazo acordado es t años, y dado que los periodos
contemplados son de un año (luego n = 1), por la fórmula del interés compuesto la primera anualidad
producirá, al cabo de los t años, un capital igual a C0 (1 + r)t; la segunda anualidad estará invertida un año
menos, con lo que su capital será C0 (1 + r)t-1; para la tercera, C0 (1 + r)t-2; y así sucesivamente, hasta la última
anualidad, que producirá un capital de C0 (1 + r).
El capital final acumulado se calcula como la suma de los términos de una progresión geométrica «invertida»
(de mayor a menor) cuyo primer término fuera C0 (1 + r) con una razón igual a (1 + r). Por tanto:
Amortización de préstamos
Otro caso práctico común asociado al interés compuesto es la amortización de préstamos. Normalmente,
cuando se solicita un crédito a un banco se establece un plazo de amortización (vencimiento) para el mismo de
varios años, durante los cuales el prestatario va devolviendo parte del crédito al tiempo que abona los intereses.
Por tanto, según se devuelve el crédito, se va reduciendo el capital prestado, y (si se mantiene el rédito)
también los intereses.
La cantidad C que debe abonarse cada año para amortizar la deuda de un capital inicial C0, solicitado a una
entidad financiera a un rédito r y durante un plazo de t años (con un periodo anual), recibe el nombre
de anualidad de amortización. A partir de la fórmula del interés compuesto, el valor de la anualidad de
amortización se calcula como:
CLASES DE AMORTIZACIÓN
En la práctica, la amortización de un crédito puede efectuarse según diversos sistemas. El más sencillo es el
francés,por el que se efectúan pagos de anualidades de amortización que se destinan en parte a pagar los
intereses y en parte a abonar el crédito. En el «sistema americano», primero se pagan todos los intereses y sólo
al final se devuelve el crédito, para lo cual se establece un fondo de amortización. Finalmente, el llamado
«sistema alemán » se basa en el pago anticipado de los intereses, y la anualidad se compone de una cuota de
amortización y una cuota de interés referida al capital pendiente de amortización del año siguiente.
Cálculo Mental
Todos alguna vez hemos sumado y restado utilizando los dedos. Pero está claro que este sistema no es
precisamente el más rápido. Si nos acostumbramos a realizar operaciones sencillas sin utilizar la calculadora,
observaremos cómo vamos progresando satisfactoriamente en otras más complicadas. Nuestra mente se
volverá así más ágil a la hora de resolver otros tipos de situaciones que necesitan de una respuesta rápida.
No es necesario papel ni calculadora, sólo pensar. Las reglas de cálculo son muy sencillas, es una cuestión de
práctica y concentración.
2. Repasar dichas tablas unas cuantas veces hasta que se hayan recordado y realizar sumas desde las más
sencillas a las más complicadas.
3. Adquirir unos mínimos conocimientos matemáticos, ya que a veces puede ser necesario descomponer
números complicados en otros más sencillos que faciliten el cálculo.
La tabla de multiplicar
Al igual que con la suma, sólo tendrás que recordar unas reglas que ya aprendiste cuando estudiabas en el
colegio.
Conmutar: si sabes cuánto es 7 · 8 sabrás cuánto es 8 · 7. Escoge la opción que te resulte más fácil.
Doblar: multiplicar por dos es lo mismo que sumar el número dos veces.
Añadir un cero: si tienes que multiplicar un número por diez, añádele un cero a su derecha ¡y ya está!
Doble y mitad: si tenemos, por ejemplo, 25 · 14, es más fácil doblar el 25 y después dividir entre dos 14. Es
decir, 50 · 7 = 350.
Cero y mitad: si tienes que multiplicar un número por 5, simplemente multiplícalo por diez y divídelo entre
dos.
Descomposición: si los números son de varias cifras, es más rápido descomponer uno de ellos en sumas o
restas de números más pequeños. Por ejemplo, 57 ·13 equivale a (57 · 10) + (57 · 3).
Patrones: los resultados se memorizan porque son curiosos o chocantes.
Asignamos a cada dedo un valor: desde el 6 para el pulgar hasta el 10 para el meñique.
Con los pulgares hacia arriba, juntamos los dedos que corresponden en cada mano a cada uno de los números
que queremos multiplicar. Mentalmente, asignamos a los dedos unidos y a los que queden por encima de los
unidos el valor 10, y los sumamos. Contamos el número de dedos que quedan por debajo de los dedos unidos,
el número de dedos en la mano derecha y el número de dedos en la izquierda. Se multiplican estos números y
se suma el resultado de esta multiplicación a la cifra obtenida anteriormente.
Como posiblemente te habrás hecho un lío, pincha sobre el siguiente ejemplo para verlo mucho más claro.
Sumas rápidas o cálculo pensado aditivo
Para calcular sumas de forma rápida existen varios métodos:
Redondeo: buscamos que uno de los números acabe en cero mediante sumas y restas. Ejemplo: 57 + 38 =
(57 + 3) + (38 - 3) = 60 + 35 = 95
Conteo: sumamos progresivamente a uno de los números, de izquierda a derecha, el otro; es decir, lo
último que sumaremos serán las unidades, antes sumaremos las decenas, antes las centenas... Ejemplo:
283 + 435 = (283 + 400) + 35 = 683 + 35 = (683 + 30) + 5 = 713 + 5 = 718
Recolocación: agrupamos los números cuyas unidades sumen diez. Es más fácil sumar números que
acaban en cero. Ejemplo: 57 + 86 + 53 + 34 = (57 + 53) + (86 + 34) = 110 + 120 = 230
Descomposición: separamos los sumandos en otros fáciles de sumar, intentando que acaben en cero o
que sumen diez. Ejemplo: 77 + 148 = 70 + 7 + 140 + 8 = (70 + 140) + (5 + 3) + 7 = 210 + (3 + 7) + 5 = 225
Estas mismas reglas sirven también para la resta, ya que esta operación es la inversa de la suma.
Estos mismos trucos se pueden aplicar también a la división, ya que esta operación se puede expresar como
una multiplicación.
Resultados aproximados
Cuando nos interesa más obtener un resultado de forma rápida que la exactitud del cálculo en sí mismo,
podemos recurrir a dos técnicas que nos dan resultados aproximados. Eso sí, hay que tener en cuenta que
conllevan un error que será mayor cuanto más nos alejemos de las cifras reales.
Redondeo: consiste en sustituir cifras por ceros. Para entenderlo, vamos a calcular el sueldo anual de un
trabajador que cobra 1.207,75 euros al mes. Si multiplicamos 1.200 euros por 12 meses, obtendremos el
resultado aproximado de 14.400 euros anuales, aunque la cifra real que esta persona percibe es de 14.493
euros.
Truncamiento: con esta operación eliminamos decimales, que siempre dificultan la operación del cálculo
matemático. Supongamos que Iñaki utiliza la calculadora para saber lo que se gastarán él y su mujer
Ainhoa en la compra doméstica. Ella lo va calculando mentalmente: tiene en cuenta que si los céntimos
son inferiores a 50 suma los euros que marca el precio, y si los céntimos son 50 o más añade un euro al
precio.
Antes de pasar por caja, Ainhoa le dice a su marido que la compra les costará unos 55 euros ¡y sin calculadora!
Iñaki mira el resultado en la pantalla y observa sorprendido que el resultado son 54,68 euros. Así por ejemplo,
si han comprado dos productos de 48,56 y 6,12 euros respectivamente (54,68 euros en total), Ainhoa ha podido
calcular de forma aproximada que van a costar un total de 55 euros (49 + 6).
Regla De Tres
La regla de tres es un instrumento muy sencillo y útil al mismo tiempo. Consiste en una sencilla operación
que nos va a permitir encontrar el cuarto término de una proporción, de la que sólo conocemos tres
términos. Así, por ejemplo, nos permite saber cuánto cuestan dos kilos de patatas si el cartel del mercado
marca el precio de un kilo, o calcular el precio de 150 bolígrafos si la caja de cinco unidades vale 60 céntimos
de euro. Además, la regla de tres nos va a permitir operar al mismo tiempo con elementos tan distintos como
horas, kilómetros, número de trabajadores o dinero invertido.
Las proporciones
Una proporción es la igualdad entre dos cocientes (a / b = c / d). Cuando dos cocientes son iguales, el producto
de los extremos (a y d) es igual al producto de los medios (b y c); por tanto, en la proporción se cumple que: a ·
d = b · c.
Se dice que dos magnitudes son proporcionales cuando su cociente se mantiene constante, es decir, si una de
las dos magnitudes aumenta o disminuye, la otra magnitud también aumentará o disminuirá en la misma
medida. Por ejemplo, cuantos más kilómetros haga un coche, más combustible gasta y, por tanto, se dice que
ambas magnitudes son proporcionales (cociente constante).
La regla de tres se utiliza para calcular valores desconocidos de magnitudes proporcionales. Las operaciones
con las que se resuelve son muy sencillas: la multiplicación y la división. Lo realmente importante es saber
plantear la regla de tres.
En el dibujo observarás que los árboles son proporcionales en cuanto al tamaño, pues los más pequeños son la
mitad de los más grandes.
Para poder plantear la relación de proporción es necesario que los términos a y b pertenezcan a una misma
magnitud y que los términos c y d pertenezcan a otra magnitud, pero relacionada con la anterior.
Veámoslo con un ejemplo: Queremos saber cuánto nos costarán 1.356 bolígrafos si una caja que contiene 10
bolígrafos cuesta 3 euros. El número de bolígrafos sería una magnitud (a = 10 bolígrafos y b = 1.356
bolígrafos) y el dinero sería la otra magnitud (c = 3 euros y d = x euros). De esta forma, si 10 bolígrafos
cuestan tres euros, 1.356 bolígrafos nos costarán x (la incógnita que debemos averiguar). Así, la relación de
proporción que se plantea es: 10 / 1356 = 3 / x.
La regla de tres simple
La relación entre ellas puede ser: directamente proporcional, si cuando una de ellas aumenta la otra también (a
más tiempo trabajado, más dinero ganado); o inversamente proporcional, si cuando una aumenta la otra
disminuye (más tiempo trabajado, menos tiempo de ocio).
Una de las formas de plantear la regla de tres es mediante el método tradicional. Si de a tenemos b, entonces de
c tendremos d:
Si la relación entre las dos magnitudes es directamente proporcional, para resolver la regla de tres
multiplicamos "en cruz", es decir:
a·d=c·b
a·b=c·d
Por ejemplo, si Jon compró 15 cromos por 60 céntimos, ¿cuánto le costarán a Miren 25 cromos?
Si por 15 cromos pagamos 60 céntimos por 25 cromos pagaremos x céntimos. La relación de proporción que
se plantea será entonces:
Para resolver multiplicamos "en cruz" y tenemos que 15 · x = 25·60. Por lo que x = 25 · 60 / 15 = 100
céntimos = 1 euro. Es decir, 25 cromos cuestan 1 euro.
Aplicando las proporciones al cálculo del cuarto término, o incógnita, de una regla de tres tendríamos: (a / b =
c / x).
Como el producto de los extremos (a y x) es igual al producto de los medios (b y c), a · x = b · c, de donde
obtendríamos el valor de la incógnita o cuarto término.
El ejemplo de los cromos que aparece en la pantalla anterior (la regla de tres simple) también podemos
resolverlo mediante las proporciones: (15 cromos / 25 cromos) = (60 céntimos / x céntimos)
Siguiendo con el ejemplo anterior, si por 15 cromos Jon pagó 60 céntimos, por un cromo pagó: 60 / 15 = 4
céntimos. Como queríamos saber cuánto le habría costado comprar 25 cromos, tendremos que multiplicar 25 ·
4 = 100 céntimos, o, lo que es lo mismo, 1 euro. En este ejemplo, hemos calculado el precio de un cromo para
poder calcular el precio de cualquier número de cromos tan sólo multiplicando el precio unitario por el número
de cromos comprado.
Como casi todo en la regla de tres, la solución es en la práctica muy sencilla: descomponer en reglas de tres
simples, teniendo en cuenta que pueden ser directa o inversamente proporcionales.
Veamos un ejemplo:
Koldo compra al carpintero de su barrio 3 mesas por 285 euros. Si sabemos que en hacer una mesa el
carpintero tarda 3 horas, ¿cuántas horas habrá trabajado el carpintero si Koldo se gasta 950 euros en mesas?
Para resolverlo, calculamos cuántos euros cuesta cada mesa (285 / 3 = 95 euros). Luego, hallamos cuántas
mesas nos dará el carpintero por 950 euros (950 / 95 = 10 mesas). Y por último calcularemos cuántas horas
tarda el carpintero en fabricar las mesas por las que Koldo ha pagado los 950 euros (10 mesas · 3 horas que
tarda en cada una = 30 horas). Por tanto, para recibir los 950 euros de Koldo, el carpintero ha tenido que
trabajar durante 30 horas.
Al utilizar el método tradicional, es más rápido plantear todas las reglas de tres simples a la vez.
La regla de tres compuesta directa
La forma tradicional en la regla de tres compuesta se puede simplificar si utilizamos el método directo en lugar
de descomponer en pequeñas reglas de tres simples, ya que el planteamiento es inmediato. Debemos recordar
que hay que multiplicar "en cruz" si la relación entre las magnitudes es directamente proporcional o "en fila" si
la relación es inversamente proporcional.
Un ejemplo podrá ser el siguiente: para construir 0,5 km de autopista, 45 operarios han empleado 10 días
trabajando 8 horas diarias. ¿Cuántos días tardarán 60 operarios trabajando 9 horas al día en construir 2,7 km
más de autopista?
La solución es:
km construidos trabajadores días horas
1º caso 0,5 45 10 8
2º caso 2,7 60 x 9
Las relaciones que existen entre las magnitudes del problema son las siguientes: a más trabajadores menos días
(inversa), a más horas menos días (inversa) y a más kilómetros más días (directa). Y por tanto:
Porque
2,7 · 45 · 10 · 8 = 0,5 · 60 · x · 9
Los casos o situaciones en los cuales aplicamos reglas de tres o porcentajes son muy diversos.
Descuentos en los precios de artículos o incrementos.
Cálculo del IVA de los productos.
Cálculo de interés simple y compuesto.
Cálculo del índice de precios al consumo.
La base del sistema, que se define como un convenio de agrupación de sus unidades. Por ejemplo, la base
10 o decimal agrupa diez unidades, mientras que la binaria únicamente agrupa dos.
Los numerales del sistema, o cifras elementales que se utilizan, según la base. En el sistema decimal, se
usan los numerales 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9. En cambio, en el sistema binario tan sólo se emplean el 0 y el
1.
Las normas de combinación de los numerales para formar los números. Según ello, a cada cifra se le
asocian dos propiedades: su valor absoluto intrínseco y su valor posicional o relativo, que depende de la
posición que ocupa en la cantidad numérica.
Dado un número n escrito como la sucesión de numerales a0a1a2...an-1, an en la base b, puede descomponerse
en forma polinómica del modo siguiente:
El sistema decimal
El sistema decimal, el más utilizado en todos los ámbitos de la actividad humana, se distingue por las
siguientes características:
Utiliza una base 10.
Sus numerales son las cifras del 0 al 9, ambas incluidas.
Las posiciones relativas de los números se denominan unidades, decenas, centenas, unidades de millar,
decenas de millar, centenas de millar, unidades de millón, etc.
El sistema binario
Utilizado por los ordenadores y otros tipos de dispositivos y sistemas, el sistema binario se caracteriza por
emplear una base 2 y los numerales 0 y 1.
Este sistema, muy práctico para los cálculos automatizados con sistemas electrónicos digitales, es sin embargo
un tanto engorroso en la escritura cotidiana, ya que la expresión de las cantidades resulta muy larga. Así, por
ejemplo, el número 15 de la base decimal se expresaría en base binaria como 1111, según el esquema de
descomposición mostrado.
Cambios de base
Las equivalencias entre cantidades numéricas escritas en diferentes bases de numeración se obtienen
habitualmente mediante una conversión intermedia a la base decimal. Así, por ejemplo, para escribir 341(5 en
base 4 se procedería del modo siguiente:
Se convertiría 341(5 a base 10.
Se transformaría el resultado decimal obtenido a base 4.
Para pasar un número de una base cualquiera a la decimal, se recurre a la forma polinómica. Por ejemplo:
Para transformar un número de base decimal a otra base, se divide por esta base tantas veces como sea
necesario hasta obtener un resto menor que la base; después, se anotan como numerales el último cociente
y, en orden inverso, los sucesivos restos obtenidos.
Expresión del número 96 en base 4.
SÍMBOLOS GRIEGOS
Los griegos emplearon las letras del alfabeto como símbolos para contar, y utilizaban un apóstrofe para indicar
que se trataba de números. Su sistema, al no ser posicional, entrañaba bastantes dificultades de escritura y
cómputo; además, no contemplaba el cero.
SÍMBOLOS ROMANOS
La numeración romana es bien conocida en occidente, y se sigue usando en contextos específicos, sobre todo
para indicar años. Los símbolos que utilizaba eran los siguientes:
LEONARDO DE PISA
El matemático italiano Leonardo de Pisa (h.1170- 1250), también conocido como Leonardo Fibonacci y
Leonardo Pisano, introdujo en Europa el sistema de numeración indo-arábigo que, levemente modificado, se
sigue utilizando. Este sistema se conocía en círculos restringidos de intelectuales europeos a través de las
traducciones de los libros del matemático árabe del siglo IX al-Khwarizmi.