Documente Academic
Documente Profesional
Documente Cultură
Todos queremos saber sobre la composición de las cosa, el arte de RECONOCER sustancias diferentes y
DETERMINAR sus constituyentes, ocupa una posición privilegiada entre las aplicaciones de la ciencia, ya que
las preguntas que nos permite responder surgen DOQUIERA QUE SE EMPLEE UN PROCESO QUÍMICO, con
propósitos científicos o técnicos. Su suprema importancia ha hecho que se cultive asiduamente desde los inicios de la
historia de la química, y sus resultados constituyen una gran parte del trabajo cuantitativo que está DISEMINADO POR
TODO EL AMBITO DE LA CIENCIA. (Oswald, 1894)
LA QUÍMICA ANALÍTICA INSTRUMENTAL: Es una Ciencia Metrológica que DESARROLLA, OPTIMIZA Y APLICA
herramientas, materiales, metodologías y estrategias de amplia naturaleza (fisicoquímica, químicas, físicas,
matemáticas, bioquímicas, biológicas, etc.) que se materializan en procesos analíticos encaminados a OBTENER
INFORMACIÓN de calidad, tanto parcial (presencia/concentración/estructura) como global, sobre materias o sistemas
de amplia naturaleza en el espacio y en el tiempo para RESOLVER PROBLEMAS ANALÍTICOS generados por
problemas económico-sociales. la palabra Información que se relaciona íntimamente con la trazabilidad. La calidad es
atribuible al proceso analítico, capacidad de resolver un determinado problema analítico.
Propiedad suprema Exactitud y Representatividad
Propiedad básica Precisión, Sensibilidad, Selectividad y
Muestreo
Propiedad Rapidez, Seguridad y Costo
complementaria
Clasificación de los Métodos Analíticos Instrumentales. Son métodos modernos de separación, cuantificación e
identificación de especies químicas utilizando una zona específica del espectro electromagnético, en paralelo al desarrollo
de la industria electrónica e informática; se basan en el uso de propiedades físicas que pueden utilizarse como señales
analíticas en los métodos instrumentales. Cuadro Nro. 01.
Cuadro Nro. 01: Clasificación métodos analíticos instrumentales
Emisión de radiación Espectroscopia de emisión(Rayos X, visible, de elctrones Auger), fluorescencia, fosforescencia y luminiscencia
(rayos X, UV, y visible)
Absorción de radiación Espectrometría y fotometría (rayos X, UV, visible, IR), espectroscopia foto acústica, resonancia magnética nuclear y
espectroscopia de resonancia de espin electrónico. Fluorescencia, Fosforescencia, Luminiscencia
Cromatografía Métodos fisicoquímicos, capa fina y de papel, columna preparativa, HPLC, Gases, Fluidos supercríticos. Análisis de
Hidrocarburos y Polímeros.
ANALITICA INSTRUMENTAL
Incertidumbre expandida (U): Es la cantidad que define un intervalo alrededor del resultado de
una medición que se espera que abarque una gran parte de la distribución de valores que se
podrían atribuir razonablemente al mensurado, para un cierto nivel de confianza.
Instrumentos para el Análisis. Un instrumento para el análisis químico transforma la información relacionada con las
propiedades físicas o químicas del analito en información que puede ser manipulada e interpretada por un ser humano.
Por tanto, un instrumento analítico puede considerarse como un dispositivo de comunicación entre el sistema
objeto de estudio y el científico. Para conseguir la información del analito deseado es necesario proporcionar un
estimulo generalmente en forma de energía electromagnética, eléctrica, mecánica o nuclear,
como se muestran los equipos Cromatografía de gases, ICP-OES (plasma de acoplamiento inductivo-
espectrofotómetro de emisión óptico), HPLC (Cromatografía líquida de alta energía), AA, UV-visible.
Los instrumentos para el análisis deben de convertir la información almacenada en las características
físicas o químicas del analito en información, que puede ser manipulada e interpretada por el ser humano,
un instrumento es un dispositivo (que tiene incorporado detectores: De fluorescencia, UV/VIS de índice de
refracción, EEM, color…) de comunicación entre el sistema bajo estudio y el investigador.
Lectura de documentos. Los alumnos harán un resúmenes o esquemas de los términos que se
indican, para delimitar y definir, en una primera aproximación, los conceptos y las palabras clave que
los sitúan en el tema: APLICACIÓN DEL ESPECTRO ELECTROMAGNETICO EN EL
APRENDIZAJE DE LOS ESTUDIANTES EN LA ASIGNATURA DE ANÁLISIS INSTRUMENTAL en
una lista desordenada:
Más tarde los estudiantes pueden recurrir a las distintas FUENTES para afianzar
conceptos. Para ello pueden usarse pequeños fragmentos del Módulo Instructivo o
artículos científicos relacionados con el tema, ya sea desde una perspectiva
histórica, o desde una perspectiva conceptual. Así tenemos la descripción de los
módulos en la siguiente diapositiva.
Módulo III y IV: Análisis por espectroscopia. AA,EA, ICP, UV/V, RMN
Proceso analítico: El conjunto de operaciones que se inicia con la definición de un problema analítico y que finaliza
con la obtención de unos resultados analíticos que satisfacen los requerimientos o demandas.
Problema: Asunto planteado por la sociedad (o grupo) de forma genérica. De él se deriva el problema analítico. Ejm:
Presencia de minerales metálicos. Muestra: Parte representativa del objeto tomada en el espacio y tiempo. Ejm:
Rocas, Sedimentos, Geoquímicos, Menas, agua, etc. Analito: Especie de interés. Ejm: Cu, Ag, Au, Th, Li, etc.
8 ¿Cuáles son las propiedades físicas y químicas de la matriz de la muestra? Solución acuosa
los términos más Calibración (1.7) Calidad de una calibración Gráfica de calibración
frecuentemente empleados Calculo de la recta de regresión Por mínimos cuadrados
Adición de estándar Método adición de estandar 1.Parámetros característicos: límite de
en este ámbito: Población, y estándar interno Método de estándar interno cuantificación(LOQ), el límite de
muestra, alícuota, analito, (1.8) Covarianzas linealidad (LOL).(LOD)
2.Coeficiente de selectividad
matriz de la muestra, técnica Puesta a punto del 1.Validación de un método analítico 1.Sesgo, sensibilidad,
analítica y método analítico. metodo analitico 2. parámetros fundamentales de validación. 2. Evaluación de la calidad de un
(1.9) 4.Método estándar laboratorio analítico.
5.Resolución de problemas 3.Acreditación de laboratorios
6.Prácticas de laboratorio
1.4. Muestra, tipos de muestra, muestreo, tipos de muestreo y preparación de la muestra. . Muestra:
Es la parte (alícuota) del objeto que contienen los analitos. Alícuota: Porción bien definida (masa,
volumen) de la muestra. Blanco analítico. Muestra generalmente artificial, que no contiene el analito.
Interferente: Todo compuesto, todo elemento, toda partícula o todo factor que afecte el resultado generado
por un método analítico. Una vez ingresadas las muestras al laboratorio, han de seguirse las normas
básicas de almacenamiento y análisis que se describen en la parte experimental de este Manual
instructivo. Etiquetar la muestra con las especificaciones exactas de su contenido.
El método de muestreo y la preparación de la muestra están íntimamente relacionados con el
procedimiento analítico a realizar, la meta de cualquier procedimiento de muestreo es asegurar que
la muestra tomada sea REPRESENTATIVA. Debe tenerse en cuenta en esta etapa del análisis. La
toma de muestra, preparación, medida, evaluación de datos, resultados y conclusiones e
informe.
Tipos de muestra.
1. Muestras aleatorias: Es aquella que se selecciona de tal manera que cualquier
porción del objeto tiene un determinado grado de probabilidad de ser tomada. Son
aquellas que resultan de un muestreo regular al azar.
2. Muestras blancas. Son aquellas que tienen unas características bien definidas y conocidas que se
mantienen globalmente constantes, salvo excepciones.
3. Muestra ciega. Es aquella que tiene una composición definida y se introduce en el conjunto a
analizar como una actividad de control de calidad.
4. Muestra estratificadas: Es la porción que procede de un sustrato o zona bien definida del
objeto.
5. Muestras grises: Conocimiento aproximado de su composición.
6. Muestras negras. Son aquellas de las que no se tiene ninguna información previa.
7. Muestra test o alícuota: Es la porción que finalmente se somete al proceso analítico.
8. Muestra de laboratorio. Es aquella porción que entra debidamente conservada en el
laboratorio.
9. Muestras representativas: Es aquella porción que resulta de un plan de muestreo
coherente con el problema analítico.
10. Muestras selectivas: Son aquellas que resultan de un muestreo dirigido.
10. Muestra estratificadas: Son aquellas que resultan del muestreo al azar estratificado.
11. Muestras heterogéneas.
El muestreo. Una muestra adecuada debe ser representativa y homogénea del material a
analizar, lo que significa que debe ser igual en todas sus partes, en la medida que esto se logre el
error de muestreo se reduce. Muchas veces el muestreo es el factor limitante en la precisión y en
la exactitud de los resultados. Una de las problemáticas principales del muestreo se origina en la
heterogeneidad del material a analizar, la heterogeneidad siempre existe y podemos tener según el
plan de muestreo como intuitivo, estadístico, dirigido discreta, continua. (Espacial, temporal o
ambas), de protocolo, En la medida en que se logra que las muestras sean homogéneas y
representativas, el error de muestreo se reduce. Las muestras pueden presentarse como:
.
1 Definición de los parámetros a determinar P,[Cu2+ ], λ, ν
𝒏𝒐
1. Muestreo aleatorio simple. n= donde n0 es el tamaño de muestra necesario
𝒏𝒐 + 𝑵−𝟏
para un universo infinito y N es el tamaño del universo finito.
𝑵
2. Muestreo aleatorio Sistemático. K= N Donde N son los individuos de la población, lo que sería
𝒏
el marco muestral. siendo n es el tamaño de muestra que deseamos
Z2 2 𝑁𝑝ො𝑞ො
n 2 n= 𝑁−1 𝐷+𝑝ො𝑞ො
E
Donde:
𝜎= es la desviación estándar que se conoce por antecedentes anteriores. Si no se
conoce , se obtendrá de una muestra piloto.
Donde:
P=Proporción de éxito; que se conoce por estudios anteriores o similares.
Q=(1-P) Proporción de fracaso
Z=Valor que se obtiene de la distribución normal, para que un nivel de significación de
. Generalmente se toma
Z=1.96 para un nivel de significancia del 5%
Z=2.575 para un nivel del 1%
E=Error de estimación. Valor que lo determina el investigador. Se sugiere valores en
torno al 5%.
N= Número de los elementos del universo o de la población.
Muestreo 22
Preparación de la Muestra para que este en forma correcta para el Análisis. Son escasos los casos
donde no se requiera un tratamiento de la muestra, habitualmente la muestra necesite algún tipo de
manejo, con el fin de preparar la muestra en la forma, tamaño y concentración adecuada del analito,
conforme al método (técnica) seleccionada y eliminar las interferencias matriciales. Esto quiere decir que
deben tenerse en cuenta los cinco principios generales como mínimo.
1. La preparación de la muestra debe llevarse a cabo sin la perdida de analito (s) máxima recuperación.
2. Se debe trasformar el analito en la mejor forma química para el método de ensayo a utilizar
3. Se debe incluir, si es necesario, la eliminación de interferencias de matriz (mayor selectividad)
4. No se deben introducir nuevas interferencias (contaminación cruzada)
5. Debe considerar la dilución o concentración del analito, de manera que esté dentro del intervalo de
concentración óptimas del método seleccionado.
6. En cuanto a la estabilidad de algunas soluciones de reactivos se descomponen en cuestión de
horas, por lo que, deben ser preparados justo antes de su empleo frentes a otras que son estables
durante años.
7. Antes de llevar a cabo un análisis se debe tener confianza en el procedimiento. Para ello el
procedimiento completo se ha de llevar a cabo mediante los reactivos estándares de referencia.
Selección metodológica analítica. Existen diversas formas de medir o cuantificar un procedimiento
de análisis químico instrumental, los criterios numéricos para seleccionar métodos analíticos o los
parámetros de calidad están definidos por los términos: Precisión, exactitud, sensibilidad, límite de
detección, intervalos de concentración, selectividad, el método es un conjunto de operaciones
especificas (identificar y/o determinar) un analito de interés en una muestra, las que podemos resumir
en dos grandes grupos:
a. Métodos Químicos. Que son los gravimétrico y volumétricos
b. Métodos Instrumentales: Materia de nuestro estudio principal y el de mayor
utilización se basan en la medida de una propiedad analítica relacionada con la
masa o la concentración de la especie a analizar. Se clasifican según la forma en la
que interaccionan con la materia. Los métodos ópticos incluyen todos aquellos métodos
que implican una interacción entre la materia y la radiación electromagnética,
desde los rayos X hasta las microondas.
En un método (técnica) instrumental basados en la interacciones de la materia – energía, utiliza un
instrumento más o menos complejo para evaluar una propiedad físico-química mediante una señal (S), en
función de la sensibilidad requeridas del sistema objeto de análisis o la solución del problema de análisis.
S ∞ [C] analito Donde: S (sensibilidad) es proporcional a La concentración [C] del analito.
Interpolar la
muestra problema
en la curva
Digestión de la muestra en
hornos de microondas
La interacción de la radiación electromagnética con las sustancias: Espectroscopia. Cuando la
radiación incide sobre una sustancia, interactúa con átomos o grupos de átomos de la misma,
dependiendo del proceso a que, selectivamente de lugar.
Materia Energía
Método estándar. Expresa un procedimiento de análisis que incluye los pasos secuenciales
(etapas) y técnicas a utilizar en el análisis de muestras especificas y que viene con un soporte de la
normatividad de organismos y agencias nacionales e internacionales competentes en el tema.
(Existen varios métodos estándar aplicable para un mismo analito). Si es de cumplimiento obligatorio,
recibe el nombre de protocolo. Ejemplo 1: Técnicas AOAC (Association Official Analytical
Chemistry). Ejemplo 2: Normas FIL (Federation International de Laiterie), cualquier diseño de
método alternativo, requiere una validación comparativa de los resultados obtenidos en el
nuevo método con el de otros métodos estándar. Por lo general se requieren muestras estándar
(composición fija, conocida y estable, material de referencia certificado).
Características patrones de calibración
Patrones de calibración Concentración conocida
Cubrir el rango de concentración de las muestras a
analizar en los ensayos
Mismos disolventes y reactivos que en el ensayo
Matriz lo más parecida posible que la muestra real
Incluir el blanco en la curva (no restar)
Matriz Interferencias
Tiempo de análisis Función del manejo de la muestra El mínimo permisible
Costo de análisis Función de los reactivos y tipo de instrumentos El mínimo necesario
Posibilidad de destruir la muestra Función de la cantidad de la muestra. Función del requerimiento necesario.
Cantidad de muestra disponible
Medios de que dispone el analista Información, reactivos y equipos Método estándar
Número de análisis a realizar Necesidad o no de automatización Los necesarios
Calidad de los resultados Exactitud y precisión requerida Manejo estadístico, análisis de errores, Niveles de
confianza
Reactivos Utilizados para la Digestión
Problema Nro.1. Una disolución de acido sulfúrico tiene una densidad de 1.28 g mL-1 y contiene 37.0 % en peso de
H2SO4.
a) Calcular la molaridad, normalidad y molalidad de la solución.
b) .Cual es la fracción molar del H2SO4?
c) .Que volumen de este acido contienen 10 g de H2SO4?
d) .Cuantos mL de la disolución deben ser diluidos con agua para obtener un litro de una. Disolución que contenga
10.0 % en peso de H2SO4?
e) ¿En que proporción debe ser mezclada esta disolución con una disolución de H2SO4 0.50 N. Para obtener 10.0 L de
una disolución de H2SO4 1.00M?
Datos: Pm (H2SO4) = 98.08 g mol-1; Pm (H2O) 18.015 g mol-1
Solución. (a)
𝑛𝑠𝑡𝑜 473.6/98.08
Molaridad: M = = = 4.83 molL-1.
𝑉𝐿 1
𝑁𝑟𝑜.𝐸𝑞−𝑔
Normalidad: N = = M*val. = 4.83x2 = 9.66 N (eqL-1)
𝑉𝐿
473.6
𝑛𝑠𝑡𝑜 98.08
Molalidad: m= = = 5.99 mol Kg-1
𝑤𝐾𝑔 0.8064
𝑛𝑖
(b). Fracción molar Xi = =
𝑛𝑡
473.6
18
𝑋1 = 473.6 806.4 = 9.73x10-2 Luego X2 = 1 – 9.73 X 10-2 = 0.9027
+
18 18
1.7. Tratamiento estadístico de los resultados instrumentales. Teniendo el resultado final, es muy
significativo poder decir cuál es la certeza del resultado, para lo cual utilizamos los análisis
matemáticos estadísticos para la evaluación de los resultados experimentales.
1.7.1. Tipos de errores en el análisis instrumental. Los análisis instrumentales juegan un papel
predominante en cualquier laboratorio analítico, por lo que, los errores que aparezcan en estos tienen
gran importancia.
𝑡𝜎
Partes de una medida 𝜇 = 𝑥ҧ ± 𝑛
Nuestro principio será que no existen resultados cuantitativos válidos, sino van
acompañados de una estimación de los errores inherentes a ellos. Error absoluto: Valor
= x ± Δx, Error relativo ɛr = (Δx/x).100.%. Es imposible realizar una medición de
forma tal que los resultados estén totalmente libres de errores o incertezas.
a. Errores experimentales o crasos. Estos errores son tan graves que no queda otra alternativa que
abandonar el experimento y empezar de nuevo. Ej. Pérdida de parte de la muestra, contaminación de
la muestra, avería de algún instrumento. Conducen a resultados aberrantes, que difieren mucho de
todos los demás datos de una serie de medidas repetidas.
Test Q de Dixon de datos sospechosos. Cuando una serie de mediciones contiene menos de 10
resultados es aconsejable aplicar el criterio Q de Dixon de rechazo de valores dudosos.
Valores atípicos
b. Errores determinados o sistemáticos. Se deben a sesgos constantes en el trabajo experimental
o en la medida. Son aquellos que pueden determinarse y probablemente evitarse o corregirse,
afectan al resultado, siempre en el mismo sentido, bien por exceso o por defecto. los errores
sistemáticos afectan la exactitud de la medida, es decir a la proximidad del verdadero valor. Se
manifiesta de forma tal que los resultados obtenidos son siempre o altos o bajos.
c. Errores indeterminados o aleatorios. Pueden ser positivos o negativos, se deben al propio
proceso de medida (ruido, escala,) y a la irreproducibilidad del trabajo experimental, se evalúa por
medios estadísticos, puede minimizarse. Son errores fortuitos cuya magnitud y signo no pueden
predecirse, se presentan por exceso o por defecto con igual probabilidad, afectan a la precisión de los
datos.
Afecta a la exactitud
de los resultados
𝑫𝒊𝒗𝒆𝒓𝒈𝒆𝒏𝒄𝒊𝒂
Q= =
𝑹𝒆𝒄𝒐𝒓𝒓𝒊𝒅𝒐
𝑽𝒂𝒍𝒐𝒓 𝒔𝒐𝒔𝒑𝒆𝒄𝒉𝒐𝒔𝒐−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒓ó𝒙𝒊𝒎𝒐
𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒈𝒓𝒂𝒏𝒅𝒆−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒆𝒒𝒖𝒆ñ𝒐
Valor promedio
Oblicuidad
Curtosis y Skewness
b =
( ( x - x ) )
2
–
2 2
Negativa: relativamente plana i
– =COEFICIENTE ASIMETRIA(Rango)
– o Herramientas Analisis
d. Método de los mínimos cuadrados. El procedimiento mas objetivo para ajustar una
recta representado por: y = bx+a + e,
e. Señal. Se define como la salida de un detector que esta respondiendo el instrumento
que se esta utilizando debidamente calibrado del analito de interés
1.7.2. Parámetros de calidad. A continuación vamos definir los criterios cuantitativos que se utilizan para
definir si un determinado método instrumental es o no adecuado para resolver un problema analítico. Estas
características se conocen con el nombre de parámetros de calidad y se expresan en términos numéricos.
a. Precisión. Mide la concordancia entre varios resultados obtenidos realizando iguales
observaciones, indica la correspondencia entre dos o más medidas que han sido hechas
exactamente de la misma manera. La precisión puede calcularse matemáticamente a través del
coeficiente de variación o variabilidad (CV) según: Términos (Definición y características)
Donde: s = Desviación estándar absoluta, ഥ 𝒙 = Valor medio de las diferentes repeticiones, 𝑥𝑖 = Valor
individual obtenido para cada una de las diferentes determinaciones, N = es el número de
determinaciones (repeticiones realizadas)
Términos Definición Características
Desviación estándar absoluta muestral 2 Precisión
σ 𝑥𝑖 − 𝑥ҧ
𝒔=
𝑁−1
Varianza 𝑠2 Precisión
𝑥ҧ = 𝑀𝑒𝑑𝑖𝑎 𝑑𝑒 𝑁 𝑚𝑒𝑑𝑖𝑑𝑎𝑠 σ𝑁
𝑖=1 𝑥𝑖 Media de la muestra
𝑥ҧ =
𝑁
Porcentaje de recuperación %R=[] calculada/[]esperadax100 Exactitud/veracidad
47
Incertidumbre en medidas directas
2. Incertidumbre Aleatoria EA
• Para n medidas
EA t n 1 s = Desviación
n 1 n
típica de las
medidas
Factor de cobertura
t de Student
48
Exactitud: Como se puede observar entre más veraz y preciso sea un resultado analítico, es más
exacto
Veracidad: Determina el grado de coincidencia existente entre el valor medio obyenido de una serie
de resultados y un valor de referencia aceptado. La veracidad puede ser determinado por el sesgo (s)
o recuperación.
Sesgo: La diferencia entre la expectativa relativa a los resultados de un ensayo o una medición y el
valor verdadero. Valor del sesgo, cuanto más pequeño es el sesgo, mayor veracidad indica el método.
Incertidumbre de una medición: Es el parámetro asociado al resultado, es decir, caracteriza la
dispersión de los valores que razonablemente pueden ser atribuidos al mesurando. En general, la
incertidumbre esta dada por los errores sistemáticos y aleatorios presentas en el ensayo análítico.
sesgo
Es una medida del error sistemático o determinado del método analítico. Se define
mediante la ecuación Δ(sesgo) = 𝜇 - [CX] donde 𝜇 es La media de la población para la
concentratración de un analito en una muestra y [CX] es El valor verdadero. Para
determinar el sesgo se deben analizar uno o más MATERIALES DE REFERENCIA
ESTÁNDAR, cuya concentración [CX] de analito sea conocida. Los resultados de dichos
análisis contendrán errores tanto sistemáticos como aleatorios, pero si se repiten las
mediciones una cantidad suficiente de veces, se puede determinar el valor medio con
cierto grado de confianza. El promedio de 20 o 30 análisis repetidos se puede tomar
como un buen cálculo de la media de la población (de análisis efectuados) 𝝁 de la
ecuación anterior. Cualquier diferencia entre este promedio y la concentración conocida
del analito del material estándar de referencia, se puede atribuir al sesgo.
El sesgo de investigación, también denominado sesgo del experimentador, constituye un
proceso en el cual los científicos que realizan la investigación influyen en los resultados, con el
fin de representar un determinado resultado.
c. Sensibilidad. Cambio en respuesta (señal analítica) dividido por el correspondiente cambio en el estímulo
(la concentración [ ] del analito) IUPAC, Compendium of Analytical Nomenclature. Sensibilidad Capacidad de
un método o instrumento de diferenciar pequeñas diferencias en la concentración de los analitos La IUPAC,
define la sensibilidad como: La pendiente de la curva de calibración a la [ ] de interés Depende de: 1. La
pendiente de la curva de calibración y 2. Reproducibilidad o precisión del sistema de medición. Para dos
métodos con igual precisión, el que presente la mayor pendiente en la curva de calibración será el más
sensible
Sensibilidad de Calibración: Pendiente de la curva de calibración a la concentración de
interés. Ss = mC +Sbl. Donde: Ss = señal de medida, m= pendiente de la línea recta, C=
Concentración que se mide, Ss= Señal instrumental para un blanco.
La sensibilidad de calibración tiene el inconveniente de no tomar en cuenta la precisión. Por
ello, Mandel y Stiehler proponen la Sensibilidad analítica que es insensible a los factores de
amplificación e independiente a las unidades en que miden S.
a. Conocimientos previos. Se considera que términos como exactitud, precisión, error aleatorio,
error sistemático, población, muestra, media de la población (m), desviación estándar de la población
(s), varianza de la población (s2), media de la muestra (𝑥),
ҧ desviación estándar de la muestra (s),
2
varianza de la muestra (s ), distribución normal de error (z), ANOVA son conocidos por el alumno,
que hemos descrito como afianzamiento en el acápite precedente.
b. Límites de confianza. La media de la población o media verdadera (m) de una medición es una
constante que es siempre desconocida. Sin embargo, en ausencia de errores sistemáticos, pueden
estimarse ciertos límites dentro de los cuales cabe esperar que caiga la media de la población con
una cierta probabilidad. Los límites así obtenidos se llaman límites de confianza de la media
muestral. Los límites de confianza derivan de la desviación estándar de la muestra, s y
dependen de la certidumbre con que se la conozca.
La Figura Nro. 26 muestra una curva de distribución normal de error en la que la abscisa
representa la desviación respecto de la media en unidades de desviación estándar de la
población.
El límite de confianza de la media muestral para N mediciones repetidas se calcula como:
𝑧𝜎
µ = 𝑥ҧ ± (9)
𝑁
𝒕𝒔 𝒕𝝈 𝝈
µ= ഥ
𝒙± 𝒙±
(10), µ = ഥ (12), la media al: ± 𝟗𝟓 % el L.C. para: 𝝁 = ഥ
𝒙 ± 𝟏, 𝟗𝟔 (13)
𝑵 𝑵 𝑵
El valor de t depende tanto del valor de N para valores mayores de 30 casos, (N-1) para
menores de 30 casos, que se conoce como grados de libertad así como del nivel de confianza
requerido. La Tabla 19 muestra los valores de t para varios niveles de confianza. La distribución
de probabilidad de las señales se utiliza en la determinación del Límite de detección, como veremos
luego. Tabla Nro. 19. Valores de t para varios niveles de confianza
Grado de 80% Interv. 90% Interv. 95% Interv. 99% Interv. 99,9%
libertad Confianza Confianza Confianza Confianza Interv.
Conf.
1 3,08 6,31 12,7 63,7 63,7
2 1,89 2,92 4,30 9,92 31,6
3 1,64 3,35 3,18 5,84 12,9
4 1,53 2,13 2,78 4,60 8,60
5 1,48 2,02 2,57 4,03 6,86
6 1,44 1,94 2,45 3,71 5,96
7 1,42 1,90 2,36 3,50 5,40
8 1,40 1,86 2,31 3,36 5,04
9 1,38 1,83 2,26 3,25 4,78
10 1,37 1,81 22,23 3,17 4,59
11 1,36 1,80 2,20 3,11 4,44
12 1,36 1,78 2,18 3,06 4,32
13 1,35 1,77 2,16 3,01 4,22
14 1,34 1,76 2,14 2,98 4,14
∞ 1,29 1,64 1,96 2,58 3,29
1.8. Calibración. Según ISO (International Estándar Office), se entiende por calibración al conjunto
de operaciones que permiten establece, bajo condiciones específicas, la relación entre las señales
producidas por un instrumento analítico y los correspondientes valores de concentración [ ] o masa
del juego de patrones de calibrado. El procedimiento consiste en que el operario prepara una
serie de muestras (5-6) con [concentración] conocida de analito, las mide en el instrumento en
iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a partir de la
señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a partir de
esta se interpola la [concentración] del analito en las muestras problema.
El procedimiento anterior presenta varias preguntas estadísticas:
1. ¿Es lineal la gráfica de calibración?, y si es curva ¿Qué grafica tiene?
2. Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿Cuál es la
mejor recta que pasa por esos puntos?
3. Suponiendo que la calibración es lineal, ¿Cuáles son los errores estimados y los límites de
confianza para la pendiente y la ordenada en el origen?
4. Cuando la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los
límites de confianza para una [ ] determinada?
5. ¿Cuál es el límite de detección del método, es decir, la menor [ ] de analito que se puede detectar
con un nivel de confianza predeterminado?
Tabla Nro. 20 Relación entre los tipos de ensayo de los parámetros de desempeño
GRÁFICAS DE CALIBRACIÓN EN ANÁLISIS INSTRUMENTAL
Según la ISO (International Stándar Office), la calibración se define como el conjunto de operaciones
que permiten establecer en determinadas condiciones experimentales, la relación existente entre los
valores indicados por el aparato, con los valores obtenidos en la medida de un valor conocido.
El procedimiento operatorio en análisis instrumental para la calibración es:
a. El analista prepara una serie de muestras (5 ó 6) con [ ] conocidas de analito, y las mide en el
instrumento en iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a
partir de la señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a
partir de ella se obtiene la [ ] de analito en las muestras problema.
b. El procedimiento anterior generalmente presenta varias preguntas estadísticas:
c. ¿Es lineal la gráfica de calibración?, y si es curva ¿qué gráfica tiene?
d. Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿cuál es la mejor
recta que pasa por esos puntos?
e. Suponiendo que la calibración es lineal, ¿cuáles son los errores estimados y los limites de confianza
para la pendiente y la ordenada en el origen?
f. Cuándo la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los
limites de confianza para una [ ] determinada?
g. ¿Cuál es él limite de detección del método, es decir, la menor [ ] de analito que se puede detectar
con un nivel de confianza predeterminado?
Antes de abordar estas cuestiones debemos considerar aspectos sobre el trazado de las gráficas
de calibración: Revisar con internet y el texto.
El método de los mínimos cuadrados, busca que la recta de calibrado haga que la
suma de los cuadrados de las distancias verticales entre cada punto experimental
y la recta de calibrado sea mínima o tienda a cero.
a. ¿Por qué se prefiere la calibración lineal? Esta apoyado por un soporte teórico (Ley de Lambert-
Beer, ecuación de Ilkovic y otros), el tratamiento matemático es mas sencillo y más intuitivo, la
sensibilidad es constante en la región de calibrado y a cada valor de la señal analítica le corresponde
un único valor de concentración.
Utilizar los datos para adaptar a una línea de predicción que relacione una variable dependiente y
una sola variable independiente x. Es decir, queremos escribir y como una funciónline al de x:
y = α + ßx +ε. Línea verdadera (true line).
1.8.3. Segundo método: cálculo de la recta de regresión por mínimos cuadrados. Es la recta que minimiza la
suma de los cuadrados de los residuos, se establece una recta lineal que relaciona x e y. Para el modelo de la
ecuación (19) los puntos individuales sobre la recta los denotaremos como:{(x1, y1) = blanco, (x2,y2), (x3,y3)}
siendo el primer punto el corresponde a la lectura del blanco. Como los residuos de y, algunas veces serán
negativos y otros positivos, se intenta minimizar la suma de los cuadrados de los residuos.
Esto explica el uso del término de mínimos cuadrados, por lo que la recta buscada pasa por el
centro de gravedad, y su pendiente y su ordenada en el origen serán:
σ𝑛
𝑖=1 𝑥𝑖 −𝑥ҧ 𝑦𝑖 −𝑦ത
b= 𝑛
σ𝑖=1 𝑥𝑖 −𝑥ҧ 2 (20) a =𝑦ത − 𝑏𝑥ҧ (21)
Donde: 𝒙 ഥ, 𝒚
ഥ son promedio aritméticos de los valores de x (patrones de concentración = [ ]) y
valores de y (señales). En la ecuación (20), el numerador es simbolizado Sxy y el denominador
Sxx la expresión:
Syy = σ𝑁 𝑖=1 𝑦𝑖 − 𝑦ത 2 Se denota con el símbolo Syy
ෝ, para los distintos patrones
La calidad de la calibración se evalúa prediciendo el valor de la señal 𝒚
a través del modelo utilizado (ecuación 22). Las diferencias entre la señal observada y las
predichas se denominan residuos. A partir de estos valores se calcula:
σ 𝑦𝑖 −𝑦ത 𝑖 2 𝑆𝑦𝑦 −𝑚2 𝑆𝑥𝑥
𝑆𝑦/𝑥 = 𝑆𝑦/𝑥 = [Sy/x para (N-2)] (23)
𝑁−2 𝑁−2
Curva de calibrado
con n=5
35
10 55 a 196.17
30
55 385 b 1327.83
25
20
y
15 a 2.71
b 3.04
10
5
0 2 4 6 8 10
x
Regresiones No Lineales
380nm 730 nm
630 nm
530 nm
2.2. Propiedades del color. Las definimos como el tono, matiz o croma = longitud de onda (λ);
saturación o intensidad = cantidad de blanco; luminosidad, claridad o brillo = cantidad de luz
es el atributo que diferencia el color y por la cual designamos los colores: verde, violeta, anaranjado.
Esta representación, si bien es muy clara para ver el principio básico de la suma
de colores, es un poco corta para representar la amplia gama de colores que
somos capaces de interpretar. Para ello necesitamos acudir al diagrama de
cromaticidad de la C.I .E. (Comisión Internacinale de l'Eclairage).
a. Él arco iris. Según los griegos, tiene todos los
colores del espectro solar. Los griegos personificaron
este espectacular fenómeno luminoso en Iris, la
mensajera de los dioses, que descendía entre los
hombres agitando sus alas multicolores.
Mezcla sustractiva. Es la forma en que se combinan las tintas,Cian + magenta = azul.
Magenta + amarillo = rojo. Amarillo +cian = verde. El negro es la suma de todos los
colores y el blanco es la ausencia de color, ya que es el color del soporte de impresión.
Él arco iris. Según los griegos, tiene todos los colores del espectro solar. Los griegos
personificaron este espectacular fenómeno luminoso en Iris, la mensajera de los dioses,
que descendía entre los hombres agitando sus alas multicolores.
Longitud de
Color Frecuencia
Descomposición de la luz onda
rojo ~ 625-740 nm ~ 480-405 THz
naranja ~ 590-625 nm ~ 510-480 THz
amarillo ~ 565-590 nm ~ 530-510 THz
Luz blanca. verde ~ 520-565 n ~ 580-530 THz
azul ~ 450-500 nm ~ 670-600 THz
añil ~ 430-450 nm ~ 700-670 THz
violeta ~ 380-430 nm ~ 790-700 THz
Comportamientos de la luz. Cuando la luz choca con una superficie nos podemos
encontrar con tres tipos de comportamientos; se transmite, se refleja o se
absorbe, que se conocen también como no espectroscópicos.
2.3. La naturaleza de la luz. Es conveniente describir la luz en términos de partículas y
ondas. Las ondas de la luz constan de campos eléctricos y magnéticos que oscilan en
planos perpendiculares entre si. Ha sido estudiada desde hace muchos años por
científicos tan notables como Newton y Max Planck. Podemos decir que la luz es toda
REM capaz de ser percibida por nuestro sentido de la vista. REM es una combinación
de campos eléctricos y magnéticos oscilantes, que se propagan a través del
espacio transportando energía.
n ʎ = 2dsen𝜶i
La REM. Cada tipo de fotón tiene una cantidad determinada de energía, los fotones
con más energía son los que tienen longitudes de onda más cortas, que corresponden
del azul al violeta. Los de la luz roja tienen menor energía y por lo tanto longitudes de
onda más largas. La naturaleza de la luz ha sido interpretada de diversas maneras:
La luz. Puede visualizar como una onda electromagnética propagándose. La onda viaja a la
velocidad máxima permitida en el vacío (c = 3x108 m/s).
Así el Espectro Electromagnético constituye la gama o conjunto de radiaciones
Electromagnéticas que comprende desde los rayos de mayor penetración (gamma: γ), hasta las
ondas de radio y del cual el espectro visible es sólo una pequeña fracción.
2.4. Estructura de la materia. El desarrollo de la física moderna ha permitido comprender la
organización íntima de la materia. El estudio de los espectros de líneas de diferentes elementos
químicos forzó el desarrollo de nuevas teorías que fueran capaces de explicar los resultados
experimentales. La simbiosis entre las leyes de la física, astrofísica y la física nuclear dan lugar a una
mejor comprensión de la producción de energía de las estrellas.
Sopa de Quarks. Después de la inflación, el Universo era una sopa de partículas
fundamentales llamadas quarks, gluones, leptones y fotones, todas chocando entre sí a
enormes velocidades transformándose continuamente unas en otras. Los filósofos
griegos se preguntaron de qué están hechas las cosas. Hoy, la física de altas
energías ha dado una respuesta científica a esta antigua pregunta.
2.4.2. Evolución experimental de la estructura del átomo. Indicamos las más notorias
técnicas experimentales:
Luigi Galvani (1737-1798). Electricidad animal.
Benjamin Franklin (1706-1790). Pararrayos.
André Marie Ampere(1775-1836). Electromagnetismo
William Crookes (1832-1919). Tubos de descarga o de crookes.
Michael Faraday, (1832) estudio el efecto de la electricidad en las soluciones.
Henri Becquerel (1896). Observó que las sales de uranio emitían radiaciones
espontáneamente.
En 1898, el físico francés Pierre Currie y su esposa María Sklodowska Curie. Inicio del
descubrimiento de la radiactividad naturtal.
En 1895 Wilhelm Röntgen. Descubrimiento de los Rayos X. Posteriormente fueron
identificados como un tipo de radiación de alta energía.
J.J. Thomson (1897). Descubrimiento de los electrones, cátodo (electrodo negativo) y un
ánodo (electrodo positivo)
R. Millikan (1909). Calculó experimentalmente el valor de la carga eléctrica negativa de un
electrón.
Ernest Rutherford (1911) utilizando partículas alfa (He2+) confirmo la existencia del núcleo
atómico. Modelo atómico de Bohr. (1913). Formuló un modelo atómico con postulados
concretos. es un modelo cuántico, decimos que un sistema es cuántico si sólo puede
poseer ciertos valores definidos de energía...
Principios de incertidumbre. W. Heisenberg (1927). Dijo que era imposible situar a un
electrón en un punto exacto del espacio.
En el modelo mecano-cuántico actual se utilizan los mismos números cuánticos que en el
modelo de Böhr, pero cambia su significado físico por orbitales.
Antecedentes que llevaron al desarrollo de la teoría moderna de la
estructura atómica. A finales del siglo XIX, una serie de evidencias
experimentales no podían ser explicados con las teorías clásicas (Maxwell,
Newton):
1. La radiación del “cuerpo negro”
2. El efecto fotoeléctrico
3. Los espectros discontinuos de los elementos
Misterio #3: Espectros atómicos
Teoría cuántica. Estudia el comportamiento de las partículas teniendo en cuenta su dualidad onda-
corpúsculo. Esta dualidad es el principio fundamental de la teoría cuántica. El físico alemán Max
Planck fue quien estableció las bases de esta teoría al postular que la materia sólo puede emitir
energía en pequeñas unidades discretas llamadas cuantos. La mecánica cuántica amplió
gradualmente el conocimiento de la estructura de la materia, Los números cuánticos se encargan
del comportamiento de los electrones, y la configuración electrónica de su distribución.
2 h c 2
tremendamente de las que predice la teoría ondulatoria.
I()
Lo que hizo Planck fue diseñar una fórmula matemática
que describiera las curvas reales con exactitud; después
dedujo una hipótesis física que pudiera explicar la hc
fórmula:
(e
5 kT
1)
Hipótesis de Planck:
• Los átomos se comportan como osciladores que vibran con una determinada
frecuencia.
• La energía que emiten estos osciladores no es continua sino mas bien discreta
(cuantizada)
• La energía sólo se puede intercambiar en forma de “cuantos”.
• La energía de un “cuanto” es igual a E=nhν donde h = 6,63 × 10-34 J s (constante de
Planck)
• Albert Einstein. La máxima energía cinética posible de los electrones emitidos sólo
depende de la frecuencia de la luz incidente y no de su intensidad.
• Si A es igual al éxito entonces la fórmula es: A= x+y+z
x= Es el trabajo
y= Es jugar
z= Es mantener la boca cerrada (Albert Einstein)
Recurriendo a la hipótesis de Planck, Einstein consideró la luz como un conjunto de
"proyectiles", que cuando chocan contra un electrón libre del metal le entregan su energía, y
si tienen la cantidad suficiente, el electrón es expulsado del metal, en caso contrario (por
debajo de una determinada frecuencia de corte), no logran arrancar electrones.
Efoton Ek
Es la energía mínima
para desprender un
electrón
h 0
0 Es la frecuencia de corte por
debajo de el no hay emisión
2
m v
h ( 0 )
2
h h 0
mv
Ek
2 2
Modelos atómicos cuánticos. [n,l,m,s] n=Indica el número de niveles de energía del átomo por
medio de valores enteros positivos, 2n2 número máximo de electrones que puede contener cada nivel
de energía, l=Indica el número de subniveles posibles de cada nivel de energía, valores: 0, 1, 2,
… (n-1), m= número cuantico magnético, expresa la orientación espacial del orbital, s= número
cuantico por spin o giro, tiene la forma esférica, sus valores son +1/2 y -1/2. Son los que se
emplean para describir el probable espacio energético que existe entre los electrones y el núcleo.
Según el principio de incertidumbre no se puede conocer con exactitud la posición del electrón ni
su contenido energético. Esto obliga a usar un nuevo termino "probabilidad", para la
descripción del átomo. De Broglie (1923) Dualidad onda partícula
Modelo atómico de orbitales: Los aportes de DeBroglie, Schrödinger y Heisenberg
dieron paso a un nuevo modelo del átomo mecánico-ondulatorio que describe a
cada electrón formando parte de una nube electrónica, alojado en zonas
conocidas como orbitales los cuales son regiones en las cuales la probabilidad de
encontrar un electrón es elevada.
Erwin Schrödinger – 1927. La Mecánica Cuántica (1927) engloba la hipótesis de Louis de
Broglie y el Principio de indeterminación de Heisenberg. El carácter ondulatorio del electrón se
aplica definiendo una función de ondas, Ψ, utilizando una ecuación de ondas, que
matemáticamente es una ecuación diferencial de segundo grado, es decir, una ecuación en la
cual intervienen derivadas segundas de la función Ψ.
Las Fuerzas Fundamentales del Universo. Las fuerzas o interacciones fundamentales
conocidas hasta ahora son cuatro: gravitatoria, electromagnética, nuclear fuerte y
nuclear débil. Hoy, la mejor candidata a convertirse en una teoría del todo es la teoría
de supercuerdas: La supersimetría es el origen del nombre de "supercuerdas". El efecto
o consecuencia de esa geometría curva del espacio-tiempo es la gravedad, y así es
como la relatividad consigue explicar la famosa gravitación universal descubierta por
Newton.
¿Que son las ondas gravitacionales? Los cuerpos masivos acelerados producen
fluctuaciones en el tejido espacio-tiempo que se propagan como una onda por
todo el Universo. Estas son las ondas gravitatorias o gravitacionales previstas por
Einstein y ahora descubiertas.
James Chadwick (1932). Utilizando partículas alfa descubre una partícula atómica neutra con una
masa cercana a la del protón (neutrón).
Enrico Fermi (1942). Lleva a cabo la primera reacción controlada en cadena liberando energía de
los núcleos de los átomos.
LA TEORIA DEL TODO. La energía como la
• materia es discontinua
2.4.3. Configuración electrónica del átomo. Es la representación esquemática de la distribución de
los electrones de un átomo, de acuerdo con el modelo atómico de Bohr. Los electrones tienden a
ocupar orbítales de energía mínima. Principio de máxima multiplicidad (regla de Hund):
2.5. La radiación electromagnética. (Maxwell 1864) La energía desprendida de los
átomos se transmite como ondas electromagnéticas. Consiste en la oscilación de un
campo eléctrico y otro magnético en direcciones perpendiculares, entre sí, y a su
vez, perpendiculares ambos a la dirección de propagación, Se caracterizan por una
determinada longitud de onda “” o por su frecuencia “”.
Se denomina espectro electromagnético al conjunto de ondas electromagnéticas, o
más concretamente, a la radiación electromagnética que se emite (espectro de
emisión), o que se absorbe (espectro de absorción) una sustancia. Espectro de
emisión del Hidrógeno discontinuo.
2.6. Espectros atómicos. A las distribuciones de colores, o de longitudes de onda o de
frecuencia, emitidos por los átomos, se las denomina espectros atómicos. Cada
elemento produce un espectro con un conjunto de rayas características que sirven para
identificarlo. Los espectros de líneas (solo emiten luz a longitudes de onda específica).
Muchos sólidos (metales, sólidos iónicos y covalentes) pueden considerarse como una
gran molécula en la que todos sus átomos se encuentran unidos por fuerzas de enlace
químico. La Teoría de Bandas es la extensión de la teoría de orbitales moleculares al
caso de los sólidos
La conductividad eléctrica es una
consecuencia de la estructura
electrónica de los metales
Los niveles vacíos corresponden a
orbitales próximos en energía y
débilmente atraídos por los núcleos.
Los electrones de los metales se
comportan como electrones libres
que pueden responder a un campo
eléctrico.
Nivel de Fermi
Dobletes de hidrógeno
La Absorción Atómica es muy específica: Sólo fotones con la energía exacta de
excitación se pueden absorber. Los demás átomos atraviesan inabsorbidos. En la
Emisión Atómica los electrones pueden alcanzar los estados excitados, mediante
colisiones con otros átomos o electrones libres. Produciendo emisión de fotones de
energía específica (luz) para cada longitud de onda.
Transiciones electrónicas. En espectroscopia UV-Vis se irradia con luz de energía
suficiente como para provocar transiciones electrónicas, es decir promover un electrón
desde un orbital de baja energía a uno vacante de alta energía. Transiciones
electrónicas posibles entre orbitales, penetración de las radiaciones en papel, aluminio y
plomo, con vinculación (anti bonding) y sin vinculación (non bonding).
Gracias por
la atención
Las radiaciones ionizantes trata pues de las ondas electromagnéticas de muy alta frecuencia
(sobre los 2400 millones de MHz), que tienen la suficiente energía como para producir
ionización (creación de partes eléctricamente cargadas, una positiva y una negativa),
rompiendo los enlaces atómicos que mantienen a las moléculas unidas en las células.
¿QUÉ EMITEN LAS RADIACIONES ELECTROMAGNÉTICAS? Las radiaciones del EEM emiten la
distribución energética del conjunto de ondas electromagnéticas. Esta formada por la combinación de
campos eléctricos y magnéticos, que se propagan a través del espacio en forma de ondas
transportando energía. Por tal motivo se las clasifica en Regiones espectrales. Una breve
descripción de sus propiedades y algunas aplicaciones esta descrito en sus Módulos.
Rayos cósmicos: Los rayos cósmicos son partículas atómicas o subatómicas ordinarias, despojadas
de sus electrones y extremadamente energéticas, viajan a través de espacio exterior casi a la
velocidad de la luz. Actualmente se sabe que la mayor parte de los rayos cósmicos galácticos se
genera a partir del nacimiento de las supernovas, objetos que marcan el fin de algunas estrellas
muy masivas. . Rayos cósmicos solares:
Rayos gamma. Las partículas gamma [𝜸] son fotones, no tienen masa ni carga, son
radiaciones electromagnéticas como la luz visible, pero de mucha mayor energía de
frecuencia muy alta, máximo poder de penetración.
Rayos X: Son un tipo de REM de alta energía. La radiación de rayos X tiene longitudes
de ondas mucho más cortas que la luz visible, por lo que los fotones de rayos X
tienen mucha mayor energía que los fotones de luz. En Medicina, los rayos X son
fundamentales en diagnosis y terapia. La tecnología de tomografías de rayos X
computarizada, en constante avance, permite obtener imágenes cada vez mas claras
de tumores.
La radiación ultravioleta (UV): La "luz" ultravioleta es un tipo de REM, cuyas longitudes
de onda van aproximadamente desde los 400 nm, hasta los 15 nm, es una forma de
energía radiante que proviene del sol. Las diversas formas de radiación se clasifican
según la longitud de onda (ʎ) medida en nanómetros (nm).
¿Por qué las plantas son verdes? El color verde tan uniformemente presente en los
vegetales es debido a la presencia de dos pigmentos estrechamente emparentados
llamados clorofila a y clorofila b, que se encuentran prácticamente en todas las
plantas con semilla, helechos, musgos y algas.
Los láseres abarcan longitudes de onda del UV, del visible y del IR.
Los órganos que pueden resultar dañados en una exposición a radiación láser son
los ojos y la piel. La gravedad de la lesión dependerá de la longitud de onda del
láser y del nivel de exposición alcanzado, que es función de la potencia o energía
del láser y del tiempo de exposición.
UV C UV B UV A Visible IR A IR B IR C
100 280 315 400 760 1400 3000 106
(nm)
EFECTOS FOTOQUÍMICOS EFECTOS TÉRMICOS
124
20
EFECTOS SOBRE
10 LA PIEL
La reacción a sobreexposiciones son quemaduras más o menos profundas según la
intensidad y la longitud
5 de onda incidente.
0 UV IR
(mm)
0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4
10
28
Epidermis 20
32
77 65 65
Dermis (PORCENTAJES)
Tejido 5
17
21
subcutáne
o
Adaptado de R. Matthers, http://www.oit.or.cr/mdtsanjo/sst/enciclopedia/tomo2/49.pdf, a partir de
datos procedentes de Lasers and optical radiation, Enviromental Health Criteria, No. 23 Ginebra: OMS 125
Las radiaciones no ionizantes. Las ondas electromagnéticas de baja frecuencia se
denominan “campos electromagnéticos”, y las de muy alta frecuencia, “radiaciones
electromagnéticas”. En esta se incluyen la radiación ultravioleta, el visible, la radiación
infrarroja, la radiofrecuencia y los campos de microondas, campos de ELF (Extremely
Low Frequency), así como los campos eléctricos y magnéticos estáticos.
El Infrarrojo
Radiación electromagnética cuya longitud de onda está comprendida entre 0.8
μ (10-6 m) y 1000 μ (1 nm). Abarca un espectro muy amplio, se suele utilizar el
infrarrojo cercano y medio. Todos los cuerpos sólidos, cuya temperatura es
superior al cero absoluto (00 K) emiten cierta cantidad de energía infrarroja.
Aplicaciones:
Investigación: Análisis espectral…estructuras de las moléculas; Química y
Bioquímica.
Industriales y Domésticas: Secado, análisis de tensión y fatiga,
mantenimiento de sistemas mecánicos, peritajes forenses, sistemas de
detección de gases, vigilancia, construcciones, medio ambiente, incendios,
búsqueda y rescate, etc. Las cámaras infrarrojas están siendo instaladas en
vehículos para ayudar a los conductores a ver más claramente en la noche o en
condiciones de niebla ( Cadillac General Motor`s en EE.UU.)… “Es difícil
encontrar algún producto o proceso Industrialen en el que la detección de
temperatura y/o imágenes por infrarrojo no tenga aplicación”…
Militares: Visores telescópicos, cabezas de misiles con iluminación láser que
apuntan los objetivos, autoguiado de misiles, etc…
Medicina:: La tecnología se utiliza en análisis no invasivo, mediante imágenes
por infrarrojos, de tejidos y fluidos corporales…operaciones en la obscuridad
(futuro…).
Facultad de Física
CEM , curso 2007/08
Eduardo Moreno Piquero
MICROONDAS : PROPIEDADES Y APLICACIONES. Una onda
electromagnética es la forma de propagación de una radiación electromagnética a
través del espacio. El espectro electromagnético (o simplemente espectro) es el rango
de todas las radiaciones electromagnéticas posibles.
Las microondas son ondas electromagnéticas ( señales ) 300MHz < frecuencia < 300
GHz ; 3ns < periodo < 3 ps , y 1mm < longitud de onda < 1 m
Son muy aptas para comunicaciones porque presentan más ancho de banda que las
ondas de frecuencias más bajas. Un ancho de banda del 10% a 60 MHz es 6 MHz (un
canal de televisión ) y a 60 GHz es 6 GHz (1000 canales de televisión ).
La ionosfera refleja o absorbe las ondas electromagnéticas de frecuencias inferiores a 10
MHz ( frecuencia de plasma ). Las microondas atraviesan sin problemas la ionosfera ↔
son utilizadas en comunicaciones vía satélite ( 11 a 12.5 GHz ) y en radioastronomía.
Las ondas electromagnéticas ( y en particular, las microondas ) son fuertemente
reflejadas por objetos cuyas dimensiones son del orden de la longitud de onda de la onda
incidente ↔ las microondas en las frecuencias 300MHz y 30 GHz son las ondas
preferentemente utilizadas en sistemas de radar. Las microondas con frecuencia > 30
GHz ( ondas milimétricas ) no son utilizadas para radar porque se ven fuertemente
afectadas por las gotas de lluvia.
Ondas de radio
Corta Alta
ENERGÍA DE UNA OEM
• Densidad de energía 1
ue o E 2
eléctrica y magnética en el vació 2
instantánea 1B 2
um
2 mo
• Densidad de energía
de la OEM
2 2
1 1 B B(t)
u (t) 0E 2 0E(t) 2
2 2 m0 m0
2
1 1 Bo
upromedio 0 Eo 2
2 2 m0
INTENSIDAD DE LA OEM
Es la energía que atraviesa una superficie por unidad de área y por unidad
de tiempo
Las intensidad instantánea que posee una onda electromagnética OEM,
perpendicularmente a la dirección de propagación es:
1 Eo.Bo 1 c.Bo 2 1 Eo 2 1
Im ed c. 0 .Eo 2
2 m0 2 m0 2 c.m 0 2
Radiación Visible
Es la onda que es capaz de producir la sensación
de visión en el ojo humano
.
Espectro Visible
• Los colores que percibimos son tan sólo longitudes de onda que
nuestros ojos detectan, pero existen otras longitudes de onda que
nuestros ojos no nos permiten ver.
NUESTRA CULTURA: MÁQUINAS UTILITARIAS
Fuente: http://ns.wqimg.com/109231_634274892154890000-slide26.swf,
https://www.google.com.pe/search?q=Im%C3%A1genes+de+vuelos+espaciales&biw=1280&bih=576&tbm=isch&imgil=
PPtMIUG1SWZ.
telecomunicaciones
El espectro óptico. La luz blanca está compuesta de ondas de diversas frecuencias. Cuando un rayo
de luz blanca pasa por un prisma se separa en sus componentes de acuerdo a la longitud de onda
así:
CLASIFICACION DE LOS METODOS INSTRUMENTALES SEGUN LA PROPIEDAD
DE MEDIDA
• Electroquímicos
• Potencial Eléctrico: Potenciometria
• Conductancia Eléctrica: Conductimetria
Razón carga/masa
• Corriente Eléctrica Polarografía
• Deposición Eléctrica: Electrogravimetría Espectrometría de masas
• Fotometría de Llama Observación Microscópica
• Espectrometria de Emisión Microscopio electrónica
Radiación X
• Dispersión de Radiación Radiaciones Nucleares
• Turbidimetria
• Nefelometria Métodos Físico-Químicos
• Espectroscopia de Raman
• Fluorescencia de Radiación Fluorometria Cromatografía
Capa Fina
• Refracción de Radiación Refractometria Papel
• Rotación de Radiación Polarimetria Columna
• Ópticos Preparativa
• Absorción de Radiación HPLC
Gases
• Fotocolorimetria Fluidos Súper Críticos
• Ultravioleta – Visible
• Infrarrojo
• Absorción Atómica
• Emisión de Radiación:
Los métodos espectroscópicos están basados en la interacción de la REEM con la materia.
Encontramos que la materia puede estar en forma de: átomos libres o moléculas. La
espectroscopia es el estudio e interpretación de los espectros. Estos cuatro tipos de radiación
presentan características marcadamente diferentes en sus formas de interactuar con la materia, y por
esta razón es necesario su tratamiento en forma separada.
𝑡𝜎
𝜇 = 𝑥ҧ ± 𝑛
CLASIFICACIÓN METROLÓGICA
1. MÉTODOS ABSOLUTOS: Se relacionan con patrones básicos, Kg. patrón, Amperio y segundo
(Gravimetría y Culombimetría). Se calibra la balanza.
2. MÉTODOS ESTEQUIMÉTRICOS: Se relacionan con patrones químico analíticos que no
contienen al analito como las volumetrías. La determinación analítica se basa en la relación
estequiometria de la reacción entre el valorante y el analito de la muestra.
3. MÉTODOS RELATIVOS: Se relacionan con patrones químico analíticos que si contienen al
analito y precisan de calibración metodológica.
CALIBRACIÓN METODOLÓGICA: Operación que permite relacionar la señal analítica con la
concentración/composición de la sustancia/s que se está analizando.
MÉTODOS DE CALIBRADO:
Conceptos adicionales: Interferente: Especie química
1. Calibrado completo: distinta del analito que aumenta o disminuye la respuesta del
analito bajo el método aplicado. (Ej. Analito: Ca2+, Al3+ es un
2. Calibrado simplificado interferente si la determinación se lleva a cabo por valoración
con EDTA. Interferencia positiva). Enmascaramiento:
3. Calibrado con “escalas auxiliares” Transformación del interferente en otra especie química que
no es detectada con la técnica analítica empleada.
[Ej. Al3+ + 3OH- → Al(OH)3]
1. Métodos de calibrado completo: Implican la obtención de una “función de calibrado” que define
la respuesta equivalente a concentraciones conocidas del componente analizado. Una vez conocida
esta función, se utiliza su inversa (Función analítica) para determinar la concentración a partir de la
señal instrumental obtenida. Pueden ser: Método directo o por interpolación, Método de adición
estándar o adición de patrón y Método de patrón interno-
0.60 V(10-4 V)
0.50
r= Estima la
bondad con que se
0.40 ajustan los puntos
experimental en
0.30
b una línea recta
0.20
y = b·x + c
0.10
c
0.00
I(A)
1 2 3 4 5
163
CONSTRUCCIÓN DE UNA CURVA DE CALIBRADO. Es un método muy utilizado en análisis
instrumental para determinar la concentración de una sustancia (analito) en una muestra
desconocida, sobre todo en disoluciones. El método se basa en la relación proporcional entre
la concentración y una determinada señal analítica (propiedad).17 oct. 2016
CURVAS DE VALORACIÓN: CURVA ABSOBANCIA-[C]NITRÓGENO y VALORACIÓN
INSTRUMENTAL – CURVA DE ÁCIDO – BASE.
Gráficos que muestran la respuesta de un método analítico (Señal) en función de cantidades
conocidas de analito (concentraciones)
acido acetilsalicílico
Lectura en
equipo
7
6
5
4
3
2
1
0
Concentración de las soluciones patrón o estándar.
CALIBRADO por el método de adición estándar o adición de patrón
Lectura en
15
equipo
10
Lectura en equipo: y
(variable dependiente) + Patrón interno
7
6 + Patrón interno
5
4 + Patrón interno
3 + Patrón interno
2
+ Patrón interno
1
0
CONCENTRACIÓN: x (variable independiente)
• Cuando se utiliza? La señal del analito varía entre un experimento y otro. Hay pérdidas de la muestra
durante su preparación (antes del análisis)
• Es útil cuando la señal analítica fluctúa debido a las características de la técnica de medida
• El “PATRÓN INTERNO” debe tener un comportamiento y una estructura similares a la del
analito
2. Métodos de calibración simplificada: Se utilizan cuando no es necesario conocer los contenidos
verdaderos, sino simplemente establecer si están incluidos dentro de unos márgenes
predeterminados. Calibrado de “banda ancha”. Con este tipo de calibrado, en vez de obtener una
función de calibración, se obtiene un margen o banda dentro de la cual puede estar o no incluido
el analito; es muy útil y característico del análisis clínico.
3. Métodos de calibrado con escalas auxiliares: Se utilizan cuando el resultado del análisis no se
puede expresar en unidades del Sistema Internacional (SI). No se conozca la densidad, peso
molecular, la muestra a analizar no se haya podido aislar en estado puro. Es necesario recordar:
Parámetros característicos. En la práctica, cuando se trabaja con una recta de regresión
convencional, se puede usar la desviación estándar de residuos Sx/y en lugar de SB, y se puede
emplear el valor de A = (0,0) como una estimación de la señal correspondiente al blanco.
Celdillas, para
muestras gasesas
Detectores. Un detector de luz y un amplificador convertidor de las señales luminosas en señales
eléctricas. El fotocátodo opera según el principio de emisión de electrones desde algunos
materiales dependiendo de la frecuencia de los fotones que inciden en su superficie, es decir hacen
uso del efecto fotoeléctrico. Página 326 del Módulo.
Leyes cuantitativas: Se basa en la medida de la radiación absorbida en la región visible, ultravioleta
e infrarroja, La fuente es necesaria para alimentar la lámpara de excitación. Ley de lambert – beer.
Muestra cómo la absorbancia es directamente proporcional a la longitud b de la trayectoria a través de
la solución y a la concentración [C] del analito o especie absorbente. La ley de Lambert y Beer’s da
origen a una serie de expresiones usadas rutinariamente en espectrofotometría. A = a b [C]
𝐴𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 𝐴𝑃𝑎𝑡𝑟ó𝑛
=
𝐶 𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 𝐶 𝑃𝑎𝑡𝑟ó𝑛
𝐴𝑃𝑎𝑡𝑟ó𝑛
= 𝑚 = 𝑃𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, luego podemos calcular la:
𝐶 𝑃𝑎𝑡𝑟ó𝑛
𝐴𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎
[C]Desconocida =
𝑚
El valor de (aM ,, o a, según sea el caso), es característico del ion o molécula en un solvente específico a una
determinada longitud de onda. Este valor es independiente de la concentración [C] de la solución y del espesor de la
celda (b). Página 332 del Modulo III.
Para más de una especie absorbente en el medio: Las absorbancias son aditivas. La absortividad
pasa a denominarse absortividad molar aM y se expresa con el símbolo ε, cuando la concentración
[C] está en (moles/litro) y b en (cm). La ley de Lambert-Beer permite la determinación de
concentraciones de disoluciones, a partir de una recta de calibrado obtenida midiendo las
absorbancias de disoluciones patrón de concentraciones conocidas.
Curva de calibrado. Se tiene la curva de calibrado midiendo la absorbancia de una serie de soluciones de
concentraciones conocidas de una misma sustancia tratadas con un mismo método y medidas a igual longitud de onda
en el mismo instrumento. Módulo III: Página 333
Es posible determinar gráficamente la concentración de una muestra desconocida [Cx] midiendo la absorbancia de la
muestra (Ax ) e interpolando en la curva de calibrado.
A = a.b. [C] + Ao
Cuando se conoce por bibliografía el coeficiente de extinción específica de un compuesto (𝜀) o este es estimado
experimentalmente, midiendo la (Ax) de una muestra del compuesto de concentración desconocida [Cx] se puede
calcular su concentración:
𝑨𝒙 −𝑨𝒐
Cx = 𝜺𝒃
En esta forma se obtiene la concentración [Cf] de la muestra problema en la cubeta, para obtener la concentración
inicial [Ci] se debe considerar las diluciones correspondientes al ensayo usando la ley volumétrica de diluciones.
Formula estándar. La concentración desconocida puede determinarse sobre la base de un solo estándar, de acuerdo
𝑽𝒊 𝑽𝒊
a la siguiente ecuación: Astd [Cmp] = Amp [Cstd]
𝑽𝒇 𝑽𝒇
𝒎𝒑 𝒔𝒕𝒅
Asimismo, la ley de Lambert-Beer se puede aplicar a disoluciones que contengan varias especies absorbentes. La
absorbancia total A, a una determinada longitud de onda, para un sistema de varios compuestos, viene dada por:
Aλ1 = A1λ1 + A2λ1 + ... + Anλ1 = a1λ1.b.c1 + a2λ1.b.c2 + ... + anλ1.b.cn
Supongamos que tenemos dos compuestos X e Y que presentan máximos de absorbancia a λ 1 y λ2 respectivamente.
Aλ1 = AXλ1 + AYλ1 = aXλ1.b.[CX ] + aYλ1.b.[CY]
Aλ2 = AXλ2 + AYλ2 = aXλ2.b.[CX ] + aYλ2.b.[CY]
A total = a1bc1 + a2bc2 +....... + anbcn
Resolver los ejercicios en su carpeta de trabajo: Módulo III.
Practicas de laboratorio: Manejo del spectronic. Son instrumentos que se utiliza con el
propósito de realizar evaluaciones de la relación del EEM con la materia:
1.Análisis cualitativo. La identificación de compuestos, orgánicos e inorgánicos
2.Análisis cuantitativo. Medida de concentraciones, orgánica e inorgánica
Paso 1
Paso 2
Paso 3
Paso 4
Revise en su
módulo página 361
Practica Nro. 4. Los métodos espectroscópicos se basan en la capacidad de las sustancias de
ABSORBER o EMITIR radiación electromagnética, y tales métodos se pueden emplear para
determinar la concentración de un reactivo o producto durante una reacción.
Para medir la absorbancia de una sustancia en particular en una mezcla, es necesario
"calibrar a cien" el espectrofotómetro de tal forma que solo la absorbancia de la
sustancia de interés sea leída, es decir que solamente sea tomada en cuenta por el
detector la absorbancia correspondiente al (los) metabolito (s) presente en la celda o
cubeta. Esto se consigue con un Blanco de reactivo(s), una cubeta que contiene todos
los reactivos excepto la sustancia de interés. Algunas técnicas requieren que el
proceso de calibración a "100" se realice con blanco de agua (agua destilada) o con aire
(sin celda). (Vea su Módulo página 362/Diseño experimental de la Práctica.)
Ejercicios
Bibliografia
1. http://www.iem.cfmac.csic.es/semanaciencia/semanaciencia13/semciencia13-galvez-
cuantica.pdf
2. http://repository.uaeh.edu.mx/bitstream/bitstream/handle/123456789/13755/QuimicaA
naliticaV.pdf?sequence=1
3. Roser Bono Cabré. Dpto. de Metodología de las Ciencias del Comportamiento
Universidad de Barcelona. http://www.ub.edu/deia
4. http://www.fisica.unlp.edu.ar/materias/radioactividad/radioactividad-
teorias/clase%204.pdf
MODULO IV: ESPECTROSCOPÌA DE ABSORCIÓN ATÓMICA. En química analítica, la espectrometría de
absorción atómica es una técnica instrumental por el que se reconoce, identifica y determinar la
concentración de un elemento metálico en una muestra. Puede utilizarse para analizar la concentración [Ci] de
más de 70 metales diferentes al estado fundamental en una solución.
Los espectros atómicos se obtienen mediante el tratamiento término de la muestra que puede
realizarse con una llama, con una chispa eléctrica o con un plasma. En función de la fuente
usada para volatilizar, se obtienen tres técnicas diferentes. Llama, Electrotérmico (hornos
microondas) y Arco eléctrico.
La cantidad de fotones absorbidos, está determinada por la ley de Beer, que relaciona ésta pérdida de
poder radiante, con la concentración de la especie absorbente y con el espesor de la celda o
recipiente que contiene los átomos absorbedores. Componentes de un espectrofotómetro de
absorción, emisión y fluorescencia atómica. Al conjunto de todas las técnicas instrumentales que
se basan en la absorción, emisión y fluorescencia de la radiación electromagnética se conoce por
espectroscopia. En los 3 casos se realiza atomización de la muestra, en el esquema se aprecia las
etapas.
La característica principal de la espectroscopia atómica es la atomización de la muestra, La
atomización se realiza a través de un atomizador de llama que consta de un nebulizador y de un
quemador. Los atomizadores utilizan dos gases uno combustible y otro oxidante que variaran según
los elementos que se vayan a analizar. Sistema que regula la presión y el volumen de
combustible. El combustible puede ser acetileno, hidrógeno o propano (gases). También regula la
presión y el volumen del oxidante, y pueden ser: aire, oxígeno u óxido nitroso. (página 389)..