Sunteți pe pagina 1din 187

UNIVERSIDAD NACIONAL

JOSÉ F. SANCHEZ CARRIÓN


CURSO DE ANÁLISIS POR
INSTRUMETACIÓN
MODULO I
INTRODUCCION A LOS METODOS INSTRUMENTALES DE ANALISIS.

APLICACIÓN DEL ESPECTRO ELECTROMAGNETICO EN EL APRENDIZAJE DE LOS


ESTUDIANTES EN LA ASIGNATURA DE ANÁLISIS POR INSTRUMENTACIÓN EN LAS
ESCUELAS ACADÉMICAS PROFESIONALES DE INGENIERIA DE LA UNIVERSIDAD
NACIONAL JOSÉ FAUSTINO SÁNCHEZ CARRIÓN – 2018 (ACOPIO DE INTERNET)
PRESENTADA POR:
Dr. Ing. Máximo Tomás SALCEDO MEZA
A continuación, vamos a ver algunas de las técnicas físico químicas que se
utilizan en el análisis instrumental descrito en la figura 01: Tema 01.

1. Las volumetrías. Consisten en medir el volumen de una disolución de concentración conocida


necesario para reaccionar con la sustancia problema. A partir del volumen gastado de la sustancia
valorante, se puede determinar la cantidad de analito.
2. Las gravimetrías. Son técnicas en la que la determinación final se basa en una pesada en una
balanza analítica.
3. Extracción. Las extracciones pueden ser sólido – líquido y líquido – líquido.
4. La destilación. Es la técnica de separar mediante calor los distintos componentes de la mezcla. El
fundamento de la destilación consiste en calentar una muestra y que uno de los componente destile,
éste se enfría, condensa y se puede recoger.
5. Métodos espectrofométricos. La mayoría de estas técnicas se basan en la interacción entre la
radiación electromagnética y la materia. Cuanto menor es la longitud de onda de una radiación, mayor
es la energía asociada. Dependiendo de la longitud de onda tenemos distintas radiaciones.
Básicamente, existen cuatro tipos de interacciones entre materia y radiación:
a. Absorción de energía. Es en lo que se basa la técnica de colorimetría. En esta técnica se mide la
concentración de una sustancia coloreada, basándonos en que ésta es proporcional a la intensidad de color en
un intervalo determinado.
b. Emisión de energía. posterior a una absorción.
c. Refracción de la luz por la materia. Se mide por el índice de refracción. Cada sustancia tiene un índice
de refracción específico, y por tanto, la medida de éste índice nos sirve para caracterizar sustancias
d. Rotación de la luz polarizada. La técnica en la que se basa es la polarimetría. La luz polarizada es
aquella que vibra en un solo plano. Hay sustancias que tienen la capacidad de desviar el plano de la luz
polarizada, unas hacia la derecha (dextrógiras) y otras hacia la izquierda (levógiras).
6. Las técnicas que se basan en estas propiedades pueden ser:

a. Espectrometría de UV visible: Se basa en que la absorción de luz por parte de la sustancia es


directamente proporcional a la concentración de la misma. Esta técnica sirve para análisis cuantitativo
fundamentalmente.
b. Espectrofotometría de fluorescencia: Se basa en que algunas sustancias vuelven a emitir en
forma de luz una porción de la energía absorbida. Una parte de la luz absorbida produce luz
fluorescente. En bajas concentraciones, la intensidad de la fluorescencia es proporcional a la
concentración.
c. Espectrofotometría infrarroja: Se da un bombardeo en la zona del infrarrojo y se hacen barrido
que nos permiten identificar estructuras características. En general, da más información sobre el
compuesto que en el visible.
d. Espectrometría de absorción atómica: Se hace una atomización en una cámara de grafito, de
manera que se crea una niebla de la muestra. Hay un quemador con forma de ranura que da una
llama con una determinada longitud de onda. Los átomos se les hace llegar una radiación con una
longitud de onda específica, de forma que los átomos absorben energía a esa longitud de onda. La
cantidad de luz absorbida después de pasar a través de la llama determina la cantidad de analito en
la muestra. Cuanta mayor cantidad de componente hay en la llama, mayor cantidad de energía se
absorbe. Es una técnica muy sensible, se usa por ejemplo para detectar metales pesados.
d. Fotometría de llama: se mide la intensidad de la radiación emitida por una sustancia que ha
absorbido energía al quemarse una llama. Es muy sensible, se usa para metales.
Espectrometría de masas: Lo primero que hay que hacer en esta técnica es ionizar las sustancias y
posteriormente romperlas en trozos. A continuación se separan los distintos trozos en base a la
relación masa / carga. En los espectros se puede visualizar la abundancia de las distintas relaciones
masa / carga. Así, cada sustancia tendrá un espectro de masas característico. La espectrometría de
masas sirve para análisis cualitativo básicamente.

Resonancia magnética nuclear (RMN) y Resonancia de spin electrónico (RSN): En ambas se


miden las propiedades magnéticas de los spines. Esta técnica permite obtener información sobre la
composición de las sustancias y datos sobre las propiedades físicas.
7. Métodos cromatográficos. La cromatografía es un método de separación con alta resolución. Es
un método físico de separación, donde los componentes se distribuyen en dos fases: una fase
estacionaria y una fase móvil, que se va moviendo y transporta a los componentes a distintas
velocidades por el lecho estacionario. Los procesos de retención se deben a continuas adsorciones y
desorciones de los componentes de la muestra a lo largo de la fase estacionario.
a. Cromatografía en columna: Que puede ser líquida o de gases. Cromatografía líquida (HPLC.
cromatografía de alta presión): En la cromatografía líquida, los componentes a separar se añaden de
forma soluble por la parte superior de la columna, quedando retenidos en la misma. Posteriormente,
los componentes se desplazan arrastrados por una fase móvil líquida. Dependiendo de la adsorción
selectiva de cada uno de ellos por la fase estacionaria se desplazan a distintas velocidades,
efectuándose la separación.
b. Cromatografía de gases: se basa en la separación de los componentes de una muestra entre la
fase móvil (gas portador) y la estacionaria (líquido no volátil adsorbido en un soporte).
c. Cromatografía en papel: Consiste en una tira de papel de filtro que actúa como soporte, en la cual
se marca el lugar donde se añade la muestra dejando que el disolvente ascienda por capilaridad.
Cada componente asciende hasta una altura. Cuando se termina, se marca la posición y se deja
secar. Pueden aparecer manchas coloreadas según los distintos componentes o utilizar técnicas de
revelado.
d. Cromatografía en capa fina: Es una técnica de separación e identificación de sustancias por
medio de un disolvente que se mueve en una capa delgada de un adsorbente depositado sobre una
placa de vidrio que actúa como soporte inerte.
Que supone educar en la actualidad: a. Facilitar que los alumnos alcancen cuatro aprendizajes
básicos. 1. Aprender a conocer 2. Aprender a hacer 3. Aprender a vivir juntos 4. Aprender a ser
AL TECNICO HACE LA PRACTICA. b. Metodología. Aprendizaje-Servicio (ApS): Se forma
simultáneamente la intencionalidad pedagógica y la intencionalidad social, ciudadana y solidaria.

ApS: (4RS) 1R. Respeto: Básico en toda


persona. 2R. Reciprocidad: Debe estar en
primer lugar el servicio. 3R. Relevancia:
Relevante para el contenido académico. 4R.
Reflexión: Los estudiantes necesitan múltiples
oportunidades. Desarrolla habilidades y
disposiciones cívicas en los estudiantes la
metodología ApS.
Concepto. El Curso de Análisis Instrumental es una ciencia fundamental que tiene profunda influencia en todas las
OTRAS ciencias especialmente en los de Ingeniería y Medicina. Por consiguiente no sólo los estudiantes de
Ingeniería y Medicina, sino todo aquel que piensa seguir una carrera científica deben tener una completa
comprensión de la materia, molécula, átomo, del espectro electromagnético y de las radiaciones
electromagnéticas.

Todos queremos saber sobre la composición de las cosa, el arte de RECONOCER sustancias diferentes y
DETERMINAR sus constituyentes, ocupa una posición privilegiada entre las aplicaciones de la ciencia, ya que
las preguntas que nos permite responder surgen DOQUIERA QUE SE EMPLEE UN PROCESO QUÍMICO, con
propósitos científicos o técnicos. Su suprema importancia ha hecho que se cultive asiduamente desde los inicios de la
historia de la química, y sus resultados constituyen una gran parte del trabajo cuantitativo que está DISEMINADO POR
TODO EL AMBITO DE LA CIENCIA. (Oswald, 1894)
LA QUÍMICA ANALÍTICA INSTRUMENTAL: Es una Ciencia Metrológica que DESARROLLA, OPTIMIZA Y APLICA
herramientas, materiales, metodologías y estrategias de amplia naturaleza (fisicoquímica, químicas, físicas,
matemáticas, bioquímicas, biológicas, etc.) que se materializan en procesos analíticos encaminados a OBTENER
INFORMACIÓN de calidad, tanto parcial (presencia/concentración/estructura) como global, sobre materias o sistemas
de amplia naturaleza en el espacio y en el tiempo para RESOLVER PROBLEMAS ANALÍTICOS generados por
problemas económico-sociales. la palabra Información que se relaciona íntimamente con la trazabilidad. La calidad es
atribuible al proceso analítico, capacidad de resolver un determinado problema analítico.
Propiedad suprema Exactitud y Representatividad
Propiedad básica Precisión, Sensibilidad, Selectividad y
Muestreo
Propiedad Rapidez, Seguridad y Costo
complementaria

Clasificación de los Métodos Analíticos Instrumentales. Son métodos modernos de separación, cuantificación e
identificación de especies químicas utilizando una zona específica del espectro electromagnético, en paralelo al desarrollo
de la industria electrónica e informática; se basan en el uso de propiedades físicas que pueden utilizarse como señales
analíticas en los métodos instrumentales. Cuadro Nro. 01.
Cuadro Nro. 01: Clasificación métodos analíticos instrumentales

Señal Métodos instrumentales según la propiedad

Emisión de radiación Espectroscopia de emisión(Rayos X, visible, de elctrones Auger), fluorescencia, fosforescencia y luminiscencia
(rayos X, UV, y visible)

Absorción de radiación Espectrometría y fotometría (rayos X, UV, visible, IR), espectroscopia foto acústica, resonancia magnética nuclear y
espectroscopia de resonancia de espin electrónico. Fluorescencia, Fosforescencia, Luminiscencia

Dispersión de la radiación Turbidimetría, nefelometría, espectroscopia Raman


Refracción de la radiación Refractometria, Interferometria
Difracción de la radiación Métodos de difracción de rayos X y de electrones.
Rotación de la radiación Polarimetría, dispersión rotatoria óptica, dicroísmo circular
Potencial eléctrico Potenciometría, cronopotenciometría
Carga eléctrica Coulumbimetria, Polarografia
Resistencia eléctrica Conductivimetria
Deposición eléctrica Electrogramimetría, Espectrómetro de fluorescencia de rayos X simultáneos de dispersión por longitud
de onda

Razón masa a carga Espectrometría de masas


Velocidad de reacción Métodos cinéticos
Razón carga/masa Espectroscopia de masas, observaciones microscópicas, microscopia electrónica, radiación X, radiaciones
nucleares.

Cromatografía Métodos fisicoquímicos, capa fina y de papel, columna preparativa, HPLC, Gases, Fluidos supercríticos. Análisis de
Hidrocarburos y Polímeros.

Propiedades térmicas Conductividad térmica, análisis térmico diferencial y métodos de entalpia

Radioactividad Métodos de activación y dilución isotópica


Determinación del Mensurando. Cada resultado analítico es una combinación de resultados de mediciones
intermedias, como pesadas, lecturas instrumentales y de volúmenes, con otros parámetros como pesos moleculares.
La relación entre estos parámetros y el valor de un mensurando puede ser simple o complejo.
Las mediciones en materiales de referencia proporcionan datos muy buenos para valoración de la incertidumbre,
puesto que ellos proporcionan información sobre el efecto combinado de muchas de las fuentes potenciales de
incertidumbre.

EXACTITUD. La medida TRAZABILIDAD. Una


INCERTIDUMBRE. Un intervalo
debe ser exacta y cadena ininterrumpida alrededor del valor estimado
precisa de comparación dentro del cual se encuentra el
valor considerado verdadero.

PATRONES. Materiales de CALIBRACIÓN. Conjunto de operaciones que


referencia o sistemas de medidas permite establecer en condiciones experimentales
destinados a definir una unidad la relación entre los valores indicados por el equipo
y los valores obtenidos con los patrones

ANALITICA INSTRUMENTAL

Incertidumbre expandida (U): Es la cantidad que define un intervalo alrededor del resultado de
una medición que se espera que abarque una gran parte de la distribución de valores que se
podrían atribuir razonablemente al mensurado, para un cierto nivel de confianza.
Instrumentos para el Análisis. Un instrumento para el análisis químico transforma la información relacionada con las
propiedades físicas o químicas del analito en información que puede ser manipulada e interpretada por un ser humano.
Por tanto, un instrumento analítico puede considerarse como un dispositivo de comunicación entre el sistema
objeto de estudio y el científico. Para conseguir la información del analito deseado es necesario proporcionar un
estimulo generalmente en forma de energía electromagnética, eléctrica, mecánica o nuclear,
como se muestran los equipos Cromatografía de gases, ICP-OES (plasma de acoplamiento inductivo-
espectrofotómetro de emisión óptico), HPLC (Cromatografía líquida de alta energía), AA, UV-visible.

Los instrumentos para el análisis deben de convertir la información almacenada en las características
físicas o químicas del analito en información, que puede ser manipulada e interpretada por el ser humano,
un instrumento es un dispositivo (que tiene incorporado detectores: De fluorescencia, UV/VIS de índice de
refracción, EEM, color…) de comunicación entre el sistema bajo estudio y el investigador.
Lectura de documentos. Los alumnos harán un resúmenes o esquemas de los términos que se
indican, para delimitar y definir, en una primera aproximación, los conceptos y las palabras clave que
los sitúan en el tema: APLICACIÓN DEL ESPECTRO ELECTROMAGNETICO EN EL
APRENDIZAJE DE LOS ESTUDIANTES EN LA ASIGNATURA DE ANÁLISIS INSTRUMENTAL en
una lista desordenada:

espectro campo magnético ultravioleta líneas oscuras


electromagnético
espectro de rayos x longitud de onda infrarrojo
emisión
espectro de radiación sincrotrón color espectro continuo
absorción
campo eléctrico líneas brillantes visible frecuencia
microondas cuerpo negro cargas eléctricas en rayos gamma
movimiento
radiación ondas de radio ondas luz
electromagnética electromagnéticas

Más tarde los estudiantes pueden recurrir a las distintas FUENTES para afianzar
conceptos. Para ello pueden usarse pequeños fragmentos del Módulo Instructivo o
artículos científicos relacionados con el tema, ya sea desde una perspectiva
histórica, o desde una perspectiva conceptual. Así tenemos la descripción de los
módulos en la siguiente diapositiva.
Módulo III y IV: Análisis por espectroscopia. AA,EA, ICP, UV/V, RMN

Módulo II: Espectro electromagnético


Planteamiento del Problema. Para definir el problema analítico principal es necesario una definición clara de la
muestra, el método de trabajo seleccionado depende de la respuesta a las siguientes cuestiones:

Proceso analítico: El conjunto de operaciones que se inicia con la definición de un problema analítico y que finaliza
con la obtención de unos resultados analíticos que satisfacen los requerimientos o demandas.
Problema: Asunto planteado por la sociedad (o grupo) de forma genérica. De él se deriva el problema analítico. Ejm:
Presencia de minerales metálicos. Muestra: Parte representativa del objeto tomada en el espacio y tiempo. Ejm:
Rocas, Sedimentos, Geoquímicos, Menas, agua, etc. Analito: Especie de interés. Ejm: Cu, Ag, Au, Th, Li, etc.

1 ¿Cuál es el analito a determinar? [ Ca2+ ]


2 ¿Qué exactitud y precisión se requieren? Ppm
3 ¿De qué metodologías analíticas se dispone para su determinación? Absorción atómica

4 ¿Cuál es la muestra en que se encuentra el analito? Solución


5 ¿Cuántas muestras se analizan? Varias
6 ¿Cuál es el intervalo de concentraciones que puede encontrarse del analito en la 640 ppm
muestra?
7 ¿Qué componentes de la muestra interferirían en la determinación? Mn2+

8 ¿Cuáles son las propiedades físicas y químicas de la matriz de la muestra? Solución acuosa

9 ¿Cuántas muestras deben analizarse? 3


10 También debemos considerar los siguientes criterios . Costo y disponibilidad de equipos, costo por
muestra
. Tiempo requerido para el análisis, complejidad
del método, habilidad del operador.
Técnica: Principio científico en base al cual se obtiene información que sirve de base para la
determinación cualitativa, cuantitativa y/o estructural. Se materializa en un instrumento. Es la base
científica de los métodos. Ejm: Mediante un método químico Clásico, Instrumental o de
Separación . Método: Aplicación concreta de una técnica analítica. Ejm: Digestión regia,
perclórica, total. Procedimiento: Conjunto de instrucciones pormenorizadas para desarrollar un
método. Análisis: Conjunto global de operaciones analíticas aplicadas a la muestra. Determinación:
Medida de la concentración de uno o varios componentes de la muestra. Medida: Término aplicable a
la propiedad física o físico-química que nos sirve de base para la determinación del analito. LA
MUESTRA SE ANALIZA, EL ANALITO SE DETERMINA Y LA PROPIEDAD SE MIDE.
FORMULACIÓN DEL PROBLEMA ANALÍTICO Y ESTRATEGIA ANALÍTICA
CONCEPTOS BÁSICOS EN ANÁLISIS INSTRUMENTAL

• POBLACIÓN: Se precisa como un conjunto finito o infinito de personas u objetos que


presentan características comunes. “Una población es un conjunto de todos los
elementos que estamos estudiando, acerca de los cuales intentamos sacar
conclusiones”. Levin & Rubin (1996)
• MUESTRA: Parte representativa de la materia objeto de análisis de una población.
• ALÍCUOTA: Fracción o porción de muestra.
• ANALITO: Especie química objeto del análisis.
• MATRIZ DE LA MUESTRA: Especies químicas que acompañan al analito en la
muestra.
• TÉCNICA ANALÍTICA: Medio empleado para obtener información sobre el analito.
• MÉTODO ANALÍTICO: Secuencia de operaciones y técnicas aplicadas para el análisis
de una muestra.
Ejemplo: Análisis de glucosa en sangre.
Muestra: Sangre
Analito: Glucosa
Matriz: Proteínas, sales minerales, colesterol…
Técnica analítica: Espectrofotometría de absorción molecular visible
Método analítico: Implica desde la toma de muestra hasta la obtención del resultado final.
Control de calidad: Se refiere a todas las medidas tomadas por el laboratorio para
asegurar y regular la calidad mediante las operaciones analíticas específicas:
Verificación de la curva de calibrado, Blancos, Replicas de análisis, Muestras de control
de calidad, Muestras adicionadas, Tratamiento estadístico de datos, etc.
16
N. Campillo Seva
La química analítica moderna es una combinación de principios químicos, instrumentales y electrónicos
además del juicio, entendimiento, conocimiento que da la práctica. Los instrumentos son esenciales
pero son una parte relativamente pequeña. Durante el desarrollo experimental en el laboratorio de la Planta
Piloto de Procesos Orgánicos, trataremos de seguir los pasos del proceso de investigación: 1.
Establecimiento del problema/propósito. 2. Relevancia del estudio. 3. Revisión de la literatura. 4.
Marco conceptual. 5. Hipótesis/Pregunta/Objetivo. 6. Definiciones. 7. Metodología, diseño
experimental, muestra, muestreo, instrumentos, procedimiento, análisis de datos, conclusiones.
Etapas Análisis Preliminar Habilidades Necesarias
Planteamiento del Un primer paso que debe preceder al método . Intervalo de concentración de trabajo.
problema (1.3) analítico, es una definición clara del problema . Qué grado de exactitud se requiere
Principio de analítico. El método de trabajo seleccionado
una dependa de la respuesta a las siguientes
cuestiones:
Investigación: Muestra, Tipos, Porción seleccionada para el examen Emplear una estrategia de muestreo.
Muestreo y toma, La muestra tiene que ser representativa de la Que propiedades físico-químicas tienen
Pensar preparación de la composición del material a analizar. la muestra Cuantas muestras se analizan
muestra (1.4) Programa de muestreo Reducción de tamaño
Conocer Habitualmente la muestra necesita algún tipo de
Saber Selección
tratamiento.
Métodos químicos Volumetría
metodológica Métodos instrumentales Manejo de pH- metros,
analítica.(1.5) Relación señal/concentración. espectrofotómetros.
Patrones de calibración Manejo de los procedimientos
Método estándar. instrumentales.
Tratamiento 1.Tipos de de errores 1. Desviación estándar absoluta,
Resulta conveniente antes estadísticos de los 2.Precisión, exactitud, sensibilidad relativa, coeficiente de variación,
resultados 3. Calibración y límite de detección. varianza.
de adentrarnos en el Análisis instrumentales (1.6) 2.Sesgo 2. Límite de decisión, cuantificación,
Instrumental Químico definir 3.Sensibilidad confianza.

los términos más Calibración (1.7) Calidad de una calibración Gráfica de calibración
frecuentemente empleados Calculo de la recta de regresión Por mínimos cuadrados
Adición de estándar Método adición de estandar 1.Parámetros característicos: límite de
en este ámbito: Población, y estándar interno Método de estándar interno cuantificación(LOQ), el límite de
muestra, alícuota, analito, (1.8) Covarianzas linealidad (LOL).(LOD)
2.Coeficiente de selectividad
matriz de la muestra, técnica Puesta a punto del 1.Validación de un método analítico 1.Sesgo, sensibilidad,
analítica y método analítico. metodo analitico 2. parámetros fundamentales de validación. 2. Evaluación de la calidad de un
(1.9) 4.Método estándar laboratorio analítico.
5.Resolución de problemas 3.Acreditación de laboratorios
6.Prácticas de laboratorio
1.4. Muestra, tipos de muestra, muestreo, tipos de muestreo y preparación de la muestra. . Muestra:
Es la parte (alícuota) del objeto que contienen los analitos. Alícuota: Porción bien definida (masa,
volumen) de la muestra. Blanco analítico. Muestra generalmente artificial, que no contiene el analito.
Interferente: Todo compuesto, todo elemento, toda partícula o todo factor que afecte el resultado generado
por un método analítico. Una vez ingresadas las muestras al laboratorio, han de seguirse las normas
básicas de almacenamiento y análisis que se describen en la parte experimental de este Manual
instructivo. Etiquetar la muestra con las especificaciones exactas de su contenido.
El método de muestreo y la preparación de la muestra están íntimamente relacionados con el
procedimiento analítico a realizar, la meta de cualquier procedimiento de muestreo es asegurar que
la muestra tomada sea REPRESENTATIVA. Debe tenerse en cuenta en esta etapa del análisis. La
toma de muestra, preparación, medida, evaluación de datos, resultados y conclusiones e
informe.
Tipos de muestra.
1. Muestras aleatorias: Es aquella que se selecciona de tal manera que cualquier
porción del objeto tiene un determinado grado de probabilidad de ser tomada. Son
aquellas que resultan de un muestreo regular al azar.
2. Muestras blancas. Son aquellas que tienen unas características bien definidas y conocidas que se
mantienen globalmente constantes, salvo excepciones.
3. Muestra ciega. Es aquella que tiene una composición definida y se introduce en el conjunto a
analizar como una actividad de control de calidad.
4. Muestra estratificadas: Es la porción que procede de un sustrato o zona bien definida del
objeto.
5. Muestras grises: Conocimiento aproximado de su composición.
6. Muestras negras. Son aquellas de las que no se tiene ninguna información previa.
7. Muestra test o alícuota: Es la porción que finalmente se somete al proceso analítico.
8. Muestra de laboratorio. Es aquella porción que entra debidamente conservada en el
laboratorio.
9. Muestras representativas: Es aquella porción que resulta de un plan de muestreo
coherente con el problema analítico.
10. Muestras selectivas: Son aquellas que resultan de un muestreo dirigido.
10. Muestra estratificadas: Son aquellas que resultan del muestreo al azar estratificado.
11. Muestras heterogéneas.
El muestreo. Una muestra adecuada debe ser representativa y homogénea del material a
analizar, lo que significa que debe ser igual en todas sus partes, en la medida que esto se logre el
error de muestreo se reduce. Muchas veces el muestreo es el factor limitante en la precisión y en
la exactitud de los resultados. Una de las problemáticas principales del muestreo se origina en la
heterogeneidad del material a analizar, la heterogeneidad siempre existe y podemos tener según el
plan de muestreo como intuitivo, estadístico, dirigido discreta, continua. (Espacial, temporal o
ambas), de protocolo, En la medida en que se logra que las muestras sean homogéneas y
representativas, el error de muestreo se reduce. Las muestras pueden presentarse como:
.
1 Definición de los parámetros a determinar P,[Cu2+ ], λ, ν

2 Elección de los puntos de muestreo 1, 2,..3

3 Tipo de muestra a analizar: Homogéneas/heterogéneas. Liq. Sól. O gas

4 Estado físico de la fracción que se va a analizar Liq. Sól. O gas

5 Propiedades químicas del material Ácido, básico, ...

6 Selección del sistema de preparación, transporte y Tipo de frasco


almacenamiento

7 Reducción de la muestra a un tamaño adecuado Molienda

Tabla Nro. 04: El programa de muestreo debe tener en cuenta


(K.A. Rubinson y J.F. Rubinson, pag. 92)
TIPOS DE MUESTREO PROBABILISTICO (consultar http://www.spentamexico.org/v6-n2/6(2)186-194.pdf)
Ejercicio: Concepto y Aplicación de Muestreo Conglomerado y Sistemático

𝒏𝒐
1. Muestreo aleatorio simple. n= donde n0 es el tamaño de muestra necesario
𝒏𝒐 + 𝑵−𝟏
para un universo infinito y N es el tamaño del universo finito.

𝑵
2. Muestreo aleatorio Sistemático. K= N Donde N son los individuos de la población, lo que sería
𝒏
el marco muestral. siendo n es el tamaño de muestra que deseamos

3. Muestreo aleatorio Estratificado. N=𝑵𝟏 + 𝑵𝟐 + ⋯ + 𝑵𝒌 Es aquel en el que se divide la


población de N individuos, en k subpoblaciones o estratos
4. Muestreo aleatorio por Conglomerados. 𝒏𝒄 = 𝒏𝒂 𝟏 + 𝑴 + 𝟏 𝜹 Donde nc es el
tamaño de muestra en muestreo por conglomerados, M es tamaño del conglomerado, 𝜹
es el coeficiente de correlación intraconglomerados y na es el tamaño de muestra que
necesitaríamos en muestreo aleatorio simple. Por lo tanto, el factor [1+(M-1) ]δ es la
variación del tamaño de muestra que necesitamos debido al uso de
conglomerados. Este factor se conoce como efecto de diseño.
5. Muestreo aleatorio Polietápico. Muestreo hecha en varias etapas.
Determinación del Tamaño de la Muestra

 Cuando el estudio es de carácter


cuantitativo b. Cuando al población es finita
(se conoce N) o el muestreo es sin
a. Cuando no se conoce el tamaño N reposición:
de la población o éste es infinito.

Z2 2 𝑁𝑝ො𝑞ො
n 2 n= 𝑁−1 𝐷+𝑝ො𝑞ො
E
Donde:
𝜎= es la desviación estándar que se conoce por antecedentes anteriores. Si no se
conoce , se obtendrá de una muestra piloto.
Donde:
P=Proporción de éxito; que se conoce por estudios anteriores o similares.
Q=(1-P) Proporción de fracaso
Z=Valor que se obtiene de la distribución normal, para que un nivel de significación de
. Generalmente se toma
Z=1.96 para un nivel de significancia del 5%
Z=2.575 para un nivel del 1%
E=Error de estimación. Valor que lo determina el investigador. Se sugiere valores en
torno al 5%.
N= Número de los elementos del universo o de la población.

Muestreo 22
Preparación de la Muestra para que este en forma correcta para el Análisis. Son escasos los casos
donde no se requiera un tratamiento de la muestra, habitualmente la muestra necesite algún tipo de
manejo, con el fin de preparar la muestra en la forma, tamaño y concentración adecuada del analito,
conforme al método (técnica) seleccionada y eliminar las interferencias matriciales. Esto quiere decir que
deben tenerse en cuenta los cinco principios generales como mínimo.
1. La preparación de la muestra debe llevarse a cabo sin la perdida de analito (s) máxima recuperación.
2. Se debe trasformar el analito en la mejor forma química para el método de ensayo a utilizar
3. Se debe incluir, si es necesario, la eliminación de interferencias de matriz (mayor selectividad)
4. No se deben introducir nuevas interferencias (contaminación cruzada)
5. Debe considerar la dilución o concentración del analito, de manera que esté dentro del intervalo de
concentración óptimas del método seleccionado.
6. En cuanto a la estabilidad de algunas soluciones de reactivos se descomponen en cuestión de
horas, por lo que, deben ser preparados justo antes de su empleo frentes a otras que son estables
durante años.
7. Antes de llevar a cabo un análisis se debe tener confianza en el procedimiento. Para ello el
procedimiento completo se ha de llevar a cabo mediante los reactivos estándares de referencia.
Selección metodológica analítica. Existen diversas formas de medir o cuantificar un procedimiento
de análisis químico instrumental, los criterios numéricos para seleccionar métodos analíticos o los
parámetros de calidad están definidos por los términos: Precisión, exactitud, sensibilidad, límite de
detección, intervalos de concentración, selectividad, el método es un conjunto de operaciones
especificas (identificar y/o determinar) un analito de interés en una muestra, las que podemos resumir
en dos grandes grupos:
a. Métodos Químicos. Que son los gravimétrico y volumétricos
b. Métodos Instrumentales: Materia de nuestro estudio principal y el de mayor
utilización se basan en la medida de una propiedad analítica relacionada con la
masa o la concentración de la especie a analizar. Se clasifican según la forma en la
que interaccionan con la materia. Los métodos ópticos incluyen todos aquellos métodos
que implican una interacción entre la materia y la radiación electromagnética,
desde los rayos X hasta las microondas.
En un método (técnica) instrumental basados en la interacciones de la materia – energía, utiliza un
instrumento más o menos complejo para evaluar una propiedad físico-química mediante una señal (S), en
función de la sensibilidad requeridas del sistema objeto de análisis o la solución del problema de análisis.
S ∞ [C] analito Donde: S (sensibilidad) es proporcional a La concentración [C] del analito.

Interpolar la
muestra problema
en la curva

Digestión de la muestra en
hornos de microondas
La interacción de la radiación electromagnética con las sustancias: Espectroscopia. Cuando la
radiación incide sobre una sustancia, interactúa con átomos o grupos de átomos de la misma,
dependiendo del proceso a que, selectivamente de lugar.

Materia Energía
Método estándar. Expresa un procedimiento de análisis que incluye los pasos secuenciales
(etapas) y técnicas a utilizar en el análisis de muestras especificas y que viene con un soporte de la
normatividad de organismos y agencias nacionales e internacionales competentes en el tema.
(Existen varios métodos estándar aplicable para un mismo analito). Si es de cumplimiento obligatorio,
recibe el nombre de protocolo. Ejemplo 1:  Técnicas AOAC (Association Official Analytical
Chemistry). Ejemplo 2: Normas FIL (Federation International de Laiterie), cualquier diseño de
método alternativo, requiere una validación comparativa de los resultados obtenidos en el
nuevo método con el de otros métodos estándar. Por lo general se requieren muestras estándar
(composición fija, conocida y estable, material de referencia certificado).
Características patrones de calibración
Patrones de calibración Concentración conocida
Cubrir el rango de concentración de las muestras a
analizar en los ensayos
Mismos disolventes y reactivos que en el ensayo
Matriz lo más parecida posible que la muestra real
Incluir el blanco en la curva (no restar)

Grafica de calibración Señal instrumental en ordenada


Concentración, cantidad en abscisa
Habitualmente lineal y = a + bx (no siempre)

Errores Coeficiente variación de señal instrumental 2-3%


Preparación del patrón < 0,1% (despreciable)
Si se realiza varias medidas punto calibración :
Distribución gaussiana normal

Requerimientos durante un procedimiento de un análisis.


Información requerida ¿Qué? Identificación
¿Cuánto? Determinación
¿Cómo? Información estructural
Información superficial
Distribución espacial etc
Tipo de Muestra Naturaleza Estado físico, solubilidad, volatilidad, toxicidad,
etc
Concentración del componente a analizar Sensibilidad

Matriz Interferencias
Tiempo de análisis Función del manejo de la muestra El mínimo permisible
Costo de análisis Función de los reactivos y tipo de instrumentos El mínimo necesario

Posibilidad de destruir la muestra Función de la cantidad de la muestra. Función del requerimiento necesario.
Cantidad de muestra disponible
Medios de que dispone el analista Información, reactivos y equipos Método estándar
Número de análisis a realizar Necesidad o no de automatización Los necesarios
Calidad de los resultados Exactitud y precisión requerida Manejo estadístico, análisis de errores, Niveles de
confianza
Reactivos Utilizados para la Digestión

Concentración Propiedades Usos


Acido clorhídrico 38% p/p Reductor Metales que se oxidan mas
fácilmente que el hidrogeno
Acido Nítrico 70% p/p Oxidante Metales que no reaccionan con HCl
Acido sulfúrico 98.3% p/p Alto punto de ebullición Metales, destruye materia
aproximadamente 340º C orgánica
Acido perclórico 70% p/p Oxidante fuerte Metales, no se pueden utilizar
cuando existen agentes reductores.
Acido Fluorhídrico 70% p/p Forma fluoruros estables Sílice y silicatos, utilizado con otros
ácidos.
Hidróxido sádico Base fuerte, oxidante cuando es Aluminio y óxidos anfóteros de Sn,
concentrada Pb, Zn, Cr

Tipos de Tratamiento más frecuentes. En ciertos tratamientos la reducción de la muestra a


polvos es suficiente, por ejemplo para el análisis térmico de la fluorescencia de rayos X, la
activación neutrónica y otras técnicas de análisis de superficies. Algunas
transformaciones de formas químicas son: Dilución, digestión, disgregación, extracción,
vaporización (cromatografía de gases, espectrometría de masas y espectrometría
atómica), Fusión. Transformación de sales insolubles en ácidos como silicatos, ciertos
óxidos minerales y algunas aleaciones de hierro, en otras solubles en ácidos mediante
mezclado con una cantidad elevada de una sal de metal alcalino (fundente) y fusión de la
mezcla a elevada temperatura (de 300 a 1200ºC). Otras transformaciones:
Descomposición, Diálisis, Solubilizaciòn, Resorción, Atrapar, Evaporar, Ablación,
Vaporización, Volatilización, Atomización, Ionización, Neutralización, Condensación,
Licuefacción, Fusión, Absorción, oxidación, Reducción, Flotación etc.
La mayoría de los análisis se llevan a cabo en disoluciones de la muestra preparada en un disolvente adecuado. Si la
muestra es sólida, se procede a su trituración para disminuir el tamaño de partícula, se mezcla para garantizar su
homogeneidad y se almacena en condiciones adecuadas, si el análisis no se va a llevar a cabo de inmediato. En el caso
en que la muestra sea líquida y no vaya a analizarse tras su recogida, por supuesto las condiciones de almacenamiento
han de considerarse; por ejemplo, si se mantienen en recipientes abiertos, el disolvente podría evaporarse modificando
así la concentración del analito. En el caso de que el analito fuese un gas disuelto, el recipiente de la muestra debe
estar en un segundo recipiente sellado para impedir contaminación por gases atmosféricos.
1.6. Problemas resueltos.

Problema Nro.1. Una disolución de acido sulfúrico tiene una densidad de 1.28 g mL-1 y contiene 37.0 % en peso de
H2SO4.
a) Calcular la molaridad, normalidad y molalidad de la solución.
b) .Cual es la fracción molar del H2SO4?
c) .Que volumen de este acido contienen 10 g de H2SO4?
d) .Cuantos mL de la disolución deben ser diluidos con agua para obtener un litro de una. Disolución que contenga
10.0 % en peso de H2SO4?
e) ¿En que proporción debe ser mezclada esta disolución con una disolución de H2SO4 0.50 N. Para obtener 10.0 L de
una disolución de H2SO4 1.00M?
Datos: Pm (H2SO4) = 98.08 g mol-1; Pm (H2O) 18.015 g mol-1

Solución. (a)
𝑛𝑠𝑡𝑜 473.6/98.08
Molaridad: M = = = 4.83 molL-1.
𝑉𝐿 1

𝑁𝑟𝑜.𝐸𝑞−𝑔
Normalidad: N = = M*val. = 4.83x2 = 9.66 N (eqL-1)
𝑉𝐿

473.6
𝑛𝑠𝑡𝑜 98.08
Molalidad: m= = = 5.99 mol Kg-1
𝑤𝐾𝑔 0.8064

𝑛𝑖
(b). Fracción molar Xi = =
𝑛𝑡
473.6
18
𝑋1 = 473.6 806.4 = 9.73x10-2 Luego X2 = 1 – 9.73 X 10-2 = 0.9027
+
18 18
1.7. Tratamiento estadístico de los resultados instrumentales. Teniendo el resultado final, es muy
significativo poder decir cuál es la certeza del resultado, para lo cual utilizamos los análisis
matemáticos estadísticos para la evaluación de los resultados experimentales.
1.7.1. Tipos de errores en el análisis instrumental. Los análisis instrumentales juegan un papel
predominante en cualquier laboratorio analítico, por lo que, los errores que aparezcan en estos tienen
gran importancia.

Resultado final = xi Una alícuota


Media de n resultados =𝑥ҧ n alícuotas (n<30)
Media de ∞ resultados =∞ alícuotas (n>30)

Media verdadera Media experimental Error

𝑡𝜎
Partes de una medida 𝜇 = 𝑥ҧ ± 𝑛

Nuestro principio será que no existen resultados cuantitativos válidos, sino van
acompañados de una estimación de los errores inherentes a ellos. Error absoluto: Valor
= x ± Δx, Error relativo ɛr = (Δx/x).100.%. Es imposible realizar una medición de
forma tal que los resultados estén totalmente libres de errores o incertezas.
a. Errores experimentales o crasos. Estos errores son tan graves que no queda otra alternativa que
abandonar el experimento y empezar de nuevo. Ej. Pérdida de parte de la muestra, contaminación de
la muestra, avería de algún instrumento. Conducen a resultados aberrantes, que difieren mucho de
todos los demás datos de una serie de medidas repetidas.
Test Q de Dixon de datos sospechosos. Cuando una serie de mediciones contiene menos de 10
resultados es aconsejable aplicar el criterio Q de Dixon de rechazo de valores dudosos.

𝑫𝒊𝒗𝒆𝒓𝒈𝒆𝒏𝒄𝒊𝒂 𝑽𝒂𝒍𝒐𝒓 𝒔𝒐𝒔𝒑𝒆𝒄𝒉𝒐𝒔𝒐−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒓ó𝒙𝒊𝒎𝒐


Q= =
𝑹𝒆𝒄𝒐𝒓𝒓𝒊𝒅𝒐 𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒈𝒓𝒂𝒏𝒅𝒆−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒆𝒒𝒖𝒆ñ𝒐

El recorrido es la dispersión total de los datos. La divergencia es la diferencia entre el valor


sospechoso y el valor más próximo. Si Q calculada Q tabulada, el punto sospechoso se descarta (se
rechaza el dato).

Valores atípicos
b. Errores determinados o sistemáticos. Se deben a sesgos constantes en el trabajo experimental
o en la medida. Son aquellos que pueden determinarse y probablemente evitarse o corregirse,
afectan al resultado, siempre en el mismo sentido, bien por exceso o por defecto. los errores
sistemáticos afectan la exactitud de la medida, es decir a la proximidad del verdadero valor. Se
manifiesta de forma tal que los resultados obtenidos son siempre o altos o bajos.
c. Errores indeterminados o aleatorios. Pueden ser positivos o negativos, se deben al propio
proceso de medida (ruido, escala,) y a la irreproducibilidad del trabajo experimental, se evalúa por
medios estadísticos, puede minimizarse. Son errores fortuitos cuya magnitud y signo no pueden
predecirse, se presentan por exceso o por defecto con igual probabilidad, afectan a la precisión de los
datos.

Afecta a la exactitud
de los resultados

Afecta a la precisión de los


datos
1.7.2. Algunos términos importantes. a. Test Q de Dixon de datos sospechosos. Cuando una
serie de mediciones contiene menos de 10 resultados, y entre ellos hay un dato dudoso se aplica el
criterio Q de Dixon. b. Distribución normal, c. Valor promedio. Estimador del valor verdadero (valor
central de la distribución) y,

Distribución normal. En estadística y probabilidad se llama, distribución normal, distribusión de


Gauss o Gaussiana. La Gráfica de su función de densidad tiene una forma acampanada, esta curva
se conoce como campana de Gauss en función de T de estudent, Chi cuadrado, F de Snedecor y
el valor exponencial.

𝑫𝒊𝒗𝒆𝒓𝒈𝒆𝒏𝒄𝒊𝒂
Q= =
𝑹𝒆𝒄𝒐𝒓𝒓𝒊𝒅𝒐
𝑽𝒂𝒍𝒐𝒓 𝒔𝒐𝒔𝒑𝒆𝒄𝒉𝒐𝒔𝒐−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒓ó𝒙𝒊𝒎𝒐
𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒈𝒓𝒂𝒏𝒅𝒆−𝑽𝒂𝒍𝒐𝒓 𝒎á𝒔 𝒑𝒆𝒒𝒖𝒆ñ𝒐

y= La altura vertical de un punto sobre la


distancia normal, x= Distancia a lo largo
del eje horizontal, variable aleatoria
continua σ= Desviación estándar de los
datos, µ= La media de la distribución de
datos (media verdadera)

Valor promedio
Oblicuidad
Curtosis y Skewness

• Comparación con distribución es normal.


• Curtosis: (Ensanchamiento brusco)
– Elevación o achatamiento comparada normal.
– Positiva: relativamente elevada nx ( x - x ) i
4

b =
( ( x - x ) )
2

2 2
Negativa: relativamente plana i

– = CURTOSIS(rango) o Herramientas Análisis


• Skewness (coeficiente Asimetría, Sesgo, oblicuidad)
– Asimetría respecto a su media
– Positiva: Sesgo hacia derecha
nx ( xi - x )
3

– Negativa: Sesgo Izquierda b1 =


( ( xi - x ) )
2 3/ 2

– =COEFICIENTE ASIMETRIA(Rango)
– o Herramientas Analisis
d. Método de los mínimos cuadrados. El procedimiento mas objetivo para ajustar una
recta representado por: y = bx+a + e,
e. Señal. Se define como la salida de un detector que esta respondiendo el instrumento
que se esta utilizando debidamente calibrado del analito de interés
1.7.2. Parámetros de calidad. A continuación vamos definir los criterios cuantitativos que se utilizan para
definir si un determinado método instrumental es o no adecuado para resolver un problema analítico. Estas
características se conocen con el nombre de parámetros de calidad y se expresan en términos numéricos.
a. Precisión. Mide la concordancia entre varios resultados obtenidos realizando iguales
observaciones, indica la correspondencia entre dos o más medidas que han sido hechas
exactamente de la misma manera. La precisión puede calcularse matemáticamente a través del
coeficiente de variación o variabilidad (CV) según: Términos (Definición y características)
Donde: s = Desviación estándar absoluta, ഥ 𝒙 = Valor medio de las diferentes repeticiones, 𝑥𝑖 = Valor
individual obtenido para cada una de las diferentes determinaciones, N = es el número de
determinaciones (repeticiones realizadas)
Términos Definición Características
Desviación estándar absoluta muestral 2 Precisión
σ 𝑥𝑖 − 𝑥ҧ
𝒔=
𝑁−1

Desviación estándar relativa (RSD) 𝑠 Precisión


𝑅𝑆𝐷 =
𝑥ҧ
Desviación estándar de la media: 𝑠𝑚 𝑠 Precisión
𝑠𝑚 =
𝑁
𝑠
Coeficiente de variación CV CV= ത x100% Precisión
𝑥

Varianza 𝑠2 Precisión
𝑥ҧ = 𝑀𝑒𝑑𝑖𝑎 𝑑𝑒 𝑁 𝑚𝑒𝑑𝑖𝑑𝑎𝑠 σ𝑁
𝑖=1 𝑥𝑖 Media de la muestra
𝑥ҧ =
𝑁
Porcentaje de recuperación %R=[] calculada/[]esperadax100 Exactitud/veracidad

Fórmulas de estimación de la precisión. Fuente: http://www.slideshare.net/belkyspereira/mtodos-analticos-clase-1-


anlisis-instrumental-1
Validación: Para demostrar que un método analítico es adecuado para el fin previsto, el laboratorio
deberá demostrar a través de una evidencia objetiva que los métodos analíticos de rutina han sido
adecuadamente validado o verificado, en este sentido, el laboratorio debe demostrar que las
características de desempeño del método instrumental utilizado, son adecuados para los informes
correspondientes.
b. Exactitud: Mide la concordancia entre el valor experimental obtenido y el verdadero valor de la
magnitud determinada, mide los errores sistemáticos, se define como la diferencia de la media (ഥ 𝒙 )de
los análisis realizados y el valor verdadero ( 𝜇.), error asociado al método de medición, el que afecta a la
localización del dato). Mide el error sistemático o determinado de un método analítico.

Es muy probable que el promedio experimental 𝑥ҧ (media experimental) difiera del


verdadero valor 𝜇. (media verdadera) Entonces, se debe evaluar si dicha diferencia se
debe a errores indeterminados o determinados.
Exactitud = 𝑥ҧ − 𝜇 𝐸𝑟𝑟𝑜𝑟 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑜. Material de referencia certificada.
El valor crítico para descartar la hipótesis nula se calcula mediante la fórmula (criterio t
de student):
Incertidumbre. Intérvalo de confianza en el cual se encuentra el valor verdadero con una
𝑡𝑠
probabilidad dada. 𝑥ҧ − 𝜇 = ± . En el caso de que s tienda σ se puede
𝑁
reemplazar t por z.
σ𝑛
𝑖=1 𝑥𝑖 −𝑥ҧ
2
𝑠= (Para N< 30 casos o series pequeñas). (s) Estimador de la dispersión de
𝑁−1
los datos muestral.
σ𝑛
𝐼=1 𝑥𝑖 −𝑥ҧ
2
𝜎 = (Para N>30 casos o poblacional 𝑥ҧ = 𝜇)
𝑁
c. Desviación estándar relativa (DER): mejor medida de la precisión para fines
𝑆
comparativos: CV (coeficiente de variación) = DER = ത * 100
𝑋
Incertidumbre en medidas directas
1. Incertidumbre de precisión Es •Modo estadístico.
• Media.
• Dispersión.
• En casos sencillos la estimaremos como: • Regresión

La mitad de la (una) división menor de la escala


Ej: Balanza

 A veces depende del experimentador

No hay reglas sencillas para estimarla


Ej: Cronómetros

 No es fácil definir su intervalo de confianza

47
Incertidumbre en medidas directas
2. Incertidumbre Aleatoria EA

• Para n medidas


EA  t n  1 s = Desviación

n 1 n
típica de las
medidas

Desviación típica de la media

Factor de cobertura
t de Student
48
Exactitud: Como se puede observar entre más veraz y preciso sea un resultado analítico, es más
exacto
Veracidad: Determina el grado de coincidencia existente entre el valor medio obyenido de una serie
de resultados y un valor de referencia aceptado. La veracidad puede ser determinado por el sesgo (s)
o recuperación.
Sesgo: La diferencia entre la expectativa relativa a los resultados de un ensayo o una medición y el
valor verdadero. Valor del sesgo, cuanto más pequeño es el sesgo, mayor veracidad indica el método.
Incertidumbre de una medición: Es el parámetro asociado al resultado, es decir, caracteriza la
dispersión de los valores que razonablemente pueden ser atribuidos al mesurando. En general, la
incertidumbre esta dada por los errores sistemáticos y aleatorios presentas en el ensayo análítico.
sesgo
Es una medida del error sistemático o determinado del método analítico. Se define
mediante la ecuación Δ(sesgo) = 𝜇 - [CX] donde 𝜇 es La media de la población para la
concentratración de un analito en una muestra y [CX] es El valor verdadero. Para
determinar el sesgo se deben analizar uno o más MATERIALES DE REFERENCIA
ESTÁNDAR, cuya concentración [CX] de analito sea conocida. Los resultados de dichos
análisis contendrán errores tanto sistemáticos como aleatorios, pero si se repiten las
mediciones una cantidad suficiente de veces, se puede determinar el valor medio con
cierto grado de confianza. El promedio de 20 o 30 análisis repetidos se puede tomar
como un buen cálculo de la media de la población (de análisis efectuados) 𝝁 de la
ecuación anterior. Cualquier diferencia entre este promedio y la concentración conocida
del analito del material estándar de referencia, se puede atribuir al sesgo.
El sesgo de investigación, también denominado sesgo del experimentador, constituye un
proceso en el cual los científicos que realizan la investigación influyen en los resultados, con el
fin de representar un determinado resultado.
c. Sensibilidad. Cambio en respuesta (señal analítica) dividido por el correspondiente cambio en el estímulo
(la concentración [ ] del analito) IUPAC, Compendium of Analytical Nomenclature. Sensibilidad Capacidad de
un método o instrumento de diferenciar pequeñas diferencias en la concentración de los analitos La IUPAC,
define la sensibilidad como: La pendiente de la curva de calibración a la [ ] de interés Depende de: 1. La
pendiente de la curva de calibración y 2. Reproducibilidad o precisión del sistema de medición. Para dos
métodos con igual precisión, el que presente la mayor pendiente en la curva de calibración será el más
sensible
Sensibilidad de Calibración: Pendiente de la curva de calibración a la concentración de
interés. Ss = mC +Sbl. Donde: Ss = señal de medida, m= pendiente de la línea recta, C=
Concentración que se mide, Ss= Señal instrumental para un blanco.
La sensibilidad de calibración tiene el inconveniente de no tomar en cuenta la precisión. Por
ello, Mandel y Stiehler proponen la Sensibilidad analítica que es insensible a los factores de
amplificación e independiente a las unidades en que miden S.

Debido a que la sensibilidad de calibración, es independiente de la concentración, solo es


igual a m (pendiente) y no tiene en cuenta la precisión, se ha introducido el concepto se
sensibilidad Analítica gamma ɣ expresada por:
ɣ = m/S Donde: m=pendiente de la curva de calibración, S=desviación estándar de las
señales.
d. Sesgo. Mide el error sistemático de un método analítico. Es la diferencia entre la expectativa relativa a
los resultados de un ensayo o una medición y el valor verdadero.
𝑿𝒐 −𝑿
Sesgo = µ - [CX ] Para evaluar se realiza la prueba t: 𝒕𝒄𝒂𝒍 =
𝒔 𝑵
Para determinar la exactitud hay que analizar uno o varios materiales de referencia cuya concentración de
analito es conocida. Los resultados de dicho análisis tendrán tantos errores aleatorios como sistemáticos,
pero con número suficiente de determinaciones se puede determinar la media (para un nivel de confianza
determinado)
e. Selectividad. Selectividad Grado de ausencia de interferencias debidas a otras
especies contenidas en la matriz de la muestra. El coeficiente de selectividad de B con
respecto a A se define como: kB,A = mB/mA (m=pendientes de calibrado a la concentración
de interés, de B y de A respectivamente). Da la respuesta relativa del método para la
especie B cuando se compara con A. Los coeficientes de selectividad pueden variar
desde cero (0) (no hay interferencia) hasta valores superiores a uno.
f. Robustez. Es una medida de la capacidad de un método analítico de permanecer
inalterado por pequeñas pero deliberadas, variaciones en los parámetros del método y
proporciona una indicación de su confiabilidad durante su uso normal.
g. Incertidumbre. Para la estimación de la incertidumbre se cuantifica como un todo “top
– dow approach” (enfoque de arriba - abajo), para ello, se basa en considerar el proceso
analítico como una caja negra, al método se debe suministrar una muestra con valor y
fiabilidad (incertidumbre) conocidas. Se puede conocer la incertidumbre del método
analizando los resultados a la salida evaluando su precisión y su exactitud.
g. Límite crítico o de decisión: Nivel de concentración límite a partir del cual se define
la “detección” o “no detección” Del analito. H van der Voet, en AH El-Shaarawi, WW
Piegorsch (Eds.), Encyclopedia of Environmetrics, Vol. 1, Wiley, Chichester, 2002, pp.
504-515. Límite crítico (LC) o de decisión = LOD
Sy/x = Desviación estándar de la regresión
A = Pendiente
M= Número total demuestras de calibrado
𝑥=
ҧ Concentración media del calibrado.
Qxx = Suma de cuadrados de x
k. Limite de cuantificación. Menor concentración que puede ser medida con una
precisión mínima dada (usualmente 10%).

Sy/x = Desviación estándar de la regresión


A = Pendiente
M= Número total demuestras de calibrado
𝑥=ҧ Concentración media del calibrado.
Qxx = Suma de cuadrados de x
i. Rango lineal de trabajo y rango dinámico. En el diagrama se explica para aplicar
en el diseño experimental con los datos obtenidos en la señal del instrumento versus
la concentración. LOD = Límite de detección, LOQ = Límite de cuantificación
ñ. Validación de Métodos Analíticos. Integral
1.7.3. Distribución normal de probabilidades. La esencia del cálculo del límite de confianza estriba
en relacionar la desviación estándar de un resultado individual, σ con la desviación estándar con
respecto al valor medio, σm La Figura Nro. 26 muestra una curva de distribución normal de error
en la que la abscisa representa la desviación respecto de la media en unidades de desviación
estándar de la población. µ, en función del valor promediode la muestra 𝑥ҧ ,

a. Conocimientos previos. Se considera que términos como exactitud, precisión, error aleatorio,
error sistemático, población, muestra, media de la población (m), desviación estándar de la población
(s), varianza de la población (s2), media de la muestra (𝑥),
ҧ desviación estándar de la muestra (s),
2
varianza de la muestra (s ), distribución normal de error (z), ANOVA son conocidos por el alumno,
que hemos descrito como afianzamiento en el acápite precedente.
b. Límites de confianza. La media de la población o media verdadera (m) de una medición es una
constante que es siempre desconocida. Sin embargo, en ausencia de errores sistemáticos, pueden
estimarse ciertos límites dentro de los cuales cabe esperar que caiga la media de la población con
una cierta probabilidad. Los límites así obtenidos se llaman límites de confianza de la media
muestral. Los límites de confianza derivan de la desviación estándar de la muestra, s y
dependen de la certidumbre con que se la conozca.
La Figura Nro. 26 muestra una curva de distribución normal de error en la que la abscisa
representa la desviación respecto de la media en unidades de desviación estándar de la
población.
El límite de confianza de la media muestral para N mediciones repetidas se calcula como:

𝑧𝜎
µ = 𝑥ҧ ± (9)
𝑁

Donde 𝑥ҧ es el valor promedio de la muestra y µ la media de la población. Los límites de confianza


basados en la ecuación (9) son válidos en ausencia de errores sistemáticos, es decir, cuando
las mediciones son exactas. La Tabla I da los valores de z para distintos niveles de confianza.
En la mayoría de las situaciones experimentales se sustituye, el valor de s calculado a partir de un
conjunto pequeño de datos puede estar sujeto a una incertidumbre considerable; ; y el límite de
confianza debe ampliarse. En este caso no se utiliza el parámetro estadístico z de la distribución
Normal sino que se utiliza el parámetro estadístico t denominada de la distribución t de Student y la
ecuación (9) se transforma en:

𝒕𝒔 𝒕𝝈 𝝈
µ= ഥ
𝒙± 𝒙±
(10), µ = ഥ (12), la media al: ± 𝟗𝟓 % el L.C. para: 𝝁 = ഥ
𝒙 ± 𝟏, 𝟗𝟔 (13)
𝑵 𝑵 𝑵

El valor de t depende tanto del valor de N para valores mayores de 30 casos, (N-1) para
menores de 30 casos, que se conoce como grados de libertad así como del nivel de confianza
requerido. La Tabla 19 muestra los valores de t para varios niveles de confianza. La distribución
de probabilidad de las señales se utiliza en la determinación del Límite de detección, como veremos
luego. Tabla Nro. 19. Valores de t para varios niveles de confianza
Grado de 80% Interv. 90% Interv. 95% Interv. 99% Interv. 99,9%
libertad Confianza Confianza Confianza Confianza Interv.
Conf.
1 3,08 6,31 12,7 63,7 63,7
2 1,89 2,92 4,30 9,92 31,6
3 1,64 3,35 3,18 5,84 12,9
4 1,53 2,13 2,78 4,60 8,60
5 1,48 2,02 2,57 4,03 6,86
6 1,44 1,94 2,45 3,71 5,96
7 1,42 1,90 2,36 3,50 5,40
8 1,40 1,86 2,31 3,36 5,04
9 1,38 1,83 2,26 3,25 4,78
10 1,37 1,81 22,23 3,17 4,59
11 1,36 1,80 2,20 3,11 4,44
12 1,36 1,78 2,18 3,06 4,32
13 1,35 1,77 2,16 3,01 4,22
14 1,34 1,76 2,14 2,98 4,14
∞ 1,29 1,64 1,96 2,58 3,29
1.8. Calibración. Según ISO (International Estándar Office), se entiende por calibración al conjunto
de operaciones que permiten establece, bajo condiciones específicas, la relación entre las señales
producidas por un instrumento analítico y los correspondientes valores de concentración [ ] o masa
del juego de patrones de calibrado. El procedimiento consiste en que el operario prepara una
serie de muestras (5-6) con [concentración] conocida de analito, las mide en el instrumento en
iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a partir de la
señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a partir de
esta se interpola la [concentración] del analito en las muestras problema.
El procedimiento anterior presenta varias preguntas estadísticas:
1. ¿Es lineal la gráfica de calibración?, y si es curva ¿Qué grafica tiene?
2. Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿Cuál es la
mejor recta que pasa por esos puntos?
3. Suponiendo que la calibración es lineal, ¿Cuáles son los errores estimados y los límites de
confianza para la pendiente y la ordenada en el origen?
4. Cuando la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los
límites de confianza para una [ ] determinada?
5. ¿Cuál es el límite de detección del método, es decir, la menor [ ] de analito que se puede detectar
con un nivel de confianza predeterminado?

Tabla Nro. 20 Relación entre los tipos de ensayo de los parámetros de desempeño
GRÁFICAS DE CALIBRACIÓN EN ANÁLISIS INSTRUMENTAL

Según la ISO (International Stándar Office), la calibración se define como el conjunto de operaciones
que permiten establecer en determinadas condiciones experimentales, la relación existente entre los
valores indicados por el aparato, con los valores obtenidos en la medida de un valor conocido.
El procedimiento operatorio en análisis instrumental para la calibración es:
a. El analista prepara una serie de muestras (5 ó 6) con [ ] conocidas de analito, y las mide en el
instrumento en iguales condiciones y seguidamente medirá las muestras problema. De esta manera, a
partir de la señal obtenida para cada patrón de [ ] conocida se construye la gráfica de calibración, y a
partir de ella se obtiene la [ ] de analito en las muestras problema.
b. El procedimiento anterior generalmente presenta varias preguntas estadísticas:
c. ¿Es lineal la gráfica de calibración?, y si es curva ¿qué gráfica tiene?
d. Teniendo en cuenta que cada uno de los puntos de la gráfica está sujeto a errores, ¿cuál es la mejor
recta que pasa por esos puntos?
e. Suponiendo que la calibración es lineal, ¿cuáles son los errores estimados y los limites de confianza
para la pendiente y la ordenada en el origen?
f. Cuándo la gráfica se usa para el análisis de una muestra problema, ¿cuáles son los errores y los
limites de confianza para una [ ] determinada?
g. ¿Cuál es él limite de detección del método, es decir, la menor [ ] de analito que se puede detectar
con un nivel de confianza predeterminado?
Antes de abordar estas cuestiones debemos considerar aspectos sobre el trazado de las gráficas
de calibración: Revisar con internet y el texto.

a. Es esencial que los patrones de calibración cubran el intervalo completo de [ ] requerido en


los análisis en los que se encontraron las muestras problema.
b. La [ ] de las muestras problema se calcula por interpolación, a excepción del método de la
adición estándar, que se hace por extrapolación.
c. Es importante incluir una muestra en blanco en la curva de calibración. Esta muestra no
contiene ningún analito, pero si contiene la misma composición que las otras muestras
estándar de referencia, y está sujeta a la misma secuencia del proceso analítico. Su respuesta
en la medida podría ser cero, pero por impurezas de reactivos u otras causas puede no ser así.
d. La curva de calibración se representa siempre con la respuesta del instrumento en el eje de
ordenadas y la [ ] de los patrones en el eje de abscisas.
Incluir los 3 métodos de calibración considerados en el texto.
1.8.1. Criterios de calidad de una calibración. La calidad de la determinación de una
concentración no puede ser mejor que la calidad intrínseca de la calibración. Los
factores que determinan la calidad de una calibración son:

a. La precisión de las medidas: estimada a través de la repetitividad y la reproducibilidad


de las medidas. La repetitividad se evalúa a través del cálculo de la desviación estándar
relativa (RSD%) de la medida de los patrones de calibrado.
b. Exactitud de los patrones. Es esencial que los patrones de calibración cubran el
intervalo completo de [ ] requerido en los análisis en los que se encuentran las muestras
problemas.
c. La [ ] de las muestras problema. Se calcula por interpolación, a excepción del método de
la adición de estándar, que se hace por extrapolación.
d. Es importante incluir una muestra en blanco en la curva de calibración. Esta muestra
no contiene ningún analito, pero si contiene la misma composición que las otras muestras
estándar de referencia, y está sujeta a la misma secuencia del proceso analítico.
e. La curva de calibración se presenta siempre con la respuesta del instrumento en el eje
de las ordenadas y la [ ] de los patrones en el eje de abscisas.
f. Validez de la calibración. Generalmente es el factor más importante. Cuando se
calibra un instrumento se debe tener una razonable certeza de que éste
responderá de igual manera a los patrones así como a las muestras, aunque
estas tengan una matriz relativamente diferente*. Si estas diferencias son muy
grandes, pueden llegar a invalidar el proceso de calibración. Es necesario estar
completamente seguro de que el calibrado del instrumento es válido antes de
utilizarlo para obtener el valor de la concentración de la muestras incógnita. En
caso contrario, pueden cometerse serios errores en la determinación.
g. ¿ Cuál es la mejor recta ?  Mínimos cuadrados
1.8.2. Primer método de regresión grafica de calibración. En esta técnica se preparan una serie
de soluciones estándar que contienen [ ] conocidas del analito teniendo en cuenta los puntos antes
señalados. Una vez establecida la gráfica de calibración se puede obtener la [ ] de analito en
cualquier muestra problema por interpolación del valor en dicha recta: Señal= constante x [
concentración ] : y = m x + b El término b indica la magnitud de la señal estimada del blanco,
mientras que m es la pendiente de la recta de calibrado e indica nuevamente la sensibilidad.

Estadísticamente, una calibración realizada a partir de dos puntos es muy pobre y su


construcción a partir de un número mayor de patrones es obligatoria. El procedimiento
estadístico para determinar los coeficientes b y m de la ecuación (19) se denomina regresión por
cuadrados mínimos.
Cuadro Nro. 17 Calibración y regresión

El método de los mínimos cuadrados, busca que la recta de calibrado haga que la
suma de los cuadrados de las distancias verticales entre cada punto experimental
y la recta de calibrado sea mínima o tienda a cero.
a. ¿Por qué se prefiere la calibración lineal? Esta apoyado por un soporte teórico (Ley de Lambert-
Beer, ecuación de Ilkovic y otros), el tratamiento matemático es mas sencillo y más intuitivo, la
sensibilidad es constante en la región de calibrado y a cada valor de la señal analítica le corresponde
un único valor de concentración.

Utilizar los datos para adaptar a una línea de predicción que relacione una variable dependiente y
una sola variable independiente x. Es decir, queremos escribir y como una funciónline al de x:
y = α + ßx +ε. Línea verdadera (true line).
1.8.3. Segundo método: cálculo de la recta de regresión por mínimos cuadrados. Es la recta que minimiza la
suma de los cuadrados de los residuos, se establece una recta lineal que relaciona x e y. Para el modelo de la
ecuación (19) los puntos individuales sobre la recta los denotaremos como:{(x1, y1) = blanco, (x2,y2), (x3,y3)}
siendo el primer punto el corresponde a la lectura del blanco. Como los residuos de y, algunas veces serán
negativos y otros positivos, se intenta minimizar la suma de los cuadrados de los residuos.

Esto explica el uso del término de mínimos cuadrados, por lo que la recta buscada pasa por el
centro de gravedad, y su pendiente y su ordenada en el origen serán:
σ𝑛
𝑖=1 𝑥𝑖 −𝑥ҧ 𝑦𝑖 −𝑦ത
b= 𝑛
σ𝑖=1 𝑥𝑖 −𝑥ҧ 2 (20) a =𝑦ത − 𝑏𝑥ҧ (21)
Donde: 𝒙 ഥ, 𝒚
ഥ son promedio aritméticos de los valores de x (patrones de concentración = [ ]) y
valores de y (señales). En la ecuación (20), el numerador es simbolizado Sxy y el denominador
Sxx la expresión:
Syy = σ𝑁 𝑖=1 𝑦𝑖 − 𝑦ത 2 Se denota con el símbolo Syy
ෝ, para los distintos patrones
La calidad de la calibración se evalúa prediciendo el valor de la señal 𝒚
a través del modelo utilizado (ecuación 22). Las diferencias entre la señal observada y las
predichas se denominan residuos. A partir de estos valores se calcula:
σ 𝑦𝑖 −𝑦ത 𝑖 2 𝑆𝑦𝑦 −𝑚2 𝑆𝑥𝑥
𝑆𝑦/𝑥 = 𝑆𝑦/𝑥 = [Sy/x para (N-2)] (23)
𝑁−2 𝑁−2

Sy/x es llamada desviación estándar residual y tiene unidades correspondientes a la señal


observada. También se la conoce como sy/x en el texto de Miller o como se en otros textos.Es una
estimación de los parámetros de regresión.Se emplea N-2 grados de libertad para una regresión
lineal simple, ya que hay N datos disponibles.
Ejemplo Con la pendiente y la ordenada en el origen se construye la recta de regresión de y sobre
x: y = 1.93x +1.52
Es importante conocer las limitaciones del método de cuadrados mínimos. Al deducir las ecuaciones anteriores
fueron realizadas algunas suposiciones. Estas no siempre se cumplen en un problema de química analítica,
por lo que debemos estar atentos. Las suposiciones que se realizan son:
Figura Nro. 32. Los errores de la pendiente y ordenada en el origen parecida a la desviación estándar de medidas
repetidas de una distribución gaussiana excepto que ahora trabajamos con una recta (n-2).

Curva de calibrado
con n=5

El método de los mínimos


cuadrados, busca que la recta
de calibrado haga que la suma
de los cuadrados de las
distancias verticales entre cada
punto experimental y la recta de
calibrado sea mínima o tienda a
cero.
Los valores de Sb y Sa se pueden utilizar para estimar los límites de confianza para la pendiente y la
ordenada en el Origen. Así, los límites de confianza para la pendiente viene dados por:
b= ± t(n-2) Sb
con t que se obtiene para un nivel de confianza deseado y n-2 grados de libertad.
De manera similar, los límites de confianza para la ordenada en el origen son:
a= ± t(n-2) Sa
Intervalo de confianza de la ordenada en el origen: a ± t(n-2) Sa
Predicción en muestras incógnitas. Los valores de b y a se requieren para realizar predicciones en
muestras incógnitas, a través de la ecuación: y = bx +a, donde puede obtenerse la concentración
estimada del analito en la muestra: xinicial = (yinicial - a)/b
REGRESION LINEAL SIMPLE
Evaluar para un límite de confianza al 93% para la pendiente y la
ordenada, ¿Cuál será la concentración [x] para una lectura y= 19.87?

35
 10 55  a   196.17 
30
 55 385  b   1327.83 
    
25

20
y

15  a   2.71
 b    3.04 
10    
5
0 2 4 6 8 10
x
Regresiones No Lineales

• Existen otros tipos relaciones posibles entre x i y


• Crecimiento poblacional común regresión exponencial:
x
y = ab
– a : "índice de Falton“
– B: índice de crecimiento relativo.
• Grafico en papel semilogarítmico da una línea recta.
• Datos se linealizan con:

log y = log a+ x log b
• Luego es un caso de regresión lineal.
¿Cómo expresamos la incertidumbre del resultado de una muestra incógnita? Esto se hace en base a un
intervalo de confianza para el promedio de concentraciones obtenidos mediante L análisis repetidos de la
muestra. Puesto que en general el número de muestras utilizado en la calibración es pequeño se debe utilizar
el parámetro t para generar un intervalo de confianza.
Este intervalo de confianza de la concentración interpolado se calcula mediante la ecuación (28). Los resultados
para una muestra incógnita se expresan como:

e. Ámbito Lineal del calibrado. Una parte importante de la tarea de calibración de un


instrumento analítico es determinar el intervalo de concentraciones para el cual el modelo lineal
es válido. Hay tres maneras de verificar esto, ninguna de ellas excluye a las otras.
𝑦ത𝑥 −𝑎
𝑥ҧ 𝑥 = ±𝑡𝑁−2 . 𝑠𝑥 (28). Representación de la correlación de Pearson.Fuente:
𝑏
1.8.4. Tercer método es el análisis de la varianza de la regresión. El análisis de la varianza (ANOVA) puede
utilizarse para detectar una falla de ajuste en la regresión. Muchas planillas de cálculo realizan este cálculo
automáticamente. Para realizar este análisis de forma completa, se necesitan datos replicados para cada
patrón.
Test F de Linealidad. Este Test se basa en descomponer la varianza existente entre las
señales experimentales y los valores predichos en dos aportes. Uno de ellos es el
error experimental. Para tener una estimación del error experimental en la medición de
las señales, debemos medir “i” replicados de cada patrón, por lo que para cada punto x
habrá varios valores de señal (yi ). Para estimar la varianza debida al error puramente
Experimental, calculamos la media de los cuadrados debida a esta contribución (MSPE,
Mean Squares Pure Error): (La media de cuadrados de error puro)

Donde n es el número total de mediciones, k es el número total de patrones, i son las


repeticiones de cada patrón y los y ij son las señales de todos los experimentos.
Para estimar el posible error debido a una falla de ajuste debida a la elección de un
modelo incorrecto, calculamos la media de los cuadrados debida a la “falta de ajuste”
(MSLOF, Mean Squares Lack of Fit): (Media de los Cuadrados falta de ajuste)
σ𝑘 ത 𝑖 − 𝑦ො 𝑖 2
𝑖 𝑛𝑖 . 𝑦 𝑀𝑆𝐿𝑂𝐹
MSLOF = (32) Fcal = (33)
𝐾−2 𝑀𝑆𝑃𝐸

Para comparar M LOF y MSPE hacemos un test F de varianzas calculando


Si Fcal < Fk-2, n-k,a (obtenido de tablas) se acepta que existe buen ajuste al modelo lineal.
Módulo II: Espectro electromagnético
Para desarrollar el módulo II, será un desafío cotidiano el manejo y conocimiento de las
regiones del espectro electromagnético (bandas de interés), y del espectro
electromagnético monocromático de cada una de las fuente de luz, ya que sin ese
conocimiento, el mejor de los proyectos resultará un fracaso si el color o la zona
espectral de los objetos involucrados no es reproducido con la fidelidad necesaria.
2.1. Teoría del color. ¿Qué es el color? Es la forma en que percibimos las distintas
longitudes de onda de la luz. lo que vemos en realidad es la luz que reflejan los
objetos. El ojo humano es capaz de percibir hasta cerca de un millón de colores.
Cada longitud de onda visible define un color diferente.

380nm 730 nm

Espacio de la luz visible

Donde hay luz hay


color
¿Qué es el color? Desde el punto de vista físico el color es una propiedad física de la
luz emitida por los objetos y substancias. El color es un atributo que percibimos de
los objetos cuando hay luz. La luz esta constituida por ondas electromagnéticas que
se propagan a unos 300.000 kilómetros por segundo. Esto significa que nuestros
ojos reaccionan a la incidencia de la energía y no a la materia en sí.

630 nm
530 nm
2.2. Propiedades del color. Las definimos como el tono, matiz o croma = longitud de onda (λ);
saturación o intensidad = cantidad de blanco; luminosidad, claridad o brillo = cantidad de luz
es el atributo que diferencia el color y por la cual designamos los colores: verde, violeta, anaranjado.
Esta representación, si bien es muy clara para ver el principio básico de la suma
de colores, es un poco corta para representar la amplia gama de colores que
somos capaces de interpretar. Para ello necesitamos acudir al diagrama de
cromaticidad de la C.I .E. (Comisión Internacinale de l'Eclairage).
a. Él arco iris. Según los griegos, tiene todos los
colores del espectro solar. Los griegos personificaron
este espectacular fenómeno luminoso en Iris, la
mensajera de los dioses, que descendía entre los
hombres agitando sus alas multicolores.
Mezcla sustractiva. Es la forma en que se combinan las tintas,Cian + magenta = azul.
Magenta + amarillo = rojo. Amarillo +cian = verde. El negro es la suma de todos los
colores y el blanco es la ausencia de color, ya que es el color del soporte de impresión.
Él arco iris. Según los griegos, tiene todos los colores del espectro solar. Los griegos
personificaron este espectacular fenómeno luminoso en Iris, la mensajera de los dioses,
que descendía entre los hombres agitando sus alas multicolores.

Mezcla sustractiva. Arco iris.


La luz. Es una
mezcla de
longitudes de onda
visibles, lo cual se
demuestra al ver
como se descompone
al atravesar un
prisma.

Longitud de
Color Frecuencia
Descomposición de la luz onda
rojo ~ 625-740 nm ~ 480-405 THz
naranja ~ 590-625 nm ~ 510-480 THz
amarillo ~ 565-590 nm ~ 530-510 THz
Luz blanca. verde ~ 520-565 n ~ 580-530 THz
azul ~ 450-500 nm ~ 670-600 THz
añil ~ 430-450 nm ~ 700-670 THz
violeta ~ 380-430 nm ~ 790-700 THz
Comportamientos de la luz. Cuando la luz choca con una superficie nos podemos
encontrar con tres tipos de comportamientos; se transmite, se refleja o se
absorbe, que se conocen también como no espectroscópicos.
2.3. La naturaleza de la luz. Es conveniente describir la luz en términos de partículas y
ondas. Las ondas de la luz constan de campos eléctricos y magnéticos que oscilan en
planos perpendiculares entre si. Ha sido estudiada desde hace muchos años por
científicos tan notables como Newton y Max Planck. Podemos decir que la luz es toda
REM capaz de ser percibida por nuestro sentido de la vista. REM es una combinación
de campos eléctricos y magnéticos oscilantes, que se propagan a través del
espacio transportando energía.

n ʎ = 2dsen𝜶i
La REM. Cada tipo de fotón tiene una cantidad determinada de energía, los fotones
con más energía son los que tienen longitudes de onda más cortas, que corresponden
del azul al violeta. Los de la luz roja tienen menor energía y por lo tanto longitudes de
onda más largas. La naturaleza de la luz ha sido interpretada de diversas maneras:
La luz. Puede visualizar como una onda electromagnética propagándose. La onda viaja a la
velocidad máxima permitida en el vacío (c = 3x108 m/s).
Así el Espectro Electromagnético constituye la gama o conjunto de radiaciones
Electromagnéticas que comprende desde los rayos de mayor penetración (gamma: γ), hasta las
ondas de radio y del cual el espectro visible es sólo una pequeña fracción.
2.4. Estructura de la materia. El desarrollo de la física moderna ha permitido comprender la
organización íntima de la materia. El estudio de los espectros de líneas de diferentes elementos
químicos forzó el desarrollo de nuevas teorías que fueran capaces de explicar los resultados
experimentales. La simbiosis entre las leyes de la física, astrofísica y la física nuclear dan lugar a una
mejor comprensión de la producción de energía de las estrellas.
Sopa de Quarks. Después de la inflación, el Universo era una sopa de partículas
fundamentales llamadas quarks, gluones, leptones y fotones, todas chocando entre sí a
enormes velocidades transformándose continuamente unas en otras. Los filósofos
griegos se preguntaron de qué están hechas las cosas. Hoy, la física de altas
energías ha dado una respuesta científica a esta antigua pregunta.
2.4.2. Evolución experimental de la estructura del átomo. Indicamos las más notorias
técnicas experimentales:
Luigi Galvani (1737-1798). Electricidad animal.
Benjamin Franklin (1706-1790). Pararrayos.
André Marie Ampere(1775-1836). Electromagnetismo
William Crookes (1832-1919). Tubos de descarga o de crookes.
Michael Faraday, (1832) estudio el efecto de la electricidad en las soluciones.
Henri Becquerel (1896). Observó que las sales de uranio emitían radiaciones
espontáneamente.
En 1898, el físico francés Pierre Currie y su esposa María Sklodowska Curie. Inicio del
descubrimiento de la radiactividad naturtal.
En 1895 Wilhelm Röntgen. Descubrimiento de los Rayos X. Posteriormente fueron
identificados como un tipo de radiación de alta energía.
J.J. Thomson (1897). Descubrimiento de los electrones, cátodo (electrodo negativo) y un
ánodo (electrodo positivo)
R. Millikan (1909). Calculó experimentalmente el valor de la carga eléctrica negativa de un
electrón.
Ernest Rutherford (1911) utilizando partículas alfa (He2+) confirmo la existencia del núcleo
atómico. Modelo atómico de Bohr. (1913). Formuló un modelo atómico con postulados
concretos. es un modelo cuántico, decimos que un sistema es cuántico si sólo puede
poseer ciertos valores definidos de energía...
Principios de incertidumbre. W. Heisenberg (1927). Dijo que era imposible situar a un
electrón en un punto exacto del espacio.
En el modelo mecano-cuántico actual se utilizan los mismos números cuánticos que en el
modelo de Böhr, pero cambia su significado físico por orbitales.
Antecedentes que llevaron al desarrollo de la teoría moderna de la
estructura atómica. A finales del siglo XIX, una serie de evidencias
experimentales no podían ser explicados con las teorías clásicas (Maxwell,
Newton):
1. La radiación del “cuerpo negro”
2. El efecto fotoeléctrico
3. Los espectros discontinuos de los elementos
Misterio #3: Espectros atómicos
Teoría cuántica. Estudia el comportamiento de las partículas teniendo en cuenta su dualidad onda-
corpúsculo. Esta dualidad es el principio fundamental de la teoría cuántica. El físico alemán Max
Planck fue quien estableció las bases de esta teoría al postular que la materia sólo puede emitir
energía en pequeñas unidades discretas llamadas cuantos. La mecánica cuántica amplió
gradualmente el conocimiento de la estructura de la materia, Los números cuánticos se encargan
del comportamiento de los electrones, y la configuración electrónica de su distribución.

El estudios de los fenómenos a escala microscópica mediante la hipótesis de la


cuantización de la energía y la dualidad onda partícula fue desarrollado por
Schrodinger, Dirac, .
Gustav Kirchhoff. Propuso el concepto del cuerpo negro.
Stefan Boltzman. Propone que la energía de radiación es proporcional a: I(T) = 𝝈T4
W. Wien. Propuso que la distribución de la energía según la frecuencia y la temperatura
Rayleigh. Aplica el teorema de la equipartición para explicar los resultados de la
distribución de los cuerpos negros
Planck tomando los trabajos de Wien y Rayleigh hizo una interpolación matemática,
fue una de las contribuciones mas importantes a la física
Wilhelm Conrad Roentgen. Físico alemán galardonado con el premio Nobel de Física
en 1901, por su descubrimiento de una radiación invisible más penetrante que la
radiación ultravioleta a la que denominó rayos X
Max Planck, 1900: La energía, como la materia, es discontínua (1858-1947)
Las curvas obtenidas experimentalmente, difieren

2 h c 2
tremendamente de las que predice la teoría ondulatoria.

I() 
Lo que hizo Planck fue diseñar una fórmula matemática
que describiera las curvas reales con exactitud; después
dedujo una hipótesis física que pudiera explicar la hc
fórmula:
 (e
5 kT
 1)
Hipótesis de Planck:
• Los átomos se comportan como osciladores que vibran con una determinada
frecuencia.
• La energía que emiten estos osciladores no es continua sino mas bien discreta
(cuantizada)
• La energía sólo se puede intercambiar en forma de “cuantos”.
• La energía de un “cuanto” es igual a E=nhν donde h = 6,63 × 10-34 J s (constante de
Planck)
• Albert Einstein. La máxima energía cinética posible de los electrones emitidos sólo
depende de la frecuencia de la luz incidente y no de su intensidad.
• Si A es igual al éxito entonces la fórmula es: A= x+y+z
x= Es el trabajo
y= Es jugar
z= Es mantener la boca cerrada (Albert Einstein)
Recurriendo a la hipótesis de Planck, Einstein consideró la luz como un conjunto de
"proyectiles", que cuando chocan contra un electrón libre del metal le entregan su energía, y
si tienen la cantidad suficiente, el electrón es expulsado del metal, en caso contrario (por
debajo de una determinada frecuencia de corte), no logran arrancar electrones.

Efoton    Ek
Es la energía mínima
 para desprender un
electrón

  h 0
0 Es la frecuencia de corte por
debajo de el no hay emisión
2
m v
 h (   0 )
2
h  h 0 
mv
Ek 
2 2
Modelos atómicos cuánticos. [n,l,m,s] n=Indica el número de niveles de energía del átomo por
medio de valores enteros positivos, 2n2 número máximo de electrones que puede contener cada nivel
de energía, l=Indica el número de subniveles posibles de cada nivel de energía, valores: 0, 1, 2,
… (n-1), m= número cuantico magnético, expresa la orientación espacial del orbital, s= número
cuantico por spin o giro, tiene la forma esférica, sus valores son +1/2 y -1/2. Son los que se
emplean para describir el probable espacio energético que existe entre los electrones y el núcleo.
Según el principio de incertidumbre no se puede conocer con exactitud la posición del electrón ni
su contenido energético. Esto obliga a usar un nuevo termino "probabilidad", para la
descripción del átomo. De Broglie (1923) Dualidad onda partícula
Modelo atómico de orbitales: Los aportes de DeBroglie, Schrödinger y Heisenberg
dieron paso a un nuevo modelo del átomo mecánico-ondulatorio que describe a
cada electrón formando parte de una nube electrónica, alojado en zonas
conocidas como orbitales los cuales son regiones en las cuales la probabilidad de
encontrar un electrón es elevada.
Erwin Schrödinger – 1927. La Mecánica Cuántica (1927) engloba la hipótesis de Louis de
Broglie y el Principio de indeterminación de Heisenberg. El carácter ondulatorio del electrón se
aplica definiendo una función de ondas, Ψ, utilizando una ecuación de ondas, que
matemáticamente es una ecuación diferencial de segundo grado, es decir, una ecuación en la
cual intervienen derivadas segundas de la función Ψ.
Las Fuerzas Fundamentales del Universo. Las fuerzas o interacciones fundamentales
conocidas hasta ahora son cuatro: gravitatoria, electromagnética, nuclear fuerte y
nuclear débil. Hoy, la mejor candidata a convertirse en una teoría del todo es la teoría
de supercuerdas: La supersimetría es el origen del nombre de "supercuerdas". El efecto
o consecuencia de esa geometría curva del espacio-tiempo es la gravedad, y así es
como la relatividad consigue explicar la famosa gravitación universal descubierta por
Newton.
¿Que son las ondas gravitacionales? Los cuerpos masivos acelerados producen
fluctuaciones en el tejido espacio-tiempo que se propagan como una onda por
todo el Universo. Estas son las ondas gravitatorias o gravitacionales previstas por
Einstein y ahora descubiertas.

Sólo los sucesos excepcionales en


objetos con masas enormes, como
estrellas de neutrones, estallidos
de rayos gamma o agujeros
negros, pueden producir ondas
con la suficiente energía como
para ser detectadas; sucesos tan
potentes como la explosión de una
supernova gigante o la fusión de
dos agujeros negros.

Las ondas gravitatorias acortan el espacio-tiempo en una dirección, lo alargan en


la otra, y se propagan a la velocidad de la luz. Nada las detiene o refleja; por eso,
a diferencia de la luz y otras ondas electromagnéticas, apenas importa cuantos
objetos encuentren a su paso hasta llegar a la Tierra.
La energía sólo puede variar por saltos sucesivos, correspondiendo cada salto a una
transición de un estado a otro, en cada salto el átomo emite luz de frecuencia bien
definida dada por: hv = [ Ei - Ei ] De esta manera se explican los espectros atómicos,
que en el caso del Hidrógeno los niveles de energía posibles están dados por la fórmula:
E = - (h/R)/n2 , ( n = 1, 2, 3, . . . infinito)
La energía de cada nivel es mayor en la medida que se aleja del núcleo; sin embargo,
las diferencias entre los niveles va disminuyendo, lo que permite que las transiciones
electrónicas se produzcan con facilidad. La serie de Lyman corresponde a radiación ultravioleta.
La serie de Balmer, a radiación visible.
El resto, a radiación infrarroja (Paschen, Bracket y Pfund)
H.G.J. Moseley, (1914). Utilizando rayos X, determina la carga de los núcleos. .
Identifico el Z como el número de protones, lo que provoco la reorganización de la
Tabla Periódica en función del número atómico Z en lugar de la masa atómica A.

Arnold Sommerfeld. En 1916 modifica el modelo atómico de Bohr, en el cual los


electrones sólo giraban en órbitas circulares, al decir que también podían girar en
órbitas elípticas. Esto dio lugar a un nuevo número cuántico: "El número cuántico
azimutal o secundario.¨ Utilización de las coordenadas polares.
De Broglie (1923). Dualidad onda partícula.
Principios de incertidumbre. Heisenberg (1927). No se puede conocer con exactitud
la posición del electrón ni su contenido energético. . Esto obliga a usar un nuevo
termino "probabilidad", para la descripción del átomo. De Broglie (1923) Dualidad
onda partícula.
Erwin Schrödinger – 1927. La Mecánica Cuántica (1927) engloba la hipótesis de Louis de Broglie y
el Principio de indeterminación de Heisenberg.
H.G.J. Moseley, (1914). Utilizando rayos X, determina la carga de los núcleos de la mayoría de
átomos. Identifico el Z como el número de protones

James Chadwick (1932). Utilizando partículas alfa descubre una partícula atómica neutra con una
masa cercana a la del protón (neutrón).
Enrico Fermi (1942). Lleva a cabo la primera reacción controlada en cadena liberando energía de
los núcleos de los átomos.
LA TEORIA DEL TODO. La energía como la
• materia es discontinua
2.4.3. Configuración electrónica del átomo. Es la representación esquemática de la distribución de
los electrones de un átomo, de acuerdo con el modelo atómico de Bohr. Los electrones tienden a
ocupar orbítales de energía mínima. Principio de máxima multiplicidad (regla de Hund):
2.5. La radiación electromagnética. (Maxwell 1864) La energía desprendida de los
átomos se transmite como ondas electromagnéticas. Consiste en la oscilación de un
campo eléctrico y otro magnético en direcciones perpendiculares, entre sí, y a su
vez, perpendiculares ambos a la dirección de propagación, Se caracterizan por una
determinada longitud de onda “” o por su frecuencia “”.
Se denomina espectro electromagnético al conjunto de ondas electromagnéticas, o
más concretamente, a la radiación electromagnética que se emite (espectro de
emisión), o que se absorbe (espectro de absorción) una sustancia. Espectro de
emisión del Hidrógeno discontinuo.
2.6. Espectros atómicos. A las distribuciones de colores, o de longitudes de onda o de
frecuencia, emitidos por los átomos, se las denomina espectros atómicos. Cada
elemento produce un espectro con un conjunto de rayas características que sirven para
identificarlo. Los espectros de líneas (solo emiten luz a longitudes de onda específica).

2.7. principios básicos de la mecánica cuántica. Los nuevos campos de la física,


como la física del estado sólido, la física de la materia condensada, la
superconductividad, la física nuclear o la física de partículas elementales, se han
apoyado firmemente en la mecánica cuántica.
Diagramas de niveles de energía de los iones Na+ y Mg++
Diagrama de niveles energéticos moleculares.
Serie espectral. Cuando existe un exceso de fotones se habla de una línea de emisión.
En el caso de existir una carencia de fotones, se habla de una línea de absorción.
2.8. Teoría de Planck. Según Planck, la energía emitida o captada por un cuerpo en
forma de radiación electromagnética es siempre un múltiplo de la constante h, llamada
posteriormente constante de Planck por la frecuencia v de la radiación. E = n h x ν
h=6,62 10-34 J·s, constante de Planck v=frecuencia de la radiación.
¿Qué es un orbital? Böhr, en su modelo atómico, habla de órbitas; pero el modelo
mecano-cuántico actual habla de orbitales, ¿cuál es la diferencia? Orbital: región del
espacio alrededor del núcleo donde hay la máxima probabilidad de encontrar un
electrón.
Teoría de orbitales moleculares. Los enlaces se forman a partir de la interacción de
orbitales átomícos para formar orbitales moleculares.
Transiciones entre estados de energía electrónicos
Características de transiciones electrónicas entre orbitales σ, π y η
EL ENLACE METÁLICO

El enlace metálico. Es un caso extremo de enlace delocalizado. Debido a su baja


electronegatividad los metales no forman enlace por compartición de pares de
electrones entre un par de átomos, sino que la compartición ocurre entre muchos
átomos, dando lugar a lo que se conoce como enlace metálico. La teoría de bandas
permite entender el enlace y las propiedades de los metales

Muchos sólidos (metales, sólidos iónicos y covalentes) pueden considerarse como una
gran molécula en la que todos sus átomos se encuentran unidos por fuerzas de enlace
químico. La Teoría de Bandas es la extensión de la teoría de orbitales moleculares al
caso de los sólidos
La conductividad eléctrica es una
consecuencia de la estructura
electrónica de los metales
Los niveles vacíos corresponden a
orbitales próximos en energía y
débilmente atraídos por los núcleos.
Los electrones de los metales se
comportan como electrones libres
que pueden responder a un campo
eléctrico.

Nivel de Fermi
Dobletes de hidrógeno
La Absorción Atómica es muy específica: Sólo fotones con la energía exacta de
excitación se pueden absorber. Los demás átomos atraviesan inabsorbidos. En la
Emisión Atómica los electrones pueden alcanzar los estados excitados, mediante
colisiones con otros átomos o electrones libres. Produciendo emisión de fotones de
energía específica (luz) para cada longitud de onda.
Transiciones electrónicas. En espectroscopia UV-Vis se irradia con luz de energía
suficiente como para provocar transiciones electrónicas, es decir promover un electrón
desde un orbital de baja energía a uno vacante de alta energía. Transiciones
electrónicas posibles entre orbitales, penetración de las radiaciones en papel, aluminio y
plomo, con vinculación (anti bonding) y sin vinculación (non bonding).

Espectrometría Origen Información


Región UV/Visible Transiciones Concentración de
electrónicas cromóforos

Región del IR Transiciones Grupos funcionales


vibracionales
RMN ( absorción de Núcleos atómicos Entorno de átomos
la REM en la región individuales
de radiofrecuencias
La radiografía es
una de las
aplicaciones más
difundidas de los
rayos X
Fuente: fc3adsica-moderna-
autoguardado.ppt

Gracias por
la atención

HASTA LA PROXIMA CLASE


SEMANA 8-2018 MAYO
2.9.1. Naturaleza de la radiación electromagnética. El término "radiación" significa básicamente
transferencia de energía de una fuente a otra. Existen radiaciones electromagnéticas de varios
tipos (energías), entre las que se encuentran la energía eléctrica, las ondas de radio y televisión,
las ondas de radar, las microondas (hornos microndas, radar policial, estación satelital), la
radiación infra-roja (lámparas de calor), la luz visible (fotosíntesis), la radiación ultravioleta, los
rayos X, la radiación gamma y los rayos cósmicos, entre otros. Las radiaciones pueden:
Reflejarse, absorberse, transmitirse con resoluciones espaciales, espectrales, temporales(La
ndsat visita el mismo sitio c/16 días) y radiométricas (sentir). Teledetección y SIG (sistema
integral de georeferencia)
a. Radiaciones ionizantes. Cuando un electrón sale desprendido (o es separado) del átomo al que
pertenecía, se produce un proceso que se llama ionización. La ionización es, por lo tanto, la
formación de un par de iones, el negativo (el electrón libre) y el positivo (el átomo sin uno de sus
electrones). Las radiaciones ionizantes tienen aplicaciones muy importantes en la investigación,
industria y en la medicina. En la investigación e industria, las radiaciones ionizantes pueden ser útiles
para la producción de energía, para la esterilización de alimentos, para conocer la composición
interna de diversos materiales y para detectar errores de fabricación y ensamblaje.
En el campo de la medicina, las radiaciones ionizantes también cuentan con numerosas aplicaciones
benéficas para el ser humano. Con ellas se pueden realizar una gran variedad de estudios,
diagnósticos (Medicina Nuclear y Radiología) y tratamientos (Medicina Nuclear y Radioterapia), así
como investigar funciones normales y patológicas en el organismo.

Las radiaciones ionizantes trata pues de las ondas electromagnéticas de muy alta frecuencia
(sobre los 2400 millones de MHz), que tienen la suficiente energía como para producir
ionización (creación de partes eléctricamente cargadas, una positiva y una negativa),
rompiendo los enlaces atómicos que mantienen a las moléculas unidas en las células.
¿QUÉ EMITEN LAS RADIACIONES ELECTROMAGNÉTICAS? Las radiaciones del EEM emiten la
distribución energética del conjunto de ondas electromagnéticas. Esta formada por la combinación de
campos eléctricos y magnéticos, que se propagan a través del espacio en forma de ondas
transportando energía. Por tal motivo se las clasifica en Regiones espectrales. Una breve
descripción de sus propiedades y algunas aplicaciones esta descrito en sus Módulos.
Rayos cósmicos: Los rayos cósmicos son partículas atómicas o subatómicas ordinarias, despojadas
de sus electrones y extremadamente energéticas, viajan a través de espacio exterior casi a la
velocidad de la luz. Actualmente se sabe que la mayor parte de los rayos cósmicos galácticos se
genera a partir del nacimiento de las supernovas, objetos que marcan el fin de algunas estrellas
muy masivas. . Rayos cósmicos solares:
Rayos gamma. Las partículas gamma [𝜸] son fotones, no tienen masa ni carga, son
radiaciones electromagnéticas como la luz visible, pero de mucha mayor energía de
frecuencia muy alta, máximo poder de penetración.
Rayos X: Son un tipo de REM de alta energía. La radiación de rayos X tiene longitudes
de ondas mucho más cortas que la luz visible, por lo que los fotones de rayos X
tienen mucha mayor energía que los fotones de luz. En Medicina, los rayos X son
fundamentales en diagnosis y terapia. La tecnología de tomografías de rayos X
computarizada, en constante avance, permite obtener imágenes cada vez mas claras
de tumores.
La radiación ultravioleta (UV): La "luz" ultravioleta es un tipo de REM, cuyas longitudes
de onda van aproximadamente desde los 400 nm, hasta los 15 nm, es una forma de
energía radiante que proviene del sol. Las diversas formas de radiación se clasifican
según la longitud de onda (ʎ) medida en nanómetros (nm).

Aplicaciones: Control de plagas.


Desinfección
Líquidos: Agua, Siropes (jarabes),
Emulsiones, Sal
Reacciones fotoquímicas
Oxidación: TOC (Reducción de
Carbono Orgánico Total) mediante el
empleo de radiación UV)
Reducción, destrucción de ozono,
Separación del cloro.
Catálisis: Separación del pesticida,
tratamiento de aguas residuales,
recuperación del suelo.
Desodorización: Aguas residuales
y emisiones industriales.
Origen de la vida: Siempre se ha
evitado mencionar a la luz UV en
las teorías del origen de la vida.
Los rayos ultravioleta (UV) corresponden a la radiación del espectro
electromagnético con longitudes de onda menores que la radiación visible (luz),
desde los 400 hasta los 150 nm. Se suelen diferenciar tres bandas de radiación
UV: UV-A, UV-B y UV-C.
• UV-A. Banda de los 320 a los 400 nm. Es la más cercana al espectro visible y
no es absorbida por el ozono.
• UV-B. Banda de los 280 a los 320 nm. Es absorbida casi totalmente por el
ozono, aunque algunos rayos de este tipo llegan a la superficie de la Tierra. Es
un tipo de radiación dañina, especialmente para el ADN. Provoca melanoma y
otros tipos de cáncer de piel. También puede estar relacionada, aunque esto no
es tan seguro, con daños en algunos materiales, cosechas y formas de vida
marina.
• UV-C. Banda de las radiaciones UV menores de 280 nm. Este tipo de radiación
es extremadamente peligroso, pero es absorbido completamente por el ozono
y el oxígeno. Internacionalmente se ha adoptado un sistema estándar de medición y
una forma de presentarlo incluyendo un código de colores:
Color Riesgo Indice UV

Verde Bajo <2

Amarillo Moderado 3-5

Naranja Alto 6-7

Rojo Muy alto 8-10

Morado Extremadamente alto >11


La radiación visible: La luz visible contiene bandas de color que van del violeta hasta
el rojo. La región ultravioleta cubre el rango de aproximadamente 0.01 a 0.4 mm y el
infrarrojo va desde 0.75 a 100 mm. Es una región muy estrecha pero la más importante,
el ojo humano evolucionó en respuesta a la luz emitida por el Sol. El espectro
visible: El espectro visible para el ojo humano es aquel que va desde los 380nm de
longitud de onda para el color violeta hasta los 780 nm para el color rojo. Fuera de
estos límites, el ojo no percibe ninguna clase de radiación.
La distribución de los colores en el espectro está determinada por la longitud de onda de cada uno
de ellos. La luz visible es una pequeña parte del espectro electromagnético. Cuanto más larga la
longitud de onda de la luz visible tanto más rojo el color. Asimismo las longitudes de onda corta
están en la zona violeta del espectro. Las longitudes de onda más largas que las del rojo se
denominan infrarrojas, y aquellas más cortas que el violeta, ultravioletas.

¿Por qué las plantas son verdes? El color verde tan uniformemente presente en los
vegetales es debido a la presencia de dos pigmentos estrechamente emparentados
llamados clorofila a y clorofila b, que se encuentran prácticamente en todas las
plantas con semilla, helechos, musgos y algas.

Irradiación versus longitud de onda. Radiación solar, La energía en la


superficie de la tierra, Absorción de clorofila.
Proceso de Fotosíntesis. Es el conjunto de reacciones que realizan todas las plantas verdes, donde
se sintetizan hidratos de carbono por acción de la luz en presencia de la citada clorofila y otros
pigmentos, y con el concurso del dióxido de carbono. Su importancia no es de índole menor,
pues prácticamente toda la energía consumida por la vida de la biosfera terrestre procede de la
fotosíntesis, que mantiene la vida en la tierra.

La clorofila es la encargada de absorber la luz necesaria para que la


fotosíntesis pueda ser llevada a cabo, proceso culmina con la
transformación de energía luminosa en energía química. Aproximadamente
la mitad de la luz solar que llega a la superficie terrestre está constituida por
longitudes de onda que pueden utilizarse en el proceso fotosintético.
La visión escotópica carece de color, visión escotópica es monocromática. Esta terminología es
bastante desafortunada, ya que las luces monócromas de 430, 530 y 560 nm. de longitud de onda no
causan realmente la percepción de azul, verde y rojo, sino la de violeta, azul verdoso y amarillo
verdoso. Por eso, las denominaciones conos cortos, conos medios y conos largos (por el tipo de
longitud de onda al que son sensibles comparativamente) es más lógica (las abreviaciones en inglés
son: S-cones (cortos), M-cones (medios) y L-cones (largos).
Efecto invernadero. Se llama efecto invernadero al fenómeno por el que determinados
gases componentes de una atmósfera planetaria retienen parte de la energía que el
suelo emite por haber sido calentado por la radiación solar.
Efectos biológicos de la radiación láser: Los láseres son dispositivos que producen y amplifican un
haz de radiación electromagnética en el intervalo de longitudes de onda de 200 nm a 1 milímetro,
como resultado de una emisión estimulada controlada, es monocromática, es coherente y se emite en
una dirección determinada. Efectos biológicos. Los órganos que pueden resultar dañados en una
exposición a radiación láser son los ojos y la piel. La gravedad de la lesión dependerá de la longitud
de onda del láser y del nivel de exposición alcanzado, que es función de la potencia o energía del
láser y del tiempo de exposición. LASER: Light Amplification by Stimulated Emission of Radiation
Amplificación de la luz por emisión estimulada de radiación
EFECTOS BIOLÓGICOS DE LA RADIACIÓN LÁSER

Los láseres abarcan longitudes de onda del UV, del visible y del IR.

Los órganos que pueden resultar dañados en una exposición a radiación láser son
los ojos y la piel. La gravedad de la lesión dependerá de la longitud de onda del
láser y del nivel de exposición alcanzado, que es función de la potencia o energía
del láser y del tiempo de exposición.

Tipos de efectos biológicos:


Longitudes de onda cortas: efectos fotoquímicos
Longitudes de onda largas: efectos térmicos

UV C UV B UV A Visible IR A IR B IR C


100 280 315 400 760 1400 3000 106
(nm)
EFECTOS FOTOQUÍMICOS EFECTOS TÉRMICOS

124
20

EFECTOS BIOLÓGICOS DE LA RADIACIÓN LÁSER (VII)


15

EFECTOS SOBRE
10 LA PIEL
La reacción a sobreexposiciones son quemaduras más o menos profundas según la
intensidad y la longitud
5 de onda incidente.

0 UV IR
 (mm)
0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4

10
28
Epidermis 20
32
77 65 65

Dermis (PORCENTAJES)

Tejido 5
17
21
subcutáne
o
Adaptado de R. Matthers, http://www.oit.or.cr/mdtsanjo/sst/enciclopedia/tomo2/49.pdf, a partir de
datos procedentes de Lasers and optical radiation, Enviromental Health Criteria, No. 23 Ginebra: OMS 125
Las radiaciones no ionizantes. Las ondas electromagnéticas de baja frecuencia se
denominan “campos electromagnéticos”, y las de muy alta frecuencia, “radiaciones
electromagnéticas”. En esta se incluyen la radiación ultravioleta, el visible, la radiación
infrarroja, la radiofrecuencia y los campos de microondas, campos de ELF (Extremely
Low Frequency), así como los campos eléctricos y magnéticos estáticos.
El Infrarrojo
Radiación electromagnética cuya longitud de onda está comprendida entre 0.8
μ (10-6 m) y 1000 μ (1 nm). Abarca un espectro muy amplio, se suele utilizar el
infrarrojo cercano y medio. Todos los cuerpos sólidos, cuya temperatura es
superior al cero absoluto (00 K) emiten cierta cantidad de energía infrarroja.
Aplicaciones:
Investigación: Análisis espectral…estructuras de las moléculas; Química y
Bioquímica.
Industriales y Domésticas: Secado, análisis de tensión y fatiga,
mantenimiento de sistemas mecánicos, peritajes forenses, sistemas de
detección de gases, vigilancia, construcciones, medio ambiente, incendios,
búsqueda y rescate, etc. Las cámaras infrarrojas están siendo instaladas en
vehículos para ayudar a los conductores a ver más claramente en la noche o en
condiciones de niebla ( Cadillac General Motor`s en EE.UU.)… “Es difícil
encontrar algún producto o proceso Industrialen en el que la detección de
temperatura y/o imágenes por infrarrojo no tenga aplicación”…
Militares: Visores telescópicos, cabezas de misiles con iluminación láser que
apuntan los objetivos, autoguiado de misiles, etc…
Medicina:: La tecnología se utiliza en análisis no invasivo, mediante imágenes
por infrarrojos, de tejidos y fluidos corporales…operaciones en la obscuridad
(futuro…).

Facultad de Física
CEM , curso 2007/08
Eduardo Moreno Piquero
MICROONDAS : PROPIEDADES Y APLICACIONES. Una onda
electromagnética es la forma de propagación de una radiación electromagnética a
través del espacio. El espectro electromagnético (o simplemente espectro) es el rango
de todas las radiaciones electromagnéticas posibles.
Las microondas son ondas electromagnéticas ( señales ) 300MHz < frecuencia < 300
GHz ; 3ns < periodo < 3 ps , y 1mm < longitud de onda < 1 m
Son muy aptas para comunicaciones porque presentan más ancho de banda que las
ondas de frecuencias más bajas. Un ancho de banda del 10% a 60 MHz es 6 MHz (un
canal de televisión ) y a 60 GHz es 6 GHz (1000 canales de televisión ).
La ionosfera refleja o absorbe las ondas electromagnéticas de frecuencias inferiores a 10
MHz ( frecuencia de plasma ). Las microondas atraviesan sin problemas la ionosfera ↔
son utilizadas en comunicaciones vía satélite ( 11 a 12.5 GHz ) y en radioastronomía.
Las ondas electromagnéticas ( y en particular, las microondas ) son fuertemente
reflejadas por objetos cuyas dimensiones son del orden de la longitud de onda de la onda
incidente ↔ las microondas en las frecuencias 300MHz y 30 GHz son las ondas
preferentemente utilizadas en sistemas de radar. Las microondas con frecuencia > 30
GHz ( ondas milimétricas ) no son utilizadas para radar porque se ven fuertemente
afectadas por las gotas de lluvia.

Una de las aplicaciones más conocidas de


las microondas es el horno de microondas,
que usa un magnetrón para producir ondas
a una frecuencia de aproximadamente 2,45
GHz.
Facultad de Física
CEM , curso 2007/08
Eduardo Moreno Piquero
COMUNICACIONES MÓVILES
VALORES SEGUROS PARA EL USO DE LAS ONDAS NO-IONIZANTES
ELEMENTOS RADIANTES (ANTENAS)
Espectro Electromagnético. Es el rango de todas las radiaciones electromagnéticas
posibles o existentes. El espectro de un objeto es la distribución característica de la
radiación electromagnética de ese objeto. Es la distribución energética del conjunto de
las ondas electromagnéticas. Los tipos de radiación se clasifican en: radio,
microondas, infrarrojo, visible, ultravioleta, rayos X y rayos gamma.
El espectro visible de luz es el espectro de radiación electromagnética que es visible para el ojo
humano. Va desde una longitud de onda de 400 nm hasta 700 nm. Además, también se conoce con
otro nombre: El espectro óptico de la luz.
Espectro de ondas electromagnéticas

Longitud de onda (m) Frecuencia (Hz)


Larga Baja

Ondas de radio

Rayos  (10-3 A  0.3 A)


Microondas
Rayos X (0.3 A  300 A)
Ultravioleta (300 A  400 nm)
Rayos  Ultravioleta Infrarrojo

Visible (400 nm  700 nm)


Visible

Infrarrojo (700 nm  1 mm)


Microondas (1 mm  1 m)
Rayos X

Ondas de radio (1 m  kms)

Corta Alta
ENERGÍA DE UNA OEM

• Densidad de energía 1
ue   o E 2
eléctrica y magnética en el vació 2
instantánea 1B 2
um 
2 mo
• Densidad de energía
de la OEM
2 2
1 1 B B(t)
u (t)   0E 2    0E(t) 2 
2 2 m0 m0
2
1 1 Bo
upromedio   0 Eo 2 
2 2 m0
INTENSIDAD DE LA OEM
Es la energía que atraviesa una superficie por unidad de área y por unidad
de tiempo
Las intensidad instantánea que posee una onda electromagnética OEM,
perpendicularmente a la dirección de propagación es:

Potencia E.B c.B 2 E2


I(t)      c. 0 .E 2
Area m0 m0 c.m 0
La intensidad media que se propaga es la mitad de la expresión anterior.

1 Eo.Bo 1 c.Bo 2 1 Eo 2 1
Im ed     c. 0 .Eo 2
2 m0 2 m0 2 c.m 0 2

La intensidad de la onda electromagnética OEM al expandirse en el espacio


disminuye con el cuadrado de la distancia por ser "I " proporcional a E2 .
La Luz Como una Onda

La luz se puede imaginar como una


onda electromagnética (O.E.M)
propagándose. La onda viaja a la
velocidad máxima permitida en el
vacío (c = 3x108 m/s).

Radiación Visible
Es la onda que es capaz de producir la sensación
de visión en el ojo humano
.
Espectro Visible

• Los colores que percibimos son tan sólo longitudes de onda que
nuestros ojos detectan, pero existen otras longitudes de onda que
nuestros ojos no nos permiten ver.
NUESTRA CULTURA: MÁQUINAS UTILITARIAS

Fuente: http://ns.wqimg.com/109231_634274892154890000-slide26.swf,
https://www.google.com.pe/search?q=Im%C3%A1genes+de+vuelos+espaciales&biw=1280&bih=576&tbm=isch&imgil=
PPtMIUG1SWZ.

telecomunicaciones

PIXEL es la menor unidad homogénea Radiotelescopio


en color que forma parte de una imagen digital
telecomunicaciones

Panel de control computarizado


TIPOS DE RADIACIONES
PRIMER EXAMEN
PRIMER EXAMEN
MODULO III: INTRODUCCIÓN A LOS MÉTODOS ÓPTICOS DE ANALISIS. Las
técnicas ópticas de análisis son todas aquellas que implican la medida de la
radiación electromagnética emitida por la materia o que interacciona con ella.
Interacción de fotones, rayos ɣ y X
1- Los fotones son mucho más penetrantes que las partículas cargadas
2- Un haz de fotones no se degrada en energía al atravesar un material
3. Efecto fotoeléctrico, Dispersión Compton y Formación de pares (Predominio de los 3 procesos)
En los últimos años se han producido diversos instrumentos sensibles que han incrementado
considerablemente la capacidad del ingeniero para cuantificar y controlar los materiales
contaminantes, cuya complejidad va en aumento. Casi cualquier propiedad física de un
elemento o compuesto puede servir como base para una medición instrumental.
La luz generada en laboratorio mediante el calentamiento de gases, metales y sales mostraba una
serie de líneas estrechas, coloreadas y brillantes sobre un fondo oscuro. Se observo que, la
longitud de onda de cada una de estas bandas era característica del elemento químico que había sido
calentado. Por entonces, surgió la idea de utilizar estos espectros como huella digital de los
elementos observados. A partir de ese momento, se desarrolló una verdadera industria dedicada
exclusivamente a la realización de espectros de todos los elementos y compuestos conocidos.
Campos de estudio de la espectroscopia.

El espectro óptico. La luz blanca está compuesta de ondas de diversas frecuencias. Cuando un rayo
de luz blanca pasa por un prisma se separa en sus componentes de acuerdo a la longitud de onda
así:
CLASIFICACION DE LOS METODOS INSTRUMENTALES SEGUN LA PROPIEDAD
DE MEDIDA
• Electroquímicos
• Potencial Eléctrico: Potenciometria
• Conductancia Eléctrica: Conductimetria
Razón carga/masa
• Corriente Eléctrica Polarografía
• Deposición Eléctrica: Electrogravimetría Espectrometría de masas
• Fotometría de Llama Observación Microscópica
• Espectrometria de Emisión Microscopio electrónica
Radiación X
• Dispersión de Radiación Radiaciones Nucleares
• Turbidimetria
• Nefelometria Métodos Físico-Químicos
• Espectroscopia de Raman
• Fluorescencia de Radiación Fluorometria Cromatografía
Capa Fina
• Refracción de Radiación Refractometria Papel
• Rotación de Radiación Polarimetria Columna
• Ópticos Preparativa
• Absorción de Radiación HPLC
Gases
• Fotocolorimetria Fluidos Súper Críticos
• Ultravioleta – Visible
• Infrarrojo
• Absorción Atómica
• Emisión de Radiación:
Los métodos espectroscópicos están basados en la interacción de la REEM con la materia.
Encontramos que la materia puede estar en forma de: átomos libres o moléculas. La
espectroscopia es el estudio e interpretación de los espectros. Estos cuatro tipos de radiación
presentan características marcadamente diferentes en sus formas de interactuar con la materia, y por
esta razón es necesario su tratamiento en forma separada.

Los efectos más comunes producidos por la interacción de la radiación con la


materia son la ionización y la excitación atómica del material absorbente.
La energía promedio necesaria para producir ionización en un elemento depende
de su número atómico.
Una radiación de energía de unos pocos MeV es capaz de producir unos 100.000
pares ión-electrón en aire.
Procesos de interacción: Efecto fotoeléctrico, Dispersión Compton, Formación de
pares.
Tipos de espectroscopia: Espectroscopia atómica, Fotometría de llama, Espectroscopia de
emisión, Espectroscopia de emisión de plasma, Espectroscopia de absorción atómica,
Espectroscopia de fluorescencia, Espectroscopia molecular, Espectroscopia de microondas,
Espectroscopia de infrarrojos, Espectroscopia de visible-ultravioleta, Espectroscopia de
Raman, Espectroscopia de RMN (resonancia magnética nuclear), Espectroscopia de
resonancia de spin electrónico.
Análisis cuantitativo de la absorción de radiación electromagnética. En los estudios cuantitativos de absorción
de la radiación se mide la cantidad de energía que es absorbida por una muestra que contiene una especie
absorbente, comparándola con la cantidad de energía absorbida por otra muestra de concentración
conocida, y tomando como referencia una solución la cual no contiene la sustancia que absorbe radiación.

𝑡𝜎
𝜇 = 𝑥ҧ ± 𝑛

Aplicaciones de la estadística a los resultados analíticos.


Intervalos de Confianza. Rechazo de Resultados, Propagación de errores.
Región conjunto de la pendiente y la ordenada. Usted puede desear un intervalo de confianza para
un solo parámetro aislado, encendido para varios parámetros a la vez: Usted consigue un elipsoide,
llamado la región de la confianza. Trae más información que los intervalos de confianza de 1 variable
ya que no se pueden combinar esos intervalos
Línea de Investigación: Análisis fisicoquímico instrumental. (Proyecto FOCAM)
Tema: Determinación y Representaciones gráficas de la interacción del E.E.M. con la
materia [concentración] con fines cuantitativos.
Áreas Académicas: E.A.P. de Ingeniería UNJFSC.
Calibraciones de los métodos instrumentales. Según la ISO (International Stándar Office), la
calibración se define como el conjunto de operaciones que permiten establecer en determinadas
condiciones experimentales, la relación existente entre los valores indicados por el aparato, con los
valores obtenidos en la medida de un valor conocido. El procedimiento operatorio en análisis
instrumental para la calibración son los métodos que se clasifican de la siguiente manera:

CLASIFICACIÓN METROLÓGICA
1. MÉTODOS ABSOLUTOS: Se relacionan con patrones básicos, Kg. patrón, Amperio y segundo
(Gravimetría y Culombimetría). Se calibra la balanza.
2. MÉTODOS ESTEQUIMÉTRICOS: Se relacionan con patrones químico analíticos que no
contienen al analito como las volumetrías. La determinación analítica se basa en la relación
estequiometria de la reacción entre el valorante y el analito de la muestra.
3. MÉTODOS RELATIVOS: Se relacionan con patrones químico analíticos que si contienen al
analito y precisan de calibración metodológica.
CALIBRACIÓN METODOLÓGICA: Operación que permite relacionar la señal analítica con la
concentración/composición de la sustancia/s que se está analizando.
MÉTODOS DE CALIBRADO:
Conceptos adicionales: Interferente: Especie química
1. Calibrado completo: distinta del analito que aumenta o disminuye la respuesta del
analito bajo el método aplicado. (Ej. Analito: Ca2+, Al3+ es un
2. Calibrado simplificado interferente si la determinación se lleva a cabo por valoración
con EDTA. Interferencia positiva). Enmascaramiento:
3. Calibrado con “escalas auxiliares” Transformación del interferente en otra especie química que
no es detectada con la técnica analítica empleada.
[Ej. Al3+ + 3OH- → Al(OH)3]
1. Métodos de calibrado completo: Implican la obtención de una “función de calibrado” que define
la respuesta equivalente a concentraciones conocidas del componente analizado. Una vez conocida
esta función, se utiliza su inversa (Función analítica) para determinar la concentración a partir de la
señal instrumental obtenida. Pueden ser: Método directo o por interpolación, Método de adición
estándar o adición de patrón y Método de patrón interno-

Instrumentos de Medición. El propósito de un instrumento de medición es proporcionar información


acerca del valor físico de alguna variable que se va a medir. Se clasifican en: Mecánicos Electrónicos,
Ópticos, Neumáticos, Eléctricos, Etc. De acuerdo a esto se clasifican:
•Instrumentos de tipo nulo y deflexión de aguja
•Instrumentos analógicos y digitales
•Instrumentos de supervisión y control y otros.
Exactitud del instrumento expresada
por la LINEALIDAD

La esencia de un exitoso control de


proceso, radica en la excelencia de contar
con equipos e instrumentos que garanticen
la uniformidad requerida para el
aseguramiento de la calidad de bienes y
servicios.(Rafa Torres)
Método de calibrado completo por regresión lineal :

1. Gráficos que muestran la respuesta de un método analítico (Señal) en función de


cantidades conocidas de analito (concentraciones)

0.60 V(10-4 V)

0.50
r= Estima la
bondad con que se
0.40 ajustan los puntos
experimental en
0.30
b una línea recta

0.20

y = b·x + c
0.10
c
0.00
I(A)
1 2 3 4 5
163
CONSTRUCCIÓN DE UNA CURVA DE CALIBRADO. Es un método muy utilizado en análisis
instrumental para determinar la concentración de una sustancia (analito) en una muestra
desconocida, sobre todo en disoluciones. El método se basa en la relación proporcional entre
la concentración y una determinada señal analítica (propiedad).17 oct. 2016
CURVAS DE VALORACIÓN: CURVA ABSOBANCIA-[C]NITRÓGENO y VALORACIÓN
INSTRUMENTAL – CURVA DE ÁCIDO – BASE.
Gráficos que muestran la respuesta de un método analítico (Señal) en función de cantidades
conocidas de analito (concentraciones)

Señal versus Concentración.


Equipo pH-Metro: Señal (y= variable
dependiente= Medición, efecto, de respuesta o
de resultado)

acido acetilsalicílico

Concentración [C]: (x=variable independiente=


Manipulación, causa)

Diseño de investigación: 1. Nivel técnico-metodológico. 2. Nivel estadístico-analítico


Problema científico: Observación, resultados previos,teorias formalizadas, curiosidad.
CALIBRADO DIRECTO: Se preparan una serie de disoluciones patrón de forma que cubran un intervalo de
concentraciones [ ] adecuado y que tengan una composición en matriz parecida a la de la muestra. También se
prepara un blanco, este tiene igual composición que los demás estándares pero sin el analito.
Revisar Modulo III. Páginas 280-286 incorporar las ecuaciones c/u: Tipos de disoluciones

Lectura en
equipo
7
6
5
4
3
2
1
0
Concentración de las soluciones patrón o estándar.
CALIBRADO por el método de adición estándar o adición de patrón

Lectura en
15
equipo
10

1. Necesario cuando hay interferencia debida a los


5 constituyentes de la matriz: EFECTO MATRIZ
2. A cada uno de los estándares se le agrega un volumen o
cantidad conocido de analito:
0
Concentración de las
soluciones
3er. Método: Igualando la ecuación de regresión a cero: y= bx+c
CALIBRADO CON PATRÓN INTERNO: Qué es un patrón interno?. Cantidad
conocida de un compuesto (diferente al analito) que se añade a la muestra
desconocida

Lectura en equipo: y
(variable dependiente) + Patrón interno
7
6 + Patrón interno

5
4 + Patrón interno

3 + Patrón interno

2
+ Patrón interno
1
0
CONCENTRACIÓN: x (variable independiente)
• Cuando se utiliza? La señal del analito varía entre un experimento y otro. Hay pérdidas de la muestra
durante su preparación (antes del análisis)
• Es útil cuando la señal analítica fluctúa debido a las características de la técnica de medida
• El “PATRÓN INTERNO” debe tener un comportamiento y una estructura similares a la del
analito
2. Métodos de calibración simplificada: Se utilizan cuando no es necesario conocer los contenidos
verdaderos, sino simplemente establecer si están incluidos dentro de unos márgenes
predeterminados. Calibrado de “banda ancha”. Con este tipo de calibrado, en vez de obtener una
función de calibración, se obtiene un margen o banda dentro de la cual puede estar o no incluido
el analito; es muy útil y característico del análisis clínico.

3. Métodos de calibrado con escalas auxiliares: Se utilizan cuando el resultado del análisis no se
puede expresar en unidades del Sistema Internacional (SI). No se conozca la densidad, peso
molecular, la muestra a analizar no se haya podido aislar en estado puro. Es necesario recordar:
Parámetros característicos. En la práctica, cuando se trabaja con una recta de regresión
convencional, se puede usar la desviación estándar de residuos Sx/y en lugar de SB, y se puede
emplear el valor de A = (0,0) como una estimación de la señal correspondiente al blanco.

Una vez obtenido el valor de y obtendremos la [ ] correspondiente al limite de detección


o cuantificación, a partir de la recta de calibrado. Módulo I.

Sensibilidad, selectividad, linealidad, LDQ,


LOD, LOL, relación señal ruido,
Evaluación de los resultados, informe y conclusiones. Los resultados analíticos se consideran incompletos sin
una estimación de su fiabilidad. Por tanto, debe proporcionarse alguna medición de la incertidumbre relacionada
con los cálculos obtenidos si pretendemos que los resultados tengan valor.
Además, el informe final no sólo debe plasmar los resultados obtenidos sino también las limitaciones concretas del
método de análisis empleado: intervalo de linealidad, límite de detección, límite de cuantificación, etc.
Instrumentación para la medición de absorbancias de la luz visible y ultravioleta:
Espectrofotómetro UV-visible.
Sistema óptico. En Espectrofotometría VIS-UV es esencial disponer de una radiación constituida por
un grupo limitado y continuo de λs (Banda) ya que: La ley de Beer se aplica a radiación
monocromática. Los anchos de banda estrechos aumentan la SENSIBILIDAD al disminuir la señal del
blanco pero no de la muestra. Mejoran, también, la SELECTIVIDAD, con menos λs de menor
probabilidad de que sustancias distintas del analito absorban. Monocromador de prisma óptico:
cuerpo transparente limitado por dos superficies planas no paralelas. El ángulo formado por las dos
caras se denomina ángulo del prisma. (α)
Monocromador de red. La DISPERSIÓN ANGULAR DE UNA RED, dr/dλ= n/d se obtiene diferenciando la
ecuación general de la red con respecto a λ.
Haz de radiación monocromática que incide con un ángulo i
La máxima interferencia constructiva entre los rayos 1 y 2 ocurre para un ángulo reflejado
La Δ camino óptico debe ser un múltiplo entero de la λ.
Cubetas. Un compartimento donde se aloja un recipiente transparente (cubetas o tubos)
que contenga la muestra, pueden ser de vidrio, cuarzo o plástico transparente. Para
medir en UV se deben usar las de cuarzo o sílice fundido, porque el vidrio no transmite la
radiación UV.

Cubeta sandwch entre


dos placas de NaCl. (IR,
Líquidos)

Celdillas, para
muestras gasesas
Detectores. Un detector de luz y un amplificador convertidor de las señales luminosas en señales
eléctricas. El fotocátodo opera según el principio de emisión de electrones desde algunos
materiales dependiendo de la frecuencia de los fotones que inciden en su superficie, es decir hacen
uso del efecto fotoeléctrico. Página 326 del Módulo.
Leyes cuantitativas: Se basa en la medida de la radiación absorbida en la región visible, ultravioleta
e infrarroja, La fuente es necesaria para alimentar la lámpara de excitación. Ley de lambert – beer.
Muestra cómo la absorbancia es directamente proporcional a la longitud b de la trayectoria a través de
la solución y a la concentración [C] del analito o especie absorbente. La ley de Lambert y Beer’s da
origen a una serie de expresiones usadas rutinariamente en espectrofotometría. A = a b [C]

𝐴𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 𝐴𝑃𝑎𝑡𝑟ó𝑛
=
𝐶 𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 𝐶 𝑃𝑎𝑡𝑟ó𝑛

b = longitud del camino recorrido por la radiación a través del medio


absorbente
[C] = concentración expresada en g/L (mg/L,...) Cuando en la ecuación la
concentración viene expresada en mol/L, la cte de proporcionalidad se
denomina absortividad molar y se representa por  o aM (unidades L·cm-
1·mol-1.)

𝐴𝑃𝑎𝑡𝑟ó𝑛
= 𝑚 = 𝑃𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒, luego podemos calcular la:
𝐶 𝑃𝑎𝑡𝑟ó𝑛
𝐴𝐷𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎
[C]Desconocida =
𝑚
El valor de (aM ,, o a, según sea el caso), es característico del ion o molécula en un solvente específico a una
determinada longitud de onda. Este valor es independiente de la concentración [C] de la solución y del espesor de la
celda (b). Página 332 del Modulo III.
Para más de una especie absorbente en el medio: Las absorbancias son aditivas. La absortividad
pasa a denominarse absortividad molar aM y se expresa con el símbolo ε, cuando la concentración
[C] está en (moles/litro) y b en (cm). La ley de Lambert-Beer permite la determinación de
concentraciones de disoluciones, a partir de una recta de calibrado obtenida midiendo las
absorbancias de disoluciones patrón de concentraciones conocidas.
Curva de calibrado. Se tiene la curva de calibrado midiendo la absorbancia de una serie de soluciones de
concentraciones conocidas de una misma sustancia tratadas con un mismo método y medidas a igual longitud de onda
en el mismo instrumento. Módulo III: Página 333
Es posible determinar gráficamente la concentración de una muestra desconocida [Cx] midiendo la absorbancia de la
muestra (Ax ) e interpolando en la curva de calibrado.
A = a.b. [C] + Ao
Cuando se conoce por bibliografía el coeficiente de extinción específica de un compuesto (𝜀) o este es estimado
experimentalmente, midiendo la (Ax) de una muestra del compuesto de concentración desconocida [Cx] se puede
calcular su concentración:
𝑨𝒙 −𝑨𝒐
Cx = 𝜺𝒃
En esta forma se obtiene la concentración [Cf] de la muestra problema en la cubeta, para obtener la concentración
inicial [Ci] se debe considerar las diluciones correspondientes al ensayo usando la ley volumétrica de diluciones.
Formula estándar. La concentración desconocida puede determinarse sobre la base de un solo estándar, de acuerdo
𝑽𝒊 𝑽𝒊
a la siguiente ecuación: Astd [Cmp] = Amp [Cstd]
𝑽𝒇 𝑽𝒇
𝒎𝒑 𝒔𝒕𝒅
Asimismo, la ley de Lambert-Beer se puede aplicar a disoluciones que contengan varias especies absorbentes. La
absorbancia total A, a una determinada longitud de onda, para un sistema de varios compuestos, viene dada por:
Aλ1 = A1λ1 + A2λ1 + ... + Anλ1 = a1λ1.b.c1 + a2λ1.b.c2 + ... + anλ1.b.cn
Supongamos que tenemos dos compuestos X e Y que presentan máximos de absorbancia a λ 1 y λ2 respectivamente.
Aλ1 = AXλ1 + AYλ1 = aXλ1.b.[CX ] + aYλ1.b.[CY]
Aλ2 = AXλ2 + AYλ2 = aXλ2.b.[CX ] + aYλ2.b.[CY]
A total = a1bc1 + a2bc2 +....... + anbcn
Resolver los ejercicios en su carpeta de trabajo: Módulo III.
Practicas de laboratorio: Manejo del spectronic. Son instrumentos que se utiliza con el
propósito de realizar evaluaciones de la relación del EEM con la materia:
1.Análisis cualitativo. La identificación de compuestos, orgánicos e inorgánicos
2.Análisis cuantitativo. Medida de concentraciones, orgánica e inorgánica

Paso 1

Paso 2
Paso 3

Paso 4

Revise en su
módulo página 361
Practica Nro. 4. Los métodos espectroscópicos se basan en la capacidad de las sustancias de
ABSORBER o EMITIR radiación electromagnética, y tales métodos se pueden emplear para
determinar la concentración de un reactivo o producto durante una reacción.
Para medir la absorbancia de una sustancia en particular en una mezcla, es necesario
"calibrar a cien" el espectrofotómetro de tal forma que solo la absorbancia de la
sustancia de interés sea leída, es decir que solamente sea tomada en cuenta por el
detector la absorbancia correspondiente al (los) metabolito (s) presente en la celda o
cubeta. Esto se consigue con un Blanco de reactivo(s), una cubeta que contiene todos
los reactivos excepto la sustancia de interés. Algunas técnicas requieren que el
proceso de calibración a "100" se realice con blanco de agua (agua destilada) o con aire
(sin celda). (Vea su Módulo página 362/Diseño experimental de la Práctica.)
Ejercicios
Bibliografia
1. http://www.iem.cfmac.csic.es/semanaciencia/semanaciencia13/semciencia13-galvez-
cuantica.pdf
2. http://repository.uaeh.edu.mx/bitstream/bitstream/handle/123456789/13755/QuimicaA
naliticaV.pdf?sequence=1
3. Roser Bono Cabré. Dpto. de Metodología de las Ciencias del Comportamiento
Universidad de Barcelona. http://www.ub.edu/deia
4. http://www.fisica.unlp.edu.ar/materias/radioactividad/radioactividad-
teorias/clase%204.pdf
MODULO IV: ESPECTROSCOPÌA DE ABSORCIÓN ATÓMICA. En química analítica, la espectrometría de
absorción atómica es una técnica instrumental por el que se reconoce, identifica y determinar la
concentración de un elemento metálico en una muestra. Puede utilizarse para analizar la concentración [Ci] de
más de 70 metales diferentes al estado fundamental en una solución.

Principios en los que se basa la A.A.


En resumen, los electrones de los átomos en el
atomizador pueden ser promovidos a
orbitales más altos por un instante mediante
la absorción de una cantidad de energía,
cada longitud de onda corresponde a un solo
elemento.
Se basa en gran medida de la aplicación de la
ley de Beer-Lambert.
La espectroscopia atómica se basa en la absorción, emisión o fluorescencia de las partículas atómicas. Las
regiones que nos proporcionan datos espectrales atómicos, son la del UV, en el visible y los rayos X, en estas
tres zonas se pueden medir absorción y emisión de átomos. La principal ventaja de estos métodos es su elevada
sensibilidad, que puede ir desde los ppm hasta incluso ppt (trillón), dependiendo de la técnica usada habrá más o
menos sensibilidad. El primer paso es la atomización de la muestra (llevar a la fase gaseosa)

Los espectros atómicos se obtienen mediante el tratamiento término de la muestra que puede
realizarse con una llama, con una chispa eléctrica o con un plasma. En función de la fuente
usada para volatilizar, se obtienen tres técnicas diferentes. Llama, Electrotérmico (hornos
microondas) y Arco eléctrico.
La cantidad de fotones absorbidos, está determinada por la ley de Beer, que relaciona ésta pérdida de
poder radiante, con la concentración de la especie absorbente y con el espesor de la celda o
recipiente que contiene los átomos absorbedores. Componentes de un espectrofotómetro de
absorción, emisión y fluorescencia atómica. Al conjunto de todas las técnicas instrumentales que
se basan en la absorción, emisión y fluorescencia de la radiación electromagnética se conoce por
espectroscopia. En los 3 casos se realiza atomización de la muestra, en el esquema se aprecia las
etapas.
La característica principal de la espectroscopia atómica es la atomización de la muestra, La
atomización se realiza a través de un atomizador de llama que consta de un nebulizador y de un
quemador. Los atomizadores utilizan dos gases uno combustible y otro oxidante que variaran según
los elementos que se vayan a analizar. Sistema que regula la presión y el volumen de
combustible. El combustible puede ser acetileno, hidrógeno o propano (gases). También regula la
presión y el volumen del oxidante, y pueden ser: aire, oxígeno u óxido nitroso. (página 389)..

S-ar putea să vă placă și