Documente Academic
Documente Profesional
Documente Cultură
Hay una buena manera de recordar todo esto; hacer lo que viene naturalmente
Si el campo consta de todos los números reales. Tenemos un espacio vectorial real, si
son
Complejo, tenemos un espacio vectorial complejo. Los vectores mismos no son ni
reales.
ni complejo El adjetivo se aplica solo a los escalares.
Notemos que los axiomas anteriores implican.
Se dejan las pruebas en cuanto al siguiente ejercicio. No tienes que saber las
pruebas, Pero tienes que saber las declaraciones.
Figure. 1.1 La regla para la suma de vectores. Tenga en cuenta que obedece a los
axiomas.
(i) (iii)
Exercise 1.1.2. Considere el conjunto de todas las entidades de la forma (a, b, c) donde
las entradas son
números reales. La suma y la multiplicación escalar se definen como sigue :
Escribe el vector nulo y el inverso de (a, b, c). Demuestre que los vectores de la forma
(a. b, 1) hacen No se forma un espacio vectorial.
Observe que estamos usando un nuevo símbolo I V> para denotar un vector genérico.
Esta El objeto se llama ket V y esta nomenclatura se debe a Dirac, cuya notación será
discutido en cierta extensión más tarde. No utilizamos deliberadamente el símbolo V
para denotar el los vectores como el primer paso para el destete lejos del concepto
limitado del vector como una flecha. Sin embargo, no está impedido asociarse con I V>
la flecha objeto hasta que haya visto suficientes vectores que no sean flechas y estén
listos para soltar la muleta.
∑ 𝑎𝑖 |i > = |0 >
𝑖=1
Podemos suponer, sin pérdida de generalidad, que el lado izquierdo no contiene ningún múltiplo de|0 >
ya que si lo hiciera, podría desplazarse hacia la derecha y combinarse con el |0 > allí para dar |0 > una
vez más. (Estamos utilizando el hecho de que cualquier múltiple
de |0 > es igual a |0 >.)
Definición 3. Se dice que el conjunto de vectores es linealmente independiente si la única relación lineal
tal como la ec. (1. 1.1) es el trivial con todos 𝑎𝑖 = 0 Si el conjunto de vectores no es linealmente
independiente, decimos que son linealmente dependientes
La ecuación (1. 1.1) nos dice que no es posible escribir a ningún miembro de la
Conjunto linealmente independiente en términos de los Otros. Por otro lado, si el conjunto de
Los vectores son linealmente dependientes, tal relación existirá, y debe contener al menos
Dos coeficientes distintos de cero. Digamos 𝑎3 ≠ 0. Entonces podríamos escribir
𝑛
−𝑎𝑖
||3 > = ∑ |i >
𝑎3
𝑖=1,𝑖≠3
¿Son linealmente independientes? Apoya tu respuesta con detalles. (Aviso que estamos
llamando estos vectores matrices y el uso de kets para representarlos para enfatizar su
papel como elementos de un espacio vectorial)
Ejercicio 1.1.5. Muestre que los siguientes vectores de fila son linealmente
dependientes: (l, l, O),(1, O, l), y (3, 2, l). Muestra lo opuesto para (l, l, O), (l, O, l) y (O,
l, l).
Definición 4. Un espacio vectorial tiene dimensión n si puede acomodar un máximo
De n vectores linealmente independientes, se indicará por 𝑉 𝑛 (𝑅) si el campo es real y
por 𝑉 𝑛 (𝐶) si el campo es complejo.
La prueba es la siguiente: si hubiera un vector |V > para el cual esto no fue posible, se
uniría al conjunto dado de vectores y formaría un conjunto de n + l linealmente
Vectores independientes, lo que no es posible en un espacio n-dimensional por
definición.
|V > = ∑ 𝑣𝑖 |i >
𝑖=1
donde los vectores |i > forman una base.
Definición 6. Los coeficientes de expansión v, de un vector en términos de una base
lineal independiente |i > se denominan los componentes del vector en esa base.
|V > = ∑ 𝑣𝑖 ´, |i >
𝑖=1
Restando ec. (1. 1.4) de la ec. (1.1.3) (es decir, multiplicando el segundo por el
escalar -1 y sumando las dos ecuaciones) obtenemos.
ya que los vectores de base son linealmente independientes y solo una relación lineal trivial
entre ellos puede existir. Tenga en cuenta que los componentes son únicos, pero si
Cambiamos la base, los componentes cambiarán. Nos referimos a |V > como el vector en
El resumen, que tiene una existencia propia y satisface diversas relaciones que involucran
Otros vectores. Cuando elegimos una base, los vectores asumen formas concretas en términos
de sus componentes y la relación entre vectores es satisfecha por los componentes.
⃗ ,𝐵
Imagina, por ejemplo, tres flechas en el plano 𝐴 ⃗ ,𝐶 ⃗ = 𝐶 según
⃗ que satisfacen 𝐴 + 𝐵
A las leyes para agregar flechas. Hasta ahora no se ha elegido ninguna base y no necesitamos
una base para hacer la declaración de que los vectores de un triángulo cerrado. Ahora nosotros
elegimos Una base y escribimos cada vector en términos de los componentes. Los componentes
satisfarán 𝐶𝑖 = 𝐴𝑖 + 𝐵𝑖 𝑖 = 1,2,3 … Si elegimos una base diferente, los componentes cambiarán
en valor numérico, pero la relación entre ellos expresando la igualdad de ⃗𝐶 a la suma de los
Otros dos se mantendrá entre el nuevo conjunto de componentes.
en otras palabras.
para multiplicar un vector por un escalar, multiplica todos sus componentes por los escalares.
podemos leer la longitud de ⃗𝐴 como √|𝐴|. |𝐴| y el coseno del ángulo entre 2 vectores
⃗⃗⃗ 𝐵
𝐴. ⃗ /|𝐴|. |𝐵| Ahora bien, puedes objetar; ¿Cómo puedes usar el punto? producto para definir la
longitud y los ángulos, si el producto punto requiere conocimiento de ¿Las longitudes y los
ángulos? La respuesta es la siguiente. Recordemos que el producto punto tiene un segundo.
Figura 1.2. Prueba geométrica de que el producto de punto obedece al axioma (3) Para
un producto interior. El axioma requiere que las proyecciones 𝒑𝒋 + 𝒑𝒌 = 𝒑𝒋𝒌
Expresión equivalente en términos de los componentes:
Nuestro objetivo es definir una fórmula similar para el caso general donde tenemos la
Noción de componentes en una base. Para ello recordamos las principales
características de las anteriores. producto puntual
La linealidad del producto punto se ilustra en la Fig. 1.2.
Queremos inventar una generalización llamada producto interno o producto escalar.
entre cualquiera de los dos vectores |V > 𝑦 |W > Lo denotamos por el símbolo ⟨𝑉 |𝑊⟩ es
una vez más un número (complejo en general) dependiente de los dos vectores. Nosotros
demandamos que obedezca los siguientes axiomas
Definición 7. Un espacio vectorial con un producto interno se denomina espacio interno del
producto.
Tenga en cuenta que aún no hemos dado una regla explícita para evaluar realmente el
producto escalar, simplemente estamos exigiendo que cualquier regla que se nos presente debe
tener estas propiedades Con el fin de encontrar dicha regla, permítanos familiarizarnos con
Los axiomas. El primero difiere del correspondiente al producto puntual y hace que el producto
interno sea sensible al orden de los dos factores, con los dos Opciones que conducen a
complejos conjugados. En un espacio vectorial real, este axioma establece la
Simetría del producto punto bajo intercambio de los dos vectores. Para el presente,
Notemos que este axioma asegura que ⟨𝑉|𝑉⟩ es real.
El segundo axioma dice que ⟨𝑉|𝑉 ⟩ no es solo real sino también semidefinito positivo.
desapareciendo solo si el vector en sí lo hace. Si vamos a definir la longitud de la
vector como la raíz cuadrada de su producto interno consigo mismo (como en el producto
punto) más vale que la cantidad sea real y positiva para todos los vectores distintos de cero.
El último axioma expresa la linealidad del producto interno cuando una superposición lineal
𝑎|Z > + 𝑏|W > =|aZ + bW > Aparece como el segundo vector en el producto escalar.
Hemos discutido su validez para el caso de las flechas (Fig. 1.2). ¿Qué pasa si el primer factor
en el producto es una superposición lineal, es decir, qué es? ⟨𝑎𝑊 + 𝑏𝑍|𝑉 ⟩? Esto está
determinado por el primer axioma:
que expresa la antilinealidad del producto interior con respecto al primer factor en el producto
interior. En otras palabras, el producto interior de una superposición lineal.
con otro vector es la correspondiente superposición de productos internos si la superposición
ocurre en el segundo factor, mientras que es la superposición con todos los coeficientes
conjugados. La superposición conjugada se produce en el primer factor. Esta asimetría,
desconocida. en espacios vectoriales reales, está aquí para quedarse y te acostumbrarás a medida
que avanzas. Continuemos con los productos interiores. A pesar de que estamos tratando de
ocultar la noción restringida de un vector como una flecha y la generación de un hechizo
correspondiente del producto punto, todavía utilizamos parte de la misma terminología.
Definición 8. Decimos que dos vectores son ortogonales o perpendiculares si El producto
interno se desvanece.
Definición 9. Nos referiremos a √⟨𝑉 |𝑉 ⟩ = |𝑉 | como la norma o longitud del vector.
Un vector normalizado tiene norma unitaria.
Definición 1O. Un conjunto de vectores de base por unidad de norma, que son pares
ortogonales, se denominará base ortonormal.
También nos referiremos con frecuencia al producto interno o escalar como el producto
de puntos. Ahora estamos listos para obtener una fórmula concreta para el producto
interno en términos de los componentes. Dado |V > y |W > .
Para ir más lejos, tenemos que saber ⟨𝑖|𝑗⟩, el producto interno entre los vectores de base.
Eso depende de los detalles de los vectores base y todo lo que sabemos con certeza es
que son linealmente independientes. Esta situación existe también para las flechas. Considerar
un problema bidimensional donde los vectores de base son dos linealmente independientes pero
Vectores no perpendiculares. Si escribimos todos los vectores en términos de esta base, el punto
producto de cualquiera de ellos dos será igualmente una suma doble con cuatro términos
(determinados por los cuatro productos de punto posibles entre los vectores de base) y el vector
componentes, Sin embargo, si utilizamos una base ortonormal tal como 𝑖, 𝑗 solo diagonal
⃗ = 𝐴𝑥 𝐵𝑥 + 𝐴𝑦 𝐵𝑦
términos como ⟨𝑖|𝑖⟩ sobrevivirán y obtendremos el resultado familiar. 𝐴. 𝐵
Dependiendo solo de los componentes.
Para el caso más general no de flecha, invocamos el teorema 3.
Teorema 3 (Gram-Schmidl). Dada una base linealmente independiente podemos formar
Combinaciones lineales de los vectores base para obtener una base ortonormal.
donde se encuentra 𝛿𝑖𝑗 el símbolo delta de Kronecker. Alimentando esto en la ec. (1.2.4)
encontramos la suma doble se derrumba a una sola debido al delta de Kronecker, para dar
(1.2.5)
Esta es la forma del producto interno que usaremos de ahora en adelante. Ahora puedes apreciar
el primer axioma; pero por la compleja conjugación de los componentes del primer vector,
⟨𝑉 |𝑉⟩sería real, no se menciona positivo. Pero ahora está dado por.
y desaparece solo para el vector nulo. Esto hace que sea sensato referirse a ⟨𝑉|𝑉⟩ como
la longitud o norma al cuadrado de un vector. Considere la ecuación (1.2.5). Dado que
el vector |V > está específicamente dado por sus componentes en una base global,
podemos, sobre esta base, escribirlo como un vector de columna:
en esta base.
Igualmente
El producto interno ⟨𝑉|𝑊 ⟩viene dado por el producto matriz del conjugado de
transposición. del vector de columna que representa |V > con el vector de columna
que representa |W >
Nos aseguramos de que los vectores de base se vean como deberían. Si configuramos |V > =
|j > en la ec. (1.3.5) encontramos la respuesta correcta: el componente i del vector de
base jth es 𝛿𝑖𝑗 Así, por ejemplo, la columna que representa el vector de base número 4
tendrá á 1 en La 4 fila y cero en cualquier otro lado. La relacion abstracta.
se convierte en esta base
operación adjunta
Hemos visto que podemos pasar de la columna que representa un ket a la
fila que representa el sujetador correspondiente mediante la operación adjunta, es decir,
transposición conjugación. Preguntemos ahora: si ⟨𝑉 | es el bra correspondiente al ket
|V > que bra corresponde al ket 𝑎|V > donde 𝑎 es un escalar. Al ir a cualquier base es
fácil encontrado que
Es habitual escribir 𝑎 |V > como |aV > y el bra correspondiente como un ⟨𝑎𝑉 | Qué
hemos encontrado es que.
Dado que la relación entre los bra y los kets es lineal, podemos decir que si tenemos una
ecuación entre los kets como.
Las dos ecuaciones anteriores se dice que son adjuntas de cada Otra. Del mismo
modo que cualquier ecuación que involucre números complejos Implemente otra
obtenida al tomar los conjugados complejos de ambos lados, una ecuación entre kets
(bras) implica otra bra entre kets (kets). Si piensa en una base, verá que esto se
deduce simplemente del hecho de que si dos columnas son iguales, también lo son
sus conjugados de transposición. Aquí está la regla para tomar el adjunto.
Para tomar el adjunto de una ecuación lineal que relaciona kets (bras), reemplaza cada
ket (bra) por su bra (ket) y el complejo conjugado de todos sus coeficientes.
Podemos extender esta regla de la siguiente manera. Supongamos que tenemos una
expansión para un vector.
Sea |I > , |II > , sea una base linealmente independiente. El primer vector de la base
ortonormal será.
Claramente.
que es |II > menos la parte que apunta a lo largo del primer vector unitario. (Piense
en el ejemplo de la flecha mientras lee) No es sorprendente que sea ortogonal a este
último:
Ahora dividimos|2´ > por su norma para obtener |2 > que serán ortogonales al primero y
Normalizado a la unidad. Finalmente, considere
que es ortogonal a ambos |1 > y |2 > . Dividiendo por su norma obtenemos |3 > el tercer
Miembro de la base ortogonal. No hay nada nuevo con la generación del resto de la base.
Ejercicio 1.3.1. Forme una base ortonormal en dos dimensiones comenzando con 𝐴 = 3𝑖 + 4𝑗
y 𝐵⃗ = 2𝑖 − 4𝑗¿Puedes generar otra base ortonormal a partir de estos vectores?
Si es asi, produce otro.
a la base ortonormal
Cuando aprendemos por primera vez sobre la dimensionalidad, la asociamos con el número de
Direcciones perpendiculares. En este capítulo lo definimos en términos del máximo.
Número de vectores linealmente independientes. El siguiente teorema conecta los dos
Definiciones.
Teorema 4. La dimensionalidad de un espacio es igual a 𝑛1 , el número máximo de
vectores mutuamente ortogonales en ella.
Para mostrar esto, primero tenga en cuenta que cualquier conjunto ortogonal mutuamente es
completamente independiente. Supongamos que tenemos una combinación lineal de vectores
ortogonales que se suma a cero. Al tomar el producto punto de ambos lados con cualquier
miembro y usar la ortogonalidad, podemos demostrar que el coeficiente que multiplica ese
vector tuvo que desaparecer. Esto se puede hacer claramente para todos los coeficientes,
mostrando que la combinación lineal es trivial.
Ahora 𝑛1 solo puede ser igual a, mayor que o menor que n, la dimensionalidad
del espacio. El procedimiento de Gram-Schmidt elimina el último caso por construcción
explícita, mientras que la independencia lineal de los vectores perpendiculares elimina la
Opción penúltima.
Schwarz y el triángulo
Dos poderosos teoremas se aplican a cualquier espacio interno del producto.
Obedeciendo nuestros axiomas:
Teorema 5. La desigualdad de Schwarz.
Se proporcionará la prueba de la primeraecuacion para que pueda acostumbrarse a trabajar con bra
y los kets. El segundo quedará como ejercicio.
Antes de probar algo, tenga en cuenta que los resultados son obviamente verdaderos para las
flechas: la desigualdad de Schwarz dice que el producto punto de dos vectores no puede
exceder el producto de sus longitudes y la desigualdad del triángulo dice que la longitud de una
suma No puede exceder la suma de las longitudes. Este es un ejemplo que ilustra los méritos.
de pensar en vectores abstractos como flechas y adivinar qué propiedades podrían Compartir
con flechas. Por supuesto, la prueba tendrá que basarse únicamente en los axiomas. Para
probar la desigualdad de Schwarz, considere el axioma ⟨𝑍|𝑍⟩ ≥ 0 aplicado a
Obtenemos.
donde hemos utilizado la antilinealidad del producto interior con respecto al bra.
Utilizando
encontramos
Ejercicio 1.3.3. ¿Cuándo será satisfecha esta igualdad? ¿Esto está de acuerdo con tu experiencia
con las flechas?
Ejercicio 1.3.4. probar la desigualdad del triángulo que comienza con |𝑉 + 𝑊|2Debes usar
𝑟𝑒(⟨𝑉|𝑊⟩) ≤ |⟨𝑉|𝑊⟩|y la desigualdad de Schwarz. Muestre que la desigualdad final se
convierte en una igualdad solo si |V > = 𝑎|W > . Donde a es un escalar positivo.
1.4. Subespacios
Definición ll. Dado un espacio vectorial 𝑉, un subconjunto de sus elementos que
forman un espacio vectorial entre sí se llama subespacio. Denotaremos en particular
subespacio 𝑖 de dimensionalidad 𝑛𝑖 por 𝑉 𝑛𝑖 𝑖 .
Ejemplo 1.4.1. En el espacio 𝑉(𝑅)3 los siguientes son algunos ejemplos de subespacios: (a)
todos los vectores a lo largo del eje x, el Espacio 𝑉𝑥 1 ; (b) todos los vectores a lo largo del eje y
, el espacio 𝑉𝑦 1 ; (c) todos los vectores en el plano x —y, el espacio 𝑉𝑥𝑦 2 . Observe que todos los
subespacios contienen el vector nulo y que cada vector está acompañado por su inverso para
cumplir los axiomas de un espacio vectorial. Así el conjunto de todos los vectores a lo largo de
la x positiva. El eje solo no forma un espacio vectorial.
Ejemplo 1.42.
1
Si, por ejemplo 𝑉𝑥 1 ⨁𝑉𝑌 Al contener solo vectores a lo largo de los ejes x e y, podríamos, al
agregar dos elementos, uno de cada dirección, generar uno a lo largo de ninguno de los dos.
Por otro lado, si también incluimos todas las combinaciones lineales, obtendríamos la
1 2
respuesta correcta, 𝑉𝑥 1 ⨁𝑉𝑌 = 𝑉𝑥𝑦
Ejercicio 1.4.2. Supongamos que 𝑉1 𝑛1 y 𝑉2 𝑛2 son dos subespacios tales que cualquier elemento
de 𝑉1 es ortogonal a cualquier elemento de 𝑉2 . Demuestre que la dimensionalidad de 𝑉1 + 𝑉2 es
𝑛1 + 𝑛2 . (Insinuación: Teorema 4.)
operadores lineales
Un operador Ω es una instrucción para transformar cualquier vector |V >,en otro, |𝑉, >,. La
acción del operador se representa de la siguiente manera.
Uno dice que el operador Ω ha transformado el ket |V >,en el ket |𝑉 , >, Restringiremos nuestra
atención a los operadores que no nos sacan del espacio vectorial, es decir, si |V >, es un
elemento de un espacio V, también lo es |𝑉 , > = Ω|V >, Los operadores también pueden
actuar con bras:
Solo nos ocuparemos de los operadores lineales, es decir, los que obedecen las
siguientes reglas.
1
1.3. Acción del operador 𝑅(2 𝜋𝑖). Tenga en cuenta que 𝑅(|2 > +|3 >) = 𝑅(|2 >) + 𝑅(|3 >) como se
1
espera de un operador lineal. (A menudo nos referiremos a 𝑅(2 𝜋𝑖) como R si no hay confusión).
Ejemplo 1.5. 1. El operador más simple es el operador de identidad, 𝐼, que lleva la instrucción:
Más generalmente, 𝑅(𝜃) representa una rotación de un ángulo de 𝜃 = |𝜃 |sobre el eje paralelo
̂𝜃
al vector unitario 𝜃 = |𝜃| Consideremos la acción de este operador en los tres los vectores
unitarios i, j y k, que en Nuestra notación se denotarán por 1 > , |2 >y |3 > Ver Fig. 1.3). De la
figura queda claro que.
1
claramente 𝑅(2 𝜋𝑖). es lineal .Por ejemplo, está claro de la misma figura que 𝑅(1 > ,
+|2 >) = 𝑅(1 >) + 𝑅(2 >).
La buena característica de los operadores lineales es que una vez que su acción en los
vectores base se conoce, se determina su acción sobre cualquier vector en el espacio. Si
por una base |1 >, |2 > ⋯ … … . . |𝑛 > en 𝑉 𝑛 entonces para cualquier 𝑉 > = ∑ 𝑣𝑖 |𝑖 >
1
Este es el caso en el ejemplo Ω = 𝑅(2 𝜋𝑖). Si
donde |ΩV > es el ket obtenido por la acción de Ω en |𝑉 >. El orden de los operadores
en un producto es muy importante: en general.
1 1
llamado el conmutador de Ω y Λ no es cero. Por ejemplo 𝑅( 𝜋𝑖). , y 𝑅( 𝜋𝑗). no
2 2
conmutan, es decir, su conmutador es distinto de cero.
Dos identidades útiles que involucran conmutadores son
Observe que, aparte del énfasis en el orden, estas reglas se asemejan a la regla de la cadena en el
cálculo para la derivada de un producto.
No todos los operadores tienen una inversa. La condición para la existencia de lo inverso es
1 1
dado en el apéndice A. 1. El operador 𝑅(2 𝜋𝑖) tiene un inverso: 𝑅(− 2 𝜋𝑖) .El inverso de un
producto de los operadores es el producto de los inversos al revés:
Se pueden realizar operaciones. Ahora podemos ver que, de la misma manera, un operador
lineal puede ser representado en una base por un conjunto de 𝑛2 números, Escrito como una
Matriz 𝑛 ∗ 𝑛 y llamado sus elementos de matriz en esa base. Aunque los elementos de la matriz,
al igual que los componentes vectoriales, son dependientes de la base, facilitan el cálculo de
todas las cantidades independientes de la base, al hacer que el operador abstracto sea más
tangible. Nuestro punto de partida es la observación realizada anteriormente, que la acción de un
operador lineal está completamente especificada por su acción en los vectores de base. Si los
vectores de base sufren un cambio.
(donde |𝑖 , >es conocido), entonces cualquier vector en este espacio sufre un cambio que es
fácilmente calculable.
Cuando decimos que |𝑖 , > es conocido, queremos decir que sus componentes en la base original
son conocidos. Los 𝑛2 Los números Ω𝑖𝑗 son los elementos de la matriz de Ω en esta base Si
entonces los componentes del ket |𝑉 , > transformado son expresables en términos del
Ω𝑖𝑗 y los componentes de |𝑉 >.
¿Cuál es su acción?