Sunteți pe pagina 1din 21

Matemática introducción

El objetivo de este libro es proporcionar una introducción a la mecánica cuántica, a partir de


sus axiomas. Es el objetivo de este capítulo para equiparte con la maquinaria matemática
necesaria. Todas las matemáticas se necesita se desarrollaron aquí, a partir de algunas ideas
básicas sobre vectores y matrices que se supone que sabe. Numerosos ejemplos y ejercicios
relacionados con la mecánica clásica arco dado, a brindar algo de alivio de las matemáticas
tanto para demostrar la gran aplicabilidad de las ideas desarrolladas aquí. El esfuerzo que
pones en este capítulo será bien vale la pena, no sólo le preparará para este curso, pero
también unificará muchas ideas que tenga Iearned fragmentaria. Para realmente aprender en
este capítulo, usted debe, como con cualquier otro capítulo, trabajar los problemas.
1.1. Linear Vector Spaces: Basics
En esta sección se introducirá a los espacios vectoriales lineales. Eres seguro
familiarizado con las flechas de la física elemental que codifica la magnitud y
dirección de la velocidad, fuerza. desplazamiento. esfuerzo de torsión. Sabes como
agregarlos
y multiplíquelos por escalares y las reglas obedecidas por estas operaciones. Por
ejemplo,
sabes que la multiplicación escalar es distributiva: el múltiplo de una suma de dos
vectores es la suma de los múltiplos. Lo que queremos hacer es abstraer de este sencillo.
contemple un conjunto de características básicas o axiomas, y diga que cualquier
conjunto de objetos que obedezcan al mismo
forma un espacio vectorial lineal. La inteligencia está en decidir cuál de las propiedades
Mantener en la generalización. Si conservas demasiados, no habrá otros ejemplos;
Si mantienes muy pocos, no habrá resultados interesantes para desarrollar a partir de los
axiomas.
La siguiente es la lista de propcrl.es que los matemáticos han elegido sabiamente como
Requisito para un espacio vectorial. Mientras los lees, por favor compáralos con el
mundo.
de las flechas y asegúrese de que estas son de hecho propiedades poseídas por estos
familiares
vectores Pero también hay que destacar claramente que los requisitos que cada
Los vectores tienen una magnitud y una dirección, que fue la primera y más
característica característica
perforado en nuestras cabezas cuando escuchamos por primera vez sobre ellos. Así que
podrías pensar que en
Eliminando este requisito, el bebé ha sido expulsado con el agua del baño.
Sin embargo, tendrá tiempo suficiente para apreciar la sabiduría detrás de la elección
como
usted va a lo largo y ve una gran unidad y síntesis de diversas idcas bajo el
Título de espacios vor. Verás ejemplos de espacios vectoriales que involucran
entidades.
que no puedes percibir intuitivamente que tenga una magnitud o una dirección.
Si bien debes estar debidamente impresionado con todo esto. recuerda que no duele en
todo para pensar en estas generalizaciones en términos de flechas y 10 usan la intuIción
para
Probar teoremas o al menos anticiparlos.

Definition ). 𝐴 espacio vectorial lineal 𝑉 es una colección de objetos


II >. I2 >. .. . , I V>... . , I W>...., Llaman vectores, para los que existen.
1. Una regla definida para formar la suma vectorial, denotada I V> + I W>
2. Una regla definida para la multiplicación por los escalares a, b,. . . ,denotada a ∗
l V >con el
siguientes características:

Hay una buena manera de recordar todo esto; hacer lo que viene naturalmente

Definition 2. Los números a, b, ... se llaman el campo sobre el cual el vector


se define el espacio

Si el campo consta de todos los números reales. Tenemos un espacio vectorial real, si
son
Complejo, tenemos un espacio vectorial complejo. Los vectores mismos no son ni
reales.
ni complejo El adjetivo se aplica solo a los escalares.
Notemos que los axiomas anteriores implican.

Se dejan las pruebas en cuanto al siguiente ejercicio. No tienes que saber las
pruebas, Pero tienes que saber las declaraciones.

Exercise 1.1.1. Verificar estas reclamaciones. Para la primera consideracion


I0 > +I0´ > y use las propiedades anunciadas de los dos vectores nulos a su vez
, Para el segundo comienzo con I0 > = (0 + 1)IV > +I − V >.
Para el tercero, comenzar con IV > +(−IV >) = 0IV > = I0 >. Por el último. Dejar
IW > también satisfacer.
lV > +IW > = IO >.Ya que lO > es único, esto significa lV > +lW > = lV >
+l— V >Tómalo desde aquí.

Figure. 1.1 La regla para la suma de vectores. Tenga en cuenta que obedece a los
axiomas.

(i) (iii)
Exercise 1.1.2. Considere el conjunto de todas las entidades de la forma (a, b, c) donde
las entradas son
números reales. La suma y la multiplicación escalar se definen como sigue :

Escribe el vector nulo y el inverso de (a, b, c). Demuestre que los vectores de la forma
(a. b, 1) hacen No se forma un espacio vectorial.

Observe que estamos usando un nuevo símbolo I V> para denotar un vector genérico.
Esta El objeto se llama ket V y esta nomenclatura se debe a Dirac, cuya notación será
discutido en cierta extensión más tarde. No utilizamos deliberadamente el símbolo V
para denotar el los vectores como el primer paso para el destete lejos del concepto
limitado del vector como una flecha. Sin embargo, no está impedido asociarse con I V>
la flecha objeto hasta que haya visto suficientes vectores que no sean flechas y estén
listos para soltar la muleta.

Se le solicitó que verifique que el conjunto de flechas califica como un espacio


vectorial como Lees los axiomas Aquí están algunas de las ideas clave que deberías
haber repasado.
⃗ y ⃗⃗⃗
El espacio vectorial consta de flechas. Las típicas son 𝑉 𝑉´. La regla para
la adición es familiar: tome la cola de la segunda flecha, colóquela en la punta de la
primera,y así sucesivamente como en la figura 1.1.
La multiplicación escalar por a corresponde al estiramiento del vector por un factor a.
Este es un espacio vectorial real ya que el estiramiento por un número complejo no tiene
sentido. (Si 𝑎 es negativo, lo interpretamos como un cambio en la dirección de la flecha
y un cambio de escala.es por | a |.) Dado que estas operaciones que actúan sobre flechas
dan más flechas, tenemos un cierre.
La suma y la multiplicación escalar tienen claramente todos los elementos asociativos y
distritales deseados.
rasgos butivos El vector nulo es la flecha de longitud cero. mientras que la inversa de un
vector es el vector invertido en dirección. Así que el conjunto de ’todas las flechas
califica como un espacio vectorial. Pero no podemos manipular eso. Por ejemplo, el
conjunto de todas las flechas con z-componentes positivos no forman un espacio
vectorial: no hay inverso.

Tenga en cuenta que hasta ahora, no se ha hecho referencia a la magnitud o dirección.


Los El punto es que mientras las flechas tienen estas cualidades, los miembros de un
espacio vectorial necesitan no Esta afirmación no tiene sentido a menos que pueda darte
ejemplos, así que aquí hay dos.Considere el conjunto de matrices aIl 2 X 2. Sabemos
cómo sumarlos y multiplicarlos.
ellos por escalar (multiplica los cuatro elementos de la matriz por ese escalar). El
correspondiente Las reglas obedecen al cierre. Asociatividad, y requisitos de
distribución. La matriz nula tiene todos los ceros en ella y la inversa bajo la adición de
una matriz es la matriz con todos los elementos negado Debe aceptar que aquí tenemos
un espacio vectorial genuino que consiste en cosas que no tienen una longitud o
dirección obvia asociadas con ellos. Cuando queremos resaltar el hecho de que la matriz
M ’es un elemento de un espacio vectorial, puede querer referirse a él como, digamos,
kett número 4 or: |4 >.
Como segundo ejemplo. considere todas las funciones 𝑓(𝑥) definidas en el intervalo 0 ≤ 𝑥 ≤
𝐿 definimos la multiplicación escalar por 𝑎 simplemente como 𝑎𝑓(𝑥) y la suma como la
suma puntual de 2 funciones 𝑓 y 𝑔 tiene el valor 𝑓(𝑥) + 𝑔(𝑥) en el punto x. La función nula
es cero en todas partes y el inverso aditivo de 𝑓 es −𝑓.
Exercise 1.1.3
hacer funciones que desaparecen en los puntos finales x = 0 y x = L. ¿Formar un espacio vectorial? ¿Qué
hay de las funciones periódicas que obedecen a f (0) = f (L)? ¿Qué hay de las funciones que obedecen f
(0) = 4? Si las funciones no califican, haga una lista de las cosas que salen mal.

el siguiente concepto es el de la independencia lineal de un conjunto de vectores |1 >, |2 >,…. |n >.


Primero consideremos una relación lineal de la forma.
𝑛

∑ 𝑎𝑖 |i > = |0 >
𝑖=1
Podemos suponer, sin pérdida de generalidad, que el lado izquierdo no contiene ningún múltiplo de|0 >
ya que si lo hiciera, podría desplazarse hacia la derecha y combinarse con el |0 > allí para dar |0 > una
vez más. (Estamos utilizando el hecho de que cualquier múltiple
de |0 > es igual a |0 >.)
Definición 3. Se dice que el conjunto de vectores es linealmente independiente si la única relación lineal
tal como la ec. (1. 1.1) es el trivial con todos 𝑎𝑖 = 0 Si el conjunto de vectores no es linealmente
independiente, decimos que son linealmente dependientes
La ecuación (1. 1.1) nos dice que no es posible escribir a ningún miembro de la
Conjunto linealmente independiente en términos de los Otros. Por otro lado, si el conjunto de
Los vectores son linealmente dependientes, tal relación existirá, y debe contener al menos
Dos coeficientes distintos de cero. Digamos 𝑎3 ≠ 0. Entonces podríamos escribir

𝑛
−𝑎𝑖
||3 > = ∑ |i >
𝑎3
𝑖=1,𝑖≠3

expresando así |3 > en términos de los demás.


Como ejemplo concreto, considere dos vectores no paralelos |1 > y |2 > en un plano.
Estos forman un conjunto linealmente independiente. No hay manera de escribir uno
como un múltiplo de el Otro, o equivalentemente, no hay forma de combinarlos para
obtener el vector nulo Sobre el Por otro lado, si los vectores son paralelos, podemos
escribir claramente uno como un múltiplo de la otro o jugarlos equivalentemente entre
sí para obtener 0.
Note que dije 0 y no|0 > Esto es, estrictamente hablando, incorrecto ya que un conjunto
de Los vectores solo pueden sumarse a un vector y no a un número. Sin embargo, es
común Representar el vector nulo por 0.
Supongamos que traemos un tercer vector|3 > también en el plano Si es paralelo a
cualquiera De los dos primeros, ya tenemos un conjunto linealmente dependiente. Entonces
supongamos que es porque. Pero incluso ahora los tres son linealmente dependientes.
Esto es porque podemos escribir uno de ellos, digamos |3 > como una combinación
lineal de los otros dos. Para encontrar la combinación, trace una línea desde la cola de
|3 > en la dirección de |1 > A continuación, dibuje una línea antiparalela a |2 > desde la
punta de |3 > estas líneas se intersecarán |1 > ya que y |2 > No son paralelos por
supuesto. El punto de intersección P determinará la cantidad de |1 > y |2 > queremos:
vamos desde la cola de |3 > a P usando el múltiplo apropiado de |1 > y vaya de P a la
punta de |3 > usando el múltiplo apropiado de |2 > .
Ejercicio 1. 1.4. Considere tres elementos del espacio vectorial de matrices reales de 2
x 2:

¿Son linealmente independientes? Apoya tu respuesta con detalles. (Aviso que estamos
llamando estos vectores matrices y el uso de kets para representarlos para enfatizar su
papel como elementos de un espacio vectorial)

Ejercicio 1.1.5. Muestre que los siguientes vectores de fila son linealmente
dependientes: (l, l, O),(1, O, l), y (3, 2, l). Muestra lo opuesto para (l, l, O), (l, O, l) y (O,
l, l).
Definición 4. Un espacio vectorial tiene dimensión n si puede acomodar un máximo
De n vectores linealmente independientes, se indicará por 𝑉 𝑛 (𝑅) si el campo es real y
por 𝑉 𝑛 (𝐶) si el campo es complejo.

En vista de las discusiones anteriores, el plano es bidimensional y el conjunto de Todas


las flechas no limitadas al plano definen un espacio vectorial tridimensional. Cómo
alrededor de 2 *2 matrices? Forman un espacio vectorial de cuatro dimensiones. Aquí
hay una prueba. Los siguientes son linealmente independientes:

ya que es imposible formar combinaciones lineales de cualquiera de los tres


para dar al cuarto cualquiera de los tres tendrá un cero en el lugar donde el
cuarto no lo tiene. Así que el espacio es al menos cuatridimensional. ¿Podría ser
más grande? No, ya que cualquier La matriz arbitraria de 2 x 2 se puede escribir en
términos de ellos;

Si los escalares a, b, c, d son reales, tenemos un espacio real de cuatro dimensiones, si


son complejos es un espacio complejo de cuatro dimensiones.
teorema l, cualquier vector |V > en un espacio n-dimensional puede escribirse como
una lineal Combinación de n vectores linealmente independientes |1 > … . |n > .

La prueba es la siguiente: si hubiera un vector |V > para el cual esto no fue posible, se
uniría al conjunto dado de vectores y formaría un conjunto de n + l linealmente
Vectores independientes, lo que no es posible en un espacio n-dimensional por
definición.

Definición 5, un conjunto de n vectores linealmente independientes en un espacio n-


dimensional Se llama una base.
Así podemos escribir, sobre la fuerza de lo anterior.
𝑛

|V > = ∑ 𝑣𝑖 |i >
𝑖=1
donde los vectores |i > forman una base.
Definición 6. Los coeficientes de expansión v, de un vector en términos de una base
lineal independiente |i > se denominan los componentes del vector en esa base.

Teorema 2. La expansión en la ec. (1.1.3) es única.


Supongamos que la expansión no es única. Entonces debemos tener una segunda
expansión:
𝑛

|V > = ∑ 𝑣𝑖 ´, |i >
𝑖=1

Restando ec. (1. 1.4) de la ec. (1.1.3) (es decir, multiplicando el segundo por el
escalar -1 y sumando las dos ecuaciones) obtenemos.

|0 > = ∑(𝑣𝑖 − 𝑣𝑖 ´, )|i >


𝑖=1

lo que implica que.


𝑣𝑖 − 𝑣𝑖 ´

ya que los vectores de base son linealmente independientes y solo una relación lineal trivial
entre ellos puede existir. Tenga en cuenta que los componentes son únicos, pero si
Cambiamos la base, los componentes cambiarán. Nos referimos a |V > como el vector en
El resumen, que tiene una existencia propia y satisface diversas relaciones que involucran
Otros vectores. Cuando elegimos una base, los vectores asumen formas concretas en términos
de sus componentes y la relación entre vectores es satisfecha por los componentes.
⃗ ,𝐵
Imagina, por ejemplo, tres flechas en el plano 𝐴 ⃗ ,𝐶 ⃗ = 𝐶 según
⃗ que satisfacen 𝐴 + 𝐵
A las leyes para agregar flechas. Hasta ahora no se ha elegido ninguna base y no necesitamos
una base para hacer la declaración de que los vectores de un triángulo cerrado. Ahora nosotros
elegimos Una base y escribimos cada vector en términos de los componentes. Los componentes
satisfarán 𝐶𝑖 = 𝐴𝑖 + 𝐵𝑖 𝑖 = 1,2,3 … Si elegimos una base diferente, los componentes cambiarán
en valor numérico, pero la relación entre ellos expresando la igualdad de ⃗𝐶 a la suma de los
Otros dos se mantendrá entre el nuevo conjunto de componentes.

En el caso de vectores no estrechos. Añadiéndolos en términos de componentes procede como


en el caso elemental gracias a los axiomas. Si

|V > = ∑𝑛𝑖=1 𝑣𝑖 |i > y

|W > = ∑𝑛𝑖=1 𝑤𝑖 |i > entonces

|V > + |W > = ∑(𝑣𝑖 + 𝑤𝑖 )|i >


𝑖=1
Donde hemos utilizado los axiomas para realizar el reagrupamiento de términos. Aquí
está el conclusión.
Para agregar dos vectores, agrega sus componentes. No hay referencia a tomar la
cola de una y ponerla en la punta de la cola. Otros, etc., ya que en general los
vectores no tienen cabeza ni cola. Claro que si estamos Si tratamos con flechas,
podemos agregarlas usando la rutina de cola y punta o por simplemente añadiendo
sus componentes en una base.
De la misma manera, tenemos:
𝑛 𝑛

𝑎|V > = 𝑎 ∑ 𝑣𝑖 |i > = ∑ 𝑎𝑣𝑖 |i >


𝑖=1 𝑖=1

en otras palabras.
para multiplicar un vector por un escalar, multiplica todos sus componentes por los escalares.

1.2. productos internos de espacios.


La matriz y los ejemplos de funciones deben haberlo convencido de que podemos tener
un espacio vectorial sin una definición preasignada de longitud o dirección para los elementos.
Sin embargo, podemos hacer cantidades que tengan las mismas propiedades que las longitudes
Y los ángulos lo hacen en el caso de las flechas. El primer paso es definir un análogo sensible
de el producto punto, para el caso de las flechas, del producto punto.
⃗ = |𝐴||𝐵|𝑐𝑜𝑠∅
𝐴. 𝐵

podemos leer la longitud de ⃗𝐴 como √|𝐴|. |𝐴| y el coseno del ángulo entre 2 vectores
⃗⃗⃗ 𝐵
𝐴. ⃗ /|𝐴|. |𝐵| Ahora bien, puedes objetar; ¿Cómo puedes usar el punto? producto para definir la
longitud y los ángulos, si el producto punto requiere conocimiento de ¿Las longitudes y los
ángulos? La respuesta es la siguiente. Recordemos que el producto punto tiene un segundo.

Figura 1.2. Prueba geométrica de que el producto de punto obedece al axioma (3) Para
un producto interior. El axioma requiere que las proyecciones 𝒑𝒋 + 𝒑𝒌 = 𝒑𝒋𝒌
Expresión equivalente en términos de los componentes:

Nuestro objetivo es definir una fórmula similar para el caso general donde tenemos la
Noción de componentes en una base. Para ello recordamos las principales
características de las anteriores. producto puntual
La linealidad del producto punto se ilustra en la Fig. 1.2.
Queremos inventar una generalización llamada producto interno o producto escalar.
entre cualquiera de los dos vectores |V > 𝑦 |W > Lo denotamos por el símbolo ⟨𝑉 |𝑊⟩ es
una vez más un número (complejo en general) dependiente de los dos vectores. Nosotros
demandamos que obedezca los siguientes axiomas

Definición 7. Un espacio vectorial con un producto interno se denomina espacio interno del
producto.
Tenga en cuenta que aún no hemos dado una regla explícita para evaluar realmente el
producto escalar, simplemente estamos exigiendo que cualquier regla que se nos presente debe
tener estas propiedades Con el fin de encontrar dicha regla, permítanos familiarizarnos con
Los axiomas. El primero difiere del correspondiente al producto puntual y hace que el producto
interno sea sensible al orden de los dos factores, con los dos Opciones que conducen a
complejos conjugados. En un espacio vectorial real, este axioma establece la
Simetría del producto punto bajo intercambio de los dos vectores. Para el presente,
Notemos que este axioma asegura que ⟨𝑉|𝑉⟩ es real.
El segundo axioma dice que ⟨𝑉|𝑉 ⟩ no es solo real sino también semidefinito positivo.
desapareciendo solo si el vector en sí lo hace. Si vamos a definir la longitud de la
vector como la raíz cuadrada de su producto interno consigo mismo (como en el producto
punto) más vale que la cantidad sea real y positiva para todos los vectores distintos de cero.

El último axioma expresa la linealidad del producto interno cuando una superposición lineal
𝑎|Z > + 𝑏|W > =|aZ + bW > Aparece como el segundo vector en el producto escalar.
Hemos discutido su validez para el caso de las flechas (Fig. 1.2). ¿Qué pasa si el primer factor
en el producto es una superposición lineal, es decir, qué es? ⟨𝑎𝑊 + 𝑏𝑍|𝑉 ⟩? Esto está
determinado por el primer axioma:

que expresa la antilinealidad del producto interior con respecto al primer factor en el producto
interior. En otras palabras, el producto interior de una superposición lineal.
con otro vector es la correspondiente superposición de productos internos si la superposición
ocurre en el segundo factor, mientras que es la superposición con todos los coeficientes
conjugados. La superposición conjugada se produce en el primer factor. Esta asimetría,
desconocida. en espacios vectoriales reales, está aquí para quedarse y te acostumbrarás a medida
que avanzas. Continuemos con los productos interiores. A pesar de que estamos tratando de
ocultar la noción restringida de un vector como una flecha y la generación de un hechizo
correspondiente del producto punto, todavía utilizamos parte de la misma terminología.
Definición 8. Decimos que dos vectores son ortogonales o perpendiculares si El producto
interno se desvanece.
Definición 9. Nos referiremos a √⟨𝑉 |𝑉 ⟩ = |𝑉 | como la norma o longitud del vector.
Un vector normalizado tiene norma unitaria.
Definición 1O. Un conjunto de vectores de base por unidad de norma, que son pares
ortogonales, se denominará base ortonormal.

También nos referiremos con frecuencia al producto interno o escalar como el producto
de puntos. Ahora estamos listos para obtener una fórmula concreta para el producto
interno en términos de los componentes. Dado |V > y |W > .

Seguimos los axiomas obedecidos por el producto interior para obtener:

Para ir más lejos, tenemos que saber ⟨𝑖|𝑗⟩, el producto interno entre los vectores de base.
Eso depende de los detalles de los vectores base y todo lo que sabemos con certeza es
que son linealmente independientes. Esta situación existe también para las flechas. Considerar
un problema bidimensional donde los vectores de base son dos linealmente independientes pero
Vectores no perpendiculares. Si escribimos todos los vectores en términos de esta base, el punto
producto de cualquiera de ellos dos será igualmente una suma doble con cuatro términos
(determinados por los cuatro productos de punto posibles entre los vectores de base) y el vector
componentes, Sin embargo, si utilizamos una base ortonormal tal como 𝑖, 𝑗 solo diagonal
⃗ = 𝐴𝑥 𝐵𝑥 + 𝐴𝑦 𝐵𝑦
términos como ⟨𝑖|𝑖⟩ sobrevivirán y obtendremos el resultado familiar. 𝐴. 𝐵
Dependiendo solo de los componentes.
Para el caso más general no de flecha, invocamos el teorema 3.
Teorema 3 (Gram-Schmidl). Dada una base linealmente independiente podemos formar
Combinaciones lineales de los vectores base para obtener una base ortonormal.

Al posponer la prueba por un momento, asumimos que el procedimiento ha sido implementado


y que la base actual es ortonormal:

donde se encuentra 𝛿𝑖𝑗 el símbolo delta de Kronecker. Alimentando esto en la ec. (1.2.4)
encontramos la suma doble se derrumba a una sola debido al delta de Kronecker, para dar
(1.2.5)

Esta es la forma del producto interno que usaremos de ahora en adelante. Ahora puedes apreciar
el primer axioma; pero por la compleja conjugación de los componentes del primer vector,
⟨𝑉 |𝑉⟩sería real, no se menciona positivo. Pero ahora está dado por.

y desaparece solo para el vector nulo. Esto hace que sea sensato referirse a ⟨𝑉|𝑉⟩ como
la longitud o norma al cuadrado de un vector. Considere la ecuación (1.2.5). Dado que
el vector |V > está específicamente dado por sus componentes en una base global,
podemos, sobre esta base, escribirlo como un vector de columna:

en esta base.
Igualmente

El producto interno ⟨𝑉|𝑊 ⟩viene dado por el producto matriz del conjugado de
transposición. del vector de columna que representa |V > con el vector de columna
que representa |W >

Espacio dual y la notación de Dirac.


Hay un punto técnico aquí.
El producto interno es un número que intentamos generar a partir de dos kets |V >
y|W > , que están representados por vectores de columna de alguna manera. Ahora no
hay manera de hacer un número de dos columnas mediante la multiplicación directa de
matrices, pero hay una manera de hacer un número mediante la multiplicación matricial
de una fila por una columna. Nuestro truco para producir un número de dos columnas
ha sido asociar un vector de fila único con una columna (su conjugado de transposición)
y formar su producto matriz con la columna que representa a la otra. Esto tiene la
característica de que la respuesta depende de cuál de los dos vectores vamos a convertir
a la fila, las dos opciones⟨𝑉|𝑊 ⟩ y ⟨𝑊 |𝑉 ⟩ que conducen a respuestas relacionadas por
conjugación compleja.
Pero también se puede tomar la siguiente vista alternativa. Los vectores de columna son
concretos. Manifestaciones de un vector abstracto |V > o ket en una base. También
podemos trabajar hacia atrás y pasar de los vectores de columna a los kets abstractos.
Pero entonces es similar es posible trabajar hacia atrás y asociar con cada vector de fila
un objeto abstracto,⟨𝑉 | llamado bra- W. Ahora podemos nombrar los sujetadores como
queramos, pero permítanos hacer lo siguiente. Asociarse a cada ket |V > es un vector
de columna. Tomemos su adjunto, o transponemos y conjugamos y formamos un vector
de fila. El sostén abstracto asociado con este llevará la misma etiqueta, es decir, se
llamará ⟨𝑉 | Por lo tanto, hay dos espacios vectoriales, el espacio de los kets y un
espacio dual de sujetadores, con un ket para cada sujetador y viceversa (los
componentes están relacionados por la operación adjunta). Los productos internos están
realmente definidos. solo entre sujetadores y kets y, por lo tanto, de elementos de dos
espacios distintos de vectores, pero relacionados. Hay una base de vectores |i > Para
ampliar kets y bases similares ⟨𝑖 | para la expansión de sujetadores. La base ket |i > Está
representado en la base que estamos utilizando por un vector de columna con todos los
ceros excepto un 1 en la fila i, mientras que el sostén base ⟨𝑖 | es un vector de fila con
todos los ceros excepto un 1 en la columna i.
Todo esto puede resumirse como sigue:

donde <---> significa "dentro de una base".


Sin embargo, no hay nada malo con el primer punto de vista de asociar un escalar
producto con un par de columnas o kets (sin hacer referencia a otro espacio dual)
y viviendo con la asimetría entre el primer y el segundo vector en el interior
Producto (¿cuál de ellos para transponer conjugado?). Si encuentra que el debate
anterior es pesado, puede ignorarlo temporalmente. Lo único que debes recordar es
que en el caso de un espacio vectorial no estrecho general:
• Los vectores todavía pueden asignarse componentes en alguna base ortonormal, al
igual que con flechas, pero estas pueden ser complejas
• El producto interno de cualquiera de los dos vectores se da en términos de estos
Ec. 0.2.5). Este producto obedece a todos los axiomas.
Expansión de vectores en una base ortonormal.
Supongamos que deseamos expandir un vector |V > en una base ortonormal. Para
encontrar los componentes que entran en la expansión procedemos de la siguiente
manera. Tomamos el producto punto De ambos lados de la expansión asumida con
|j >∶ o ⟨𝑗| si eres un purista).

i.c., para encontrar el componente jth de un vector, tomamos el producto punto


con la unidad jth Vector, exactamente como con las flechas. Usando este
resultado podemos escribir.

Nos aseguramos de que los vectores de base se vean como deberían. Si configuramos |V > =
|j > en la ec. (1.3.5) encontramos la respuesta correcta: el componente i del vector de
base jth es 𝛿𝑖𝑗 Así, por ejemplo, la columna que representa el vector de base número 4
tendrá á 1 en La 4 fila y cero en cualquier otro lado. La relacion abstracta.
se convierte en esta base

operación adjunta
Hemos visto que podemos pasar de la columna que representa un ket a la
fila que representa el sujetador correspondiente mediante la operación adjunta, es decir,
transposición conjugación. Preguntemos ahora: si ⟨𝑉 | es el bra correspondiente al ket
|V > que bra corresponde al ket 𝑎|V > donde 𝑎 es un escalar. Al ir a cualquier base es
fácil encontrado que

Es habitual escribir 𝑎 |V > como |aV > y el bra correspondiente como un ⟨𝑎𝑉 | Qué
hemos encontrado es que.

Dado que la relación entre los bra y los kets es lineal, podemos decir que si tenemos una
ecuación entre los kets como.

esto implica otra entre los bra correspondientes:

Las dos ecuaciones anteriores se dice que son adjuntas de cada Otra. Del mismo
modo que cualquier ecuación que involucre números complejos Implemente otra
obtenida al tomar los conjugados complejos de ambos lados, una ecuación entre kets
(bras) implica otra bra entre kets (kets). Si piensa en una base, verá que esto se
deduce simplemente del hecho de que si dos columnas son iguales, también lo son
sus conjugados de transposición. Aquí está la regla para tomar el adjunto.
Para tomar el adjunto de una ecuación lineal que relaciona kets (bras), reemplaza cada
ket (bra) por su bra (ket) y el complejo conjugado de todos sus coeficientes.
Podemos extender esta regla de la siguiente manera. Supongamos que tenemos una
expansión para un vector.

En términos de vectores base. El adjunto es


Recordando que 𝑣𝑖 = ⟨𝑖 |𝑉⟩ y 𝑣𝑖 ∗ = ⟨𝑉 |𝑖 ⟩, se deduce que el adjunto de.

de donde viene la regla.


Para tomar el adjunto de una ecuación que involucra bras y kets y coeficientes, invierta
el orden de todos los factores, intercambiando bras y kets y conjugando complejos
Todos los coeficientes.
Gram—Schmidt Tieorem
Retomemos ahora el procedimiento Gram-Schmidt para convertir una base linealmente
independiente en una ortonormal. La idea básica se puede ver con un simple ejemplo.
Imagina el espacio bidimensional de flechas en un plano. Nos tomamos dos vectores no
paralelos. Que califican como base. A una base ortonormal a partir de Estos, hacemos lo
siguiente:
• Vuelva a escalar el primero por su propia longitud, de modo que se convierta en un
vector unitario. Este será el primer vector base
• Reste del segundo vector su proyección a lo largo del primero, dejando solo la parte
perpendicular a la primera. (Dicha parte permanecerá ya que, suponiendo que los
vectores no son paralelos).
• Vuelva a escalar la pieza sobrante por su propia longitud. Ahora tenemos el segundo
vector base: es ortogonal al primero y de longitud unitaria.
Este sencillo ejemplo tensa toda la historia detrás de este procedimiento, que ahora se
analizará en términos generales en la notación de Dirac.

Sea |I > , |II > , sea una base linealmente independiente. El primer vector de la base
ortonormal será.

Claramente.

En cuanto al segundo vector en la base, consideremos

que es |II > menos la parte que apunta a lo largo del primer vector unitario. (Piense
en el ejemplo de la flecha mientras lee) No es sorprendente que sea ortogonal a este
último:

Ahora dividimos|2´ > por su norma para obtener |2 > que serán ortogonales al primero y
Normalizado a la unidad. Finalmente, considere
que es ortogonal a ambos |1 > y |2 > . Dividiendo por su norma obtenemos |3 > el tercer
Miembro de la base ortogonal. No hay nada nuevo con la generación del resto de la base.

¿De dónde sacamos la independencia lineal de la base original? ¿Y si hubieramos


comenzó con una base linealmente dependiente 'Entonces, en algún punto, un vector como
|2´ > O |3´ > habría desaparecido, poniendo fin a todo el procedimiento. Por otra parte,
independencia lineal nos asegurará que tal cosa nunca sucederá ya que asciende
a tener una combinación lineal no trivial de vectores linealmente independientes que agrega
hasta el vector nulo. (Regrese a las ecuaciones para|2´ > o| 3´ > y satisfágase.
que estos son combinaciones lineales de los vectores base antiguos.

Ejercicio 1.3.1. Forme una base ortonormal en dos dimensiones comenzando con 𝐴 = 3𝑖 + 4𝑗
y 𝐵⃗ = 2𝑖 − 4𝑗¿Puedes generar otra base ortonormal a partir de estos vectores?
Si es asi, produce otro.

Ejercicio 1.3.2 Mostrar cómo ir desde la base.

a la base ortonormal

Cuando aprendemos por primera vez sobre la dimensionalidad, la asociamos con el número de
Direcciones perpendiculares. En este capítulo lo definimos en términos del máximo.
Número de vectores linealmente independientes. El siguiente teorema conecta los dos
Definiciones.
Teorema 4. La dimensionalidad de un espacio es igual a 𝑛1 , el número máximo de
vectores mutuamente ortogonales en ella.

Para mostrar esto, primero tenga en cuenta que cualquier conjunto ortogonal mutuamente es
completamente independiente. Supongamos que tenemos una combinación lineal de vectores
ortogonales que se suma a cero. Al tomar el producto punto de ambos lados con cualquier
miembro y usar la ortogonalidad, podemos demostrar que el coeficiente que multiplica ese
vector tuvo que desaparecer. Esto se puede hacer claramente para todos los coeficientes,
mostrando que la combinación lineal es trivial.
Ahora 𝑛1 solo puede ser igual a, mayor que o menor que n, la dimensionalidad
del espacio. El procedimiento de Gram-Schmidt elimina el último caso por construcción
explícita, mientras que la independencia lineal de los vectores perpendiculares elimina la
Opción penúltima.
Schwarz y el triángulo
Dos poderosos teoremas se aplican a cualquier espacio interno del producto.
Obedeciendo nuestros axiomas:
Teorema 5. La desigualdad de Schwarz.

Se proporcionará la prueba de la primeraecuacion para que pueda acostumbrarse a trabajar con bra
y los kets. El segundo quedará como ejercicio.

Antes de probar algo, tenga en cuenta que los resultados son obviamente verdaderos para las
flechas: la desigualdad de Schwarz dice que el producto punto de dos vectores no puede
exceder el producto de sus longitudes y la desigualdad del triángulo dice que la longitud de una
suma No puede exceder la suma de las longitudes. Este es un ejemplo que ilustra los méritos.
de pensar en vectores abstractos como flechas y adivinar qué propiedades podrían Compartir
con flechas. Por supuesto, la prueba tendrá que basarse únicamente en los axiomas. Para
probar la desigualdad de Schwarz, considere el axioma ⟨𝑍|𝑍⟩ ≥ 0 aplicado a

Obtenemos.

donde hemos utilizado la antilinealidad del producto interior con respecto al bra.
Utilizando

encontramos

Multiplicando cruzadamente por |𝑊 |2y tomando raíces cuadradas, el resultado sigue.

Ejercicio 1.3.3. ¿Cuándo será satisfecha esta igualdad? ¿Esto está de acuerdo con tu experiencia
con las flechas?
Ejercicio 1.3.4. probar la desigualdad del triángulo que comienza con |𝑉 + 𝑊|2Debes usar
𝑟𝑒(⟨𝑉|𝑊⟩) ≤ |⟨𝑉|𝑊⟩|y la desigualdad de Schwarz. Muestre que la desigualdad final se
convierte en una igualdad solo si |V > = 𝑎|W > . Donde a es un escalar positivo.

1.4. Subespacios
Definición ll. Dado un espacio vectorial 𝑉, un subconjunto de sus elementos que
forman un espacio vectorial entre sí se llama subespacio. Denotaremos en particular
subespacio 𝑖 de dimensionalidad 𝑛𝑖 por 𝑉 𝑛𝑖 𝑖 .

la suma de vectores y la multiplicación escalar se definen de la misma manera en el subespacio que en V.

Ejemplo 1.4.1. En el espacio 𝑉(𝑅)3 los siguientes son algunos ejemplos de subespacios: (a)
todos los vectores a lo largo del eje x, el Espacio 𝑉𝑥 1 ; (b) todos los vectores a lo largo del eje y
, el espacio 𝑉𝑦 1 ; (c) todos los vectores en el plano x —y, el espacio 𝑉𝑥𝑦 2 . Observe que todos los
subespacios contienen el vector nulo y que cada vector está acompañado por su inverso para
cumplir los axiomas de un espacio vectorial. Así el conjunto de todos los vectores a lo largo de
la x positiva. El eje solo no forma un espacio vectorial.

Definición 12. ¿Dados dos subespacios 𝑉𝑖 𝑛𝑖 y 𝑉𝐽 𝑚𝑗 , definimos su suma 𝑉𝑖 𝑛𝑖 ⨁𝑉𝐽 𝑚𝑗 =


𝑉𝑘 𝑚𝑘 como el conjunto que contiene (1) todos los elementos de 𝑉𝑖 𝑛𝑖 ,(2) todos los elementos de
𝑉𝐽 𝑚𝑗 (3) todas las posibles combinaciones lineales de las anteriores. Pero para los elementos (3),
el cierre se perdería.

Ejemplo 1.42.
1
Si, por ejemplo 𝑉𝑥 1 ⨁𝑉𝑌 Al contener solo vectores a lo largo de los ejes x e y, podríamos, al
agregar dos elementos, uno de cada dirección, generar uno a lo largo de ninguno de los dos.
Por otro lado, si también incluimos todas las combinaciones lineales, obtendríamos la
1 2
respuesta correcta, 𝑉𝑥 1 ⨁𝑉𝑌 = 𝑉𝑥𝑦

Ejercicio 1.4.1. • En un espacio 𝑉 𝑛 , compruebe que el conjunto de todos los vectores


( |𝑉⊥1 >,|𝑉⊥ 2 >, … … … . .) ortogonal a cualquier |V >≠ |0 >,, O), forma un subespacio 𝑉 𝑛−1

Ejercicio 1.4.2. Supongamos que 𝑉1 𝑛1 y 𝑉2 𝑛2 son dos subespacios tales que cualquier elemento
de 𝑉1 es ortogonal a cualquier elemento de 𝑉2 . Demuestre que la dimensionalidad de 𝑉1 + 𝑉2 es
𝑛1 + 𝑛2 . (Insinuación: Teorema 4.)
operadores lineales
Un operador Ω es una instrucción para transformar cualquier vector |V >,en otro, |𝑉, >,. La
acción del operador se representa de la siguiente manera.

Uno dice que el operador Ω ha transformado el ket |V >,en el ket |𝑉 , >, Restringiremos nuestra
atención a los operadores que no nos sacan del espacio vectorial, es decir, si |V >, es un
elemento de un espacio V, también lo es |𝑉 , > = Ω|V >, Los operadores también pueden
actuar con bras:

Solo nos ocuparemos de los operadores lineales, es decir, los que obedecen las
siguientes reglas.
1
1.3. Acción del operador 𝑅(2 𝜋𝑖). Tenga en cuenta que 𝑅(|2 > +|3 >) = 𝑅(|2 >) + 𝑅(|3 >) como se
1
espera de un operador lineal. (A menudo nos referiremos a 𝑅(2 𝜋𝑖) como R si no hay confusión).

Ejemplo 1.5. 1. El operador más simple es el operador de identidad, 𝐼, que lleva la instrucción:

𝑰 →¡Deja el vector solo!


Asi

A continuación, pasamos a un operador más interesante en 𝑉(𝑅)3


1 1
𝑅(2 𝜋𝑖)Girar vector por 2 𝜋 sobre el vector unitario i

Más generalmente, 𝑅(𝜃) representa una rotación de un ángulo de 𝜃 = |𝜃 |sobre el eje paralelo
̂𝜃
al vector unitario 𝜃 = |𝜃| Consideremos la acción de este operador en los tres los vectores
unitarios i, j y k, que en Nuestra notación se denotarán por 1 > , |2 >y |3 > Ver Fig. 1.3). De la
figura queda claro que.

1
claramente 𝑅(2 𝜋𝑖). es lineal .Por ejemplo, está claro de la misma figura que 𝑅(1 > ,
+|2 >) = 𝑅(1 >) + 𝑅(2 >).
La buena característica de los operadores lineales es que una vez que su acción en los
vectores base se conoce, se determina su acción sobre cualquier vector en el espacio. Si

por una base |1 >, |2 > ⋯ … … . . |𝑛 > en 𝑉 𝑛 entonces para cualquier 𝑉 > = ∑ 𝑣𝑖 |𝑖 >
1
Este es el caso en el ejemplo Ω = 𝑅(2 𝜋𝑖). Si

es cualquier vector entonces

El producto de dos operadores representa la instrucción de que la instrucción


correspondiente a los dos operadores se lleve a cabo en secuencia.

donde |ΩV > es el ket obtenido por la acción de Ω en |𝑉 >. El orden de los operadores
en un producto es muy importante: en general.

1 1
llamado el conmutador de Ω y Λ no es cero. Por ejemplo 𝑅( 𝜋𝑖). , y 𝑅( 𝜋𝑗). no
2 2
conmutan, es decir, su conmutador es distinto de cero.
Dos identidades útiles que involucran conmutadores son

Observe que, aparte del énfasis en el orden, estas reglas se asemejan a la regla de la cadena en el
cálculo para la derivada de un producto.

El inverso de Ω, denotado por Ω−1 , satisface.

No todos los operadores tienen una inversa. La condición para la existencia de lo inverso es
1 1
dado en el apéndice A. 1. El operador 𝑅(2 𝜋𝑖) tiene un inverso: 𝑅(− 2 𝜋𝑖) .El inverso de un
producto de los operadores es el producto de los inversos al revés:

solo entonces tenemos.

1.6. Elementos matriciales de operadores lineales.


Ahora estamos acostumbrados a la idea de un vector abstracto representado en una
base por una n-tupla de números, llamada sus componentes, en términos de los
cuales todo vector.
(En 𝑉(𝐶)𝑛 Con n finito,ΩΩ−1 = 𝐼. Demuestre esto usando las ideas introducidas hacia el final de Teorema A .1.1
Apéndice A.l.

Se pueden realizar operaciones. Ahora podemos ver que, de la misma manera, un operador
lineal puede ser representado en una base por un conjunto de 𝑛2 números, Escrito como una
Matriz 𝑛 ∗ 𝑛 y llamado sus elementos de matriz en esa base. Aunque los elementos de la matriz,
al igual que los componentes vectoriales, son dependientes de la base, facilitan el cálculo de
todas las cantidades independientes de la base, al hacer que el operador abstracto sea más
tangible. Nuestro punto de partida es la observación realizada anteriormente, que la acción de un
operador lineal está completamente especificada por su acción en los vectores de base. Si los
vectores de base sufren un cambio.
(donde |𝑖 , >es conocido), entonces cualquier vector en este espacio sufre un cambio que es
fácilmente calculable.

Cuando decimos que |𝑖 , > es conocido, queremos decir que sus componentes en la base original

son conocidos. Los 𝑛2 Los números Ω𝑖𝑗 son los elementos de la matriz de Ω en esta base Si

entonces los componentes del ket |𝑉 , > transformado son expresables en términos del
Ω𝑖𝑗 y los componentes de |𝑉 >.

La ecuación (1.6.2) se puede convertir en forma de matriz:

Un mnemotécnico: los elementos de la primera columna son simplemente los


componentes del vector de base transformada |1, > = Ω|1 > en la base dada.
Asimismo, los elementos de la columna j representa la imagen del vector de base jth
después de que Ω actúa sobre ella.
Convéncete a ti mismo que la misma matriz Ω𝑖𝑗 que actúa a la izquierda en el vector de la fila
correspondiente a cualquiera < 𝑉 , | da el vector de la fila correspondiente a< 𝑉 ,, | =< 𝑉 , | Ω.
1
Ejemplo 1.6. l Combinando nuestro mnemotécnico con el hecho de que el operador 𝑅( 𝜋𝑖)
2
tiene el siguiente efecto en los vectores de base:

podemos anotar la matriz que la representa en la base |1 >, |2 >, |3 >


Por ejemplo, el -1 en la tercera columna nos dice que R gira |3 > a −|2 >También
puede ignorar la mnemotécnica y simplemente usar la definición 𝑅𝑖𝑗 = ⟨𝑖|𝑅|𝑗⟩ para
calcular la matriz.
Ejercicio 1.6.1. Un operador Ω viene dado por la matriz.

¿Cuál es su acción?

S-ar putea să vă placă și