Los espacios vectoriales con producto interior, también conocidos como espacios con producto escalar, son fundamentales en álgebra lineal y tienen aplicaciones en diversas áreas como la física, la ingeniería y las ciencias computacionales. A continuación se presenta una explicación detallada de los conceptos clave en este tema.
11.1 Definición y propiedades de un espacio con producto interior
Un espacio vectorial con producto interior es un espacio vectorial $V$ sobre un campo $K$ (generalmente los números reales $\mathbb{R}$ o los complejos $\mathbb{C}$) dotado de una operación adicional llamada producto interior. El producto interior es una función $\langle \cdot, \cdot \rangle: V \times V \to K$ que asigna a cada par de vectores $\mathbf{u}, \mathbf{v} \in V$ un escalar $\langle \mathbf{u}, \mathbf{v} \rangle$.
Para que una función sea un producto interior, debe satisfacer las siguientes propiedades:
- Linealidad: Para cualquier $\mathbf{u}, \mathbf{v}, \mathbf{w} \in V$ y $a, b \in K$:
$$
\langle a\mathbf{u} + b\mathbf{v}, \mathbf{w} \rangle = a\langle \mathbf{u}, \mathbf{w} \rangle + b\langle \mathbf{v}, \mathbf{w} \rangle
$$ - Simetría (en $\mathbb{R}$) o hermiticidad (en $\mathbb{C}$): Para cualquier $\mathbf{u}, \mathbf{v} \in V$:
$$
\langle \mathbf{u}, \mathbf{v} \rangle = \overline{\langle \mathbf{v}, \mathbf{u} \rangle}
$$
donde $\overline{\langle \mathbf{v}, \mathbf{u} \rangle}$ denota el conjugado complejo en $\mathbb{C}$. - Positividad: Para cualquier $\mathbf{v} \in V$:
$$
\langle \mathbf{v}, \mathbf{v} \rangle \geq 0
$$
y $\langle \mathbf{v}, \mathbf{v} \rangle = 0$ si y solo si $\mathbf{v} = \mathbf{0}$.
Ejemplo:
En el espacio vectorial $\mathbb{R}^2$, el producto interior estándar está definido como:
$$\langle \mathbf{u}, \mathbf{v} \rangle = u_1v_1 + u_2v_2$$
donde $\mathbf{u} = (u_1, u_2)$ y $\mathbf{v} = (v_1, v_2)$.
11.2 Ortogonalidad y bases ortonormales
Ortogonalidad: Dos vectores $\mathbf{u}$ y $\mathbf{v}$ en un espacio vectorial con producto interior son ortogonales si su producto interior es cero:
$$\langle \mathbf{u}, \mathbf{v} \rangle = 0$$
Bases ortonormales: Una base {${ \mathbf{e}_1, \mathbf{e}_2, \ldots, \mathbf{e}_n }$} de un espacio vectorial $V$ es ortonormal si cada par de vectores base es ortogonal y cada vector base tiene norma 1:
$$ \langle \mathbf{e}_i, \mathbf{e}_j \rangle = \delta{ij}$$
donde $\delta_{ij}$ es el delta de Kronecker, que es 1 si $i = j$ y 0 si $i \neq j$.
Ejemplo:
En $\mathbb{R}^3$, los vectores $\mathbf{e}_1 = (1, 0, 0)$, $\mathbf{e}_2 = (0, 1, 0)$ y $\mathbf{e}_3 = (0, 0, 1)$ forman una base ortonormal.
11.3 Teorema de Gram-Schmidt
El teorema de Gram-Schmidt proporciona un método para convertir un conjunto de vectores linealmente independientes en un conjunto de vectores ortonormales.
Proceso de Gram-Schmidt:
Dado un conjunto de vectores linealmente independientes {${\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_n}$}, se puede construir un conjunto ortonormal {${\mathbf{u}_1, \mathbf{u}_2, \ldots, \mathbf{u}_n}$} de la siguiente manera:
- $ \mathbf{u}_1 = \frac{\mathbf{v}_1}{||\mathbf{v}_1||} $
- $ \mathbf{u}_2 = \frac{\mathbf{v}_2 – \langle \mathbf{v}_2, \mathbf{u}_1 \rangle \mathbf{u}_1}{||\mathbf{v}_2 – \langle \mathbf{v}_2, \mathbf{u}_1 \rangle \mathbf{u}_1||} $
- En general,
$\mathbf{u}_k= \frac{\mathbf{v}_k – \sum_{i=1}^{k-1} \langle \mathbf{v}_k, \mathbf{u}_i \rangle \mathbf{u}_i } {||\mathbf{\mathbf{v}_k – \sum_{i=1}^{k-1} \langle \mathbf{v}_k, \mathbf{u}_i \rangle \mathbf{u}_i }||}$
Ejemplo:
Dado un conjunto de vectores ${\mathbf{v}_1, \mathbf{v}_2} = {(1, 1), (1, -1)}$, aplicamos Gram-Schmidt:
- $ \mathbf{u}_1 = \frac{(1, 1)}{||(1, 1)||} = \frac{(1, 1)}{\sqrt{2}} $
- $ \mathbf{u}_2 = \frac{(1, -1) – \left\langle (1, -1), \frac{(1, 1)}{\sqrt{2}} \right\rangle \frac{(1, 1)}{\sqrt{2}}}{||(1, -1) – \left\langle (1, -1), \frac{(1, 1)}{\sqrt{2}} \right\rangle \frac{(1, 1)}{\sqrt{2}}||}$ $ = \frac{(1, -1) – 0}{||(1, -1)||} = \frac{(1, -1)}{\sqrt{2}} $
Entonces, $\mathbf{u}_1 = \frac{(1, 1)}{\sqrt{2}}$ y $\mathbf{u}_2 = \frac{(1, -1)}{\sqrt{2}}$ forman una base ortonormal.
11.4 Descomposición QR
La descomposición QR es una técnica para factorizar una matriz $A$ en el producto de una matriz ortogonal $Q$ y una matriz triangular superior $R$.
Definición:
Si $A$ es una matriz $m \times n$ de rango completo, entonces se puede escribir como:
$
A = QR
$
donde $Q$ es una matriz $m \times n$ con columnas ortonormales y $R$ es una matriz $n \times n$ triangular superior.
Proceso de descomposición QR:
- Aplicar Gram-Schmidt: Utilizar el proceso de Gram-Schmidt para los vectores columna de $A$ para obtener la matriz $Q$.
- Formar $R$: Utilizar los coeficientes obtenidos durante el proceso de Gram-Schmidt para formar la matriz $R$.
Ejemplo:
Para la matriz $A = \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}$, primero ortonormalizamos las columnas de $A$ para obtener $Q$, luego calculamos $R$.
- La primera columna de $Q$ es $\mathbf{u}_1 = \frac{(1, 1)^T}{\sqrt{2}} = \begin{pmatrix} \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} \end{pmatrix}$.
- La segunda columna es ortogonalizada y normalizada para obtener $\mathbf{u}_2 = \begin{pmatrix} \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} \end{pmatrix}$.
Entonces, $Q = \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix}$ y $R = \begin{pmatrix} \sqrt{2} & 0 \\ 0 & \sqrt{2} \end{pmatrix}$.
Por lo tanto, $A = QR = \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \sqrt{2} & 0 \\ 0 & \sqrt{2} \end{pmatrix}$ $ = \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}$.
Con estas explicaciones, se cubren los conceptos esenciales de los espacios vectoriales con producto interior, ortogonalidad, bases ortonormales, el teorema de Gram-Schmidt y la descomposición QR.