### Introducción a las Ecuaciones Diferenciales Una ecuación diferencial (ED) es una ecuación que relaciona una función con sus derivadas. Son fundamentales en ciencia e ingeniería para modelar fenómenos de cambio. #### Terminología Clave: - **Orden:** El orden de la derivada más alta en la ecuación. - **Grado:** La potencia más alta a la que está elevada la derivada de mayor orden. - **Linealidad:** Una ED es lineal si la función dependiente y todas sus derivadas aparecen a la primera potencia y no se multiplican entre sí. - **Homogénea:** Una ED lineal es homogénea si el término independiente (función de la variable independiente) es cero. - **Solución General:** Una familia de funciones que satisfacen la ED, conteniendo constantes arbitrarias. - **Solución Particular:** Una solución específica obtenida al aplicar condiciones iniciales o de contorno para determinar las constantes. #### Clasificación Principal: 1. **ED Ordinarias (EDO):** Involucran funciones de una sola variable independiente y sus derivadas. 2. **ED Parciales (EDP):** Involucran funciones de múltiples variables independientes y sus derivadas parciales. (Este cheatsheet se centrará principalmente en EDOs). ### EDO de Primer Orden Una EDO de primer orden tiene la forma general $F(x, y, y') = 0$. #### 1. Variables Separables - **Forma:** $\frac{dy}{dx} = g(x)h(y)$ - **Método:** 1. Separar variables: $\frac{dy}{h(y)} = g(x)dx$ 2. Integrar ambos lados: $\int \frac{dy}{h(y)} = \int g(x)dx + C$ - **Ejemplo:** $\frac{dy}{dx} = \frac{x}{y}$ - $y dy = x dx$ - $\int y dy = \int x dx$ - $\frac{y^2}{2} = \frac{x^2}{2} + C \implies y^2 - x^2 = 2C$ #### 2. Ecuaciones Homogéneas - **Forma:** $\frac{dy}{dx} = f\left(\frac{y}{x}\right)$ - **Método:** 1. Sustitución: $y = vx \implies \frac{dy}{dx} = v + x\frac{dv}{dx}$ 2. La ED se convierte en separable en $v$ y $x$. 3. Resolver para $v(x)$ y luego sustituir $v = y/x$ para encontrar $y(x)$. - **Ejemplo:** $\frac{dy}{dx} = \frac{x^2+y^2}{xy}$ - $\frac{dy}{dx} = \frac{x}{y} + \frac{y}{x}$ (Homogénea) - Sea $y=vx$, $v+x\frac{dv}{dx} = \frac{1}{v} + v \implies x\frac{dv}{dx} = \frac{1}{v}$ - $v dv = \frac{dx}{x} \implies \int v dv = \int \frac{dx}{x}$ - $\frac{v^2}{2} = \ln|x| + C \implies \frac{(y/x)^2}{2} = \ln|x| + C$ #### 3. Ecuaciones Lineales de Primer Orden - **Forma:** $\frac{dy}{dx} + P(x)y = Q(x)$ - **Método:** 1. Calcular el factor integrante: $\mu(x) = e^{\int P(x)dx}$ 2. Multiplicar toda la ecuación por $\mu(x)$: $\mu(x)\frac{dy}{dx} + \mu(x)P(x)y = \mu(x)Q(x)$ 3. El lado izquierdo es la derivada de un producto: $\frac{d}{dx}[\mu(x)y] = \mu(x)Q(x)$ 4. Integrar ambos lados: $\mu(x)y = \int \mu(x)Q(x)dx + C$ 5. Resolver para $y$: $y = \frac{1}{\mu(x)}\left[\int \mu(x)Q(x)dx + C\right]$ - **Ejemplo:** $\frac{dy}{dx} + \frac{1}{x}y = x^2$ - $P(x) = \frac{1}{x} \implies \mu(x) = e^{\int \frac{1}{x}dx} = e^{\ln|x|} = |x|$. Tomamos $\mu(x)=x$ (para $x>0$). - $x\frac{dy}{dx} + y = x^3 \implies \frac{d}{dx}(xy) = x^3$ - $xy = \int x^3 dx + C = \frac{x^4}{4} + C \implies y = \frac{x^3}{4} + \frac{C}{x}$ #### 4. Ecuaciones Exactas - **Forma:** $M(x,y)dx + N(x,y)dy = 0$ - **Condición de Exactitud:** $\frac{\partial M}{\partial y} = \frac{\partial N}{\partial x}$ - **Método:** 1. Verificar la condición de exactitud. 2. Si es exacta, existe una función $F(x,y)$ tal que $\frac{\partial F}{\partial x} = M$ y $\frac{\partial F}{\partial y} = N$. 3. Integrar $M$ con respecto a $x$: $F(x,y) = \int M(x,y)dx + g(y)$ 4. Derivar $F$ con respecto a $y$ e igualar a $N$: $\frac{\partial F}{\partial y} = \frac{\partial}{\partial y}\left(\int M(x,y)dx\right) + g'(y) = N(x,y)$ 5. Resolver para $g'(y)$ e integrar para encontrar $g(y)$. 6. La solución es $F(x,y) = C$. - **Ejemplo:** $(2x+y)dx + (x+2y)dy = 0$ - $\frac{\partial M}{\partial y} = 1$, $\frac{\partial N}{\partial x} = 1$. Es exacta. - $F(x,y) = \int (2x+y)dx + g(y) = x^2+xy + g(y)$ - $\frac{\partial F}{\partial y} = x + g'(y) = x+2y \implies g'(y) = 2y \implies g(y) = y^2$ - Solución: $x^2+xy+y^2 = C$ #### 5. Ecuaciones Reducibles a Exactas (Factores Integrantes) - Si una ED no es exacta, a veces se puede multiplicar por un factor integrante $\mu(x,y)$ para hacerla exacta. - **Casos Comunes:** - Si $\frac{M_y - N_x}{N}$ es una función solo de $x$, entonces $\mu(x) = e^{\int \frac{M_y - N_x}{N}dx}$. - Si $\frac{N_x - M_y}{M}$ es una función solo de $y$, entonces $\mu(y) = e^{\int \frac{N_x - M_y}{M}dy}$. #### 6. Ecuación de Bernoulli - **Forma:** $\frac{dy}{dx} + P(x)y = Q(x)y^n$ (donde $n \neq 0, 1$) - **Método:** 1. Dividir por $y^n$: $y^{-n}\frac{dy}{dx} + P(x)y^{1-n} = Q(x)$ 2. Sustitución: $u = y^{1-n} \implies \frac{du}{dx} = (1-n)y^{-n}\frac{dy}{dx}$ 3. Sustituir para obtener una ED lineal en $u$: $\frac{1}{1-n}\frac{du}{dx} + P(x)u = Q(x)$ 4. Resolver la ED lineal para $u(x)$, luego sustituir $y = u^{1/(1-n)}$. - **Ejemplo:** $\frac{dy}{dx} + \frac{1}{x}y = xy^2$ ($n=2$) - $y^{-2}\frac{dy}{dx} + \frac{1}{x}y^{-1} = x$ - Sea $u=y^{-1} \implies \frac{du}{dx} = -y^{-2}\frac{dy}{dx}$ - $-\frac{du}{dx} + \frac{1}{x}u = x \implies \frac{du}{dx} - \frac{1}{x}u = -x$ (Lineal en $u$) - Factor integrante $\mu(x) = e^{\int -\frac{1}{x}dx} = e^{-\ln|x|} = \frac{1}{x}$ - $\frac{1}{x}\frac{du}{dx} - \frac{1}{x^2}u = -1 \implies \frac{d}{dx}\left(\frac{u}{x}\right) = -1$ - $\frac{u}{x} = \int -1 dx + C = -x+C \implies u = -x^2+Cx$ - $y^{-1} = -x^2+Cx \implies y = \frac{1}{Cx-x^2}$ ### EDO Lineales Homogéneas de Orden Superior con Coeficientes Constantes Forma general: $a_n y^{(n)} + a_{n-1} y^{(n-1)} + \dots + a_1 y' + a_0 y = 0$, donde $a_i$ son constantes. #### 1. Ecuación Característica - Sustituir $y=e^{rx}$, $y'=re^{rx}$, $y''=r^2e^{rx}$, etc. - Esto lleva a un polinomio característico: $a_n r^n + a_{n-1} r^{n-1} + \dots + a_1 r + a_0 = 0$. - Encontrar las raíces $r_1, r_2, \dots, r_n$ de este polinomio. - La forma de la solución general depende de la naturaleza de las raíces. #### 2. Casos de las Raíces - **Raíces Reales y Distintas:** Si $r_1, r_2, \dots, r_n$ son distintas, la solución general es: $$y(x) = C_1 e^{r_1 x} + C_2 e^{r_2 x} + \dots + C_n e^{r_n x}$$ - **Raíces Reales Repetidas:** Si una raíz $r$ se repite $k$ veces, sus términos en la solución son: $$e^{rx}(C_1 + C_2 x + C_3 x^2 + \dots + C_k x^{k-1})$$ - **Raíces Complejas Conjugadas:** Si $r = \alpha \pm i\beta$ es un par de raíces complejas conjugadas (con multiplicidad 1), sus términos en la solución son: $$e^{\alpha x}(C_1 \cos(\beta x) + C_2 \sin(\beta x))$$ Si se repiten $k$ veces (es decir, tenemos $k$ pares de raíces $\alpha \pm i\beta$), la contribución es: $$e^{\alpha x}\sum_{j=1}^k (C_j \cos(\beta x) + D_j \sin(\beta x))x^{j-1}$$ - **Ejemplo (2do orden):** $y'' - y' - 2y = 0$ - Ecuación característica: $r^2 - r - 2 = 0 \implies (r-2)(r+1) = 0$ - Raíces: $r_1 = 2, r_2 = -1$ (reales y distintas) - Solución: $y(x) = C_1 e^{2x} + C_2 e^{-x}$ - **Ejemplo (2do orden, repetidas):** $y'' - 4y' + 4y = 0$ - Ecuación característica: $r^2 - 4r + 4 = 0 \implies (r-2)^2 = 0$ - Raíces: $r_1 = r_2 = 2$ (real y repetida) - Solución: $y(x) = C_1 e^{2x} + C_2 x e^{2x}$ - **Ejemplo (2do orden, complejas):** $y'' + 4y = 0$ - Ecuación característica: $r^2 + 4 = 0 \implies r^2 = -4 \implies r = \pm 2i$ - Raíces: $\alpha=0, \beta=2$ - Solución: $y(x) = C_1 \cos(2x) + C_2 \sin(2x)$ ### EDO Lineales No Homogéneas de Orden Superior Forma general: $a_n y^{(n)} + \dots + a_0 y = g(x)$, donde $g(x) \neq 0$. La solución general es $y(x) = y_c(x) + y_p(x)$, donde: - $y_c(x)$ es la solución complementaria (solución de la ecuación homogénea asociada, $g(x)=0$). - $y_p(x)$ es una solución particular de la ecuación no homogénea. #### 1. Método de Coeficientes Indeterminados - Se usa cuando $g(x)$ es una combinación lineal de funciones como polinomios, exponenciales ($e^{ax}$), senos ($sen(bx)$), cosenos ($cos(bx)$) o productos de estas. - **Tabla de Formas de $y_p$:** | $g(x)$ | Forma de $y_p$ (Primera suposición) | |---|---| | $P_n(x)$ (polinomio de grado $n$) | $A_n x^n + \dots + A_1 x + A_0$ | | $Ce^{ax}$ | $Ae^{ax}$ | | $C\cos(bx)$ o $C\sin(bx)$ | $A\cos(bx) + B\sin(bx)$ | | $P_n(x)e^{ax}$ | $(A_n x^n + \dots + A_0)e^{ax}$ | | $P_n(x)\cos(bx)$ o $P_n(x)\sin(bx)$ | $(A_n x^n + \dots + A_0)\cos(bx) + (B_n x^n + \dots + B_0)\sin(bx)$ | - **Regla de Modificación:** Si la forma supuesta de $y_p$ (o parte de ella) es una solución de la ecuación homogénea asociada ($y_c$), se debe multiplicar por $x^k$, donde $k$ es el menor entero positivo tal que ningún término de $x^k y_p$ es una solución de $y_c$. (Normalmente $k$ es la multiplicidad de la raíz en la ecuación característica que coincide con el exponente o el argumento del seno/coseno en $g(x)$). - **Pasos:** 1. Encontrar $y_c(x)$ resolviendo la ecuación homogénea asociada. 2. Asumir una forma para $y_p(x)$ basada en $g(x)$ y la regla de modificación. 3. Calcular las derivadas de $y_p(x)$ y sustituirlas en la ED original. 4. Igualar los coeficientes de términos similares en ambos lados para encontrar los valores de los coeficientes indeterminados. 5. Escribir la solución general $y(x) = y_c(x) + y_p(x)$. - **Ejemplo:** $y'' - 4y' + 4y = 6e^{2x}$ 1. $y_c$: Ya calculada en el ejemplo anterior: $y_c(x) = C_1 e^{2x} + C_2 x e^{2x}$. 2. $g(x) = 6e^{2x}$. La forma inicial de $y_p$ sería $Ae^{2x}$. Pero $e^{2x}$ y $xe^{2x}$ son soluciones de $y_c$. La raíz $r=2$ tiene multiplicidad 2. Así que multiplicamos por $x^2$: $y_p(x) = Ax^2 e^{2x}$. 3. $y_p' = A(2xe^{2x} + 2x^2e^{2x}) = A(2x+2x^2)e^{2x}$ $y_p'' = A(2e^{2x} + 4xe^{2x} + (4x+4x^2)e^{2x}) = A(2+8x+4x^2)e^{2x}$ 4. Sustituir: $A(2+8x+4x^2)e^{2x} - 4A(2x+2x^2)e^{2x} + 4Ax^2e^{2x} = 6e^{2x}$ Dividir por $e^{2x}$: $A(2+8x+4x^2) - 4A(2x+2x^2) + 4Ax^2 = 6$ $2A + 8Ax + 4Ax^2 - 8Ax - 8Ax^2 + 4Ax^2 = 6$ $2A = 6 \implies A = 3$ 5. $y_p(x) = 3x^2 e^{2x}$ Solución general: $y(x) = C_1 e^{2x} + C_2 x e^{2x} + 3x^2 e^{2x}$ #### 2. Variación de Parámetros - Método más general, aplicable cuando $g(x)$ no es de la forma adecuada para coeficientes indeterminados. - **Para EDO de 2do orden:** $y'' + P(x)y' + Q(x)y = f(x)$ (asegurarse de que el coeficiente de $y''$ sea 1) - **Pasos:** 1. Encontrar la solución complementaria $y_c(x) = C_1 y_1(x) + C_2 y_2(x)$. 2. Calcular el Wronskiano de $y_1$ y $y_2$: $W(y_1, y_2) = \begin{vmatrix} y_1 & y_2 \\ y_1' & y_2' \end{vmatrix} = y_1 y_2' - y_2 y_1'$. 3. Definir $u_1'(x) = -\frac{y_2(x)f(x)}{W(y_1, y_2)}$ y $u_2'(x) = \frac{y_1(x)f(x)}{W(y_1, y_2)}$. 4. Integrar $u_1'(x)$ y $u_2'(x)$ para encontrar $u_1(x)$ y $u_2(x)$. (No incluir constantes de integración aquí). 5. La solución particular es $y_p(x) = u_1(x)y_1(x) + u_2(x)y_2(x)$. 6. La solución general es $y(x) = C_1 y_1(x) + C_2 y_2(x) + u_1(x)y_1(x) + u_2(x)y_2(x)$. - **Ejemplo:** $y'' + y = \sec(x)$ 1. $y_c$: Ecuación característica $r^2+1=0 \implies r=\pm i$. $y_c(x) = C_1 \cos(x) + C_2 \sin(x)$. Así que $y_1=\cos(x), y_2=\sin(x)$. 2. $W(\cos x, \sin x) = \begin{vmatrix} \cos x & \sin x \\ -\sin x & \cos x \end{vmatrix} = \cos^2 x - (-\sin^2 x) = \cos^2 x + \sin^2 x = 1$. 3. $f(x) = \sec(x)$. $u_1'(x) = -\frac{\sin(x)\sec(x)}{1} = -\tan(x)$ $u_2'(x) = \frac{\cos(x)\sec(x)}{1} = 1$ 4. $u_1(x) = \int -\tan(x)dx = \ln|\cos(x)|$ $u_2(x) = \int 1 dx = x$ 5. $y_p(x) = \ln|\cos(x)|\cos(x) + x\sin(x)$ 6. Solución general: $y(x) = C_1 \cos(x) + C_2 \sin(x) + \cos(x)\ln|\cos(x)| + x\sin(x)$ ### Ecuaciones de Cauchy-Euler Forma general: $a_n x^n y^{(n)} + a_{n-1} x^{n-1} y^{(n-1)} + \dots + a_1 x y' + a_0 y = 0$. (Homogénea) - **Método:** 1. Proponer una solución de la forma $y = x^m$. 2. Calcular las derivadas: $y' = mx^{m-1}$, $y'' = m(m-1)x^{m-2}$, etc. 3. Sustituir en la ED y simplificar dividiendo por $x^m$. Esto resultará en una ecuación auxiliar (polinomial en $m$). 4. Encontrar las raíces $m_1, m_2, \dots, m_n$ de la ecuación auxiliar. - **Casos de las Raíces (Similar a coeficientes constantes, pero con $\ln|x|$):** - **Raíces Reales y Distintas:** $y(x) = C_1 x^{m_1} + C_2 x^{m_2} + \dots + C_n x^{m_n}$ - **Raíces Reales Repetidas:** Si una raíz $m$ se repite $k$ veces: $$x^m(C_1 + C_2 \ln|x| + C_3 (\ln|x|)^2 + \dots + C_k (\ln|x|)^{k-1})$$ - **Raíces Complejas Conjugadas:** Si $m = \alpha \pm i\beta$: $$x^{\alpha}(C_1 \cos(\beta \ln|x|) + C_2 \sin(\beta \ln|x|))$$ - **Ejemplo (2do orden):** $x^2 y'' + 3xy' - 3y = 0$ - Sustituir $y=x^m, y'=mx^{m-1}, y''=m(m-1)x^{m-2}$: - $x^2 m(m-1)x^{m-2} + 3x mx^{m-1} - 3x^m = 0$ - $m(m-1)x^m + 3mx^m - 3x^m = 0$ - Dividir por $x^m$: $m(m-1) + 3m - 3 = 0$ - $m^2 - m + 3m - 3 = 0 \implies m^2 + 2m - 3 = 0 \implies (m+3)(m-1) = 0$ - Raíces: $m_1 = 1, m_2 = -3$ - Solución: $y(x) = C_1 x^1 + C_2 x^{-3}$ - **Ecuaciones de Cauchy-Euler No Homogéneas:** $a_n x^n y^{(n)} + \dots + a_0 y = g(x)$ - Usar variación de parámetros después de encontrar $y_c$. - Para ello, la ED debe estar en la forma $y^{(n)} + P_{n-1}(x)y^{(n-1)} + \dots + P_0(x)y = f(x)$, dividiendo por $a_n x^n$. ### Resolución por Transformada de Laplace Útil para EDO lineales con coeficientes constantes, especialmente con condiciones iniciales y funciones de entrada discontinuas. #### Definición y Propiedades Clave: - **Transformada de Laplace:** $\mathcal{L}\{f(t)\} = F(s) = \int_0^\infty e^{-st}f(t)dt$ - **Linealidad:** $\mathcal{L}\{af(t) + bg(t)\} = aF(s) + bG(s)$ - **Derivadas:** - $\mathcal{L}\{y'(t)\} = sY(s) - y(0)$ - $\mathcal{L}\{y''(t)\} = s^2Y(s) - sy(0) - y'(0)$ - $\mathcal{L}\{y^{(n)}(t)\} = s^n Y(s) - s^{n-1}y(0) - \dots - y^{(n-1)}(0)$ - **Teorema de Traslación (Primer Teorema de Traslación):** $\mathcal{L}\{e^{at}f(t)\} = F(s-a)$ - **Teorema de Traslación (Segundo Teorema de Traslación):** $\mathcal{L}\{f(t-a)u(t-a)\} = e^{-as}F(s)$, donde $u(t-a)$ es la función escalón unitario. - **Convolución:** $\mathcal{L}\{(f * g)(t)\} = F(s)G(s)$, donde $(f * g)(t) = \int_0^t f(\tau)g(t-\tau)d\tau$. #### Pasos para Resolver una EDO: 1. **Transformar la EDO:** Aplicar la transformada de Laplace a cada término de la EDO, usando las propiedades de derivadas y las condiciones iniciales. Esto convierte la EDO en una ecuación algebraica en $Y(s)$. 2. **Resolver para $Y(s)$:** Despejar $Y(s)$ algebraicamente. 3. **Transformada Inversa:** Aplicar la transformada inversa de Laplace $\mathcal{L}^{-1}$ a $Y(s)$ para obtener la solución $y(t)$. Esto a menudo requiere descomposición en fracciones parciales. - **Ejemplo:** $y'' + y = \sin(2t)$, con $y(0)=0, y'(0)=0$. 1. Transformar: $\mathcal{L}\{y''\} + \mathcal{L}\{y\} = \mathcal{L}\{\sin(2t)\}$ $(s^2Y(s) - sy(0) - y'(0)) + Y(s) = \frac{2}{s^2+2^2}$ $s^2Y(s) + Y(s) = \frac{2}{s^2+4}$ (ya que $y(0)=0, y'(0)=0$) 2. Resolver para $Y(s)$: $(s^2+1)Y(s) = \frac{2}{s^2+4}$ $Y(s) = \frac{2}{(s^2+1)(s^2+4)}$ 3. Transformada Inversa (Fracciones parciales): $\frac{2}{(s^2+1)(s^2+4)} = \frac{As+B}{s^2+1} + \frac{Cs+D}{s^2+4}$ Multiplicar por $(s^2+1)(s^2+4)$: $2 = (As+B)(s^2+4) + (Cs+D)(s^2+1)$ $2 = As^3+4As+Bs^2+4B + Cs^3+Cs+Ds^2+D$ $2 = (A+C)s^3 + (B+D)s^2 + (4A+C)s + (4B+D)$ Igualando coeficientes: $A+C=0 \implies C=-A$ $B+D=0 \implies D=-B$ $4A+C=0 \implies 4A-A=0 \implies 3A=0 \implies A=0$. Entonces $C=0$. $4B+D=2 \implies 4B-B=2 \implies 3B=2 \implies B=2/3$. Entonces $D=-2/3$. $Y(s) = \frac{2/3}{s^2+1} - \frac{2/3}{s^2+4}$ 4. Aplicar $\mathcal{L}^{-1}$: $y(t) = \frac{2}{3}\mathcal{L}^{-1}\left\{\frac{1}{s^2+1}\right\} - \frac{2}{3}\mathcal{L}^{-1}\left\{\frac{1}{s^2+4}\right\}$ $y(t) = \frac{2}{3}\sin(t) - \frac{2}{3} \cdot \frac{1}{2}\sin(2t)$ $y(t) = \frac{2}{3}\sin(t) - \frac{1}{3}\sin(2t)$ ### Sistemas de EDO Lineales de Primer Orden Forma general: $\mathbf{x}'(t) = A\mathbf{x}(t)$, donde $\mathbf{x}(t)$ es un vector de funciones y $A$ es una matriz de coeficientes constantes. #### 1. Método de Valores y Vectores Propios - **Pasos:** 1. Encontrar los valores propios $\lambda_i$ de la matriz $A$ resolviendo la ecuación característica $\det(A - \lambda I) = 0$. 2. Para cada valor propio $\lambda_i$, encontrar el vector propio $\mathbf{k}_i$ asociado resolviendo $(A - \lambda_i I)\mathbf{k} = \mathbf{0}$. 3. La solución general se construye a partir de los valores y vectores propios. - **Casos de Valores Propios:** - **Valores Propios Reales y Distintos:** Si $\lambda_1, \lambda_2, \dots, \lambda_n$ son distintos, la solución es: $$\mathbf{x}(t) = C_1 \mathbf{k}_1 e^{\lambda_1 t} + C_2 \mathbf{k}_2 e^{\lambda_2 t} + \dots + C_n \mathbf{k}_n e^{\lambda_n t}$$ - **Valores Propios Complejos Conjugados:** Si $\lambda = \alpha \pm i\beta$ y $\mathbf{k}$ es el vector propio para $\lambda = \alpha + i\beta$, entonces la solución real asociada es: $$\mathbf{x}(t) = C_1 \mathbf{x}_1(t) + C_2 \mathbf{x}_2(t)$$ donde $\mathbf{x}_1(t) = \text{Re}(\mathbf{k}e^{\lambda t})$ y $\mathbf{x}_2(t) = \text{Im}(\mathbf{k}e^{\lambda t})$. Recordar $e^{(\alpha+i\beta)t} = e^{\alpha t}(\cos(\beta t) + i\sin(\beta t))$. - **Valores Propios Repetidos:** Más complejo, puede requerir vectores propios generalizados o el método de la matriz exponencial. - **Ejemplo (2x2, reales y distintas):** $\mathbf{x}' = \begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix} \mathbf{x}$ 1. Valores propios: $\det(A - \lambda I) = \begin{vmatrix} 1-\lambda & 1 \\ 4 & 1-\lambda \end{vmatrix} = (1-\lambda)^2 - 4 = 0$ $(1-\lambda)^2 = 4 \implies 1-\lambda = \pm 2$ $\lambda_1 = -1, \lambda_2 = 3$ 2. Vectores propios: Para $\lambda_1 = -1$: $(A - (-1)I)\mathbf{k} = \begin{pmatrix} 2 & 1 \\ 4 & 2 \end{pmatrix} \begin{pmatrix} k_1 \\ k_2 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}$ $2k_1 + k_2 = 0 \implies k_2 = -2k_1$. Sea $k_1=1$, entonces $\mathbf{k}_1 = \begin{pmatrix} 1 \\ -2 \end{pmatrix}$. Para $\lambda_2 = 3$: $(A - 3I)\mathbf{k} = \begin{pmatrix} -2 & 1 \\ 4 & -2 \end{pmatrix} \begin{pmatrix} k_1 \\ k_2 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}$ $-2k_1 + k_2 = 0 \implies k_2 = 2k_1$. Sea $k_1=1$, entonces $\mathbf{k}_2 = \begin{pmatrix} 1 \\ 2 \end{pmatrix}$. 3. Solución general: $$\mathbf{x}(t) = C_1 \begin{pmatrix} 1 \\ -2 \end{pmatrix} e^{-t} + C_2 \begin{pmatrix} 1 \\ 2 \end{pmatrix} e^{3t}$$ #### 2. Sistemas No Homogéneos - $\mathbf{x}'(t) = A\mathbf{x}(t) + \mathbf{f}(t)$ - **Método de Coeficientes Indeterminados (para $\mathbf{f}(t)$ simple):** - Similar al caso de EDO de orden superior, pero con vectores. - Asumir una forma vectorial para $\mathbf{x}_p(t)$ basada en $\mathbf{f}(t)$. - **Variación de Parámetros (más general):** - Si $\Phi(t)$ es una matriz fundamental de la solución homogénea ($\mathbf{x}_c(t) = \Phi(t)\mathbf{c}$), entonces: $$\mathbf{x}_p(t) = \Phi(t) \int \Phi^{-1}(t)\mathbf{f}(t)dt$$ - $\Phi^{-1}(t)$ se calcula usando la matriz adjunta y el determinante de $\Phi(t)$. - La solución general es $\mathbf{x}(t) = \Phi(t)\mathbf{c} + \Phi(t) \int \Phi^{-1}(t)\mathbf{f}(t)dt$. ### Resolución por Series de Potencias Útil para EDOs con coeficientes variables, especialmente cuando no hay métodos elementales disponibles. #### Método de Frobenius - Se usa para resolver EDOs de la forma $P(x)y'' + Q(x)y' + R(x)y = 0$ alrededor de un punto singular regular $x_0$. - **Puntos Ordinarios:** Si $P(x_0) \neq 0$, la solución se busca como una serie de potencias $y(x) = \sum_{n=0}^\infty c_n (x-x_0)^n$. - **Puntos Singulares Regulares:** Si $P(x_0)=0$ pero $\lim_{x \to x_0} (x-x_0)\frac{Q(x)}{P(x)}$ y $\lim_{x \to x_0} (x-x_0)^2\frac{R(x)}{P(x)}$ son finitos. - La solución se busca como una serie de la forma $y(x) = \sum_{n=0}^\infty c_n (x-x_0)^{n+r}$, donde $r$ es una raíz de la ecuación indicial. - **Pasos (Para $x_0=0$):** 1. Asumir $y(x) = \sum_{n=0}^\infty c_n x^{n+r}$. 2. Calcular las derivadas $y'(x) = \sum_{n=0}^\infty (n+r)c_n x^{n+r-1}$ y $y''(x) = \sum_{n=0}^\infty (n+r)(n+r-1)c_n x^{n+r-2}$. 3. Sustituir en la EDO. 4. Reindexar las sumas para que todas tengan el mismo exponente de $x$. 5. Igualar el coeficiente de la potencia más baja de $x$ a cero para obtener la ecuación indicial (para $r$). 6. Igualar los coeficientes de las potencias restantes de $x$ a cero para obtener una relación de recurrencia para $c_n$. 7. Encontrar los valores de $c_n$ y construir las soluciones linealmente independientes. - **Casos de Raíces de la Ecuación Indicial:** - **Distintas y no difieren por un entero:** $r_1 - r_2 \notin \mathbb{Z}$. Dos soluciones linealmente independientes $y_1(x) = x^{r_1}\sum c_n x^n$ y $y_2(x) = x^{r_2}\sum d_n x^n$. - **Distintas y difieren por un entero:** $r_1 - r_2 = N \in \mathbb{Z}^+$. Una solución $y_1(x) = x^{r_1}\sum c_n x^n$. La segunda solución puede involucrar un término $\ln|x|$. - **Raíces Repetidas:** $r_1 = r_2 = r$. Una solución $y_1(x) = x^r\sum c_n x^n$. La segunda solución involucra un término $\ln|x|$. - **Ejemplo (Punto ordinario):** $y'' + y = 0$ alrededor de $x_0=0$. 1. $y = \sum_{n=0}^\infty c_n x^n$, $y' = \sum_{n=1}^\infty nc_n x^{n-1}$, $y'' = \sum_{n=2}^\infty n(n-1)c_n x^{n-2}$. 2. $\sum_{n=2}^\infty n(n-1)c_n x^{n-2} + \sum_{n=0}^\infty c_n x^n = 0$. 3. Reindexar la primera suma con $k=n-2 \implies n=k+2$: $\sum_{k=0}^\infty (k+2)(k+1)c_{k+2} x^k$. 4. $\sum_{k=0}^\infty [(k+2)(k+1)c_{k+2} + c_k] x^k = 0$. 5. Relación de recurrencia: $(k+2)(k+1)c_{k+2} + c_k = 0 \implies c_{k+2} = -\frac{c_k}{(k+2)(k+1)}$. 6. Generar coeficientes: $c_2 = -\frac{c_0}{2 \cdot 1}$ $c_3 = -\frac{c_1}{3 \cdot 2}$ $c_4 = -\frac{c_2}{4 \cdot 3} = -\frac{1}{4 \cdot 3}\left(-\frac{c_0}{2 \cdot 1}\right) = \frac{c_0}{4!}$ $c_5 = -\frac{c_3}{5 \cdot 4} = -\frac{1}{5 \cdot 4}\left(-\frac{c_1}{3 \cdot 2}\right) = \frac{c_1}{5!}$ En general: $c_{2k} = (-1)^k \frac{c_0}{(2k)!}$ y $c_{2k+1} = (-1)^k \frac{c_1}{(2k+1)!}$. 7. Solución: $y(x) = c_0 \sum_{k=0}^\infty (-1)^k \frac{x^{2k}}{(2k)!} + c_1 \sum_{k=0}^\infty (-1)^k \frac{x^{2k+1}}{(2k+1)!}$ $y(x) = c_0 \cos(x) + c_1 \sin(x)$. ### Métodos Numéricos para EDOs Cuando las soluciones analíticas son difíciles o imposibles de encontrar. Se usan para aproximar soluciones. #### 1. Método de Euler - **Para la EDO:** $y' = f(x,y)$, con $y(x_0)=y_0$. - **Fórmula:** $y_{n+1} = y_n + h f(x_n, y_n)$ - $h$ es el tamaño del paso. - $(x_n, y_n)$ es el punto actual. - $(x_{n+1}, y_{n+1})$ es el siguiente punto aproximado. - **Ventajas:** Simple de implementar. - **Desventajas:** Baja precisión (error local de $O(h^2)$, global de $O(h)$), puede ser inestable para ciertos problemas. #### 2. Métodos de Runge-Kutta (RK) - Familia de métodos de mayor orden que Euler. RK4 es el más común. - **RK4 para $y' = f(x,y)$, con $y(x_0)=y_0$:** $$y_{n+1} = y_n + \frac{h}{6}(k_1 + 2k_2 + 2k_3 + k_4)$$ donde: - $k_1 = f(x_n, y_n)$ - $k_2 = f(x_n + \frac{h}{2}, y_n + \frac{h}{2}k_1)$ - $k_3 = f(x_n + \frac{h}{2}, y_n + \frac{h}{2}k_2)$ - $k_4 = f(x_n + h, y_n + hk_3)$ - **Ventajas:** Mayor precisión (error local de $O(h^5)$, global de $O(h^4)$), buena estabilidad para muchos problemas. - **Desventajas:** Más complejo de implementar que Euler, requiere más evaluaciones de $f(x,y)$ por paso. #### 3. Sistemas de EDOs Numéricamente - Los métodos numéricos se pueden extender a sistemas de EDOs. - Por ejemplo, para un sistema $\mathbf{y}' = \mathbf{f}(x, \mathbf{y})$, donde $\mathbf{y}$ y $\mathbf{f}$ son vectores: - **Euler:** $\mathbf{y}_{n+1} = \mathbf{y}_n + h \mathbf{f}(x_n, \mathbf{y}_n)$ - **RK4 (vectorial):** Adaptar las fórmulas de $k_i$ para que sean vectores. - **Ejemplo (Euler):** $y' = y$, $y(0)=1$, $h=0.1$. - $x_0=0, y_0=1$. - $y_1 = y_0 + h f(x_0, y_0) = 1 + 0.1(1) = 1.1$. - $y_2 = y_1 + h f(x_1, y_1) = 1.1 + 0.1(1.1) = 1.21$. - (La solución exacta es $y=e^x$, $e^{0.1} \approx 1.105$, $e^{0.2} \approx 1.221$).