Equazione differenziale ordinaria




In matematica, un'equazione differenziale ordinaria (abbreviata in EDO, oppure ODE dall'acronimo inglese Ordinary Differential Equation) è un'equazione differenziale che coinvolge una funzione di una variabile e le sue derivate di ordine qualsiasi.


Come succede per tutte le equazioni differenziali, solitamente non è possibile risolvere esattamente una EDO e comunque non esistono metodi generali per farlo. I diversi casi possibili sono pertanto analizzati singolarmente, e spesso ci si limita a studiare il comportamento qualitativo della soluzione senza che sia possibile ottenerne un'espressione analitica. Particolarmente semplici risultano le equazioni lineari (di qualunque ordine) poiché si possono sempre ricondurre ad un sistema di equazioni lineari del primo ordine.


Si tratta di un oggetto matematico estensivamente utilizzato in fisica e in molti altri ambiti della scienza. Ad esempio, un sistema dinamico viene descritto da un'equazione differenziale ordinaria.




Indice






  • 1 Definizione


    • 1.1 Sistemi di ODE


      • 1.1.1 Riduzione a sistema di equazioni di ordine 1


      • 1.1.2 Sistema di equazioni di ordine n




    • 1.2 Soluzioni




  • 2 Esistenza della soluzione e problema di Cauchy


    • 2.1 Esistenza e unicità locale


    • 2.2 Unicità globale




  • 3 Equazioni del primo ordine


    • 3.1 Sistemi autonomi


    • 3.2 Equazione differenziale esatta




  • 4 Soluzioni esatte


  • 5 Applicazioni


  • 6 Esempio


  • 7 Note


  • 8 Bibliografia


  • 9 Voci correlate


  • 10 Collegamenti esterni





Definizione |


Sia F:ΩCn+2→C{displaystyle F:Omega subseteq mathbb {C} ^{n+2}rightarrow mathbb {C} }F:Omega subseteq {mathbb  {C}}^{{n+2}}rightarrow {mathbb  {C}}, con Ω{displaystyle Omega neq varnothing }Omega neq varnothing un insieme aperto e connesso e n∈N{displaystyle nin mathbb {N} }nin mathbb{N} .


Si definisce equazione differenziale ordinaria di ordine n{displaystyle n}n una relazione del tipo:


F(x,u(x),u′(x),…,u(n)(x))=0{displaystyle Fleft(x,u(x),u'(x),ldots ,u^{(n)}(x)right)=0}Fleft(x,u(x),u'(x),ldots ,u^{{(n)}}(x)right)=0

dove con u(i)(x){displaystyle u^{(i)}(x)}u^{{(i)}}(x) si indica la derivata i-esima della funzione u(x){displaystyle u(x)}u(x).


Se F{displaystyle F!}F! è definita in una regione Ω{displaystyle Omega !}Omega ! dello spazio euclideo Rn+2{displaystyle mathbb {R} ^{n+2}}mathbb{R} ^{{n+2}}, allora si considerano più propriamente equazioni differenziali ordinarie nel campo reale, a valori reali se F{displaystyle F!}F! è a valori in R{displaystyle mathbb {R} }mathbb {R} .


L'ordine di un'equazione è l'ordine massimo di derivazione che vi compare, mentre l'aggettivo ordinario si riferisce al fatto che l'incognita è una funzione di una sola variabile. Nel caso l'incognita dipenda da più variabili si ha un'equazione differenziale alle derivate parziali.


Sia I{displaystyle I} I un intervallo di R{displaystyle mathbb {R} }mathbb {R} . Si definisce soluzione o integrale dell'equazione differenziale ordinaria una funzione φ(x){displaystyle varphi =varphi (x)}varphi =varphi (x) tale che:


φ(x)∈Cn(I)F(x,φ(x),φ′(x),…(n)(x))=0∀x∈I{displaystyle varphi (x)in C^{n}(I)qquad Fleft(x,varphi (x),varphi '(x),ldots ,varphi ^{(n)}(x)right)=0qquad forall xin I}varphi (x)in C^{n}(I)qquad Fleft(x,varphi (x),varphi '(x),ldots ,varphi ^{{(n)}}(x)right)=0qquad forall xin I

Un'equazione differenziale ordinaria si dice autonoma se F{displaystyle F}F non dipende esplicitamente da x{displaystyle x}x .


Un'equazione differenziale ordinaria si dice scritta in forma normale se può essere esplicitata rispetto u(n)(x){displaystyle u^{(n)}(x)}u^{{(n)}}(x):


u(n)(x)=G(x,u,u′,…,u(n−1)){displaystyle u^{(n)}(x)=Gleft(x,u,u',ldots ,u^{(n-1)}right)}u^{{(n)}}(x)=Gleft(x,u,u',ldots ,u^{{(n-1)}}right)

Si dice inoltre lineare se F{displaystyle F}F è combinazione lineare di u,u′,…,u(n){displaystyle u,u',ldots ,u^{(n)}}u,u',ldots ,u^{{(n)}}, ovvero:


F(x,u,u′,…,u(n))=s(x)+b0(x)u+b1(x)u′+…+bn(x)u(n){displaystyle Fleft(x,u,u',ldots ,u^{(n)}right)=s(x)+b_{0}(x)u+b_{1}(x)u'+ldots +b_{n}(x)u^{(n)}}Fleft(x,u,u',ldots ,u^{{(n)}}right)=s(x)+b_{0}(x)u+b_{1}(x)u'+ldots +b_{{n}}(x)u^{{(n)}}

o, in modo equivalente:


u(n)=∑i=0n−1ai(x)u(i)+r(x){displaystyle u^{(n)}=sum _{i=0}^{n-1}a_{i}(x)u^{(i)}+r(x)}u^{{(n)}}=sum _{{i=0}}^{{n-1}}a_{i}(x)u^{{(i)}}+r(x)

dove:


r(x),a0(x),a1(x),…,an−1(x)∈C0(I){displaystyle r(x),a_{0}(x),a_{1}(x),ldots ,a_{n-1}(x)in C^{0}(I)}r(x),a_{0}(x),a_{1}(x),ldots ,a_{{n-1}}(x)in C^{0}(I)

Il termine r(x){displaystyle r(x)}r(x) è detto sorgente o forzante, e se è nullo l'equazione differenziale lineare si dice omogenea.


Un'equazione ordinaria possiede soluzioni linearmente indipendenti in numero pari al grado dell'equazione, ed ogni loro combinazione lineare è a sua volta soluzione.


Data un'equazione differenziale ordinaria, nel caso si conosca una soluzione generale dell'equazione omogenea ad essa associata allora è possibile trovare una soluzione particolare dell'equazione "completa". A tal fine esistono diverse procedure, tra cui il metodo delle variazioni delle costanti e l'utilizzo della trasformata di Laplace. Per i casi più semplici vi sono inoltre alcune teorie: ad esempio, per le equazioni di primo grado è possibile cercare un opportuno fattore di integrazione, per quelle di secondo vi è la teoria di Sturm-Liouville. In generale, tuttavia, di solito l'unico modo possibile per studiare la soluzione è l'utilizzo di un metodo di soluzione numerica.



Sistemi di ODE |



Riduzione a sistema di equazioni di ordine 1 |


Un sistema di equazioni differenziali ordinarie di ordine 1{displaystyle 1}1 in forma normale è una relazione vettoriale del tipo:


u′=f(x,u){displaystyle mathbf {u} '=mathbf {f} left(x,mathbf {u} right)}{mathbf  {u}}'={mathbf  {f}}left(x,{mathbf  {u}}right)

Una soluzione classica di un tale sistema è una funzione u:I→Rn{displaystyle mathbf {u} :Ito mathbb {R} ^{n}}{mathbf  {u}}:Ito mathbb{R} ^{n} tale che:


u(x)∈C1(I)u′(x)=f(x,u(x))∀x∈I{displaystyle mathbf {u} (x)in C^{1}(I)qquad mathbf {u} '(x)=mathbf {f} left(x,mathbf {u} (x)right)qquad forall xin I}{mathbf  {u}}(x)in C^{1}(I)qquad {mathbf  {u}}'(x)={mathbf  {f}}left(x,{mathbf  {u}}(x)right)qquad forall xin I

Di particolare rilevanza ai fini pratici è la riduzione di un'equazione differenziale ordinaria di ordine n{displaystyle n}n in forma normale ad un sistema differenziale del primo ordine. Questa tecnica permette di semplificare notevolmente alcuni tipi di problemi, evitando l'introduzione di complesse forme di risoluzione. Sia:


u(n)(x)=G(x,u,u′,…,u(n−1)){displaystyle u^{(n)}(x)=Gleft(x,u,u',ldots ,u^{(n-1)}right)}u^{{(n)}}(x)=Gleft(x,u,u',ldots ,u^{{(n-1)}}right)

un'equazione differenziale di ordine n{displaystyle n}n di tipo normale. Si definiscono:


ui=u(i−1)(x)u=(ui)i∈{1,…,n}{displaystyle u_{i}=u^{(i-1)}(x)qquad mathbf {u} =left(u_{i}right)qquad iin {1,ldots ,n}}u_{i}=u^{{(i-1)}}(x)qquad {mathbf  {u}}=left(u_{i}right)qquad iin {1,ldots ,n}

in modo che ui′=ui+1{displaystyle u_{i}'=u_{i+1}}u_{{i}}'=u_{{i+1}}, ed in particolare un′=u(n)(x){displaystyle u_{n}'=u^{(n)}(x)}u_{{n}}'=u^{{(n)}}(x). L'equazione differenziale è dunque equivalente al sistema:


{u1′=u2u2′=u3⋮un−1′=unun′=G(x,u1,u2,…,un)=G(x,u){displaystyle {begin{cases}u_{1}'=u_{2}\u_{2}'=u_{3}\vdots \u_{n-1}'=u_{n}\u_{n}'=Gleft(x,u_{1},u_{2},ldots ,u_{n}right)=Gleft(x,mathbf {u} right)!end{cases}}}{begin{cases}u_{1}'=u_{2}\u_{2}'=u_{3}\vdots \u_{{n-1}}'=u_{n}\u_{n}'=Gleft(x,u_{1},u_{2},ldots ,u_{n}right)=Gleft(x,{mathbf  {u}}right)!end{cases}}

Ponendo:


f(x,u)=(u2u3⋮unG(x,u)){displaystyle mathbf {f} left(x,mathbf {u} right)={begin{pmatrix}u_{2}\u_{3}\vdots \u_{n}\Gleft(x,mathbf {u} right)end{pmatrix}}}{mathbf  {f}}left(x,{mathbf  {u}}right)={begin{pmatrix}u_{2}\u_{3}\vdots \u_{n}\Gleft(x,{mathbf  {u}}right)end{pmatrix}}

si ottiene:


u′=f(x,u){displaystyle mathbf {u} '=mathbf {f} left(x,mathbf {u} right)}{mathbf  {u}}'={mathbf  {f}}left(x,{mathbf  {u}}right)

ovvero, detto in altri termini, si può sempre tradurre tutto in un'equazione di ordine 1. Con un procedimento del tutto analogo a quello seguito è possibile anche il viceversa, ovvero ottenere un'equazione di ordine n partendo da una equazione di ordine 1 in cui un vettore u{displaystyle mathbf {u} }mathbf{u} di dimensione n{displaystyle n}n sia soluzione.



Sistema di equazioni di ordine n |


Se si considera un vettore y{displaystyle mathbf {y} }{mathbf  y} definito come:


y(x)=(y1(x),y2(x),…,ym(x)){displaystyle mathbf {y} (x)=(y_{1}(x),y_{2}(x),dots ,y_{m}(x))}{mathbf  y}(x)=(y_{1}(x),y_{2}(x),dots ,y_{m}(x))

e una funzione F{displaystyle mathbf {F} }mathbf F che agisce su y{displaystyle mathbf {y} }{mathbf  y} e le sue derivate, allora la scrittura:


y(n)=F(x,y,y′,y″,⋯y(n−1)){displaystyle mathbf {y} ^{(n)}=mathbf {F} left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)}{mathbf  {y}}^{{(n)}}={mathbf  {F}}left(x,{mathbf  {y}},{mathbf  {y}}',{mathbf  {y}}'',cdots {mathbf  {y}}^{{(n-1)}}right)

denota un sistema esplicito di equazioni differenziali ordinarie di ordine n. In forma di vettori colonna si ha:


(y1(n)y2(n)⋮ym(n))=(F1(x,y,y′,y″,⋯y(n−1))F2(x,y,y′,y″,⋯y(n−1))⋮Fm(x,y,y′,y″,⋯y(n−1))){displaystyle {begin{pmatrix}y_{1}^{(n)}\y_{2}^{(n)}\vdots \y_{m}^{(n)}end{pmatrix}}={begin{pmatrix}F_{1}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\F_{2}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\vdots \F_{m}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\end{pmatrix}}}{displaystyle {begin{pmatrix}y_{1}^{(n)}\y_{2}^{(n)}\vdots \y_{m}^{(n)}end{pmatrix}}={begin{pmatrix}F_{1}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\F_{2}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\vdots \F_{m}left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n-1)}right)\end{pmatrix}}}

L'analogo sistema implicito è:


F(x,y,y′,y″,⋯y(n))=0{displaystyle mathbf {F} left(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n)}right)={boldsymbol {0}}}{mathbf  {F}}left(x,{mathbf  {y}},{mathbf  {y}}',{mathbf  {y}}'',cdots {mathbf  {y}}^{{(n)}}right)={boldsymbol  {0}}

dove 0=(0,0,…){displaystyle mathbf {0} =(0,0,dots )}{mathbf  0}=(0,0,dots ). In forma matriciale:


(F1(x,y,y′,y″,⋯y(n))F2(x,y,y′,y″,⋯y(n))⋮Fm(x,y,y′,y″,⋯y(n)))=(00⋮0){displaystyle {begin{pmatrix}F_{1}(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n)})\F_{2}(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n)})\vdots \F_{m}(x,mathbf {y} ,mathbf {y} ',mathbf {y} '',cdots mathbf {y} ^{(n)})\end{pmatrix}}={begin{pmatrix}0\0\vdots \0\end{pmatrix}}}{begin{pmatrix}F_{1}(x,{mathbf  {y}},{mathbf  {y}}',{mathbf  {y}}'',cdots {mathbf  {y}}^{{(n)}})\F_{2}(x,{mathbf  {y}},{mathbf  {y}}',{mathbf  {y}}'',cdots {mathbf  {y}}^{{(n)}})\vdots \F_{m}(x,{mathbf  {y}},{mathbf  {y}}',{mathbf  {y}}'',cdots {mathbf  {y}}^{{(n)}})\end{pmatrix}}={begin{pmatrix}0\0\vdots \0\end{pmatrix}}


Soluzioni |


Data un'equazione:


F(x,y,y′,⋯,y(n))=0{displaystyle Fleft(x,y,y',cdots ,y^{(n)}right)=0}Fleft(x,y,y',cdots ,y^{{(n)}}right)=0

una funzione u:I⊂R→R{displaystyle u:Isubset mathbb {R} to mathbb {R} }u:Isubset mathbb{R} to mathbb{R} è detta soluzione (o integrale) dell'equazione differenziale ordinaria se u{displaystyle u}u è differenziabile n volte su I{displaystyle I}I e si ha:


F(x,u,u′, ⋯, u(n))=0x∈I{displaystyle F(x,u,u', cdots , u^{(n)})=0quad xin I}F(x,u,u', cdots , u^{{(n)}})=0quad xin I

Date due soluzioni u:J⊂R→R{displaystyle u:Jsubset mathbb {R} to mathbb {R} }u:Jsubset mathbb{R} to mathbb{R} e v:I⊂R→R{displaystyle v:Isubset mathbb {R} to mathbb {R} }v:Isubset mathbb{R} to mathbb{R} , u{displaystyle u}u è detta estensione di v{displaystyle v}v se I⊂J{displaystyle Isubset J}Isubset J e:


u(x)=v(x)x∈I{displaystyle u(x)=v(x)quad xin I}u(x)=v(x)quad xin I

Una soluzione che non possiede estensioni è detta soluzione massimale, mentre una soluzione definita su tutto R{displaystyle mathbb {R} }R è detta soluzione globale.


Una soluzione generale di un'equazione di ordine n è una soluzione contenente n costanti di integrazione indipendenti, mentre una soluzione particolare è ottenuta dalla soluzione generale conferendo un valore fissato alle costanti, solitamente in modo da soddisfare le condizioni iniziali o condizioni al contorno. In tale contesto, una soluzione singolare è una soluzione che non può essere ottenuta assegnando un valore definito alle costanti di integrazione.



Esistenza della soluzione e problema di Cauchy |


.mw-parser-output .vedi-anche{border:1px solid #CCC;font-size:95%;margin-bottom:.5em}.mw-parser-output .vedi-anche td:first-child{padding:0 .5em}.mw-parser-output .vedi-anche td:last-child{width:100%}



Magnifying glass icon mgx2.svg
Lo stesso argomento in dettaglio: Problema di Cauchy.

Un problema ai valori iniziali è un'equazione differenziale ordinaria:[1]


y′(t)=f(t,y(t))f:ΩRn{displaystyle y'(t)=f(t,y(t))qquad f:Omega subset mathbb {R} times mathbb {R} ^{n}}y'(t)=f(t,y(t))qquad f:Omega subset {mathbb  {R}}times {mathbb  {R}}^{n}

cui è associato un punto nel dominio di f{displaystyle f}f:


(t0,y0)∈Ω{displaystyle (t_{0},y_{0})in Omega }(t_{0},y_{0})in Omega

chiamato condizione iniziale. La soluzione di un problema ai valori iniziali è quindi una funzione y{displaystyle y}y che è soluzione dell'equazione differenziale e soddisfa la condizione y(t0)=y0{displaystyle y(t_{0})=y_{0}}y(t_{0})=y_{0}. In altri termini, il problema di Cauchy consiste nel trovare una curva y{displaystyle y}y, tra quelle definite da y′(t)=f(t,y(t)){displaystyle y'(t)=f(t,y(t))}y'(t)=f(t,y(t)), che passi per il punto y(t0)=y0{displaystyle y(t_{0})=y_{0}}y(t_{0})=y_{0}.


L'esistenza locale di una soluzione fu provata da Augustin-Louis Cauchy sotto l'ipotesi di continuità e limitatezza di f{displaystyle f}f in una regione del suo dominio (teorema di Peano o Cauchy-Peano).[2] Successivamente l'esistenza e l'unicità locali furono mostrate da Émile Picard con l'ipotesi di lipschitzianità rispetto a y{displaystyle y}y (teorema di esistenza e unicità per un problema di Cauchy o Picard–Lindelöf), e tale risultato può essere esteso ad una forma globale. Se quindi f{displaystyle f}f è lipschitziana in una regione D{displaystyle D}D del dominio allora esiste almeno una curva-soluzione differenziabile con continuità passante per ogni punto interno a D{displaystyle D}D. Semplificando la questione, se f{displaystyle f}f e f/∂y{displaystyle partial f/partial y}partial f/partial y sono continue in un rettangolo chiuso nel piano x-y della forma:


R=[x0−a,x0+a]×[y0−b,y0+b]{displaystyle R=[x_{0}-a,x_{0}+a]times [y_{0}-b,y_{0}+b]}R=[x_{0}-a,x_{0}+a]times [y_{0}-b,y_{0}+b]

dove a,b∈R{displaystyle a,bin mathbb {R} }a,bin mathbb{R} e ×{displaystyle times }times è il prodotto cartesiano, allora vi è un intervallo:


I=[x0−h,x0+h]⊂[x0−a,x0+a]{displaystyle I=[x_{0}-h,x_{0}+h]subset [x_{0}-a,x_{0}+a]}I=[x_{0}-h,x_{0}+h]subset [x_{0}-a,x_{0}+a]

dove per qualche h∈R{displaystyle hin mathbb {R} }hin mathbb{R} l'unica soluzione può essere trovata.[3] Questo risultato si applica anche ad equazioni non lineari della forma F(x,y){displaystyle F(x,y)}F(x,y) così come a sistemi di equazioni.


Il teorema di Cauchy-Kovalevskaya, che si applica anche per le equazioni alle derivate parziali, mostra in modo più generale che se l'incognita e le condizioni iniziali di un'equazione differenziale sono localmente funzioni analitiche allora una soluzione analitica esiste ed è unica.[4] La funzione incognita y{displaystyle y}y può assumere valori su infiniti spazi dimensionali, come gli spazi di Banach o spazi di distribuzioni.



Esistenza e unicità locale |






Magnifying glass icon mgx2.svg
Lo stesso argomento in dettaglio: Teorema di esistenza e unicità per un problema di Cauchy e Teorema di esistenza di Peano.

Vi sono diversi teoremi che consentono di stabilire l'esistenza e l'eventuale unicità locale di soluzioni per dati problemi iniziali. I due principali sono il teorema di esistenza e unicità per un problema di Cauchy, il quale assume la lipschitzianità della funzione che definisce l'equazione ordinaria e ne conclude l'esistenza e unicità locale, e il teorema di esistenza di Peano, che assume la continuità conclude soltanto l'esistenza. Il primo afferma che dato il problema ai valori iniziali:


y′(t)=f(t,y(t))y(t0)=y0t∈[t0−ε,t0+ε]{displaystyle y'(t)=f(t,y(t))qquad y(t_{0})=y_{0}qquad tin [t_{0}-varepsilon ,t_{0}+varepsilon ]}y'(t)=f(t,y(t))qquad y(t_{0})=y_{0}qquad tin [t_{0}-varepsilon ,t_{0}+varepsilon ]

se f{displaystyle f}f è una funzione lipschitziana in y{displaystyle y}y e continua in t{displaystyle t}t allora per qualche ϵ>0{displaystyle epsilon >0}epsilon >0 esiste un'unica soluzione y(t){displaystyle y(t)}y(t) al problema ai valori iniziali sull'intervallo [t0−ϵ,t0+ϵ]{displaystyle [t_{0}-epsilon ,t_{0}+epsilon ]}[t_{0}-epsilon ,t_{0}+epsilon ]. Il teorema di esistenza di Peano assume F(x,y){displaystyle F(x,y)}F(x,y) soltanto continua, ma non garantisce l'unicità della soluzione, mostrandone solo la sua esistenza locale. Se essa esiste, o è unica o ne esistono infinite. Un'estensione di questo risultato si ha con il teorema di esistenza di Carathéodory, che si applica anche ai casi in cui l'equazione non è continua.



Unicità globale |


Se le ipotesi del teorema di esistenza e unicità per un problema di Cauchy sono soddisfatte, allora la condizione di esistenza locale può essere estesa ad un risultato globale. Per ogni condizione iniziale (x0,y0){displaystyle (x_{0},y_{0})}(x_0,y_0) esiste un unico massimo intervallo aperto (che può avere estensione infinita):


Imax=(x−,x+)x±Rx0∈Imax{displaystyle I_{max}=(x_{-},x_{+})qquad x_{pm }in mathbb {R} quad x_{0}in I_{max}}I_{{max}}=(x_{-},x_{+})qquad x_{pm }in {mathbb  {R}}quad x_{0}in I_{{max}}

tale per cui ogni soluzione che soddisfa la condizione iniziale è una restrizione della soluzione soddisfacente tale condizione iniziale che è definita sul dominio Imax{displaystyle I_{max}}I_{{max}}. Nel caso in cui ±{displaystyle x_{pm }nrightarrow pm infty }x_{pm }nrightarrow pm infty , vi sono solo due possibilità:


limx→y(x)‖limx→Ω¯{displaystyle lim _{xto x_{pm }}|y(x)|rightarrow infty qquad lim _{xto x_{pm }}in partial {bar {Omega }}}lim _{{xto x_{pm }}}|y(x)|rightarrow infty qquad lim _{{xto x_{pm }}}in partial {bar  {Omega }}

dove Ω{displaystyle Omega }Omega è l'aperto in cui F{displaystyle F}F è definita e Ω¯{displaystyle partial {bar {Omega }}}partial {bar  {Omega }} è la sua frontiera.


Affinché la soluzione sia unica, il massimo dominio in cui è definita la soluzione deve essere un intervallo, che in generale dipende dalla condizione iniziale. Ad esempio, si consideri:


y′=y2{displaystyle y'=y^{2}}y'=y^{2}

Dato che F(x,y)=y2{displaystyle F(x,y)=y^{2}}F(x,y)=y^{2} è lipschitziana, soddisfa il teorema di Picard–Lindelöf. La soluzione:


y(x)=y0(x0−x)y0+1{displaystyle y(x)={frac {y_{0}}{(x_{0}-x)y_{0}+1}}}y(x)={frac  {y_{0}}{(x_{0}-x)y_{0}+1}}

ha come massimo intervallo per il suo dominio:


{Ry0=0(−,x0+1y0)y0>0(x0+1y0,+∞)y0<0{displaystyle {begin{cases}mathbb {R} &y_{0}=0\(-infty ,x_{0}+{frac {1}{y_{0}}})&y_{0}>0\(x_{0}+{frac {1}{y_{0}}},+infty )&y_{0}<0end{cases}}}{begin{cases}{mathbb  {R}}&y_{0}=0\(-infty ,x_{0}+{frac  {1}{y_{0}}})&y_{0}>0\(x_{0}+{frac  {1}{y_{0}}},+infty )&y_{0}<0end{cases}}


Equazioni del primo ordine |


Il caso più semplice è quello in cui:


y′(t)=f(t){displaystyle y'(t)=f(t)}y'(t)=f(t)

con f{displaystyle f}f una funzione continua definita su un aperto di R{displaystyle mathbb {R} }R. Il problema si riconduce alla ricerca delle primitive y(t){displaystyle y(t)}y(t) di f(t){displaystyle f(t)}f(t). In tal caso se y(t){displaystyle y(t)}y(t) è una soluzione allora anche y(t)+c{displaystyle y(t)+c}y(t)+c, con c∈R{displaystyle cin mathbb {R} }cin mathbb{R} , è ancora soluzione. Inoltre, se y1(t){displaystyle y_{1}(t)}y_{1}(t) e y2(t){displaystyle y_{2}(t)}y_{2}(t) sono soluzioni si ha che y2=y1+c{displaystyle y_{2}=y_{1}+c}y_{2}=y_{1}+c per qualche c∈R{displaystyle cin mathbb {R} }cin mathbb{R} .


Data una condizione iniziale y(t0)=y0{displaystyle y(t_{0})=y_{0}}y(t_{0})=y_{0}, scrivendo l'equazione nella forma dy/dt=f(t){displaystyle dy/dt=f(t)}dy/dt=f(t), in modo che dy=f(t)dt{displaystyle dy=f(t)dt}dy=f(t)dt, si ha:


y0ydξ=∫t0tf(τ)dτ{displaystyle int _{y_{0}}^{y}dxi =int _{t_{0}}^{t}f(tau )dtau }int _{{y_{0}}}^{y}dxi =int _{{t_{0}}}^{t}f(tau )dtau

e la soluzione è fornita dal teorema fondamentale del calcolo integrale:


y(t)=y0+∫t0tf(τ)dτ{displaystyle y(t)=y_{0}+int _{t_{0}}^{t}f(tau )dtau }y(t)=y_{0}+int _{{t_{0}}}^{t}f(tau )dtau

La soluzione è univocamente determinata dal dato iniziale y(t0)=y0{displaystyle y(t_{0})=y_{0}}y(t_{0})=y_{0}: data una qualsiasi soluzione y1(t){displaystyle y_{1}(t)}y_{1}(t), si ha y1(t0)+c=y0{displaystyle y_{1}(t_{0})+c=y_{0}}y_{1}(t_{0})+c=y_{0} e pertanto c=y0−y1(t0){displaystyle c=y_{0}-y_{1}(t_{0})}c=y_{0}-y_{1}(t_{0}).



Sistemi autonomi |






Magnifying glass icon mgx2.svg
Lo stesso argomento in dettaglio: Sistema autonomo (matematica).

Un'equazione autonoma è un'equazione differenziale ordinaria del tipo:


y′(t)=f(y(t)){displaystyle y'(t)=f(y(t))}y'(t)=f(y(t))

dove f{displaystyle f}f è una funzione continua con derivata prima continua in tutto un intervallo I⊂R{displaystyle Isubset mathbb {R} }Isubset mathbb{R} , e che non dipende dalla variabile indipendente t{displaystyle t}t. Se y{displaystyle y}y è un vettore di Rn{displaystyle mathbb {R} ^{n}}mathbb {R} ^{n} si ha un sistema autonomo, ovvero un sistema di equazioni differenziali ordinarie autonome:


yi′=fi(y1,y2,…,yn)i=1,…,n{displaystyle y'_{i}=f_{i}(y_{1},y_{2},dots ,y_{n})qquad i=1,dots ,n}y'_{i}=f_{i}(y_{1},y_{2},dots ,y_{n})qquad i=1,dots ,n

Di particolare importanza sono i punti x0{displaystyle x_{0}}x_0 tali per cui f(x0)=0{displaystyle f(x_{0})=0}f(x_{0})=0, detti punti di equilibrio, ai quali corrisponde la soluzione costante y=x0{displaystyle y=x_{0}}y=x_{0}.


Un generico sistema di equazioni differenziali ordinarie (in cui f{displaystyle f}f dipende da t{displaystyle t}t):


ddty(t)=f(y(t),t){displaystyle {frac {d}{dt}}y(t)=f(y(t),t)}{frac  {d}{dt}}y(t)=f(y(t),t)

può essere reso autonomo introducendo una nuova incognita yn+1=t{displaystyle y_{n+1}=t}y_{{n+1}}=t.



Equazione differenziale esatta |






Magnifying glass icon mgx2.svg
Lo stesso argomento in dettaglio: Equazione differenziale esatta.

Si considerino un insieme semplicemente connesso e aperto D⊂R2{displaystyle Dsubset mathbb {R} ^{2}}Dsubset mathbb{R} ^{2} e due funzioni I{displaystyle I}I e J{displaystyle J}J continue su D{displaystyle D}D. L'equazione differenziale implicita:


I(x,y)dx+J(x,y)dy=0{displaystyle I(x,y),mathrm {d} x+J(x,y),mathrm {d} y=0}I(x,y),{mathrm  {d}}x+J(x,y),{mathrm  {d}}y=0

è un'equazione differenziale esatta se esiste una funzione differenziabile con continuità F{displaystyle F}F, detta potenziale, tale che:


F∂x(x,y)=I∂F∂y(x,y)=J{displaystyle {frac {partial F}{partial x}}(x,y)=Iqquad {frac {partial F}{partial y}}(x,y)=J}{frac  {partial F}{partial x}}(x,y)=Iqquad {frac  {partial F}{partial y}}(x,y)=J

Il termine "esatta" si riferisce alla derivata totale di una funzione, detta talvolta "derivata esatta", che per una funzione F(x0,x1,…,xn−1,xn){displaystyle F(x_{0},x_{1},dots ,x_{n-1},x_{n})}F(x_{0},x_{1},dots ,x_{{n-1}},x_{n}) è data in x0{displaystyle x_{0}}x_0 da:


dFdx0=∂F∂x0+∑i=1n∂F∂xidxidx0{displaystyle {frac {mathrm {d} F}{mathrm {d} x_{0}}}={frac {partial F}{partial x_{0}}}+sum _{i=1}^{n}{frac {partial F}{partial x_{i}}}{frac {mathrm {d} x_{i}}{mathrm {d} x_{0}}}}{frac  {{mathrm  {d}}F}{{mathrm  {d}}x_{0}}}={frac  {partial F}{partial x_{0}}}+sum _{{i=1}}^{{n}}{frac  {partial F}{partial x_{i}}}{frac  {{mathrm  {d}}x_{i}}{{mathrm  {d}}x_{0}}}

Nelle applicazioni fisiche I{displaystyle I}I e J{displaystyle J}J non sono solitamente solo continue, ma anche differenziabili con continuità, ed il teorema di Schwarz fornisce allora una condizione necessaria e sufficiente per l'esistenza della funzione potenziale F{displaystyle F}F (per equazioni definite su un insieme non semplicemente connesso tale criterio è solo necessario). Esso esiste se e solo se:


I∂y(x,y)=∂J∂x(x,y){displaystyle {frac {partial I}{partial y}}(x,y)={frac {partial J}{partial x}}(x,y)}{frac  {partial I}{partial y}}(x,y)={frac  {partial J}{partial x}}(x,y)


Soluzioni esatte |


Nel seguito si riportano alcuni importanti casi di equazioni differenziali ordinarie risolvibili esattamente.


Nella tabella le funzioni P(x){displaystyle P(x)}P(x), Q(x){displaystyle Q(x)}Q(x), P(y){displaystyle P(y)}P(y), Q(y){displaystyle Q(y)}Q(y), M(x,y){displaystyle M(x,y)}M(x,y) e N(x,y){displaystyle N(x,y)}N(x,y) sono funzioni integrabili in x{displaystyle x}x, y{displaystyle y}y, mentre b{displaystyle b}b e c{displaystyle c}c sono costanti reali date. Inoltre, C1,C2,…{displaystyle C_{1},C_{2},dots }C_{1},C_{2},dots sono costanti arbitrarie, in generale complesse. La notazione xF(λ)dλ{displaystyle int ^{x}F(lambda )dlambda }int ^{x}F(lambda )dlambda indica l'integrazione di F(λ){displaystyle F(lambda )}F(lambda ) rispetto a λ{displaystyle lambda }lambda e la successiva sostituzione λ=x{displaystyle lambda =x}lambda =x.








































































Equazione differenziale
Metodo di soluzione
Soluzione generale
Equazioni separabili
Primo ordine, separabile in x e y, caso generale.

P1(x)Q1(y)+P2(x)Q2(y)dydx=0{displaystyle P_{1}(x)Q_{1}(y)+P_{2}(x)Q_{2}(y),{frac {dy}{dx}}=0,!}P_{1}(x)Q_{1}(y)+P_{2}(x)Q_{2}(y),{frac  {dy}{dx}}=0,!


P1(x)Q1(y)dx+P2(x)Q2(y)dy=0{displaystyle P_{1}(x)Q_{1}(y),dx+P_{2}(x)Q_{2}(y),dy=0,!}P_{1}(x)Q_{1}(y),dx+P_{2}(x)Q_{2}(y),dy=0,!



Separazione delle variabili (divisione per P2Q1).

xP1(λ)P2(λ)dλ+∫yQ2(λ)Q1(λ)dλ=C{displaystyle int ^{x}{frac {P_{1}(lambda )}{P_{2}(lambda )}},dlambda +int ^{y}{frac {Q_{2}(lambda )}{Q_{1}(lambda )}},dlambda =C,!}int ^{x}{frac  {P_{1}(lambda )}{P_{2}(lambda )}},dlambda +int ^{y}{frac  {Q_{2}(lambda )}{Q_{1}(lambda )}},dlambda =C,!
Primo ordine, separabile in x.

dydx=F(x){displaystyle {frac {dy}{dx}}=F(x),!}{frac  {dy}{dx}}=F(x),!


dy=F(x)dx{displaystyle dy=F(x),dx,!}dy=F(x),dx,!


Integrazione diretta.

y=∫xF(λ)dλ+C{displaystyle y=int ^{x}F(lambda ),dlambda +C,!}y=int ^{x}F(lambda ),dlambda +C,!
Primo ordine, autonoma, separabile in y.

dydx=F(y){displaystyle {frac {dy}{dx}}=F(y),!}{frac  {dy}{dx}}=F(y),!


dy=F(y)dx{displaystyle dy=F(y),dx,!}dy=F(y),dx,!


Separazione delle variabili (divisione per F).

x=∫ydλF(λ)+C{displaystyle x=int ^{y}{frac {dlambda }{F(lambda )}}+C,!}x=int ^{y}{frac  {dlambda }{F(lambda )}}+C,!
Primo ordine, separabile in x e y.

P(y)dydx+Q(x)=0{displaystyle P(y){frac {dy}{dx}}+Q(x)=0,!}P(y){frac  {dy}{dx}}+Q(x)=0,!


P(y)dy+Q(x)dx=0{displaystyle P(y),dy+Q(x),dx=0,!}P(y),dy+Q(x),dx=0,!


Integrazione su tutto il dominio.

yP(λ)dλ+∫xQ(λ)dλ=C{displaystyle int ^{y}P(lambda ),{dlambda }+int ^{x}Q(lambda ),dlambda =C,!}int ^{y}P(lambda ),{dlambda }+int ^{x}Q(lambda ),dlambda =C,!
Equazioni del primo ordine
Primo ordine, omogenea.

dydx=F(yx){displaystyle {frac {dy}{dx}}=Fleft({frac {y}{x}}right),!}{frac  {dy}{dx}}=Fleft({frac  {y}{x}}right),!


Si pone y = ux e si procede per separazione delle variabili in u e x.

ln⁡(Cx)=∫y/xdλF(λ)−λ{displaystyle ln(Cx)=int ^{y/x}{frac {dlambda }{F(lambda )-lambda }},!}ln(Cx)=int ^{{y/x}}{frac  {dlambda }{F(lambda )-lambda }},!
Primo ordine, separabile.

yM(xy)+xN(xy)dydx=0{displaystyle yM(xy)+xN(xy),{frac {dy}{dx}}=0,!}yM(xy)+xN(xy),{frac  {dy}{dx}}=0,!


yM(xy)dx+xN(xy)dy=0{displaystyle yM(xy),dx+xN(xy),dy=0,!}yM(xy),dx+xN(xy),dy=0,!


Separazione delle variabili (divisione per xy).

ln⁡(Cx)=∫xyN(λ)dλλ[N(λ)−M(λ)]{displaystyle ln(Cx)=int ^{xy}{frac {N(lambda ),dlambda }{lambda [N(lambda )-M(lambda )]}},!}ln(Cx)=int ^{{xy}}{frac  {N(lambda ),dlambda }{lambda [N(lambda )-M(lambda )]}},!


Se N = M la soluzione è xy = C.



Differenziale esatto, primo ordine.

M(x,y)dydx+N(x,y)=0{displaystyle M(x,y){frac {dy}{dx}}+N(x,y)=0,!}M(x,y){frac  {dy}{dx}}+N(x,y)=0,!


M(x,y)dy+N(x,y)dx=0{displaystyle M(x,y),dy+N(x,y),dx=0,!}M(x,y),dy+N(x,y),dx=0,!


dove M∂x=∂N∂y{displaystyle {frac {partial M}{partial x}}={frac {partial N}{partial y}},!}{frac  {partial M}{partial x}}={frac  {partial N}{partial y}},!


Integrazione su tutto il dominio.

F(x,y)=∫yM(x,λ)dλ+∫xN(λ,y)dλ+Y(y)+X(x)=C{displaystyle {begin{aligned}F(x,y)&=int ^{y}M(x,lambda ),dlambda +int ^{x}N(lambda ,y),dlambda \&+Y(y)+X(x)=Cend{aligned}},!}{begin{aligned}F(x,y)&=int ^{y}M(x,lambda ),dlambda +int ^{x}N(lambda ,y),dlambda \&+Y(y)+X(x)=Cend{aligned}},!
Differenziale inesatto, primo ordine.

M(x,y)dydx+N(x,y)=0{displaystyle M(x,y){frac {dy}{dx}}+N(x,y)=0,!}M(x,y){frac  {dy}{dx}}+N(x,y)=0,!


M(x,y)dy+N(x,y)dx=0{displaystyle M(x,y),dy+N(x,y),dx=0,!}M(x,y),dy+N(x,y),dx=0,!


dove M∂x≠N∂y{displaystyle {frac {partial M}{partial x}}neq {frac {partial N}{partial y}},!}{frac  {partial M}{partial x}}neq {frac  {partial N}{partial y}},!


Il fattore di integrazione μ(x, y) soddisfa:

M)∂x=∂N)∂y{displaystyle {frac {partial (mu M)}{partial x}}={frac {partial (mu N)}{partial y}},!}{frac  {partial (mu M)}{partial x}}={frac  {partial (mu N)}{partial y}},!


Se si può trovare μ(x, y):

F(x,y)=∫(x,λ)M(x,λ)dλ+∫,y)N(λ,y)dλ+Y(y)+X(x)=C{displaystyle {begin{aligned}F(x,y)&=int ^{y}mu (x,lambda )M(x,lambda ),dlambda +int ^{x}mu (lambda ,y)N(lambda ,y),dlambda \&+Y(y)+X(x)=C\end{aligned}},!}{begin{aligned}F(x,y)&=int ^{y}mu (x,lambda )M(x,lambda ),dlambda +int ^{x}mu (lambda ,y)N(lambda ,y),dlambda \&+Y(y)+X(x)=C\end{aligned}},!


Equazioni del secondo ordine
Secondo ordine, autonoma.

d2ydx2=F(y){displaystyle {frac {d^{2}y}{dx^{2}}}=F(y),!}{frac  {d^{2}y}{dx^{2}}}=F(y),!


Si moltiplica l'equazione per 2dy/dx e si sostituisce 2dydxd2ydx2=ddx(dydx)2{displaystyle 2{frac {dy}{dx}}{frac {d^{2}y}{dx^{2}}}={frac {d}{dx}}left({frac {dy}{dx}}right)^{2},!}2{frac  {dy}{dx}}{frac  {d^{2}y}{dx^{2}}}={frac  {d}{dx}}left({frac  {dy}{dx}}right)^{2},! quindi si integra due volte.

x=±ydλ2∫λF(ε)dε+C1+C2{displaystyle x=pm int ^{y}{frac {dlambda }{sqrt {2int ^{lambda }F(varepsilon ),dvarepsilon +C_{1}}}}+C_{2},!}x=pm int ^{y}{frac  {dlambda }{{sqrt  {2int ^{lambda }F(varepsilon ),dvarepsilon +C_{1}}}}}+C_{2},!
Equazioni lineari
Primo ordine, lineare, non omogenea.

dydx+P(x)y=Q(x){displaystyle {frac {dy}{dx}}+P(x)y=Q(x),!}{frac  {dy}{dx}}+P(x)y=Q(x),!


Fattore di integrazione: e∫xP(λ)dλ{displaystyle e^{int ^{x}P(lambda ),dlambda }}e^{{int ^{x}P(lambda ),dlambda }}.

y=e−xP(λ)dλ[∫xe∫λP(ε)dεQ(λ)dλ+C]{displaystyle y=e^{-int ^{x}P(lambda ),dlambda }left[int ^{x}e^{int ^{lambda }P(varepsilon ),dvarepsilon }Q(lambda ),{dlambda }+Cright]}y=e^{{-int ^{x}P(lambda ),dlambda }}left[int ^{x}e^{{int ^{lambda }P(varepsilon ),dvarepsilon }}Q(lambda ),{dlambda }+Cright]
Secondo ordine, lineare, non omogenea, a coefficienti costanti.

d2ydx2+bdydx+cy=r(x){displaystyle {frac {d^{2}y}{dx^{2}}}+b{frac {dy}{dx}}+cy=r(x),!}{frac  {d^{2}y}{dx^{2}}}+b{frac  {dy}{dx}}+cy=r(x),!


Funzione complementare yc: assumendo yc = eαx, si sostituisce e si risolve il polinomio in α, ottenendo le funzioni linearmente indipendenti jx{displaystyle e^{alpha _{j}x}}e^{{alpha _{j}x}}.

Integrale particolare yp: in generale si applica il metodo delle variazioni delle costanti, sebbene talvolta è sufficiente studiare r(x).



y=yc+yp{displaystyle y=y_{c}+y_{p}}y=y_{c}+y_{p}

Se b2 > 4c, allora:


yc=C1e(−b+b2−4c)x2+C2e−(b+b2−4c)x2{displaystyle y_{c}=C_{1}e^{left(-b+{sqrt {b^{2}-4c}}right){frac {x}{2}}}+C_{2}e^{-left(b+{sqrt {b^{2}-4c}}right){frac {x}{2}}},!}y_{c}=C_{1}e^{{left(-b+{sqrt  {b^{2}-4c}}right){frac  {x}{2}}}}+C_{2}e^{{-left(b+{sqrt  {b^{2}-4c}}right){frac  {x}{2}}}},!


Se b2 = 4c, allora:


yc=(C1x+C2)e−bx/2{displaystyle y_{c}=(C_{1}x+C_{2})e^{-bx/2},!}y_{c}=(C_{1}x+C_{2})e^{{-bx/2}},!


Se b2 < 4c, allora:


yc=e−bx2[C1sin⁡(|b2−4c|x2)+C2cos⁡(|b2−4c|x2)]{displaystyle y_{c}=e^{-b{frac {x}{2}}}left[C_{1}sin {left({sqrt {left|b^{2}-4cright|}}{frac {x}{2}}right)}+C_{2}cos {left({sqrt {left|b^{2}-4cright|}}{frac {x}{2}}right)}right],!}y_{c}=e^{{-b{frac  {x}{2}}}}left[C_{1}sin {left({sqrt  {left|b^{2}-4cright|}}{frac  {x}{2}}right)}+C_{2}cos {left({sqrt  {left|b^{2}-4cright|}}{frac  {x}{2}}right)}right],!


Ordine n, lineare, non omogenea, a coefficienti costanti.

j=0nbjdjydxj=r(x){displaystyle sum _{j=0}^{n}b_{j}{frac {d^{j}y}{dx^{j}}}=r(x),!}sum _{{j=0}}^{n}b_{j}{frac  {d^{j}y}{dx^{j}}}=r(x),!


Funzione complementare yc: assumendo yc = eαx, si sostituisce e si risolve il polinomio in α, ottenendo le funzioni linearmente indipendenti jx{displaystyle e^{alpha _{j}x}}e^{{alpha _{j}x}}.

Integrale particolare yp: in generale si applica il metodo delle variazioni delle costanti, sebbene talvolta sia sufficiente studiare r(x).



y=yc+yp{displaystyle y=y_{c}+y_{p}}y=y_{c}+y_{p}

Dato che αj sono soluzioni del polinomio di grado n:


j=1n(ααj)=0{displaystyle prod _{j=1}^{n}left(alpha -alpha _{j}right)=0,!}prod _{{j=1}}^{n}left(alpha -alpha _{j}right)=0,!


allora per αj tutti diversi:


yc=∑j=1nCjeαjx{displaystyle y_{c}=sum _{j=1}^{n}C_{j}e^{alpha _{j}x},!}y_{c}=sum _{{j=1}}^{n}C_{j}e^{{alpha _{j}x}},!


per ogni radice αj ripetuta kj volte:


yc=∑j=1n(∑=1kjCℓxℓ1)eαjx{displaystyle y_{c}=sum _{j=1}^{n}left(sum _{ell =1}^{k_{j}}C_{ell }x^{ell -1}right)e^{alpha _{j}x},!}y_{c}=sum _{{j=1}}^{n}left(sum _{{ell =1}}^{{k_{j}}}C_{ell }x^{{ell -1}}right)e^{{alpha _{j}x}},!


per qualche αj complesso, si pone α = χj + iγj e si usa la formula di Eulero per ottenere che alcuni termini del precedente risultato si possono scrivere come:


Cjeαjx=Cjeχjxcos⁡jx+ϕj){displaystyle C_{j}e^{alpha _{j}x}=C_{j}e^{chi _{j}x}cos(gamma _{j}x+phi _{j}),!}C_{j}e^{{alpha _{j}x}}=C_{j}e^{{chi _{j}x}}cos(gamma _{j}x+phi _{j}),!

dove ϕj è una costante arbitraria.




Applicazioni |


In fisica, la modellizzazione di un sistema richiede spesso la risoluzione di un problema ai valori iniziali. In questo contesto, ad esempio, l'equazione differenziale può descrivere l'evoluzione di un sistema dinamico nel tempo in funzione delle condizioni iniziali: si consideri un punto materiale di massa m{displaystyle m}m in caduta libera, sotto l'azione della forza di gravità. Attraverso le leggi descritte da Newton sulla dinamica dei corpi, si ha che:


F=ma=m[x″y″z″]{displaystyle mathbf {F} =mmathbf {a} =m{begin{bmatrix}x''\y''\z''end{bmatrix}}}{mathbf  {F}}=m{mathbf  {a}}=m{begin{bmatrix}x''\y''\z''end{bmatrix}}

Riferendosi ad un sistema di coordinate cartesiane, con l'asse y{displaystyle y}y parallelo e discorde al verso dell'accelerazione di gravità e proiettando la relazione vettoriale precedente sugli assi coordinati, si ha che l'unica equazione significativa è quella rispetto all'asse y{displaystyle y}y:


my″=−mg{displaystyle my''=-mg}my''=-mg

Ciò fornisce y″=−g{displaystyle y''=-g}y''=-g. Per determinare la φ(x){displaystyle varphi =varphi (x)}varphi =varphi (x), soluzione del problema, occorre conoscere posizione e velocità iniziale del corpo in un certo istante. Integrando:


t0ty″(t)dt=−t0tgdt{displaystyle int _{t_{0}}^{t}y''(t),dt=-int _{t_{0}}^{t}g,dt}int _{{t_{0}}}^{{t}}y''(t),dt=-int _{{t_{0}}}^{{t}}g,dt

da cui:


y′(t)=y′(t0)−g(t−t0){displaystyle y'(t)=y'(t_{0})-g(t-t_{0})}y'(t)=y'(t_{0})-g(t-t_{0})

e integrando nuovamente:


t0ty′(t)dt=∫t0t(y′(t0)−g(t−t0))dt{displaystyle int _{t_{0}}^{t}y'(t),dt=int _{t_{0}}^{t}left(y'(t_{0})-g(t-t_{0})right),dt}int _{{t_{0}}}^{{t}}y'(t),dt=int _{{t_{0}}}^{{t}}left(y'(t_{0})-g(t-t_{0})right),dt

da cui si ottiene:


y(t)=y(t0)+y′(t0)(t−t0)−g(t−t0)22{displaystyle y(t)=y(t_{0})+y'(t_{0})(t-t_{0})-g{frac {(t-t_{0})^{2}}{2}}}y(t)=y(t_{0})+y'(t_{0})(t-t_{0})-g{frac  {(t-t_{0})^{2}}{2}}

Come si vede, la soluzione dipende da due parametri y′(t0){displaystyle y'(t_{0})}y'(t_{0}) e y(t0){displaystyle y(t_{0})}y(t_{0}), rispettivamente velocità e posizione iniziale.



Esempio |


Si consideri il problema di Cauchy:


{y′=y13y(t0)=0{displaystyle {begin{cases}y'=y^{frac {1}{3}}\y(t_{0})=0end{cases}}}{begin{cases}y'=y^{{{frac  {1}{3}}}}\y(t_{0})=0end{cases}}

Il teorema di esistenza locale garantisce l'esistenza di almeno una soluzione φ(t){displaystyle varphi (t)}varphi (t). Una di queste è banale ed è anche globale, cioè definita su tutto l'insieme R{displaystyle mathbb {R} }R:


φ(t)=0∀t∈R{displaystyle varphi (t)=0quad forall tin mathbb {R} }varphi (t)=0quad forall tin mathbb{R}

Oltre a questa soluzione è tuttavia possibile trovarne un'altra integrando l'equazione, trattandosi di un'equazione differenziale a variabili separabili. Perciò:


dydt=y13{displaystyle {frac {dy}{dt}}=y^{frac {1}{3}}}{frac  {dy}{dt}}=y^{{{frac  {1}{3}}}}

da cui:


y−13dy=dt{displaystyle y^{-{frac {1}{3}}},dy=dt}y^{{-{frac  {1}{3}}}},dy=dt

e quindi:


0yy−13dy=∫t0tdty≠0{displaystyle int _{0}^{y}y^{-{frac {1}{3}}},dy=int _{t_{0}}^{t},dtqquad yneq 0}int _{0}^{y}y^{{-{frac  {1}{3}}}},dy=int _{{t_{0}}}^{t},dtqquad yneq 0

dalla quale si ottiene:


φ±0(t)=±(23(t−t0))32t−t0>0{displaystyle varphi _{pm }^{0}(t)=pm left({frac {2}{3}}(t-t_{0})right)^{frac {3}{2}}qquad t-t_{0}>0}varphi _{pm }^{0}(t)=pm left({frac  {2}{3}}(t-t_{0})right)^{{{frac  {3}{2}}}}qquad t-t_{0}>0

Si possono così costruire delle funzioni che conservano la continuità a partire dalle due soluzioni trovate:


ψ+0(t)={φ+0(t)t>t00t≤toψ0(t)={φ0(t)t>t00t≤to{displaystyle psi _{+}^{0}(t)={begin{cases}varphi _{+}^{0}(t)&t>t_{0}\0&tleq t_{o}end{cases}}qquad psi _{-}^{0}(t)={begin{cases}varphi _{-}^{0}(t)&t>t_{0}\0&tleq t_{o}end{cases}}}psi _{+}^{0}(t)={begin{cases}varphi _{+}^{0}(t)&t>t_{0}\0&tleq t_{o}end{cases}}qquad psi _{-}^{0}(t)={begin{cases}varphi _{-}^{0}(t)&t>t_{0}\0&tleq t_{o}end{cases}}

che sono anch'esse soluzioni del problema definite sull'insieme R{displaystyle mathbb {R} }R. Inoltre, fissato un t1>t0{displaystyle t_{1}>t_{0}}t_{1}>t_{0} e posto:


φ±1(t)=±(23(t−t1))32t−t1>0{displaystyle varphi _{pm }^{1}(t)=pm left({frac {2}{3}}(t-t_{1})right)^{frac {3}{2}}qquad t-t_{1}>0}varphi _{pm }^{1}(t)=pm left({frac  {2}{3}}(t-t_{1})right)^{{{frac  {3}{2}}}}qquad t-t_{1}>0

si possono costruire nuove soluzioni dello stesso problema a partire a questa:


ψ±1(t)={φ±1(t)t>t10t≤t1{displaystyle psi _{pm }^{1}(t)={begin{cases}varphi _{pm }^{1}(t)&t>t_{1}\0&tleq t_{1}end{cases}}}psi _{pm }^{1}(t)={begin{cases}varphi _{pm }^{1}(t)&t>t_{1}\0&tleq t_{1}end{cases}}

definite anch'esse su R{displaystyle mathbb {R} }R. Tali soluzioni sono infinite, e se si rappresentano graficamente si ottiene una figura detta pennello di Peano. Il fatto che un problema di Cauchy può possedere infinite soluzioni è detto talvolta fenomeno di Peano, ed è dovuto al fatto che la derivata df/dy{displaystyle {df}/{dy}}{df}/{dy} non è limitata nel punto y=0{displaystyle y=0}y=0: per far fronte a questo problema vi è il teorema di esistenza globale.



Note |




  1. ^ Encyclopedia of Mathematics - Cauchy problem, su encyclopediaofmath.org. URL consultato il 06-01-2013.


  2. ^ Encyclopedia of Mathematics - Peano theorem, su encyclopediaofmath.org. URL consultato il 06-01-2013.


  3. ^ Elementary Differential Equations and Boundary Value Problems (4th Edition), W.E. Boyce, R.C. Diprima, Wiley International, John Wiley & Sons, 1986, ISBN 0-471-83824-1


  4. ^ Encyclopedia of Mathematics - Kovalevskaya theorem, su encyclopediaofmath.org. URL consultato il 06-01-2013.



Bibliografia |



  • (EN) Vladimir Igorevich Arnold (1988): Geometrical Methods in the Theory of Ordinary Differential Equations, 2nd ed., Springer, ISBN 0-387-96649-8

  • (EN) Vladimir Igorevich Arnold (1992): Ordinary Differential Equations, Springer, ISBN 3-540-54813-0

  • (EN) Martin Braun (1993): Differential Equations and their Applications. An Introduction to Applied Mathematics, 4th ed., Springer, ISBN 0-387-97894-1

  • (EN) Coddington, Earl A.; Levinson, Norman (1955) Theory of ordinary differential equations, New York, Toronto, London: McGraw-Hill Book Company, Inc. XII, 429 p. (1955).

  • (EN) D. Zwillinger (1997): Handbook of Differential Equations 3rd ed., Academic Press

  • (EN) P. L. Sachdev (1997): A Compendium on Nonlinear Ordinary Differential Equations, John Wiley, ISBN 0-471-53134-0

  • (EN) Po-Fang Hsieh, Yasutaka Sibuya (1999): Basic Theory of Ordinary Differential Equations, Springer, ISBN 0-387-98699-5

  • (EN) Philip Hartman (2002): Ordinary Differential Equations, 2nd ed., SIAM, ISBN 0-89871-510-5

  • (EN) A. D. Polyanin, V. F. Zaitsev (2003): Handbook of Exact Solutions for Ordinary Differential Equations, 2nd ed., Chapman & Hall / CRC Press, ISBN 1-58488-297-2

  • (EN) Refaat El Attar (2005): Ordinary Differential Equations, Lulu Press, ISBN 1-4116-3920-0



Voci correlate |




  • 34-XX sigla della sezione della MSC dedicata alle equazioni differenziali ordinarie.

  • Condizioni al contorno

  • Equazione differenziale esatta

  • Equazione differenziale lineare

  • Equazione differenziale lineare del secondo ordine

  • Equazione differenziale lineare di ordine superiore al primo

  • Funzione lipschitziana

  • Metodi di soluzione analitica per equazioni differenziali ordinarie

  • Metodi di soluzione numerica per equazioni differenziali ordinarie

  • Metodo delle differenze finite

  • Metodo delle variazioni delle costanti

  • Problema ai valori iniziali

  • Problema di Cauchy

  • Teorema di esistenza di Peano

  • Teorema di esistenza e unicità per un problema di Cauchy

  • Wronskiano



Collegamenti esterni |






  • Equazione differenziale ordinaria, su thes.bncf.firenze.sbn.it, Biblioteca Nazionale Centrale di Firenze. Modifica su Wikidata


  • (EN) Equazione differenziale ordinaria, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata

  • (EN) E.F. Mishchenko, Differential equation, ordinary, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.



MatematicaPortale Matematica: accedi alle voci di Wikipedia che trattano di matematica



Popular posts from this blog

Costa Masnaga

Fotorealismo

Sidney Franklin