Numerikus integrálás

A Wikipédiából, a szabad enciklopédiából

A numerikus integrálás közelítő eljárás az integrál kiszámítására.

A numerikus integrál az S értékét határozza meg közelítő módszerekkel

A numerikus analízisben, a numerikus integrálás számos algoritmust jelent, melyek segítségével egy határozott integrál kiszámítható.

A numerikus kvadratúra többé-kevésbé szinonimája a numerikus integrálásnak, különösen az egydimenziós integrálok esetében.

Többdimenziós numerikus integrálást néha kubatúrának is hívják.[1] A numerikus integrálás egy közelítő integrálási módszert jelent, melynek alkalmazásával a határozott integrálok értékét közelítőleg meg lehet határozni.

Tekintsük a következő integrált:

\int \limits _a^b\! f(x)\, dx.

Ha f(x) egy “jól viselkedő” függvény, integrálási határértékek jól definiáltak, akkor számos módszer áll rendelkezésre az integrál kiszámítására tetszőleges pontossággal.

Indokok numerikus integrál számítására[szerkesztés | forrásszöveg szerkesztése]

Számos oka lehet annak, hogy numerikus integrálásra lehet szükség. Lehet, hogy ’’f(x)’’ integrandus csak egy ponton ismert, például mintavételezés nyomán. Néhány beágyazott rendszer és más számítógépes alkalmazásnak is szüksége lehet numerikus integrálásra.

Az integrandus képlet ismert, de nehéz megtalálni az antideriváltat. Egy példa: ‘’f(x)’’ = exp(−‘’x’’’’2’’), melynek az antideriváltját nem lehet elemi formába felírni.

Lehetséges egy függvény antideriváltját szimbolikusan megtalálni, de könnyebb lehet numerikus közelítéssel kiszámolni az antideriváltat. Ilyen eset lehet, amikor az antiderivált egy végtelen sor, vagy szorzat.

Módszer egydimenziós integrálra[szerkesztés | forrásszöveg szerkesztése]

A numerikus integrálás általában az jelenti, hogy egy integrál közelítő értékét számoljuk ki.

Az integrandust véges pontokban határozzák meg, ezeket integrálási pontoknak is hívják, és ezen értékek súlyozott összegével közelítik az integrált. Az integrálási pontok és a súlyozás az alkalmazott módszertől és a kívánt pontosságtól függ.

Fontos része az analízisnek a közelítési hiba, a integrálási szám függvényében. Azok a módszerek a legjobbak, ahol legkevesebb becsléshez, a legkisebb hiba tartozik.

A „nyers erő” típusú numerikus integrálást lehet alkalmazni, amikor az integrandus „jól viselkedik” (például szakaszonként folytonos és korlátos), ilyenkor az integrál kiszámítása igen kis növekményekkel történhet.

Interpolációs kvadratúra szabályok[szerkesztés | forrásszöveg szerkesztése]

A kvadratúra szabályok többsége az interpolált függvényből származtatható, melyet aztán könnyű integrálni.[2].

Az interpoláció matematikai közelítő módszer, amely egy függvény nem ismert értékeire az ismert értékek alapján ad közelítést

A téglalap módszer illusztrálása

A legegyszerűbb módszer a téglalap-szabály. A téglalap-szabály alkalmazásakor az integrálandó függvény téglalapokkal közelítjük. Az interpolációs függvény konstans, és keresztül megy a keresett függvény egy-egy pontjain ((a+b)/2, f((a+b)/2)).

\int \limits _a^b f(x)\,dx \approx (b-a) \, f\left(\frac{a+b}{2}\right).
Trapezoid módszer illusztrálása

Az interpoláció lehet affin transzformáció, ahol az interpoláló függvény polinomként megy át az eredeti függvény pontjain (a, f(a)) és (b, f(b)). Egy affin transzformáció során a transzformált koordináták az eredeti koordináták lineáris függvényeként állnak elő. Ezt trapezoid-szabálynak nevezik.

\int \limits _a^b f(x)\,dx \approx (b-a) \, \frac{f(a) + f(b)}{2}.
Simpson módszer illusztrálása

Bármelyik módszernél növelhetjük a közelítés pontosságát azzal, hogy az intervallumot [a, b] feldaraboljuk n darab alintervallumra; minden alintervallumra kiszámoljuk a közelítést, és összeadjuk az eredményeket. Ezt összetett-szabálynak, kiterjesztett-szabálynak, vagy iterációs-szabálynak is hívják. Például az összetett trapezoid szabály:

\int \limits _a^b f(x)\,dx \approx \frac{b-a}{n} \left( {f(a) + f(b) \over 2} + \sum_{k=1}^{n-1} f \left( a+k \frac{b-a}{n} \right) \right)

ahol az alintervallumok [k h, (k+1) h], h = (ba)/n and k = 0, 1, 2, ..., n−1.

A Newton–Cotes-formula vagy Newton–Cotes-kvadratúraformulák (amiket Newton–Cotes-szabályoknak is neveznek) a numerikus integrálás egy másik módszere, ahol az integrálni kívánt intervallumot n+1 egyenlő távolságra (lépésközre) osztunk fel. Ezeket a módszereket Isaac Newtonról és Roger Cotesról nevezték el.

A Simpson-szabály, mely másodrendű polinomokra épül, szintén egy Newton–Cotes-formula. Ha megengedjük, hogy az intervallumok mérete változtatható legyen, akkor egy másik kvadratúra képlethez jutunk, melynek elnevezése Gauss-kvadratúra. A Gauss-kvadratúra szabály tipikusan nagyobb pontosságot ad, mint a Newton–Cotes-formula. Léteznek még más változtatható intervallumú kvadratúra módszerek, mint például Clenshaw–Curtis-kvadratúra (más néven Fejér-kvadratúra)

Adaptív algoritmusok[szerkesztés | forrásszöveg szerkesztése]

Az adaptív kvadratúra heurisztikus megközelítése: [3]

Extrapolációs módszerek[szerkesztés | forrásszöveg szerkesztése]

A Newton-Cotes-típusú kvadratúra szabály pontossága a kiértékelő pontok számától függ. Az eredmény jóval pontosabb lesz, ha a pontok száma nő, mivel ekkor a pontok közötti távolság csökken. Az extrapolációs módszerek részletes leírása Josef Stoer és Roland Bulirsch munkájában olvasható [4]

Konzervatív (a priori) hiba becslés[szerkesztés | forrásszöveg szerkesztése]

Legyen f egy korlátos első derivált az a,b] intervallumban. A Lagrange-féle középértéktétel f-re, ahol x < b

(x - a) f'(y_x) = f(x) - f(a)\,

néhány yx-re a [a,x] tartományban. Ha integráljuk x–et a-tól b'-ig, és vesszük az abszolút értéket, akkor:

\left| \int \limits _a^b f(x)\,dx - (b - a) f(a) \right|
  = \left| \int \limits _a^b (x - a) f'(y_x)\, dx \right|

Tovább közelíthetjük az integrált a jobb oldalon, az abszolút érték hozzáadásával, és f' behelyettesítésével a felső határnál

\left| \int \limits _a^b f(x)\,dx - (b - a) f(a) \right| \leq {(b - a)^2 \over 2} \sup_{a \leq x \leq b} \left| f'(x) \right| (**)

Mivel a ∫ab f(x) dx integrált (b − a)f(a) kvadratúra szabállyal közelítjük, akkor a hibánk nem lehet nagyobb, mint a jobb oldal (**). Ezt konvertálhatjuk egy hiba-analízisbe, a Riemann szummára (*), és kapjuk a felső határt:

{n^{-1} \over 2} \sup_{0 \leq x \leq 1} \left| f'(x) \right|

a hiba kifejezésre, ebben a speciális közelítésnél. Az integrálási módszert kombinálhatjuk az intervallum aritmetikával történő bizonyításra és ellenőrzésre.

Integrálás végtelen tartományokban[szerkesztés | forrásszöveg szerkesztése]

Végtelen intervallum[szerkesztés | forrásszöveg szerkesztése]

Egy módja a végtelen tartománnyal rendelkező integrálásnak,


\int \limits _{-\infty}^{+\infty}f(x) \, dx,

transzformálni egy olyan véges integrállá, ahol számos lehetséges véges változó határolja a tartományt, például:


\int \limits _{-\infty}^{+\infty} f(x) \, dx = \int \limits _{-1}^{+1} f\left( \frac{t}{1-t^2} \right) \frac{1+t^2}{(1-t^2)^2} \, dt,

Ezt az integrált a szokásos módon lehet kiszámítani.

Fél-végtelen intervallum[szerkesztés | forrásszöveg szerkesztése]

A fél-végtelen intervallummal rendelkező integrált a fentiekhez hasonló módon lehet átalakítani, például:


\int \limits _a^{+\infty}f(x) \, dx =\int \limits _0^1 f\left(a + \frac{1-t}{t}\right) \frac{dt}{t^2} .

vagy


\int \limits _{-\infty}^a f(x) \, dx = \int \limits _0^1 f\left(a - \frac{1-t}{t}\right) \frac{dt}{t^2}

Többdimenziós integrálok[szerkesztés | forrásszöveg szerkesztése]

A többdimenziós eset analóg az egydimenziós esettel a következő szempontból: ha meg van adva egy interpolációs formula, akkor annak segítségével kapunk egy integrációs képletet. Ezt ilyenkor kubatúra képletnek hívjuk. A lényeges különbség az egydimenziós esethez képest az, hogy most az integrációs tartományt is közelíteni kell.[2]

A többdimenziós integrálok közelítésénél a Fubini-tétel alkalmazható.

Monte Carlo[szerkesztés | forrásszöveg szerkesztése]

A Monte Carlo-módszert, és a kvázi Monte Carlo-módszert könnyű alkalmazni többdimenziós integrálokra, és esetleg nagyobb pontosságot adhat, mint az egydimenziós módszer ismétlése. Többféle Monte Carlo-módszer létezik, mint például, a Markov-láncos Monte Carlo-algoritmus, mely a Metropolis-Hastings-algoritmust, és a Gibbs-féle mintavételezési módszert tartalmazza.

Szórt hálózatok[szerkesztés | forrásszöveg szerkesztése]

A szórt hálózatok módszerét eredetileg Smolyak, orosz matematikus fejlesztette ki, többdimenziós kvadratúra függvények számára. Ez a módszer mindig az egydimenziós kvadratúra szabályon alapul, de egy igen csavaros kombinációja az egyváltozós eredményeknek.

Kapcsolat a differenciálegyenletekkel[szerkesztés | forrásszöveg szerkesztése]

Az alábbi integrál megoldása redukálható egy közönséges differenciálegyenlet kezdeti érték probléma körére.

\int \limits _a^b f(x)\, dx

Ha a fenti integrált I(b)-vel jelöljük, akkor az I függvény kielégíti a

 I'(x) = f(x), \quad I(a) = 0.

Közönséges differenciálegyenletre kidolgozott eljárás a Runge–Kutta-módszer.

Szabad szoftverek numerikus integrálásra[szerkesztés | forrásszöveg szerkesztése]

Irodalom[szerkesztés | forrásszöveg szerkesztése]

  • Philip J. Davis , Philip Rabinowitz: Methods of Numerical Integration. (hely nélkül): Prentice-Hall. 2007. 
  • George E. Forsythe, Michael A. Malcolm, Cleve B. Moler: Computer Methods for Mathematical Computations. (hely nélkül): Prentice-Hall. 1997. 
  • Josef Stoer and Roland Bulirsch: Introduction to Numerical Analysis. (hely nélkül): . New York: Springer-Verlag isbn=. 1980. 

Kapcsolódó szócikkek[szerkesztés | forrásszöveg szerkesztése]

Források[szerkesztés | forrásszöveg szerkesztése]

  1. Weisstein, Eric W.: Cubature. MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/Cubature.html (angolul)
  2. ^ a b http://www.tankonyvtar.hu/konyvek/numerikus-modszerek-1/numerikus-modszerek-1-5-081029-6?#index.257
  3. George E. Forsythe, Michael A. Malcolm, and Cleve B. Moler. Computer Methods for Mathematical Computations. Englewood Cliffs, NJ: Prentice-Hall, 1977. (See Chapter 5.)
  4. Josef Stoer and Roland Bulirsch. Introduction to Numerical Analysis. New York: Springer-Verlag, 1980. (See Chapter 3.)