Artiklar

7.6: Metoden för Frobenius II


I det här avsnittet diskuterar vi en metod för att hitta två linjärt oberoende Frobenius-lösningar av en homogen linjär andra ordning ekvation nära en vanlig singularpunkt i det fall där indikationsekvationen har en upprepad verklig rot. Som i föregående avsnitt betraktar vi ekvationer som kan skrivas som

[ label {eq: 7.6.1} x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0 ]

där ( alpha_0 ne0 ). Vi antar att den indikativa ekvationen (p_0 (r) = 0 ) har en upprepad verklig rot (r_1 ). I detta fall innebär sats 7.5.3 att ekvation ref {ekv: 7.6.1} har en lösning av formen

men ger inte en andra lösning (y_2 ) så att ( {y_1, y_2 } ) är en grundläggande uppsättning lösningar. Följande tillägg av Theorem 7.5.2 ger ett sätt att hitta en andra lösning.

Sats ( PageIndex {1} )

Låta

[ label {eq: 7.6.2} Ly = x ^ 2 ( alpha_0 + alpha_1x + alpha_2x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y, ]

där ( alpha_0 ne0 ) och definiera

[ begin {align *} p_0 (r) & = alpha_0r (r-1) + beta_0r + gamma_0, [4pt] p_1 (r) & = alpha_1r (r-1) + beta_1r + gamma_1 , [4pt] p_2 (r) & = alpha_2r (r-1) + beta_2r + gamma_2. end {align *} nonumber ]

Anta att (r ) är ett verkligt tal så att (p_0 (n + r) ) inte är noll för alla positiva heltal (n ), och definiera

[ starta {align *} a_0 (r) & = 1, a_1 (r) & = - {p_1 (r) over p_0 (r + 1)}, [10pt] a_n (r) & = - {p_1 (n + r-1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) över p_0 (n + r)}, quad n ge2. end {align *} nonumber ]

Sedan Frobenius-serien

[ label {eq: 7.6.3} y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n ]

uppfyller

[ label {ekv .: 7.6.4} Ly (x, r) = p_0 (r) x ^ r. ]

Dessutom(,)

[ label {eq: 7.6.5} { partial y over partial r} (x, r) = y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n, ]

och

[ label {eq: 7.6.6} L left ({ partial y over partial r} (x, r) right) = p'_0 (r) x ^ r + x ^ rp_0 (r) ln x. ]

Bevis

Sats 7.5.2 innebär ekvation ref {ekv: 7.6.4}. Differentierar formellt med avseende på (r ) i ekvation ref {ekv: 7.6.3} avkastning

[ börjar {justerad} { partiell y över delvis r} (x, r) & = {{ partiell över partiell r} (x ^ r) sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n} [10pt] & = {x ^ r ln x sum_ {n = 0} ^ infty a_n (r) x ^ n + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n} [10pt] & = y (x, r) ln x + x ^ r sum_ {n = 1} ^ infty a_n '(r) x ^ n, end {align} nonumber ]

vilket bevisar ekvation ref {ekv: 7.6.5}.

För att bevisa att ( partial y (x, r) / partial r ) uppfyller ekvation ref {eq: 7.6.6}, ser vi (y ) i ekvation ref {eq: 7.6.2} som en funktion (y = y (x, r) ) av två variabler, där prim indikerar partiell differentiering med avseende på (x ); Således,

[y '= y' (x, r) = { partial y over partial x} (x, r) quad text {och} quad y '' = y '' (x, r) = { partial ^ 2 y over partial x ^ 2} (x, r). nonumber ]

Med denna notation kan vi använda ekvation ref {eq: 7.6.2} för att skriva om ekvation ref {eq: 7.6.4} som

[ label {eq: 7.6.7} x ^ 2q_0 (x) { partial ^ 2 y over partial x ^ 2} (x, r) + xq_1 (x) { partial y over partial x } (x, r) + q_2 (x) y (x, r) = p_0 (r) x ^ r, ]

var

[ börjar {justerad} q_0 (x) & = alpha_0 + alpha_1x + alpha_2x ^ 2, [4pt] q_1 (x) & = beta_0 + beta_1x + beta_2x ^ 2, [4pt] q_2 (x ) & = gamma_0 + gamma_1x + gamma_2x ^ 2. [4pt] slut {justerad} ]

Differentiera båda sidor av ekvation ref {ekv: 7.6.7} med avseende på (r ) utbyten

[x ^ 2q_0 (x) { partial ^ 3y over partial r partial x ^ 2} (x, r) + xq_1 (x) { partial ^ 2y over partial r partial x} (x , r) + q_2 (x) { partial y over partial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x. inget nummer]

Genom att ändra ordningen på differentiering i de två första termerna till vänster kan vi skriva om detta som

[x ^ 2q_0 (x) { partial ^ 3 y over partial x ^ 2 partial r} (x, r) + xq_1 (x) { partial ^ 2 y over partial x partial r} (x, r) + q_2 (x) { partial y over partial r} (x, r) = p'_0 (r) x ^ r + p_0 (r) x ^ r ln x, nonumber ]

eller

[x ^ 2q_0 (x) { partial ^ 2 over partial x ^ 2} left ({ partial y over partial r} (x, r) right) + xq_1 (x) { partial over partial r} left ({ partial y over partial x} (x, r) right) + q_2 (x) { partial y over partial r} (x, r) = p ' _0 (r) x ^ r + p_0 (r) x ^ r ln x, nonumber ]

vilket motsvarar ekvation ref {ekv: 7.6.6}.

Sats ( PageIndex {2} )

Låt (L ) vara som i teorem ( PageIndex {1} ) och antag att den indikativa ekvationen (p_0 (r) = 0 ) har en upprepad riktig rot (r_1. ) Sedan

[y_1 (x) = y (x, r_1) = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n nonumber ]

och

[ label {eq: 7.6.8} y_2 (x) = { partial y over partial r} (x, r_1) = y_1 (x) ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n ]

bilda en grundläggande uppsättning lösningar av (Ly = 0. )

Bevis

Eftersom (r_1 ) är en upprepad rot av (p_0 (r) = 0 ), kan den indikativa polynom tas med som

[p_0 (r) = alpha_0 (r-r_1) ^ 2, nonumber ]

[p_0 (n + r_1) = alpha_0n ^ 2, nonumber ]

som inte är noll om (n> 0 ). Därför håller antagandena om teorem ( PageIndex {1} ) med (r = r_1 ), och ekvation ref {ekv: 7.6.4} innebär att (Ly_1 = p_0 (r_1) x ^ {r_1} = 0 ). Eftersom

[p_0 '(r) = 2 alpha (r-r_1) nonumber ]

det följer att (p_0 '(r_1) = 0 ), så ekvation ref {ekv: 7.6.6} innebär att

[Ly_2 = p_0 '(r_1) x ^ {r_1} + x ^ {r_1} p_0 (r_1) ln x = 0. Nonumber ]

Detta bevisar att (y_1 ) och (y_2 ) båda är lösningar på (Ly = 0 ). Vi lämnar beviset för att ( {y_1, y_2 } ) är en grundläggande uppsättning som en Övning 7.6.53.

Exempel ( PageIndex {1} )

Hitta en grundläggande uppsättning lösningar av

[ label {ekv .: 7.6.9} x ^ 2 (1-2x + x ^ 2) y '' - x (3 + x) y '+ (4 + x) y = 0. ]

Beräkna bara termerna med (x ^ {n + r_1} ), där (0 le n le4 ) och (r_1 ) är roten till den indikativa ekvationen.

Lösning

För den givna ekvationen är polynomerna definierade i sats ( PageIndex {1} )

[ börjar {justera *} p_0 (r) & = r (r-1) -3r + 4 [4pt] & = (r-2) ^ 2, [4pt] p_1 (r) & = -2r (r-1) -r + 1 [4pt] & = - (r-1) (2r + 1), [4pt] p_2 (r) & = r (r-1). end {align *} nonumber ]

Eftersom (r_1 = 2 ) är en upprepad rot för det indikativa polynomet (p_0 ), innebär sats ( PageIndex {2} ) att

[ label {eq: 7.6.10} y_1 = x ^ 2 sum_ {n = 0} ^ infty a_n (2) x ^ n quad mbox {and} quad y_2 = y_1 ln x + x ^ 2 sum_ {n = 1} ^ infty a_n '(2) x ^ n ]

bilda en grundläggande uppsättning Frobenius-lösningar av ekvation ref {ekv: 7.6.9}. För att hitta koefficienterna i dessa serier använder vi återkommande formler från Sats ( PageIndex {1} ):

[ label {eq: 7.6.11} begin {array} {lll} a_0 (r) & = 1, a_1 (r) & = - {p_1 (r) över p_0 (r + 1)} = - {(r-1) (2r + 1) over (r-1) ^ 2} = {2r + 1 över r-1}, a_n (r) & = - {p_1 (n + r -1) a_ {n-1} (r) + p_2 (n + r-2) a_ {n-2} (r) över p_0 (n + r)} & = {(n + r-2 ) vänster [(2n + 2r-1) a_ {n-1} (r) - (n + r-3) a_ {n-2} (r) höger] över (n + r-2) ^ 2} & = {{(2n + 2r-1) over (n + r-2)} a_ {n-1} (r) - {(n + r-3) over (n + r- 2)} a_ {n-2} (r)}, n ge2. end {array} ]

Differentierande avkastning

[ label {eq: 7.6.12} begin {array} {lll} a'_1 (r) & = - {3 over (r-1) ^ 2}, a'_n (r) & = {{2n + 2r-1 över n + r-2} a '_ {n-1} (r) - {n + r-3 över n + r-2} a' _ {n-2} (r)} & {- {3 over (n + r-2) ^ 2} a_ {n-1} (r) - {1 over (n + r-2) ^ 2} a_ {n -2} (r)}, quad n ge2. end {array} ]

Ställa in (r = 2 ) i ekvation ref {ekv: 7.6.11} och ekvation ref {ekv: 7.6.12} avkastning

[ label {eq: 7.6.13} begin {array} {lll} a_0 (2) & = 1, a_1 (2) & = 5, [10pt] a_n (2) & = {{ (2n + 3) över n} a_ {n-1} (2) - {(n-1) över n} a_ {n-2} (2)}, quad n ge2 end {array} ]

och

[ label {eq: 7.6.14} begin {array} {lll} a_1 '(2) & = -3, [10pt] a'_n (2) & = {{2n + 3 över n } a '_ {n-1} (2) - {n-1 över n} a' _ {n-2} (2) - {3 över n ^ 2} a_ {n-1} (2) - {1 över n ^ 2} a_ {n-2} (2)}, quad n ge2. end {array} ]

Beräkningar rekursivt med ekvation ref {ekv: 7.6.13} och ekvation ref {ekv: 7.6.14} ger

[a_0 (2) = 1, , a_1 (2) = 5, , a_2 (2) = 17, , a_3 (2) = {143 over3}, , a_4 (2) = {355 över3}, nonumber ]

och

[a_1 '(2) = - 3, , a_2' (2) = - {29 over2}, , a_3 '(2) = - {859 over18}, , a_4' (2) = - {4693 över36}. Nonumber ]

Att ersätta dessa koefficienter i ekvation ref {ekv: 7.6.10} ger utbyten

[y_1 = x ^ 2 vänster (1 + 5x + 17x ^ 2 + {143 över3} x ^ 3 + {355 över3} x ^ 4 + cdots höger) nonumber ]

och

[y_2 = y_1 ln x -x ^ 3 left (3+ {29 over2} x + {859 over18} x ^ 2 + {4693 over36} x ^ 3 + cdots right). inget nummer ]

Eftersom återkommande formel Ekvation ref {ekv: 7.6.11} innefattar tre termer är det inte möjligt att erhålla en enkel uttrycklig formel för koefficienterna i Frobenius-lösningarna i ekvation ref {ekv: 7.6.9}. Som vi såg i de föregående avsnitten involverar återställningsformeln för ( {a_n (r) } ) bara två termer om antingen ( alpha_1 = beta_1 = gamma_1 = 0 ) eller ( alpha_2 = beta_2 = gamma_2 = 0 ) i ekvation ref {ekv: 7.6.1}. I detta fall är det ofta möjligt att hitta uttryckliga formler för koefficienterna. De följande två exemplen illustrerar detta.

Exempel ( PageIndex {2} )

Hitta en grundläggande uppsättning Frobenius-lösningar av

[ label {ekv .: 7.6.15} 2x ^ 2 (2 + x) y '' + 5x ^ 2y '+ (1 + x) y = 0. ]

Ge uttryckliga formler för koefficienterna i lösningarna.

Lösning

För den givna ekvationen är polynomerna definierade i sats ( PageIndex {1} )

[ begin {array} {ccccc} p_0 (r) & = 4r (r-1) +1 & = (2r-1) ^ 2, [4pt] p_1 (r) & = 2r (r-1 ) + 5r + 1 & = (r + 1) (2r + 1), [4pt] p_2 (r) & = 0. slut {array} nonumber ]

Eftersom (r_1 = 1/2 ) är en upprepad noll av indikatorpolynomet (p_0 ), innebär sats ( PageIndex {2} ) att

[ label {eq: 7.6.16} y_1 = x ^ {1/2} sum_ {n = 0} ^ infty a_n (1/2) x ^ n ]

och

[ label {eq: 7.6.17} y_2 = y_1 ln x + x ^ {1/2} sum_ {n = 1} ^ infty a_n '(1/2) x ^ n ]

bilda en grundläggande uppsättning Frobenius-lösningar av ekvation ref {ekv: 7.6.15}. Eftersom (p_2 equiv0 ) reduceras återkommande formler i sats ( PageIndex {1} ) till

[ begin {align *} a_0 (r) & = 1, a_n (r) & = - {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} ( r), [10pt] & = - {(n + r) (2n + 2r-1) over (2n + 2r-1) ^ 2} a_ {n-1} (r), [10pt ] & = - {n + r over2n + 2r-1} a_ {n-1} (r), quad n ge0. end {align *} nonumber ]

Vi överlåter det till dig att visa det

[ label {eq: 7.6.18} a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r over2j + 2r-1}, quad n ge0. ]

Inställning av (r = 1/2 ) avkastning

[ label {eq: 7.6.19} begin {array} {ccl} a_n (1/2) & = (-1) ^ n prod_ {j = 1} ^ n {j + 1/2 over2j } = (-1) ^ n prod_ {j = 1} ^ n {2j + 1 over4j}, [10pt] & = {(-1) ^ n prod_ {j = 1} ^ n (2j +1) over4 ^ nn!}, Quad n ge0. end {array} ]

Att ersätta detta med ekvation ref {ekv: 7.6.16} ger utbyten

[y_1 = x ^ {1/2} sum_ {n = 0} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} x ^ n. nonumber ]

För att få (y_2 ) i ekvation ref {ekv: 7.6.17} måste vi beräkna (a_n '(1/2) ) för (n = 1 ), (2 ),…. Vi gör detta genom logaritmisk differentiering. Från ekvation ref {ekv: 7.6.18},

[| a_n (r) | = prod_ {j = 1} ^ n {| j + r | over | 2j + 2r-1 |}, quad n ge1. nonumber ]

Därför

[ ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r | - ln | 2j + 2r-1 | right). inget nummer]

Differentiering med avseende på (r ) avkastning

[{a'_n (r) över a_n (r)} = sum ^ n_ {j = 1} vänster ({1 över j + r} - {2 over2j + 2r-1} höger) . inget nummer]

Därför

[a'_n (r) = a_n (r) sum ^ n_ {j = 1} vänster ({1 över j + r} - {2 over2j + 2r-1} höger). inget nummer]

Ställ in (r = 1/2 ) här och återkalla ekvation ref {ekv: 7.6.19} avkastning

[ label {eq: 7.6.20} a'_n (1/2) = {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} left ( sum_ {j = 1} ^ n {1 över j + 1/2} - sum_ {j = 1} ^ n {1 över j} höger). ]

Eftersom

[{1 över j + 1/2} - {1 över j} = {jj-1/2 över j (j + 1/2)} = - {1 över j (2j + 1)} , inget nummer]

Ekvation ref {ekv: 7.6.20} kan skrivas om som

[a'_n (1/2) = - {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn!} sum_ {j = 1} ^ n {1 över j (2j + 1)}. inget nummer]

Därför från ekvation ref {ekv: 7.6.17},

[y_2 = y_1 ln xx ^ {1/2} sum_ {n = 1} ^ infty {(- 1) ^ n prod_ {j = 1} ^ n (2j + 1) over4 ^ nn! } vänster ( sum_ {j = 1} ^ n {1 över j (2j + 1)} höger) x ^ n. inget nummer]

Exempel ( PageIndex {3} )

Hitta en grundläggande uppsättning Frobenius-lösningar av

[ label {ekv .: 7.6.21} x ^ 2 (2-x ^ 2) y '' - 2x (1 + 2x ^ 2) y '+ (2-2x ^ 2) y = 0. ]

Ge uttryckliga formler för koefficienterna i lösningarna.

Lösning

För ekvation ref {ekv: 7.6.21} är polynomerna definierade i sats ( PageIndex {1} )

[ begin {align *} p_0 (r) & = 2r (r-1) -2r + 2 & = 2 (r-1) ^ 2, [4pt] p_1 (r) & = 0, [4pt] p_2 (r) & = -r (r-1) -4r-2 & = - (r + 1) (r + 2). end {align *} nonumber ]

Som i avsnitt 7.5, eftersom (p_1 equiv0 ), antyder återkommande formler för sats ( PageIndex {1} ) att (a_n (r) = 0 ) om (n ) är udda och

[ börjar {justera *} a_0 (r) & = 1, a_ {2m} (r) & = - {p_2 (2m + r-2) över p_0 (2m + r)} a_ {2m- 2} (r) [10pt] & = {(2m + r-1) (2m + r) over2 (2m + r-1) ^ 2} a_ {2m-2} (r) [10pt ] & = {2m + r over2 (2m + r-1)} a_ {2m-2} (r), quad m ge1. end {align *} nonumber ]

Eftersom (r_1 = 1 ) är en upprepad rot för det indikativa polynom (p_0 ), innebär sats ( PageIndex {2} ) att

[ label {eq: 7.6.22} y_1 = x sum_ {m = 0} ^ infty a_ {2m} (1) x ^ {2m} ]

och

[ label {eq: 7.6.23} y_2 = y_1 ln x + x sum_ {m = 1} ^ infty a '_ {2m} (1) x ^ {2m} ]

bilda en grundläggande uppsättning Frobenius-lösningar av ekvation ref {ekv: 7.6.21}. Vi överlåter det till dig att visa det

[ label {eq: 7.6.24} a_ {2m} (r) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + r over2j + r-1}. ]

Ställa in (r = 1 ) avkastning

[ label {eq: 7.6.25} a_ {2m} (1) = {1 over2 ^ m} prod_ {j = 1} ^ m {2j + 1 over2j} = { prod_ {j = 1 } ^ m (2j + 1) over4 ^ mm!}, ]

och ersätter detta till ekvation ref {ekv: 7.6.22} avkastning

[y_1 = x sum_ {m = 0} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} x ^ {2m}. inget nummer]

För att få (y_2 ) i ekvation ref {ekv: 7.6.23} måste vi beräkna (a_ {2m} '(1) ) för (m = 1 ), (2 ), ... . Återigen använder vi logaritmisk differentiering. Från ekvation ref {ekv: 7.6.24},

[| a_ {2m} (r) | = {1 over2 ^ m} prod_ {j = 1} ^ m {| 2j + r | over | 2j + r-1 |}. nonumber ]

Tar logaritmer avkastning

[ ln | a_ {2m} (r) | = -m ln2 + sum ^ m_ {j = 1} left ( ln | 2j + r | - ln | 2j + r-1 | höger) .inget nummer]

Differentiering med avseende på (r ) avkastning

[{a '_ {2m} (r) över a_ {2m} (r)} = sum ^ m_ {j = 1} vänster ({1 över 2j + r} - {1 over2j + r -1} höger). Nonumber ]

Därför

[a '_ {2m} (r) = a_ {2m} (r) sum ^ m_ {j = 1} left ({1 över 2j + r} - {1 over2j + r-1} höger). nonumber ]

Ställa in (r = 1 ) och återkalla ekvation ref {ekv: 7.6.25} avkastning

[ label {eq: 7.6.26} a '_ {2m} (1) = {{ prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} sum_ {j = 1} ^ m vänster ({1 over2j + 1} - {1 over2j} höger)}. ]

Eftersom

[{1 over2j + 1} - {1 over2j} = - {1 over2j (2j + 1)}, nonumber ]

Ekvation ref {ekv: 7.6.26} kan skrivas om som

[a_ {2m} '(1) = - frac { prod_ {j = 1} ^ {m} (2j + 1)} {2 cdot 4 ^ {m} m!} sum_ {j = 1 } ^ {m} frac {1} {j (2j + 1)} nonumber ]

Att ersätta detta med ekvation ref {ekv: 7.6.23} ger utbyten

[y_2 = y_1 ln x- {x over2} sum_ {m = 1} ^ infty { prod_ {j = 1} ^ m (2j + 1) over4 ^ mm!} left ( sum_ {j = 1} ^ m {1 över j (2j + 1)} höger) x ^ {2m}. nonumber ]

Om lösningen (y_1 = y (x, r_1) ) av (Ly = 0 ) minskar till en begränsad summa, så är det svårt att använda logaritmisk differentiering för att erhålla koefficienterna ( {a_n '(r_1) } ) i den andra lösningen. Nästa exempel illustrerar denna svårighet och visar hur man kan övervinna den.

Exempel ( PageIndex {4} )

Hitta en grundläggande uppsättning Frobenius-lösningar av

[ label {ekv .: 7.6.27} x ^ 2y '' - x (5-x) y '+ (9-4x) y = 0. ]

Ge uttryckliga formler för koefficienterna i lösningarna.

Lösning

För ekvation ref {ekv: 7.6.27} är polynomerna definierade i sats ( PageIndex {1} )

[ börja {justera *} p_0 (r) & = r (r-1) -5r + 9 & = (r-3) ^ 2, [4pt] p_1 (r) & = r-4, [4pt] p_2 (r) & = 0. end {align *} nonumber ]

Eftersom (r_1 = 3 ) är en upprepad noll av indikatorpolynomet (p_0 ), innebär sats ( PageIndex {2} ) att

[ label {eq: 7.6.28} y_1 = x ^ 3 sum_ {n = 0} ^ infty a_n (3) x ^ n ]

och

[ label {eq: 7.6.29} y_2 = y_1 ln x + x ^ 3 sum_ {n = 1} ^ infty a_n '(3) x ^ n ]

är linjärt oberoende Frobenius-lösningar av ekvation ref {ekv: 7.6.27}.För att hitta koefficienterna i ekvation ref {ekv: 7.6.28} använder vi återkommande formler

[ starta {align *} a_0 (r) & = 1, a_n (r) & = - {p_1 (n + r-1) over p_0 (n + r)} a_ {n-1} ( r) [10pt] & = - {n + r-5 over (n + r-3) ^ 2} a_ {n-1} (r), quad n ge1. end {align *} nonumber ]

Vi överlåter det till dig att visa det

[ label {eq: 7.6.30} a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {j + r-5 over (j + r-3) ^ 2}. ]

Inställning (r = 3 ) här ger

[a_n (3) = (- 1) ^ n prod_ {j = 1} ^ n {j-2 över j ^ 2}, nonumber ]

så (a_1 (3) = 1 ) och (a_n (3) = 0 ) om (n ge2 ). Att ersätta dessa koefficienter i ekvation ref {ekv: 7.6.28} ger utbyten

[y_1 = x ^ 3 (1 + x). nonumber ]

För att få (y_2 ) i ekvation ref {ekv: 7.6.29} måste vi beräkna (a_n '(3) ) för (n = 1 ), (2 ),…. Låt oss först försöka logaritmisk differentiering. Från ekvation ref {ekv: 7.6.30},

[| a_n (r) | = prod_ {j = 1} ^ n {| j + r-5 | over | j + r-3 | ^ 2}, quad n ge1, nonumber ]

[ ln | a_n (r) | = sum ^ n_ {j = 1} left ( ln | j + r-5 | -2 ln | j + r-3 | höger). nonumber ]

Differentiering med avseende på (r ) avkastning

[{a'_n (r) över a_n (r)} = sum ^ n_ {j = 1} vänster ({1 över j + r-5} - {2 över j + r-3} höger). nonumber ]

Därför

[ label {eq: 7.6.31} a'_n (r) = a_n (r) sum ^ n_ {j = 1} vänster ({1 över j + r-5} - {2 över j + r-3} höger). ]

Vi kan emellertid inte helt enkelt ställa in (r = 3 ) här om (n ge2 ), eftersom parentesuttrycket i summan som motsvarar (j = 2 ) innehåller termen (1 / (r -3) ). Eftersom (a_n (3) = 0 ) för (n ge2 ) är formeln ekvation ref {ekv: 7.6.31} för (a_n '(r) ) faktiskt en obestämd form vid (r = 3 ).

Vi övervinner denna svårighet enligt följande. Från ekvation ref {ekv: 7.6.30} med (n = 1 ),

[a_1 (r) = - {r-4 over (r-2) ^ 2}. nonumber ]

Därför

[a_1 '(r) = {r-6 over (r-2) ^ 3}, nonumber ]

[ label {ekv .: 7.6.32} a_1 '(3) = - 3. ]

Från ekvation ref {ekv: 7.6.30} med (n ge2 ),

[a_n (r) = (- 1) ^ n (r-4) (r-3) , { prod_ {j = 3} ^ n (j + r-5) över prod_ {j = 1 } ^ n (j + r-3) ^ 2} = (r-3) c_n (r), nonumber ]

var

[c_n (r) = (- 1) ^ n (r-4) , { prod_ {j = 3} ^ n (j + r-5) över prod_ {j = 1} ^ n (j + r-3) ^ 2}, quad n ge2. nonumber ]

Därför

[a_n '(r) = c_n (r) + (r-3) c_n' (r), quad n ge2, nonumber ]

vilket innebär att (a_n '(3) = c_n (3) ) om (n ge3 ). Vi överlåter det till dig att verifiera det

[a_n '(3) = c_n (3) = {(- 1) ^ {n + 1} över n (n-1) n!}, quad n ge2. nonumber ]

Att ersätta detta och ekvation ref {ekv: 7.6.32} i ekvation ref {ekv: 7.6.29} ger utbyten

[y_2 = x ^ 3 (1 + x) ln x-3x ^ 4-x ^ 3 { sum_ {n = 2} ^ infty {(-1) ^ n över n (n-1) n !} x ^ n}. nonumber ]


40 CFR § 112.7 - Allmänna krav för planer för förebyggande av spill, kontroll och motåtgärder.

Om du är ägare eller operatör av en anläggning som omfattas av denna del måste du utarbeta en plan i enlighet med god teknisk praxis. Planen måste ha fullständigt godkännande av ledningen på en myndighetsnivå för att begå nödvändiga resurser för att fullt ut genomföra planen. Du måste förbereda planen skriftligt. Om du inte följer sekvensen som anges i detta avsnitt för planen måste du utarbeta en motsvarande plan som är godtagbar för den regionala administratören som uppfyller alla tillämpliga krav som anges i denna del, och du måste komplettera den med ett avsnitt som korsrefererar till placering av kraven i denna del och motsvarande krav i den andra förebyggande planen. Om planen kräver ytterligare anläggningar eller procedurer, metoder eller utrustning som ännu inte är fullt funktionsduglig måste du diskutera dessa artiklar i separata stycken och måste förklara detaljerna om installation och driftstart. Som beskrivs någon annanstans i detta avsnitt måste du också:

(1) Inkludera en diskussion om anläggningens överensstämmelse med kraven i denna del.

(2) Följ alla tillämpliga krav som anges i denna del. Med undantag av vad som anges i § 112.6 kan din plan avvika från kraven i stycken (g), (h) (2) och (3) och i i detta avsnitt och kraven i stycken B och C i denna del, med undantag av de sekundära inneslutningskraven i punkterna (c) och (h) (1) i detta avsnitt, och §§ 112.8 (c) (2), 112.8 (c) (11), 112.9 (c) (2), 112.9 ( d) (3), 112.10 (c), 112.12 (c) (2) och 112.12 (c) (11), i tillämpliga fall för en specifik anläggning, om du tillhandahåller motsvarande miljöskydd på något annat sätt för att förhindra spill, kontroll eller motåtgärd. Om din plan inte överensstämmer med de tillämpliga kraven i stycken (g), (h) (2) och (3) och i i detta avsnitt, eller kraven i del B och C i denna del, förutom den sekundära inneslutningskrav i punkt c och h (1) i detta avsnitt, och §§ 112.8 (c) (2), 112.8 (c) (11), 112.9 (c) (2), 112.10 (c), 112.12 (c) (2) och 112.12 (c) (11) måste du ange skälen för bristande överensstämmelse i din plan och i detalj beskriva alternativa metoder och hur du kommer att uppnå motsvarande miljöskydd. Om den regionala administratören fastställer att de åtgärder som beskrivs i din plan inte ger motsvarande miljöskydd kan han kräva att du ändrar din plan enligt procedurerna i § 112.4 (d) och (e).

(3) Beskriv i din plan den fysiska utformningen av anläggningen och inkludera ett anläggningsdiagram som måste markera platsen och innehållet för varje fast oljelagringsbehållare och förvaringsområdet där mobila eller bärbara containrar finns. Anläggningsdiagrammet måste identifiera platsen för och markera som "undantagna" underjordiska tankar som annars är undantagna från kraven i denna del enligt § 112.1 (d) (4). Anläggningsdiagrammet måste också innehålla alla överföringsstationer och anslutningsrör, inklusive samlingsledningar inom anläggningen som annars är undantagna från kraven i denna del enligt § 112.1 (d) (11). Du måste också adressera i din plan:

(i) Oljetypen i varje fast behållare och dess lagringskapacitet. För mobila eller bärbara containrar, antingen ge typ av olja och lagringskapacitet för varje container eller ge en uppskattning av det potentiella antalet mobila eller bärbara containrar, typerna av olja och förväntad lagringskapacitet

(ii) Åtgärder för att förebygga utsläpp inklusive procedurer för rutinhantering av produkter (lastning, lossning och överföring av anläggningar etc.)

(iii) Kontroller för utsläpp eller dränering, såsom sekundär inneslutning runt behållare och andra strukturer, utrustning och procedurer för kontroll av utsläpp

(iv) Motåtgärder för upptäckt, svar och rengöring av utsläpp (både anläggningens förmåga och de som kan krävas av en entreprenör)

(v) Metoder för bortskaffande av återvunnet material i enlighet med tillämpliga lagkrav och

(vi) Kontaktlista och telefonnummer för anläggningens svarskoordinator, National Response Center, saneringsentreprenörer som du har ett avtal om att svara på och alla lämpliga federala, statliga och lokala myndigheter som måste kontaktas i händelse av en ansvarsfrihet enligt beskrivningen i § 112.1 (b).

(4) Om du inte har lämnat in en svarsplan enligt § 112.20, ge information och förfaranden i din plan för att göra det möjligt för en person som rapporterar en ansvarsfrihet som beskrivs i § 112.1 (b) att relatera information om den exakta adressen eller platsen och telefonnumret för anläggning datum och tid för utsläpp, typen av material som släpps ut uppskattningar av den totala utsläppsmängden uppskattningar av den utsläppta mängden som beskrivs i § 112.1 (b) källan till utsläppet en beskrivning av alla berörda medier orsaken till utsläppet skador eller skador orsakade av utsläppsåtgärder som används för att stoppa, ta bort och mildra effekterna av utsläppet oavsett om evakuering kan behövas och namnen på individer och / eller organisationer som också har kontaktats.

(5) Om du inte har lämnat in en svarsplan enligt § 112.20, organiser delar av planen som beskriver förfaranden som du kommer att använda när en utsläpp sker på ett sätt som gör dem lättanvändbara i en nödsituation och inkludera lämpligt stödmaterial som bilagor.

(b) Om erfarenheten indikerar en rimlig potential för utrustningsfel (såsom lastning eller lossning av utrustning, tanköverflöde, brott eller läckage eller annan utrustning som är känd för att vara en utsläppskälla), inkludera i din plan en förutsägelse av riktning, flödeshastighet och total mängd olja som kan släppas ut från anläggningen som ett resultat av varje typ av större utrustningsfel.

(c) Tillhandahålla lämplig inneslutning och / eller avledande konstruktioner eller utrustning för att förhindra utsläpp enligt beskrivningen i § 112.1 (b), förutom enligt vad som anges i punkt k) i detta avsnitt för kvalificerad oljefylld driftutrustning, och förutom enligt vad som anges i § 112.9 (d) (3) för flödeslinjer och samlingslinjer inom anläggningar vid en oljeproduktionsanläggning. Hela inneslutningssystemet, inklusive väggar och golv, måste kunna innehålla olja och måste vara konstruerat så att utsläpp från ett primärt inneslutningssystem, såsom en tank, inte kommer ut ur inneslutningssystemet innan rengöring sker. För att bestämma metoden, designen och kapaciteten för sekundär inneslutning behöver du bara ta itu med det typiska felläget och den mest troliga mängden olja som skulle släppas ut. Sekundär inneslutning kan vara antingen aktiv eller passiv i utformningen. Du måste åtminstone använda något av följande förebyggande system eller motsvarande:

(i) Diker, bermar eller stödmurar som är tillräckligt ogenomträngliga för att innehålla olja

(iii) Sumpar och uppsamlingssystem

(iv) Kulvert, rännor eller andra dräneringssystem

(v) Stammar, bommar eller andra hinder

(2) För anläggningar till havs:

(i) Bromsa eller droppa kokkärl eller

(ii) Sumpar och uppsamlingssystem.

(d) Förutsatt att din plan är certifierad av en licensierad professionell ingenjör enligt § 112.3 (d), eller, i fallet med en kvalificerad anläggning som uppfyller kriterierna i § 112.3 (g), är relevanta avsnitt i din plan certifierade av en licensierad professionell ingenjör enligt § 112.6 (d), om du bestämmer att installationen av någon av de konstruktioner eller utrustningsdelar som anges i punkterna (c) och (h) (1) i detta avsnitt, och §§ 112.8 (c) ( 2), 112.8 (c) (11), 112.9 (c) (2), 112.10 (c), 112.12 (c) (2) och 112.12 (c) (11) för att förhindra utsläpp enligt beskrivningen i § 112.1 ( b) från någon landanläggning eller offshore-anläggning inte är praktiskt möjligt, måste du tydligt förklara i din plan varför sådana åtgärder inte är praktiska för bulkförvaringsbehållare, genomföra både periodisk integritetstestning av behållarna och periodisk integritet och läckagetestning av ventiler och rörledningar och om du inte har lämnat in en svarsplan enligt § 112.20, ange följande i din plan:

(1) En beredskapsplan för oljeutsläpp enligt bestämmelserna i del 109 i detta kapitel.

(2) Ett skriftligt åtagande från arbetskraft, utrustning och material som krävs för att snabbt kunna kontrollera och avlägsna all utsläppt mängd olja som kan vara skadligt.

(e) Inspektioner, tester och register. Genomför inspektioner och tester som krävs enligt denna del i enlighet med skriftliga procedurer som du eller den certifierande ingenjören utvecklar för anläggningen. Du måste hålla dessa skriftliga förfaranden och ett register över inspektioner och tester, undertecknade av lämplig handledare eller inspektör, med SPCC-planen under en period av tre år. Registreringar av inspektioner och tester som hålls under vanliga och sedvanliga affärsmetoder är tillräckliga för ändamålen i denna punkt.

(f) Förfaranden för personal, utbildning och ansvarsfrihet.

(1) Träna åtminstone din oljehanteringspersonal i drift och underhåll av utrustning för att förhindra utsläppsprocedurens tillämpliga protokoll gällande föroreningskontrolllagar, regler och föreskrifter allmänna anläggningsdrift och innehållet i anläggningens SPCC-plan.

(2) Utse en person vid varje tillämplig anläggning som ansvarar för förebyggande av utsläpp och som rapporterar till anläggningsförvaltningen.

(3) Planera och genomföra utsläppsförebyggande genomgångar för din oljehanteringspersonal minst en gång om året för att säkerställa adekvat förståelse för SPCC-planen för den anläggningen. Sådana genomgångar måste belysa och beskriva kända urladdningar som beskrivs i § 112.1 (b) eller fel, felaktiga komponenter och alla nyligen utvecklade försiktighetsåtgärder.

g) Säkerhet (exklusive anläggningar för oljeproduktion). Beskriv i din plan hur du säkerställer och kontrollerar åtkomst till oljehanterings-, bearbetnings- och lagringsområdena säkra huvudflödes- och dräneringsventiler förhindrar obehörig åtkomst till startkontroller på oljepumpar säkra ur drift och lastning / lossning av oljeledningar och adresser lämpligheten av säkerhetsbelysning för att både förhindra vandalism och hjälpa till att upptäcka oljeutsläpp.

h) Last- / lossningsställ för tankbil och tankbil (exklusive anläggningar till havs).

(1) Om dränering av lastnings- / lossningsställ inte strömmar in i ett avrinningsområde eller behandlingsanläggning som är utformad för att hantera utsläpp, använd ett snabbt dräneringssystem för lastnings- / lossningsställ för tankbil eller tankbil. Du måste utforma ett inneslutningssystem för att rymma åtminstone den maximala kapaciteten för varje enskilt fack i en tankbil eller tankbil lastad eller lossad på anläggningen.

(2) Tillhandahålla ett förreglat varningsljus eller ett fysiskt barriärsystem, varningsskyltar, hjulspärrar eller fordonsbromsförreglingssystem i området intill ett lastnings- / lossningsställ, för att förhindra att fordon avgår innan fullständig frånkoppling av flexibla eller fasta oljeöverföringsledningar.

(3) Före påfyllning och avgång av tankbilar eller tankbilar, kontrollera noggrant för utsläpp av den nedersta avloppet och alla utlopp från sådana fordon och se till att de dras åt, justeras eller byts ut för att förhindra utsläpp av vätska under genomresa.

(i) Om en fältkonstruerad ovanjordisk container genomgår en reparation, ändring, rekonstruktion eller en serviceändring som kan påverka risken för urladdning eller fel på grund av spröd fraktur eller annan katastrof, eller har släppt ut olja eller misslyckats på grund av spröd frakturfel eller annan katastrof, utvärdera behållaren för risk för urladdning eller fel på grund av spröd fraktur eller annan katastrof, och vid behov vidta lämpliga åtgärder.

(j) Utöver de minimala förebyggande standarderna som anges i detta avsnitt, inkludera i din plan en fullständig diskussion om överensstämmelse med tillämpliga krav och andra effektiva förfaranden för förebyggande av utsläpp och inneslutning som anges i denna del eller tillämpliga strängare statliga regler, förordningar, och riktlinjer.

(k) Kvalificerad oljefylld operativ utrustning. Ägaren eller operatören av en anläggning med oljefylld driftutrustning som uppfyller kvalifikationskriterierna i punkt k (1) i detta underavsnitt kan välja att för denna kvalificerade oljefyllda driftsutrustning implementera de alternativa kraven som beskrivs i stycke (k) (2) i detta underavsnitt i stället för allmän sekundär inneslutning som krävs i punkt c i detta avsnitt.

(1) Kvalificeringskriterier - Rapporterbar utsläppshistoria: Ägaren eller operatören av en anläggning som inte har haft en enda urladdning som beskrivs i § 112.1 (b) från oljefylld driftutrustning som överstiger 1000 US gallon eller inga två utsläpp som beskrivs i § 112.1 (b) från oljefylld driftsutrustning som var och en överstiger 42 US gallon inom någon tolvmånadersperiod under de tre åren före SPCC-planens certifieringsdatum, eller sedan den har blivit föremål för denna del om anläggningen har varit i drift i mindre än tre år (andra än oljeutsläpp som beskrivs i § 112.1 (b) som är resultatet av naturkatastrofer, krigshandlingar eller terrorism) och

(2) Alternativa krav till allmän sekundär inneslutning. Om sekundär inneslutning inte tillhandahålls för kvalificerad oljefylld driftsutrustning enligt punkt c i detta avsnitt måste ägaren eller operatören av en anläggning med kvalificerad oljefylld driftsutrustning:

(i) Upprätta och dokumentera anläggningsprocedurer för inspektioner eller ett övervakningsprogram för att upptäcka fel på utrustningen och / eller urladdning och

(ii) Om du inte har skickat in en svarsplan enligt § 112.20, ange följande i din Plan:

(A) En beredskapsplan för oljeutsläpp enligt bestämmelserna i del 109 i detta kapitel.

(B) Ett skriftligt åtagande från arbetskraft, utrustning och material som krävs för att snabbt kunna kontrollera och avlägsna utsläppt mängd olja som kan vara skadligt.


Innehåll

Låta positiv och icke-negativ beskriver respektive matriser med uteslutande positiva reella tal som element och matriser med uteslutande icke-negativa reella tal som element. Egenvärdena för en riktig kvadratmatris A är komplexa tal som utgör matrisens spektrum. Matrisförmåganas exponentiella tillväxttakt A k som k → ∞ styrs av egenvärdet för A med det största absoluta värdet (modul). Satsen Perron – Frobenius beskriver egenskaperna för den ledande egenvärdet och för motsvarande egenvektorer när A är en icke-negativ verklig kvadratmatris. Tidiga resultat berodde på Oskar Perron (1907) och gällde positiva matriser. Senare fann Georg Frobenius (1912) sin utvidgning till vissa klasser av icke-negativa matriser.

Positiva matriser Redigera

  1. Det finns ett positivt reellt tal r, ringde Perron rot eller den Perron – Frobenius egenvärde (även kallad ledande egenvärde eller dominerande egenvärde), Så att r är en egenvärde för A och alla andra egenvärden λ (möjligen komplex) i absolut värde är strikt mindre än r , |λ| & lt r. Således är spektralradien ρ (A) < displaystyle rho (A)> lika med r. Om matriskoefficienterna är algebraiska innebär detta att egenvärdet är ett Perron-tal.
  2. Egenvärdet Perron – Frobenius är enkelt: r är en enkel rot till det karakteristiska polynom av A. Följaktligen är egenspace associerat med r är endimensionell. (Detsamma gäller för vänster eigenspace, dvs. eigenspace för A T , transponera av A.)
  3. Det finns en egenvektor v = (v1. vn) T av A med egenvärde r så att alla komponenter i v är positiva: A v = r v, vi & gt 0 för 1 ≤ in. (Respektivt finns det en positiv vänster egenvektor w : w T A = r w T , wi & gt 0.) Det är känt i litteraturen under många variationer som Perron vektor, Perron egenvektor, Perron-Frobenius egenvektor, ledande egenvektor, eller dominerande egenvektor.
  4. Det finns inga andra positiva (dessutom icke-negativa) egenvektorer förutom positiva multiplar av v (respektive vänster egenvektorer utom w), dvs alla andra egenvektorer måste ha minst en negativ eller icke-verklig komponent.
  5. lim k → ∞ A k / r k = v w T < displaystyle lim _A ^/ r ^= vw ^>, där vänster och höger egenvektorer för A normaliseras så att w T v = 1. Dessutom matrisen v w T är projektionen på egenspace motsvarande r. Denna projektion kallas Perron projektion.
  6. Collatz – Wielandt formel: för alla icke-negativa icke-nollvektorer x, låt f(x) vara minimivärdet av [Yxa]i / xi tagit över alla dessa i Så att xi ≠ 0. Sedan f är en verklig värderad funktion vars maximum över alla icke-negativa icke-nollvektorer x är Perron – Frobenius egenvärde.
  7. En "Min-max" Collatz – Wielandt-formel har en form som liknar den ovan: för alla strikt positiva vektorer x, låt g(x) vara det maximala värdet av [Yxa]i / xi övertagen i. Sedan g är en verkligt värderad funktion vars minimum över alla strikt positiva vektorer x är egenvärdet Perron – Frobenius.
  8. Birkhoff – Varga-formel: Låt x och y vara strikt positiva vektorer. Då r = sup x & gt 0 inf y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 y ⊤ A xy ⊤ x = inf x & gt 0 sup y & gt 0 ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < displaystyle r = sup _ inf _< frac Ax>x >> = inf _ sup _< frac Ax>x >> = inf _ sup _ summa _^x_A_y_/ sum _^y_x_.>[8]
  9. Donsker – Varadhan – Friedland-formel: Låt sid vara en sannolikhetsvektor och x en strikt positiv vektor. Sedan är r = sup p inf x & gt 0 ∑ i = 1 n p i [A x] i / x i. < displaystyle r = sup _

    inf _ summa _^p_[Yxa]_/ x_.>[9][10]

  10. Fiedler-formel: r = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = zy ⊤ A xy ⊤ x = sup z & gt 0 inf x & gt 0, y & gt 0, x ∘ y = z ∑ i, j = 1 nxi A ijyj / ∑ i = 1 nyixi. < displaystyle r = sup _ inf _< frac Ax>x >> = sup _ inf _ summa _^x_A_y_/ sum _^y_x_.>[11]
  11. Egenvärdet Perron – Frobenius uppfyller ojämlikheterna

Alla dessa egenskaper sträcker sig utöver strikt positiva matriser till primitiva matriser (se nedan). Fakta 1-7 finns i Meyer [12] kapitel 8 påståenden 8.2.11–15 sidan 667 och övningar 8.2.5,7,9 sidorna 668–669.

Vänster och höger egenvektorer w och v ibland normaliseras så att summan av deras komponenter är lika med 1 i detta fall kallas de ibland stokastiska egenvektorer. Ofta normaliseras de så att rätt egenvektor v summerar till en, medan w T v = 1 < displaystyle w ^v = 1>.

Icke-negativa matriser Redigera

Frobenius hittade emellertid en speciell underklass av icke-negativa matriser - oreducerbar matriser - för vilka en icke-trivial generalisering är möjlig. För en sådan matris, även om egenvärdena som uppnår det maximala absoluta värdet kanske inte är unika, är deras struktur under kontroll: de har formen ω r < displaystyle omega r>, där r är en verkligt strikt positiv egenvärde, och ω < displaystyle omega> sträcker sig över komplexet hrötterna 1 för något positivt heltal h kallas matrisperiod. Egenvektorn motsvarande r har strikt positiva komponenter (i kontrast till det allmänna fallet med icke-negativa matriser, där komponenter bara är icke-negativa). Alla sådana egenvärden är också enkla rötter för det karakteristiska polynomet. Ytterligare egenskaper beskrivs nedan.

Klassificering av matriser Redigera

Låta A vara en kvadratmatris (inte nödvändigtvis positiv eller till och med verklig). Matrisen A är oreducerbar om någon av följande likvärdiga egenskaper gäller.

Definition 2: A kan inte konjugeras till block övre triangulär form av en permutationsmatris P:

var E och G är icke-triviala (dvs. av storlek större än noll) kvadratmatriser.

Om A är icke-negativ en annan definition gäller:

Definition 3: Man kan associera med en matris A en viss riktad graf GA. Det har exakt n hörn, där n är storleken på A, och det finns en kant från vertex i till vertex j just när AI j & gt 0. Sedan matrisen A är oreducerbart om och endast om dess associerade diagram GA är starkt ansluten.

En matris är reducerbar om det inte är irreducerbart.

En matris A är primitiv om det är icke-negativt och dess mkraften är positiv för något naturligt tal m (dvs. alla poster i A m är positiva).

Låta A vara icke-negativ. Fixa ett index i och definiera indexperiod i att vara den största gemensamma delaren av alla naturliga tal m Så att (A m )ii & gt 0. När A är oreducerbar är perioden för varje index densamma och kallas period av A. I själva verket när A är oreducerbar, kan perioden definieras som den största gemensamma delaren av längderna på de stängda riktade banorna i GA (se Kök [15] sidan 16). Perioden kallas också index för imprimitivitet (Meyer [12] sidan 674) eller ordningen på cyklist. Om perioden är 1, A är aperiodisk. Det kan bevisas att primitiva matriser är desamma som irreducerbara aperiodiska icke-negativa matriser.

Alla uttalanden från Perron – Frobenius-satsen för positiva matriser förblir sanna för primitiva matriser. Samma påståenden gäller också för en icke-negativ irreducerbar matris, förutom att den kan ha flera egenvärden vars absoluta värde är lika med dess spektrala radie, så uttalandena måste modifieras på motsvarande sätt. Faktum är att antalet sådana egenvärden är lika med perioden.

Resultat för icke-negativa matriser erhölls först av Frobenius 1912.

Perron – Frobenius-sats för irreducerbara icke-negativa matriser Redigera

Låta A vara en irreducible icke-negativ n × n matris med period h och spektralradie ρ(A) = r. Sedan gäller följande uttalanden.

  1. Numret r är ett positivt reellt tal och det är en egenvärde för matrisen A, ringde Perron – Frobenius egenvärde.
  2. Egenvärdet Perron – Frobenius r det är enkelt. Både höger och vänster egenutrymme associerade med r är endimensionella.
  3. A har en rätt egenvektor v med egenvärde r vars komponenter är alla positiva.
  4. Likaså, A har en vänster egenvektor w med egenvärde r vars komponenter är alla positiva.
  5. De enda egenvektorerna vars komponenter är positiva är de som är associerade med egenvärdet r.
  6. Matrisen A har exakt h (var h är period) komplexa egenvärden med absolut värde r. Var och en av dem är en enkel rot av det karakteristiska polynomet och är en produkt av r med en henhetens rot.
  7. Låta ω = 2π /h. Sedan matrisen A liknar eAföljaktligen spektrumet av A är invariant under multiplikation med e (motsvarar rotation av det komplexa planet med vinkeln ω).
  8. Om h & gt 1 finns det en permutationsmatris P Så att

Ytterligare egenskaper Redigera

Låta A vara en irreducerbar icke-negativ matris, då:

  1. (I +A) n−1 är en positiv matris. (Meyer [12] påstående 8.3.5 s. 672).
  2. Wielandts teorem. [förtydligande behövs] Om |B| & ltA, då ρ(B)≤ρ(A). Om jämlikhet gäller (dvs. om μ = ρ (A) e iφ är egenvärde för B), då B = eD AD −1 för någon diagonal enhetlig matris D (dvs. diagonala element av D är lika med el , icke-diagonala är noll). [16]
  3. Om lite makt A q är reducerbart, då är det helt reducerbart, dvs för någon permutationsmatris P, det är sant att: P A q P - 1 = (A 1 0 0… 0 0 A 2 0… 0 ⋮ ⋮ ⋮ ⋮ 0 0 0… A d) < displaystyle PA ^P ^ <-1> = < börjaA_ <1> & amp0 & amp0 & amp dots & amp0 0 & ampA_ <2> & amp0 & amp dots & amp0 vdots & amp vdots & amp vdots & amp & amp vdots 0 & amp0 & amp0 & amp dots & ampA_slutet>>, där Ai är irreducerbara matriser med samma maximala egenvärde. Antalet av dessa matriser d är den största gemensamma delaren av q och h, var h är period av A. [17]
  4. Om c(x) = x n + ck1 x n-k1 + ck2 x n-k2 +. + cks x n-ks är den karakteristiska polynom av A där endast de icke-nolltermerna är listade, sedan perioden av A är lika med den största gemensamma delaren av k1, k2,. , ks. [18] medelvärden: lim k → ∞ 1 / k ∑ i = 0,. . . , k A i / r i = (v w T), < displaystyle lim _1 / k summa _A ^/ r ^= (vw ^),> där vänster och höger egenvektorer för A normaliseras så att wTv = 1. Dessutom matrisen v w T är den spektrala projektionen motsvarande r, Perron-projektionen. [19]
  5. Låta r vara egenvärdet Perron – Frobenius, sedan den angränsande matrisen för (r-A) är positivt. [20]
  6. Om A har minst ett diagonalt element som inte är noll, då A är primitiv. [21]
  7. Om 0 ≤ A & lt B, då rArB. Dessutom, om B är oreducerbart, då är ojämlikheten strikt: rA & lt rB.

En matris A är primitiv förutsatt att den är icke-negativ och A m är positivt för vissa m, och följaktligen A k är positivt för alla k ≥ m. För att kontrollera primitivitet behöver man begränsa sig till hur stort det minimala är m kan vara, beroende på storleken på A: [22]

  • Om A är en icke-negativ primitiv matris av storlek n, då An 2 − 2n + 2 är positivt. Dessutom är detta det bästa möjliga resultatet, för matrisen M nedanför kraften M k är inte positivt för alla k & lt n 2 − 2n + 2, eftersom (Mn 2 − 2n+1 )11 = 0.

Många böcker har skrivits om icke-negativa matriser, och Perron – Frobenius-teorin är alltid ett centralt inslag. Följande exempel nedan skrapar bara ytan på dess stora applikationsdomän.

Icke-negativa matriser Redigera

Satsen Perron – Frobenius gäller inte direkt för icke-negativa matriser. Ändå vilken reducerbar kvadratmatris som helst A kan skrivas i övre triangulär blockform (känd som normal form av en reducerbar matris) [23]

var P är en permutationsmatris och vardera Bi är en fyrkantig matris som antingen är irreducerbar eller noll. Nu om A är icke-negativt så är också varje block av PAP −1, dessutom spektrumet av A är bara föreningen av spektrumet för Bi.

Omvändbarheten av A kan också studeras. Den inversa av PAP −1 (om det finns) måste ha diagonala block av formen Bi −1 så om någon Bi är inte inverterbar då inte heller PAP −1 eller A. Omvänt låt D vara den blockdiagonala matrisen som motsvarar PAP −1, med andra ord PAP −1 med asteriskerna nollställda. Om vardera Bi är inverterbar så är det också D och D −1 (PAP −1) är lika med identiteten plus en nilpotent matris. Men en sådan matris är alltid inverterbar (om N k = 0 det inversa av 1 - N är 1 + N + N 2 + . + N k−1) så PAP −1 och A är båda inverterbara.

Därför är många av de spektrala egenskaperna hos A kan dras genom att tillämpa satsen på det oreducerbara Bi. Till exempel är Perron-roten maximalt för ρ (Bi). Även om det fortfarande kommer att finnas egenvektorer med icke-negativa komponenter är det mycket möjligt att ingen av dessa kommer att vara positiva.

Stokastiska matriser Redigera

En rad (kolumn) stokastisk matris är en fyrkantig matris vars rader (kolumner) består av icke-negativa reella tal vars summa är enhet. Satsen kan inte tillämpas direkt på sådana matriser eftersom de inte behöver vara oreducerbara.

Om A är radstokastisk då är kolumnvektorn med varje post 1 en egenvektor som motsvarar egenvärdet 1, vilket också är ρ (A) genom anmärkningen ovan. Det kanske inte är den enda egenvärdet i enhetscirkeln: och tillhörande egenspace kan vara flerdimensionellt. Om A är radstokastisk och oreducerbar då är Perron-projektionen också radstokastisk och alla dess rader är lika.

Teori om algebraisk graf Redigera

Satsen har speciell användning i algebraisk grafteori. Den "underliggande grafen" för ett icke-negativt n-kvadratmatris är diagrammet med hörn nummer 1,. n och båge I j om och endast om AI j ≠ 0. Om den underliggande grafen för en sådan matris är starkt kopplad, är matrisen oreducerbar och därmed gäller satsen. I synnerhet är angränsningsmatrisen för en starkt ansluten graf oreducerbar. [24] [25]

Finite Markov-kedjor Redigera

Satsen har en naturlig tolkning i teorin om ändliga Markov-kedjor (där det är den matristeoretiska ekvivalenten för konvergensen av en oreducerbar ändlig Markov-kedja till dess stationära fördelning, formulerad i termer av övergångsmatrisen för kedjan, se till exempel , artikeln om delväxling av ändlig typ).

Kompakta operatörer Redigera

Mer allmänt kan den utvidgas till att falla med icke-negativa kompaktoperatorer, som på många sätt liknar änddimensionella matriser. Dessa studeras vanligtvis i fysik, under namnet överföringsoperatörer, eller ibland Ruelle – Perron – Frobenius-operatörer (efter David Ruelle). I det här fallet motsvarar den ledande egenvärdet den termodynamiska jämvikten i ett dynamiskt system och de mindre egenvärdena till sönderfallslägena för ett system som inte är i jämvikt. Således erbjuder teorin ett sätt att upptäcka tidens pil i vad som annars verkar vara reversibla, deterministiska dynamiska processer, när de undersöks ur punktuppsättningens topologiska synvinkel. [26]

En vanlig tråd i många bevis är Brouwer-fixeringssatsen. En annan populär metod är Wielandts (1950) metod. Han använde Collatz – Wielandt-formeln som beskrivs ovan för att utvidga och förtydliga Frobenius arbete. [27] Ett annat bevis bygger på spektralteorin [28] från vilken en del av argumenten lånas ut.

Perronrot är strikt maximal egenvärde för positiva (och primitiva) matriser Redigera

Om A är en positiv (eller mer generellt primitiv) matris, då finns det en verklig positiv egenvärde r (Perron – Frobenius egenvärde eller Perron root), vilket är absolut högre i absolut värde än alla andra egenvärden, alltså r är spektralradien för A.

Detta uttalande gäller inte för allmänna icke-negativa irreducerbara matriser som har h egenvärden med samma absoluta egenvärde som r, var h är perioden av A.

Bevis för positiva matriser Redigera

Låta A vara en positiv matris, antag att dess spektralradie ρ (A) = 1 (annars överväga A / ρ (A)). Därför finns det en egenvärde λ på enhetscirkeln, och alla andra egenvärden är mindre eller lika med 1 i absolut värde. Antag att en annan egenvärde λ ≠ 1 också faller på enhetscirkeln. Sedan finns det ett positivt heltal m Så att A m är en positiv matris och den verkliga delen av λ m är negativ. Låt ε vara hälften av den minsta diagonala posten av A m och ställ in T = A mεI vilket är ännu en positiv matris. Dessutom, om Yxa = λx sedan A m x = λ m x Således λ mε är en egenvärde för T. På grund av valet av m denna punkt ligger följaktligen utanför enhetsdisken ρ(T) & gt 1. Å andra sidan, alla poster i T är positiva och mindre än eller lika med dem i A m så med Gelfands formel ρ(T) ≤ ρ(A m ) ≤ ρ(A) m = 1. Denna motsägelse betyder att λ = 1 och att det inte kan finnas några andra egenvärden på enhetscirkeln.

Absolut samma argument kan tillämpas på fallet med primitiva matriser, vi behöver bara nämna följande enkla lemma, vilket klargör egenskaperna hos primitiva matriser.

Lemma Redigera

Givet ett icke-negativt Aantar att det finns m, Så att A m är då positivt A m+1 , A m+2 , A m+3. är alla positiva.

A m+1 = AA m , så det kan ha noll-element endast om någon rad av A är helt noll, men i detta fall samma rad av A m kommer att vara noll.

Att tillämpa samma argument som ovan för primitiva matriser, bevisa huvudkravet.

Effektmetod och den positiva egenparet Redigera

För en positiv (eller mer allmänt irreducerbar icke-negativ) matris A den dominerande egenvektorn är verklig och strikt positiv (för icke-negativ A respektive icke-negativa.)

Detta kan fastställas med hjälp av kraftmetoden, som anger att för en tillräckligt generisk (i betydelsen nedan) matris A sekvensen av vektorer bk+1 = Abk / | Abk | konvergerar till egenvektorn med det maximala egenvärdet. (Den ursprungliga vektorn b0 kan väljas godtyckligt med undantag för vissa mått nolluppsättning). Börjar med en icke-negativ vektor b0 producerar sekvensen av icke-negativa vektorer bk. Därför är den begränsande vektorn också icke-negativ. Med kraftmetoden är denna begränsande vektor den dominerande egenvektorn för A, bevisar påståendet. Motsvarande egenvärde är icke-negativt.

Beviset kräver ytterligare två argument. Först konvergerar effektmetoden för matriser som inte har flera egenvärden med samma absoluta värde som det maximala. Det tidigare avsnittets argument garanterar detta.

För det andra för att säkerställa strikt positivitet för alla komponenterna i egenvektorn för fallet med irreducerbara matriser. Detta följer av följande fakta, som är av oberoende intresse:

Lemma: ges en positiv (eller mer allmänt irreducerbar icke-negativ) matris A och v som alla icke-negativa egenvektorer för A, då är det nödvändigtvis strikt positivt och motsvarande egenvärde är också strikt positivt.

Bevis. En av definitionerna av irreducerbarhet för icke-negativa matriser är den för alla index I j det existerar m, Så att (A m )I j är strikt positivt. Givet en icke-negativ egenvektor v, och det säger åtminstone en av dess komponenter j-th är strikt positivt, motsvarande egenvärde är verkligen positivt, givet n Så att (A n )ii & gt0, därav: r n vi = A n vi ≥ (A n )iivi & gt0. Därmed r är strikt positivt. Egenvektorn är strikt positiv. Sedan ges m, Så att (A m )I j & gt0, därav: r m vj = (A m v)j ≥ (A m )I jvi & gt0, därav vj är strikt positiv, dvs egenvektorn är strikt positiv.

Multiplicity one Edit

Detta avsnitt visar att egenvärdet Perron – Frobenius är en enkel rot till matrisens karakteristiska polynom. Därav egenspace associerat med Perron – Frobenius egenvärde r är endimensionell. Argumenten här ligger nära de i Meyer. [12]

Givet en strikt positiv egenvektor v motsvarar r och en annan egenvektor w med samma egenvärde. (Vektorerna v och w kan väljas för att vara verklig, för A och r är båda verkliga, så nullrummet av A-r har en bas som består av riktiga vektorer.) Antar vi att minst en av komponenterna i w är positivt (annars multiplicera w av −1). Givet maximalt möjligt a Så att u = v- α w är icke-negativ, då är en av komponenterna i u är noll, annars a är inte maximalt. Vektor u är en egenvektor. Det är icke-negativt, följaktligen av det lemma som beskrivs i föregående avsnitt innebär icke-negativitet strikt positivitet för alla egenvektorer. Å andra sidan, som ovan minst en komponent av u är noll. Motsättningen antyder det w existerar inte.

Fall: Det finns inga Jordan-celler som motsvarar Perron – Frobenius egenvärde r och alla andra egenvärden som har samma absoluta värde.

Om det finns en Jordan-cell, så är oändlighetsnormen (A / r) k tenderar till oändlighet för k → ∞ , men det strider mot existensen av den positiva egenvektorn.

Given r = 1, eller A / r. Uthyrning v vara en Perron – Frobenius strikt positiv egenvektor, så Av = v, sedan:

| A ^ | _ < infty> leq | v | / min _(v_)> Så A k är begränsad för alla k. Detta ger ytterligare ett bevis på att det inte finns några egenvärden som har större absolutvärde än Perron – Frobenius. Det motsäger också förekomsten av Jordancellen för varje egenvärde som har ett absolut värde lika med 1 (särskilt för Perron – Frobenius-en), eftersom förekomsten av Jordancellen innebär att A k är obegränsat. För en matris med två och två:

därmed J k = |k + λ| (för |λ| = 1), så det tenderar till oändlighet när k gör det. Eftersom J k = C −1 A k C, då A kJ k / (C −1 C ), så det tenderar också till oändlighet. Den resulterande motsägelsen innebär att det inte finns några Jordan-celler för motsvarande egenvärden.

Att kombinera de två påståenden ovan avslöjar att Perron – Frobenius egenvärde r är den enkla roten till det karakteristiska polynomet. När det gäller icke-primära matriser finns det andra egenvärden som har samma absoluta värde som r. Samma påstående gäller för dem, men kräver mer arbete.

Inga andra icke-negativa egenvektorer Redigera

Givet positiv (eller mer allmänt irreducerbar icke-negativ matris) Aär Perron – Frobenius egenvektor den enda (upp till multiplicering med konstant) icke-negativ egenvektor för A.

Andra egenvektorer måste innehålla negativa eller komplexa komponenter eftersom egenvektorer för olika egenvärden är ortogonala i någon mening, men två positiva egenvektorer kan inte vara ortogonala, så de måste motsvara samma egenvärde, men egenspelet för Perron – Frobenius är endimensionellt.

Förutsatt att det finns ett eget par (λ, y) för A, sådan den vektorn y är positivt och givet (r, x), var x - är den vänstra Perron – Frobenius egenvektorn för A (dvs. egenvektor för A T ), då rx T y = (x T A) y = x T (Ja) = λx T y, också x T y & gt 0, så man har: r = λ. Sedan egenspace för Perron – Frobenius egenvärde r är endimensionell, icke-negativ egenvektor y är en multipel av Perron – Frobenius. [29]

Collatz – Wielandt formel Redigera

Ges en positiv (eller mer allmänt irreducerbar icke-negativ matris) A, definierar man funktionen f på uppsättningen av alla icke-negativa icke-nollvektorer x Så att f (x) är minimivärdet på [Yxa]i / xi tagit över alla dessa i Så att xi ≠ 0. Sedan f är en verkligt värderad funktion, vars maximala värde är Perron – Frobenius egenvärde r.

För beviset betecknar vi det maximala f av värdet R. Beviset kräver att visa R = r. Sätta in Perron-Frobenius egenvektor v in i f, får vi f (v) = r och avsluta r ≤ R. För motsatt ojämlikhet betraktar vi en godtycklig icke-negativ vektor x och låt ξ = f (x). Definitionen av f ger 0 ≤ ξx ≤ Ax (komponentvis). Nu använder vi den positiva rätta egenvektorn w för A för egenvärdet Perron-Frobenius r, då ξ w T x = w T ξx ≤ w T (Ax) = (w T A) x = r w T x . Därmed f (x) = ξ ≤ r, vilket innebär R ≤ r. [30]

Perron projektion som en gräns: A k /r k Redigera

Låta A vara en positiv (eller mer generell, primitiv) matris och låt r vara dess Perron – Frobenius egenvärde.

  1. Det finns en gräns A k / r k för k → ∞, beteckna det med P.
  2. P är en projiceringsoperatör: P 2 = P, som pendlar med A: AP = PA.
  3. Bilden av P är endimensionell och spänd av Perron – Frobenius egenvektor v (respektive för P T —Av Perron – Frobenius egenvektor w för A T ).
  4. P = vwT , var v, w normaliseras så att wTv = 1.
  5. Därmed P är en positiv operatör.

Därmed P är en spektral projektion för Perron – Frobenius egenvärde roch kallas Perron-projektionen. Ovanstående påstående är inte sant för allmänna icke-negativa irreducerbara matriser.

Faktiskt är kraven ovan (utom krav 5) giltiga för alla matriser M så att det finns en egenvärde r vilket är strikt större än de andra egenvärdena i absolut värde och är den enkla roten till det karakteristiska polynomet. (Dessa krav gäller för primitiva matriser enligt ovan).

Givet att M är diagonaliserbar, M är konjugerad till en diagonal matris med egenvärden r1, . , rn på diagonalen (beteckna r1 = r). Matrisen M k /r k kommer att vara konjugerat (1, (r2/r) k , . , (rn/r) k ), som tenderar att (1,0,0. 0), för k → ∞, så gränsen finns. Samma metod fungerar generellt M (utan att anta det M är diagonaliserbart).

Projektions- och kommutativitetsegenskaperna är elementära följder av definitionen: MM k /r k = M k /r k M P 2 = lim M 2k /r 2k = P. Det tredje faktum är också elementärt: M(Pu) = M lim M k /r k u = lim rM k+1 /r k+1 u, så ta gränsavkastningen M (Pu) = r(Pu), så bild av P ligger i r-utrymme för M, vilket är endimensionellt av antagandena.

Betecknar med v, r-eigenvector för M (förbi w för M T ). Kolumner av P är multiplar av v, eftersom bilden av P är spänd av det. Respektivt, rader av w. Så P tar form (a v w T), för vissa a. Därför är dess spår lika med (a w T v). Spår av projektor är lika med dimensionen på dess bild. Det bevisades tidigare att det inte är mer än endimensionellt. Från definitionen ser man det P agerar identiskt på r-eigenvector för M. Så det är endimensionellt. Så att välja (w T v) = 1, antyder P = vw T .

Ojämlikheter för Perron – Frobenius egenvärde Redigera

För alla icke-negativa matriser A dess egenvärde Perron – Frobenius r uppfyller ojämlikheten:

Detta faktum är specifikt för icke-negativa matriser för allmänna matriser. Det finns inget liknande. Givet att A är positiv (inte bara icke-negativ), då finns det en positiv egenvektor w Så att Aw = rw och den minsta komponenten i w (säga wi) är 1. Då r = (Aw)i ≥ summan av siffrorna i rad i av A. Således ger minsta radsumman en lägre gräns för r och denna observation kan utvidgas till alla icke-negativa matriser genom kontinuitet.

Ett annat sätt att argumentera är via Collatz-Wielandt-formeln. Man tar vektorn x = (1, 1,. 1) och uppnår omedelbart ojämlikheten.

Ytterligare bevis Redigera

Perron projektion Redigera

Beviset fortsätter nu med spektral sönderdelning. Tricket här är att dela Perron-roten från andra egenvärden. Den spektrala projektionen associerad med Perron-roten kallas Perron-projektionen och den har följande egenskaper:

Perron-projiceringen av en irreducerbar icke-negativ kvadratmatris är en positiv matris.

Perrons resultat och också (1) - (5) av satsen är följder av detta resultat. Nyckelpunkten är att en positiv projektion alltid har en rankning. Detta betyder att om A är en irreducerbar icke-negativ kvadratmatris då de algebraiska och geometriska multipliciteterna av dess Perron-rot är båda. Även om P är dess Perron-projektion då AP = PA = ρ (A)P så varje kolumn av P är en positiv rätt egenvektor av A och varje rad är en positiv vänster egenvektor. Dessutom, om Yxa = λx sedan PAx = λPx = ρ (A)Px som betyder Px = 0 om λ ≠ ρ (A). De enda positiva egenvektorerna är alltså de som är associerade med ρ (A). Om A är en primitiv matris med ρ (A) = 1 då kan den sönderdelas som P ⊕ (1 − P)A så att En = P + (1 − P)A n . Som n ökar den andra av dessa termer förfall till noll lämnar P som gränsen för En som n → ∞.

Effektmetoden är ett bekvämt sätt att beräkna Perron-projiceringen av en primitiv matris. Om v och w är de positiva rad- och kolumnvektorerna som den genererar, då är Perron-projektionen bara wv/vw. De spektrala projektionerna är inte snyggt blockerade som i Jordanien. Här är de överlagrade och var och en har vanligtvis komplexa poster som sträcker sig till alla fyra hörn av kvadratmatrisen. Ändå behåller de sin ömsesidiga ortogonalitet vilket är det som underlättar nedbrytningen.

Perifer projektion Redigera

Analysen när A är irreducerbart och icke-negativt är i stort sett lika. Perron-projektionen är fortfarande positiv men det kan nu finnas andra egenvärden för modul ρ (A) som negerar användningen av kraftmetoden och förhindrar befogenheterna hos (1 - P)A sönderfallande som i det primitiva fallet när ρ (A) = 1. Så vi anser att perifer projektion, vilket är spektralprojektion av A motsvarar alla egenvärden som har modul ρ(A). Det kan sedan visas att den perifera projiceringen av en irreducerbar icke-negativ kvadratmatris är en icke-negativ matris med en positiv diagonal.

Cyclicity Edit

Antag dessutom att ρ (A) = 1 och A har h egenvärden på enhetscirkeln. Om P är den perifera projektionen då matrisen R = AP = PA är icke-negativ och irreducerbar, R h = Poch den cykliska gruppen P, R, R 2 , . R h−1 representerar övertonerna A. Den spektrala projektionen av A vid egenvärdet λ på enhetscirkeln ges av formeln h - 1 ∑ 1 h λ - k R k < displaystyle scriptstyle h ^ <-1> sum _ <1> ^ lambda ^ <-k> R ^>. Alla dessa utsprång (inklusive Perron-projektionen) har samma positiva diagonal, och väljer dessutom vilken som helst av dem och tar sedan modulen för varje inträde, vilket alltid ger Perron-projektionen. Det behövs fortfarande lite åsnaarbete för att fastställa de cykliska egenskaperna (6) - (8) men det handlar i grunden bara om att vrida handtaget. Spektral nedbrytning av A ges av A = R ⊕ (1 − P)A så skillnaden mellan En och R n är EnR n = (1 − P)A n som representerar transienterna av En som så småningom förfaller till noll. P kan beräknas som gränsen för A nh som n → ∞.

Ett problem som orsakar förvirring är bristen på standardisering i definitionerna. Till exempel använder vissa författare termerna strikt positivt och positiv för att mena & gt 0 respektive ≥ 0. I den här artikeln positiv betyder & gt 0 och icke-negativ betyder ≥ 0. Ett annat besvärat område gäller nedbrytbarhet och reducerbarhet: oreducerbar är en överbelastad term. För att undvika tvivel en icke-noll icke-negativ kvadratmatris A så att 1 + A är primitiv sägs ibland vara ansluten. Då är irreducerbara icke-negativa kvadratmatriser och anslutna matriser synonymt. [31]

Den icke-negativa egenvektorn normaliseras ofta så att summan av dess komponenter är lika med enhet i detta fall, egenvektorn är vektorn för en sannolikhetsfördelning och kallas ibland en stokastisk egenvektor.

Perron – Frobenius egenvärde och dominerande egenvärde är alternativa namn för Perron-roten. Spektralprojektioner är också kända som spektralprojektorer och spektrala idempotenter. Perioden kallas ibland för index för improvisation eller den ordning av cyklism.


Advanced Linear Algebra: Foundations to Frontiers

Man kan tänka sig Frobenius-normen som att ta kolumnerna i matrisen, stapla dem ovanpå varandra för att skapa en vektor med storlek (m gånger n text <,> ) och sedan ta vektorn 2-norm för resultatet.

Läxor 1.3.3.1.

Partition (m times n ) matris (A ) efter kolumner:

Läxor 1.3.3.2.

Bevisa att Frobenius-normen är en norm.

Att fastställa att denna funktion är positiv bestämd och homogen är rakt framåt. För att visa att triangeln ojämlikhet håller det hjälper till att inse att om (A = vänster ( börjar a_0 amp a_1 amp cdots amp a_ slutet okej då

Med andra ord är det lika med vektorn 2-norm för vektorn som skapas genom att stapla kolumnerna med (A ) ovanpå varandra. Man kan sedan utnyttja det faktum att vektorn 2-norm följer triangelns ojämlikhet.

Läxor 1.3.3.3.

Partition (m gånger n ) matris (A ) efter rader:

Låt oss granska definitionen av transponeringen av en matris (som vi redan har använt när vi definierar punktprodukten av två realvärderade vektorer och när vi identifierar en rad i en matris):

Definition 1.3.3.2. Transponera.

För komplexa värderade matriser är det viktigt att också definiera en matris:

Definition 1.3.3.3. Hermitian transponera.

där ( överlinje A ) betecknar den, där varje element i matrisen är konjugerad.

( overline A ^ T = overline text <.> )

Om (A i mathbb R ^ text <,> ) sedan (A ^ H = A ^ T text <.> )

Om (x i Cm text <,> ) definieras (x ^ H ) i enlighet med hur vi har använt det tidigare.

Om ( alpha i mathbb C text <,> ) då ( alpha ^ H = overline alpha text <.> )

(Om du ser skalären som en matris och sedan Hermitian transponerar den, får du matrisen med som enda element ( overline alpha text <.> ))

Var inte panik!. Medan du arbetar med skalor med komplexa värderingar, vektorer och matriser kan verka lite läskiga först, kommer du snart att märka att det egentligen inte är mycket mer komplicerat än att arbeta med deras riktiga värderingar.

Läxor 1.3.3.4.

Låt (A in C ^ ) och (B i C ^ text <.> ) Använd det du en gång lärde dig om matristranspositionering och matrismatrixmultiplikation, anled att ((A B) ^ H = B ^ H A ^ H text <.> )

lt X ^ H = överlinje gt överlinje <(A B) ^ T>

lt mbox overline = overline X overline Y gt overline

lt överlinje = överlinje X ^ T gt B ^ H A ^ H slut slutet

Definition 1.3.3.4. Hermitian.

En matris (A in mathbb C ^ ) är om och endast om (A = A ^ H text <.> )

Uppenbarligen, om (A in mathbb R ^ text <,> ) då (A ) är en hermitisk matris om och endast om (A ) är en symmetrisk matris.


Låt R vara en kommutativ ring med primärkarakteristik p (en integrerad domän med positiv karakteristik har alltid primärkarakteristik, till exempel). Frobenius endomorfism F definieras av

för alla r i R. Den respekterar multiplikationen av R:

och F(1) är tydligt 1 också. Vad som är intressant är dock att det också respekterar tillägget av R. Uttrycket (r + s) sid kan utökas med binomialsatsen. Eftersom p är primärt delar det sig sid! men inte någon q! för q & lt sid det kommer därför att dela täljaren, men inte nämnaren, för den explicita formeln för binomialkoefficienterna

om 1 ≤ ksid - 1. Därför är koefficienterna för alla termer utom r sid och s sid är delbara med p, det karakteristiska, och därmed försvinner de. [1] Således

Detta visar att F är en ringhomomorfism.

Om φ : RS är en homomorfism av ringar av karakteristisk p, då

Om FR och FS är Frobenius-endomorfismerna av R och S, då kan detta skrivas om som:

Detta innebär att Frobenius-endomorfismen är en naturlig omvandling från identitetsfunktionen på kategorin av karakteristiska p-ringar till sig själv.

Om ringen R är en ring utan nilpotenta element, är Frobenius endomorfism injektiv: F(r) = 0 betyder r sid = 0, vilket per definition betyder att r är högst nollpotentiellt p. I själva verket är detta nödvändigt och tillräckligt, för om r är någon nilpotent, då kommer en av dess krafter att vara nilpotent högst s. I synnerhet, om R är ett fält, är Frobenius endomorfism injektiv.

Frobenius-morfismen är inte nödvändigtvis förväntad, även om R är ett fält. Till exempel, låt K = Fsid(t) vara det ändliga fältet för p-element tillsammans med ett enda transcendentalt element ekvivalent, K är fältet för rationella funktioner med koefficienter i Fsid . Då innehåller bilden av F inte t. Om det gjorde det skulle det finnas en rationell funktion q(t)/r(t) vars p-kraft q(t) sid /r(t) sid skulle motsvara t. Men graden av denna p-kraft är sid deg (q) − sid deg (r), som är en multipel av p. I synnerhet kan det inte vara 1, vilket är graden av t. Detta är en motsägelse så t är inte i bilden av F.

Ett fält K kallas perfekt om antingen den har karakteristisk noll eller så är den av positiv karakteristik och dess Frobenius-endomorfism är en automorfism. Till exempel är alla ändliga fält perfekta.

Tänk på det begränsade fältet Fsid . Genom Fermats lilla sats, varje element x av Fsid uppfyller x sid = x . På motsvarande sätt är det en rot till polynomet X sidX . Elementen i Fsid bestäm därför p-rötterna i denna ekvation, och eftersom denna ekvation har grad p har den inte mer än p-rötter över någon förlängning. I synnerhet om K är en algebraisk förlängning av Fsid (såsom den algebraiska stängningen eller ett annat ändligt fält), då Fsid är det fasta fältet för Frobenius automorfism av K.

Låt R vara en karakteristisk ring sid & gt 0. Om R är en integrerad domän är de fasta punkterna i Frobenius av samma resonemang elementen i huvudfältet. Men om R inte är en domän, då X sidX kan ha mer än p rötter till exempel, detta händer om R = Fsid × Fsid .

Iterering av Frobenius-kartan ger en sekvens av element i R:

Denna sekvens av iterater används för att definiera Frobenius-stängningen och den täta stängningen av ett ideal.

Galois-gruppen i en utvidgning av ändliga fält genereras av en iterat av Frobenius-automorfismen. Tänk först på fallet där markfältet är huvudfältet Fsid . Låta Fq vara det ändliga fältet för q-element, där q = sid n . Frobenius automorfism F av Fq fixar primfältet Fsid , så det är ett element i Galois-gruppen Gal (Fq/Fsid). I själva verket eftersom F q × < displaystyle mathbf _^ < gånger >> är cykliskt med q - 1 element, vi vet att Galois-gruppen är cyklisk och F är en generator. Ordningen på F är n på grund av F n agerar på ett element x genom att skicka det till x q , och detta är identiteten på element av Fq . Varje automorfism av Fq är en kraft av F, och generatorerna är makterna F i med jag coprime till n.

Tänk nu på det begränsade fältet Fq f som en förlängning av Fq , var q = sid n som ovan. Om n & gt 1, sedan Frobenius automorfism F av Fq f fixar inte markfältet Fq , men dess n itera F n gör. Galois-gruppen Gal (Fq f /Fq) är cykliskt av ordning f och genereras av F n . Det är undergruppen till Gal (Fq f /Fsid) genererad av F n . Generatorerna för Gal (Fq f /Fq) är krafterna F ni där jag är coprime till f.

Frobenius-automorfismen är inte en generator för den absoluta Galois-gruppen

eftersom denna Galois-grupp är isomorf till de profinita heltalen

som inte är cykliska. Men eftersom Frobenius-automorfismen är en generator för Galois-gruppen för varje ändlig förlängning av Fq , det är en generator för varje begränsad kvot i den absoluta Galois-gruppen. Följaktligen är det en topologisk generator i den vanliga Krull-topologin i den absoluta Galois-gruppen.

Det finns flera olika sätt att definiera Frobenius-morfismen för ett schema. Den mest grundläggande är den absoluta Frobenius-morfismen. Den absoluta Frobenius-morfismen beter sig dock dåligt i den relativa situationen eftersom den inte tar hänsyn till basschemat. Det finns flera olika sätt att anpassa Frobenius-morfismen till den relativa situationen, var och en är användbar i vissa situationer.

Den absoluta Frobenius-morfismen Redigera

Antag att X är ett karaktäristiskt schema sid & gt 0. Välj en öppen affin delmängd U = Spec A av X. Ringen A är en Fsid -algebra, så det medger en Frobenius-endomorfism. Om V är en öppen affin delmängd av U, är Frobenius-morfismen på U, av Frobenius naturlighet, Frobenius-morfismen på V, när den är begränsad till V. Följaktligen limmer Frobenius-morfismen för att ge en endomorfism av X. Denna endomorfism kallas absolut Frobenius morfism av X, betecknad FX . Per definition är det en homeomorfism av X med sig själv. Den absoluta Frobenius-morfismen är en naturlig omvandling från identitetsfunktionen i kategorin Fsid -scheman för sig själv.

Den absoluta Frobenius-morfismen är en rent oskiljaktig morfism av grad p. Skillnaden är noll. Det bevarar produkter, vilket innebär att för två scheman X och Y, FX×Y = FX × FY .

Begränsning och utvidgning av skalar genom Frobenius Edit

Anta att φ : XS är strukturmorfismen för ett S-schema X. Basschemat S har en Frobenius-morfism FS. Komponera φ med FS resulterar i ett S-schema XF ringde begränsning av skalar genom Frobenius. Begränsningen av skalar är faktiskt en funktor, eftersom en S-morfism XY inducerar en S-morfism XFYF .

Tänk till exempel på en ring A av karakteristiska sid & gt 0 och en fin presenterad algebra över A:

Handlingen av AR ges av:

där α är ett multiindex. Låta X = Spec R . Sedan XF är affinschemat Spec R , men dess struktur morfism Spec R → Spec A och därmed åtgärden av AR, är annorlunda:

Eftersom Frobenius begränsning av skalar helt enkelt är sammansättning ärver X många egenskaper XF under lämpliga hypoteser om Frobenius-morfismen. Till exempel om X och SF båda är ändliga, då är det också XF.

De förlängning av skalar av Frobenius definieras som:

Projektionen på S-faktorn gör X (sid) ett S-schema. Om S inte är tydligt ur sammanhanget, då X (sid) betecknas med X (sid/S). Liksom begränsning av skalar är förlängning av skalar en funktion: En S-morfism XY bestämmer en S-morfism X (sid) → Y (sid) .

Som tidigare, överväga en ring A och en finbearbetad algebra R över A, och låt igen X = Spec R . Sedan:

En global del av X (sid) har formen:

var a är ett multiindex och alla aia och bi är ett element av A. Handlingen av ett element c av A på detta avsnitt är:

Följaktligen, X (sid) är isomorf till:

En liknande beskrivning gäller för godtycklig A-algebror R.

Eftersom förlängning av skalar är grundförändring, bevarar den gränser och koprodukter. Detta innebär särskilt att om X har en algebraisk struktur definierad i termer av begränsade gränser (som att vara ett gruppschema) så gör det också X (sid). Dessutom innebär det att vara en basförändring att förlängning av skalar bevarar egenskaper som att vara av ändlig typ, ändlig presentation, separerad, affin, och så vidare.

Förlängning av skalar är välskött med avseende på basförändring: Med tanke på en morfism S′ → S , det finns en naturlig isomorfism:

Relativ Frobenius Redigera

Låta X vara en S -schema med strukturmorfism φ . De relativ Frobenius morfism av X är morfismen:

definieras av pullbackens universella egendom X (sid) (se diagrammet ovan):

Eftersom den absoluta Frobenius-morfismen är naturlig är den relativa Frobenius-morfismen en morfism av S-scheman.

Tänk till exempel på A-algebra:

Den relativa Frobenius-morfismen är homomorfismen R (sid) → R definieras av:

Relativt Frobenius är kompatibelt med basförändring i den mening som, under den naturliga isomorfismen av X (sid/S) ×S S′ Och (X ×S S′) (sid/S') , vi har:

Relativ Frobenius är en universell homeomorfism. Om XS är en öppen nedsänkning, då är det identiteten. Om XS är en sluten nedsänkning bestämd av en ideal kärv Jag av OS , då X (sid) bestäms av den ideala skivan Jag sid och släkting Frobenius är förstoringskartan OS/Jag sidOS/Jag .

X är oramifierad över S om och bara om FX/S är oramifierad och om och bara om FX/S är en monomorfism. X är ett tal över S om och bara om FX/S är talande och om och bara om FX/S är en isomorfism.

Aritmetik Frobenius Edit

De aritmetik Frobenius morfism av ett S -schema X är en morfism:

Det är, det är grundförändringen av FS med 1X.

då är aritmetiken Frobenius homomorfismen:

Om vi ​​skriver om R (sid) som:

då är denna homomorfism:

Geometrisk Frobenius Redigera

sedan utvidga skalar med F S - 1 < displaystyle F_^ <-1>> ger:

och sedan finns det en isomorfism:

De geometrisk Frobenius morfism av ett S -schema X är en morfism:

Fortsätter vårt exempel på A och R ovan definieras geometrisk Frobenius som:

Aritmetik och geometrisk Frobenius som Galois-handlingar Redigera

Antag att Frobenius-morfismen av S är en isomorfism. Sedan genererar den en undergrupp av S-automorfismgruppen. Om S = Spec k är spektrumet för ett ändligt fält, då är dess automorfismgrupp fältet Galois över huvudfältet, och Frobenius-morfismen och dess inversa är båda generatorerna för automorfismgruppen. För övrigt, X (sid) och X (1/sid) kan identifieras med X. De aritmetiska och geometriska Frobenius-morfismerna är då endomorfismer av X, och så leder de till en verkan av Galois-gruppen av kX.

Tänk på uppsättningen K-poäng X(K). Denna uppsättning kommer med en Galois-handling: Varje sådan punkt x motsvarar en homomorfism OXK från strukturskivan till K, vilka faktorer via k (x), restfältet vid xoch Frobenius handlingar den x är tillämpningen av Frobenius-morfismen på restfältet. Denna Galois-handling överensstämmer med aritmetikens Frobenius: Den sammansatta morfismen

är samma som den sammansatta morfismen:

enligt definitionen av aritmetiken Frobenius. Följaktligen visar aritmetik Frobenius uttryckligen Galois-gruppens handlingar på punkter som en endomorfism av X.

Givet en oförändrad ändlig förlängning L / K av lokala fält finns det ett koncept av Frobenius endomorfism vilket inducerar Frobenius-endomorfismen i motsvarande förlängning av restfält. [2]

Anta L / K är en oförändrad förlängning av lokala fält, med ring av heltal OK av K så att restfältet, heltalet av K modulo deras unika maximala ideal φ, är ett ändligt fält av ordning q, där q är en effekt av ett primtal. Om Φ är en prime av L som ligger över φ, det L / K är oramifierat betyder per definition att heltalet av L modulo Φ, restfältet för L, kommer att vara ett ändligt ordningsfält q f utvidga restfältet för K där f är graden av L/K . Vi kan definiera Frobenius-kartan för element av ringen av heltal OL av L som en automorfism sΦ av L så att

I algebraisk talteori, Frobenius-element definieras för tillägg L/K av globala fält som är ändliga Galois-förlängningar för främsta ideal Φ av L som är oframifierade i L/K . Eftersom förlängningen är oframifierad är nedbrytningsgruppen för Φ Galois-gruppen för förlängningen av restfält. Frobenius-elementet kan sedan definieras för element av ringen av heltal L som i det lokala fallet, genom

där q är ordningen på restfältet OK/ (Φ ∩ OK) .

Hissar från Frobenius överensstämmer med p-derivat.

och så är oramifierad vid primär 3 är det också oreducerbart mod 3. Därav angränsar en rot ρ av den till fältet med 3-adic tal F3 ger en oförändrad förlängning F3(ρ) av F3 . Vi kan hitta bilden av ρ under Frobenius-kartan genom att hitta roten närmast ρ 3, vilket vi kan göra enligt Newtons metod. Vi får ett element av ringen av heltal Z3[ρ] på detta sätt är detta ett polynom av grad fyra i ρ med koefficienter i 3 -adiska heltal Z3 . Modulo 3 8 detta polynom är

Detta är algebraiskt över F och är den korrekta globala Frobenius-bilden när det gäller inbäddning av F in i F3 Dessutom är koefficienterna algebraiska och resultatet kan uttryckas algebraiskt. De är emellertid av grad 120, enligt Galois-gruppens ordning, vilket illustrerar det faktum att uttryckliga beräkningar görs mycket lättare om p -adiska resultat är tillräckliga.

Om L / K är en abelisk förlängning av globala fält, får vi en mycket starkare kongruens eftersom det bara beror på primt φ i basfältet K. Tänk till exempel på tillägget F(β) av F erhålls genom att angränsa en rot β-tillfredsställande

till F . Denna förlängning är cyklisk av ordning fem, med rötter

för heltal n. Den har rötter som är Chebyshev-polynom av β:

β 2 − 2, β 3 − 3β, β 5 − 5β 3 + 5β

ge resultatet av Frobenius-kartan för primär 2, 3 och 5, och så vidare för större primtal som inte är lika med 11 eller av form 22n + 1 (vilken delades). Det är omedelbart uppenbart hur Frobenius-kartan ger ett resultat som är lika med mod p till roten β: s p-kraft.


Innehåll

Det enklaste primalitetstestet är försöksuppdelning: ges ett inmatningsnummer, n, kontrollera om det är jämnt delbart med något primtal mellan 2 och √ n (dvs. att delningen inte lämnar någon återstod). Om så är fallet, då n är sammansatt. Annars är det förstklassigt. [1]

Tänk till exempel på talet 100, som är jämnt delbart med dessa siffror:

Observera att den största faktorn, 50, är ​​hälften av 100. Detta gäller för alla n: alla delare är mindre än eller lika med n / 2.

Egentligen när vi testar alla möjliga delare upp till n / 2, kommer vi att upptäcka några faktorer dubbelt. För att observera detta, skriv om listan över delare som en produktlista, var och en lika med 100:

2 × 50, 4 × 25, 5 × 20, 10 × 10, 20 × 5, 25 × 4, 50 × 2

Lägg märke till att tidigare produkter 10 x 10 bara upprepa siffror som föreföll i tidigare produkter. Till exempel, 5 x 20 och 20 x 5 består av samma nummer. Detta gäller för alla n: alla unika delare av n är siffror mindre än eller lika med √ n, så vi behöver inte söka förbi det. [1] (I detta exempel är √ n = √ 100 = 10.)

Alla jämna siffror större än 2 kan också elimineras eftersom, om ett jämnt antal kan delas n, så kan 2.

Vi kan förbättra den här metoden ytterligare. Observera att alla primtal som är större än 3 har formen 6k ± 1, där k är ett heltal större än 0. Detta beror på att alla heltal kan uttryckas som (6k + i) , var i = −1, 0, 1, 2, 3 eller 4. Observera att 2 delar (6k + 0), (6k + 2) och (6k + 4) och 3 delar (6k + 3). Så en effektivare metod är att testa om n är delbart med 2 eller 3, sedan för att kolla igenom alla siffror i formen 6 k ± 1 ≤ n < displaystyle scriptstyle 6k pm 1 leq < sqrt >>. Detta är tre gånger snabbare än att testa alla siffror upp till √ n .

Generalisering ytterligare, alla primtal större än c# (c primorial) är av formen c# · k + i, för i & lt c#, var c och k är heltal och i representerar siffrorna som är coprime till c #. Till exempel, låt c = 6. Sedan c# = 2 · 3 · 5 = 30. Alla heltal har formen 30k + i för i = 0, 1, 2. 29 och k ett heltal. Men 2 delar 0, 2, 4. 28 3 delar 0, 3, 6. 27 och 5 delar 0, 5, 10. 25. Så alla primtal som är större än 30 har formen 30k + i för i = 1, 7, 11, 13, 17, 19, 23, 29 (dvs för i & lt 30 så att gcd (i30) = 1). Observera att om i och 30 var inte coprime, sedan 30k + i skulle kunna delas med en huvuddelare på 30, nämligen 2, 3 eller 5, och skulle därför inte vara primär. (Obs: Inte alla siffror som uppfyller ovanstående villkor är primära. Till exempel: 437 är i form av c # k + i för c # (7) = 210, k = 2, i = 17. 437 är dock en komposit antal lika med 19 * 23).

Som c → ∞, antalet värden som c#k + i kan ta över ett visst intervall minskar, och så tid att testa n minskar. För den här metoden är det också nödvändigt att kontrollera om det är delbart med alla primtal som är mindre än c. Observationer som är analoga med föregående kan tillämpas rekursivt, vilket ger Eratosthenes sikt.

Ett bra sätt att påskynda dessa metoder (och alla andra som nämns nedan) är att förberäkna och lagra en lista över alla primtal upp till en viss gräns, säg alla primtal upp till 200. (En sådan lista kan beräknas med Sikt efter Eratosthenes eller med en algoritm som testar varje inkrementell m mot alla kända primtal & lt √ m). Sedan, innan du testar n för primality med en seriös metod, n kan först kontrolleras med avseende på delbarhet med valfri prime från listan. Om det är delbart med något av dessa siffror är det sammansatt och eventuella ytterligare tester kan hoppas över.

Ett enkelt men mycket ineffektivt primalitetstest använder Wilsons teorem, som säger att sid är prime om och bara om:

Även om denna metod kräver ungefär sid modulära multiplikationer, vilket gör det opraktiskt, satser om primtal och modulrester utgör grunden för många mer praktiska metoder.

Pythonkod Redigera

Följande är ett enkelt primaltest i Python med enkel 6k ± 1 optimering som nämnts tidigare. Mer sofistikerade metoder som beskrivs nedan är mycket snabbare för stora n.

C # -kod Redigera

Följande är ett primalitetstest i C # med samma optimering som ovan.


Metaller

Med undantag av väte kallas alla element som bildar positiva joner genom att förlora elektroner under kemiska reaktioner metaller. Således är metaller elektropositiva element med relativt låga joniseringsenergier. De kännetecknas av ljus glans, hårdhet, förmåga att resonera ljud och är utmärkta ledare för värme och elektricitet. Metaller är fasta ämnen under normala förhållanden utom kvicksilver.

Metallers fysiska egenskaper

Metaller är glänsande, formbara, duktila, bra ledare för värme och elektricitet. Andra egenskaper inkluderar:

  • stat: Metaller är fasta ämnen vid rumstemperatur med undantag av kvicksilver, som är flytande vid rumstemperatur (Gallium är flytande på varma dagar).
  • Lyster: Metaller reflekterar ljuset från ytan och kan poleras t.ex. guld, silver och koppar.
  • Smidbarhet: Metaller har förmågan att motstå hammare och kan göras till tunna ark som kallas folier. Till exempel kan en guldbit av sockerkub hamras i ett tunt ark som täcker en fotbollsplan.
  • Duktilitet: Metaller kan dras in i ledningar. Till exempel kan 100 g silver dras in i en tunn tråd som är cirka 200 meter lång.
  • Hårdhet: Alla metaller är hårda utom natrium och kalium, som är mjuka och kan skäras med en kniv.
  • Valens: Metaller har vanligtvis 1 till 3 elektroner i deras yttersta skal.
  • Ledning: Metaller är bra ledare eftersom de har fria elektroner. Silver och koppar är de två bästa ledarna för värme och el. Bly är den fattigaste värmeledaren. Vismut, kvicksilver och järn är också dåliga ledare
  • Densitet: Metaller har hög densitet och är mycket tunga. Iridium och osmium har de högsta densiteterna medan litium har den lägsta densiteten.
  • Smält- och kokpunkter: Metaller har höga smält- och kokpunkter. Volfram har de högsta smält- och kokpunkterna medan kvicksilver har lägst. Natrium och kalium har också låga smältpunkter.

Metallers kemiska egenskaper

Metaller är elektropositiva element som generellt bildas grundläggande eller amfoter oxider med syre. Andra kemiska egenskaper inkluderar:

  • Elektropositiv karaktär: Metaller tenderar att ha låga joniseringsenergier, och förlorar vanligtvis elektroner (dvs är oxiderad) när de genomgår kemikalierreaktioner De accepterar normalt inte elektroner. Till exempel:
    • Alkalimetaller är alltid 1 + (förlorar elektronen in s subshell)
    • Jordalkaliska metaller är alltid 2 + (förlorar båda elektronerna i s subshell)
    • Övergångsmetalljoner följer inte ett uppenbart mönster, 2 + är vanligt (förlorar båda elektronerna i s subshell) och 1 + och 3 + observeras också

    Föreningar av metaller med icke-metaller tenderar att vara jonisk i naturen. De flesta metalloxider är basiska oxider och löses i vatten för att bildas metallhydroxider:

    Metalloxider uppvisar sina grundläggande kemisk natur genom att reagera med syror för att bilda metall salter och vatten:

    Vad är den kemiska formeln för aluminiumoxid?

    Al har en laddning på 3+, oxidjonen är (O ^ <2-> ), alltså (Al_2O_3 ).

    Skulle du förvänta dig att den ska vara fast, flytande eller gas vid rumstemperatur?

    Metalleroxider är karakteristiskt fasta vid rumstemperatur

    Skriv den balanserade kemiska ekvationen för reaktion mellan aluminiumoxid och salpetersyra:

    Metalloxid + syra - & gt salt + vatten


    Innehåll

    Lösa envariabel ekvation Redigera

    I secant-metoden ersätter vi det första derivatet f′ Vid xn med den ändliga skillnaden approximation:

    var n är iterationsindex.

    Lösa ett system av icke-linjära ekvationer Redigera

    Tänk på ett system av k icke-linjära ekvationer

    var f är en vektorvärderad funktion av vektorn x :

    För sådana problem ger Broyden en generalisering av den endimensionella Newtons metod och ersätter derivatet med det jakobiska J . Den jakobiska matrisen bestäms iterat, baserat på sekant ekvation i approximationen för ändlig skillnad:

    var n är iterationsindex. För tydlighetens skull, låt oss definiera:

    så ovanstående kan skrivas om som

    Ovanstående ekvation är underbestämd när k är större än en. Broyden föreslår att man använder den aktuella uppskattningen av den Jacobianska matrisen Jn−1 och förbättra den genom att ta lösningen till den sekanta ekvationen som är en minimal modifiering av Jn−1 :

    Detta minimerar följande Frobenius-norm:

    Vi kan sedan fortsätta i Newton-riktningen:

    Broyden föreslog också att man använde Sherman – Morrison-formeln för att uppdatera det omvända av den jakobiska matrisen direkt:

    Denna första metod är allmänt känd som "bra Broydens metod".

    En liknande teknik kan härledas genom att använda en något annan modifiering till Jn−1 . Detta ger en andra metod, den så kallade "dåliga Broydens metod" (men se [3]):

    Detta minimerar en annan Frobenius-norm:

    Många andra kvasi-Newton-scheman har föreslagits vid optimering, där man söker ett maximum eller minimum genom att hitta roten till det första derivatet (gradient i flera dimensioner). Gradienten Jacobian heter Hessian och är symmetrisk, vilket ger ytterligare begränsningar för uppdateringen.

    Broyden har inte bara definierat två metoder utan en hel klass av metoder. Andra medlemmar i denna klass har lagts till av andra författare.


    Innehåll

    Denna artikel kommer att använda följande notationella konventioner: matriser representeras av stora bokstäver i fetstil, t.ex. A vektorer med små bokstäver, t.ex. a och inmatningar av vektorer och matriser är kursiva (eftersom de är siffror från ett fält), t.ex. A och a . Indexnotering är ofta det tydligaste sättet att uttrycka definitioner och används som standard i litteraturen. De I j inmatning av matris A indikeras av (A)I j , AI j eller aI j , medan en numerisk etikett (inte matrisposter) på en samling matriser endast är prenumererad, t.ex. A1, A2 , etc.

    Om A är en m × n matris och B är en n × sid matris,

    de matrisprodukt C = AB (betecknas utan multiplikationstecken eller punkter) definieras som m × sid matris [6] [7] [8] [9]

    för i = 1, . m och j = 1, . sid .

    Därför, AB kan också skrivas som

    Således produkten AB definieras om och endast om antalet kolumner i A motsvarar antalet rader i B , [2] i detta fall n .

    I de flesta scenarier är posterna siffror, men de kan vara alla slags matematiska objekt för vilka ett tillägg och en multiplikation definieras, som är associerande och sådana att tillägget är kommutativt och multiplikationen är fördelande med avseende på tillägg . Särskilt kan posterna vara matriser själva (se blockmatris).

    Illustration Redigera

    Figuren till höger illustrerar schematiskt produkten av två matriser A och B som visar hur varje skärningspunkt i produktmatrisen motsvarar en rad av A och en kolumn av B .

    Värdena vid korsningarna markerade med cirklar är:

    Historiskt har matrixmultiplikation införts för att underlätta och klargöra beräkningar i linjär algebra. Detta starka förhållande mellan matrixmultiplikation och linjär algebra förblir grundläggande i all matematik såväl som inom fysik, teknik och datavetenskap.

    Linjära kartor Redigera

    Om ett vektorutrymme har en ändlig bas representeras dess vektorer unikt av en ändlig sekvens av skalärer, kallad en koordinatvektor, vars element är koordinaterna för vektorn på grundval. Dessa koordinatvektorer bildar ett annat vektorutrymme, vilket är isomorft till det ursprungliga vektorutrymmet. En koordinatvektor är vanligtvis organiserad som en kolumnmatris (även kallad kolumnvektor), vilket är en matris med endast en kolumn. Så, en kolumnvektor representerar både en koordinatvektor och en vektor för det ursprungliga vektorutrymmet.

    En linjär karta A från ett vektorutrymme med dimension n till ett vektorutrymme med dimension m kartlägger en kolumnvektor

    Den linjära kartan A definieras således av matrisen

    System av linjära ekvationer Redigera

    Den allmänna formen av ett system av linjära ekvationer är

    Med samma notation som ovan är ett sådant system ekvivalent med enkelmatrisekvationen

    Punktprodukt, bilinär form och inre produkt Redigera

    Punktprodukten från två kolonnvektorer är matrisprodukten

    Mer allmänt kan vilken bilinär form som helst över ett vektorutrymme med begränsad dimension uttryckas som en matrisprodukt

    och varje inre produkt kan uttryckas som

    Matrixmultiplikation delar vissa egenskaper med vanlig multiplikation. Matrismultiplikation definieras dock inte om antalet kolumner i den första faktorn skiljer sig från antalet rader i den andra faktorn, och det är icke-kommutativt, [10] även när produkten förblir bestämd efter att ha ändrat faktornas ordning. . [11] [12]

    Icke-kommutativitet Redigera

    Ett speciellt fall där kommutativitet förekommer är när D och E är två (fyrkantiga) diagonala matriser (av samma storlek) då DE = ED . [10] Återigen, om matriserna är över en allmän ring snarare än ett fält, måste motsvarande poster i var och en också pendla med varandra för att detta ska hålla.

    Distributivitet Redigera

    Matrixprodukten är distribuerande med avseende på matrixaddition. Det vill säga om A, B, C, D är matriser av respektive storlek m × n , n × sid , n × sid och sid × q , man har (vänster distribution)

    Detta är resultatet av fördelningen för koefficienter av

    Produkt med skalär redigering

    Om skalärerna har kommutativ egenskap är alla fyra matriserna lika. Mer allmänt är alla fyra lika om c tillhör mitten av en ring som innehåller matriserna, för i det här fallet cX = Xc för alla matriser X .

    Dessa egenskaper är resultatet av bilineariteten hos skalarprodukten:

    Transponera Redigera

    Om skalärerna har kommutativ egenskap, är transponeringen av en produkt av matriser produkten, i omvänd ordning, av transponering av faktorerna. Det är

    där T betecknar transponera, det vill säga utbytet av rader och kolumner.

    Denna identitet gäller inte för icke-kommutativa poster, eftersom ordningen mellan posterna i A och B är omvänd när man utvidgar definitionen av matrisprodukten.

    Komplex konjugat Redigera

    Om A och B har komplexa poster, då

    där * betecknar en matrisens ingångsmässiga komplexa konjugat.

    Detta är resultatet av att till definitionen av matrisprodukt tillämpas det faktum att konjugatet av en summa är summan av konjugaten av summanden och konjugatet av en produkt är produkten av konjugaten av faktorerna.

    Transposition verkar på indexen för posterna, medan konjugation verkar självständigt på posterna själva. Det resulterar i att, om A och B har komplexa poster, har man

    där † betecknar konjugat transponera (konjugat av transponera, eller ekvivalent transponera konjugat).

    Associativitet Redigera

    Med tanke på tre matriser A, B och C , produkterna (AB)C och A(före Kristus) definieras om och endast om antalet kolumner av A är lika med antalet rader av B , och antalet kolumner av B är lika med antalet rader av C (i synnerhet om en av produkterna är definierad, definieras den andra också). I det här fallet har man den associerande egenskapen

    När det gäller alla associeringsåtgärder tillåter detta att utesluta parenteser och skriva ovanstående produkter som A B C. < displaystyle mathbf .>

    Detta sträcker sig naturligt till produkten av valfritt antal matriser förutsatt att måtten matchar. Det vill säga om A1, A2, . An är matriser så att antalet kolumner av Ai är lika med antalet rader av Ai + 1 för i = 1, . n - 1, sedan produkten

    definieras och beror inte på multiplikationsordningen, om matrisernas ordning hålls fast.

    Dessa egenskaper kan bevisas med enkla men komplicerade summeringsmanipulationer. Detta resultat följer också av det faktum att matriser representerar linjära kartor. Därför är matrisens associerande egenskap helt enkelt ett specifikt fall av funktionssammansättningens associerande egenskap.

    Komplexitet är inte associerande Redigera

    Även om resultatet av en sekvens av matrisprodukter inte beror på arbetsordningen (förutsatt att matrisernas ordning inte ändras) kan beräkningskomplexiteten bero dramatiskt på denna ordning.

    Till exempel om A, B och C är matriser av respektive storlek 10 × 30, 30 × 5, 5 × 60, beräkning (AB)C behöver 10 × 30 × 5 + 10 × 5 × 60 = 4500 multiplikationer, medan du beräknar A(före Kristus) behöver 30 × 5 × 60 + 10 × 30 × 60 = 27 000 multiplikationer.

    Algoritmer har utformats för att välja den bästa ordningen på produkter, se Matrix chain multiplication. När antalet n matriser ökar, har det visat sig att valet av bästa ordning har en komplexitet av O (n log ⁡ n).

    Ansökan om likhet Redigera

    Likhetstransformationer kartlägger produkt till produkter, det vill säga

    Om n & gt 1, många matriser har inte en multiplikativ invers. Till exempel har en matris så att alla poster i en rad (eller en kolumn) är 0 inte en invers. Om den existerar, är det inversa av en matris A betecknas A −1, och verifierar därmed

    En matris som har en invers är en inverterbar matris. Annars är det en enda matris.

    En matrisprodukt är inverterbar om och endast om varje faktor är inverterbar. I det här fallet har man gjort det

    När R är kommutativ och i synnerhet när det är ett fält är determinanten för en produkt produkten av determinanterna. Eftersom determinanter är skalar och skalar pendlar, har man det

    De andra matrisinvarierna beter sig inte lika bra med produkterna. Ändå, om R är kommutativ, AB och BA har samma spår, samma karakteristiska polynom och samma egenvärden med samma mångfald. Egenvektorerna är dock i allmänhet olika om ABBA .

    Krafter i en matris Redigera

    Man kan höja en kvadratmatris till vilken icke-negativ heltal som helst som multiplicerar den själv upprepade gånger på samma sätt som för vanliga tal. Det är,

    Beräkning av den matriska kapaciteten hos en matris k - 1 gånger tiden för en enda matrixmultiplikation, om det görs med trivialalgoritmen (upprepad multiplikation). Eftersom detta kan vara mycket tidskrävande föredrar man i allmänhet att använda exponentiering genom att kvadrera, vilket kräver mindre än två loggar2 k matrismultiplikationer och är därför mycket effektivare.

    Ett enkelt fall för exponentiering är en diagonal matris. Eftersom produkten av diagonala matriser uppgår till att enkelt multiplicera motsvarande diagonala element tillsammans erhålls den k: te effekten av en diagonal matris genom att höja posterna till effekten k:

    Definitionen av matrisprodukt kräver att posterna tillhör en semiring och inte kräver att multiplicering av element i semiring är kommutativ. I många applikationer tillhör matriselementen ett fält, även om tropisk semiring också är ett vanligt val för grafens kortaste banproblem. [13] Även när det gäller matriser över fält är produkten inte kommutativ i allmänhet, även om den är associerande och distribuerar över matrixaddition. Identitetsmatriserna (som är de kvadratiska matriserna vars inmatningar är noll utanför huvuddiagonalen och 1 på huvuddiagonalen) är identitetselement i matrisprodukten. Av detta följer att n × n matriser över en ring bildar en ring, som är icke-kommutativ utom om n = 1 och markringen är kommutativ.

    En kvadratmatris kan ha en multiplikativ invers, kallad en invers matris. I det vanliga fallet där posterna tillhör en kommutativ ring r, har en matris en invers om och endast om dess determinant har en multiplikativ invers i r. Determinanten för en produkt av kvadratmatriser är produkten av faktorernas determinanter. De n × n matriser som har en invers bildar en grupp under matrixmultiplikation, vars undergrupper kallas matrisgrupper. Många klassiska grupper (inklusive alla ändliga grupper) är isomorfa till matrisgrupper. Detta är utgångspunkten för teorin om grupprepresentationer.

    Ganska överraskande är denna komplexitet inte optimal, vilket visades 1969 av Volker Strassen, som tillhandahöll en algoritm, nu kallad Strassens algoritm, med en komplexitet av O (n log 2 ⁡ 7) ≈ O (n 2.8074). < displaystyle O (n ^ < log _ <2> 7>) approx O (n ^ <2.8074>).> [14] Från och med december 2020 [uppdatering] är den bästa matrixmultiplikationsalgoritmen av Josh Alman och Virginia Vassilevska Williams och har komplexitet O(n 2.3728596). [15] Det är inte känt om matrismultiplikation kan utföras i O(n 2 + o (1)) tid. Detta skulle vara optimalt, eftersom man måste läsa n 2 < displaystyle n ^ <2>> elementen i en matris för att multiplicera den med en annan matris.

    Eftersom matrixmultiplikation utgör grunden för många algoritmer, och många operationer på matriser till och med har samma komplexitet som matrixmultiplikation (upp till en multiplikationskonstant), uppträder den matematiska multiplikationens komplexitet i numerisk linjär algebra och teoretisk datavetenskap.


    Angeleri Hügel, L., Mendoza Hernández, O .: Homologiska dimensioner i cotorsionspar. Illinois J. Math. 53(1), 251–263 (2009)

    Auslander, M., Buchweitz, R.-O .: Den homologiska teorin om maximala Cohen – Macaulay-approximationer. Mém. Soc. Matematik. Frankrike (N.S.), (38): 5–37 (1989). Colloque en l’honneur de Pierre Samuel (Orsay, 1987)

    Auslander, M., Reiten, I .: Applications of contravariantly endite subcategories. Adv. Matematik. 86(1), 111–152 (1991)

    Auslander, M., Smalø, S.O .: Preprojektiva moduler över Artin algebras. J. Algebra 66, 61–122 (1980)

    Bass, H .: Om allvarliga Gorenstein-ringar. Matematik. Z. 82, 8–28 (1963)

    Beligiannis, A .: Den homologiska teorin för kontravariant slutliga underkategorier: Auslander – Buchweitz-sammanhang, Gorenstein-kategorier och (sam-) stabilisering. Comm. Algebra 28(10), 4547–4596 (2000)

    Beligiannis, A., Reiten, I .: Homologiska och homotopiska aspekter av Torsionsteorier. Mem. Am. Matematik. Soc. 188(883), viii + 207 (2007)

    Bennis, D .: Ringar över vilka klassen av Gorenstein-platta moduler stängs under förlängningar. Kommun. Algebra 37(3), 855–868 (2009)

    Bican, L., El Bashir, R., Enochs, E.E .: Alla moduler har platta lock. Tjur. Lond. Matematik. Soc. 33(4), 385–390 (2001)

    Bravo, D., Gillespie, J., Hovey, M .: Den stabila modulkategorin för en allmän ring. Förtryck. arXiv: 1405.5768 (2014)

    Bühler, T .: Exakta kategorier. Expo. Matematik. 28(1), 1–69 (2010)

    Eilenberg, S., Moore, J.C .: Grunden för relativ homologisk algebra. Mem. Am. Matematik. Soc. Nej. 55, 39 (1965)

    Eklof, P.C., Trlifaj, J .: Hur man får Ext försvinna. Tjur. Lond. Matematik. Soc. 33(1), 41–51 (2001)

    Enochs, E.E., Jenda, O.M.G .: Relativ homologisk algebra. Volym 30 av De Gruyter Expositions in Mathematics. Walter de Gruyter and Co., Berlin (2000)

    Estrada, S., Iacob, A., Pérez, M.A .: Modellstrukturer och relativa Gorenstein-platta moduler. Förtryck. arXiv: 1709.00658 (2017)

    Fieldhouse, D.J .: Karaktärsmoduler, dimension och renhet. Glasg. Matematik. J. 13, 144–146 (1972)

    Foxby, H.-B .: Isomorfier mellan komplex med tillämpningar på modulernas homologiska teori. Matematik. Scand. 40(1), 5–19 (1977)

    Gillespie, J .: Modellstrukturer på moduler över Ding – Chen-ringar. Homologi Homotopy Appl. 12(1), 61–73 (2010)

    Gillespie, J .: Modellstrukturer på exakta kategorier. J. Pure Appl. Algebra 215(12), 2892–2902 (2011)

    Gillespie, J .: Hur man konstruerar en Hovey-trippel från två cotorsionspar. Fond. Matematik. 230(3), 281–289 (2015)

    Gillespie, J .: Dualitypar och stabila modulkategorier. Förtryck. arXiv: 1710.09906 (2017)

    Gillespie, J .: En sammanhängande rings platt stabila modulkategori. J. Pure Appl. Algebra 221(8), 2025–2031 (2017)

    Gillespie, J., Hovey, M .: Gorenstein-modellstrukturer och generaliserade härledda kategorier. Proc. Edinb. Matematik. Soc., II. Ser. 53(3), 675–696 (2010)

    Göbel, R., Trlifaj, J .: Approximations and endomorphism algebras of modules. Volym 41 av De Gruyter Expositions in Mathematics. Walter de Gruyter GmbH och Co. KG, Berlin (2006)

    Happel, D .: Triangulerade kategorier i representationsteorin för änddimensionella algebror. Volym 119 i London Mathematical Society Lecture Note Series. Cambridge University Press, Cambridge (1988)

    Hashimoto, M .: Auslander – Buchweitz approximationer av motsvarande moduler. Volym 282 i London Mathematical Society Lecture Note Series. Cambridge University Press, Cambridge (2000)

    Holm, H .: Gorenstein homologiska dimensioner. J. Pure Appl. Algebra 189(1–3), 167–193 (2004)

    Holm, H .: Strukturen för balanserade stora Cohen – Macaulay-moduler över Cohen-Macaulay-ringar. Glasg. Matematik. J., In: press (2016)

    Holm, H., Jørgensen, P .: Omslag, föregångare och renhet. Illinois J. Math. 52(2), 691–703 (2008)

    Holm, H., Jørgensen, P .: Cotorsion par inducerad av dualitetspar. J. Commut. Algebra 1(4), 621–633 (2009)

    Hovey, M .: Modellkategorier, Volym 63 i matematiska undersökningar och monografier. American Mathematical Society, Providence, RI (1999)

    Hovey, M .: Cotorsion par, modellkategoristrukturer och representationsteori. Matematik. Z. 241(3), 553–592 (2002)

    Krause, H .: Krull-Schmidt-kategorier och projektiva omslag. Expo. Matematik. 33(4), 535–549 (2015)

    Krause, H., Solberg, Ø .: Tillämpningar av kotorsionspar. J. Lond. Matematik. Soc. (2) 68(3), 631–650 (2003)

    Marcos, E.N., Mendoza, O., Sáenz, C., Santiago, V .: Breda underkategorier av ändligt genererade (< varLambda> ) -moduler. J. Algebra Appl. https://doi.org/10.1142/S0219498818500822 (2018)

    Matsumura, H .: Kommutativ ringteori. Volym 8 av Cambridge Studies in Advanced Mathematics. Cambridge University Press, Cambridge, andra upplagan (1989). Översatt från japanska av M. Reid

    Mendoza, O., Sáenz, C .: Lutningskategorier med applikationer till stratifieringssystem. J. Algebra 302(1), 419–449 (2006)

    Murfet, D., Salarian, S .: Helt acykliska komplex över eteriska system. Adv. Matematik. 226(2), 1096–1133 (2011)

    Quillen, D.G .: Homotopisk algebra. Föreläsningsanteckningar i matematik, nr 43. Springer, Berlin-New York (1967)

    Quillen, D.G .: Högre algebraisk (K ) -teori. I. s. 85–147. Föreläsningsanteckningar i matematik, vol. 341 (1973)

    Reiten, I .: Lutningsteori och homologiskt ändliga underkategorier med tillämpningar på kvasi-ärftliga algebraer. I: Handbook of Tilting Theory, volym 332 i London Math. Soc. Föreläsningsnot Ser., S. 179–214. Cambridge Univ. Press, Cambridge (2007)

    Salce, L .: Cotorsion teorier för abeliska grupper. I Symposia Mathematica, Vol. XXIII (Conf. Abelian Groups and their Relationship to theory of Modules, INDAM, Rom, 1977), s. 11–32. Academic Press, London-New York (1979)

    Sather-Wagstaff, S., Sharif, T., White, D .: Stabilitet hos Gorenstein-kategorier. J. Lond. Matematik. Soc., II. Ser. 77(2), 481–502 (2008)

    Sieg, D .: En homologisk strategi för splittringsteorin om PLS-utrymmen. Doktorsavhandling, Universität Trier, Universitätsring 15, 54296 Trier (2010)

    Stenström, B .: Sammanhängande ringar och (F , P ) -injektionsmoduler. J. Lond. Matematik. Soc. 2(2), 323–329 (1970)

    Verdier, J.-L .: Des Catégories Dérivées des Catégories Abéliennes. Paris: Société Mathématique de France (1996)

    Zhang, P .: En kort introduktion till Gorenstein-projektiva moduler. www.math.uni-bielefeld.de/sek/sem/abs/zhangpu4.pdf


    Titta på videon: Introduction to the Frobenius Method (Oktober 2021).