Raksti

5.1.: Lineārās transformācijas


Mācību mērķi

  1. Izprot lineārās transformācijas definīciju un to, ka visas lineārās transformācijas nosaka ar matricas reizinājumu.

Atgādinām, ka reizinot (m reizes n ) matricu ar (n reizes 1 ) kolonnas vektoru, rezultāts ir (m reizes 1 ) kolonnas vektors. Šajā sadaļā mēs apspriedīsim, kā, izmantojot matricas reizināšanu, (m reizes n ) matrica pārveido (n reizes 1 ) kolonnas vektoru (m reizes 1 ) kolonnas vektoru.

Atgādinām, ka (n reizes 1 ) vektors, ko sniedz [ vec {x} = left [ begin {array} {r} x_1 x_2 vdots x_n end {array} pa labi] nonumber ] tiek uzskatīts par piederīgu ( mathbb {R} ^ n ), kas ir visu (n reizes 1 ) vektoru kopa. Šajā sadaļā mēs apspriedīsim vektoru pārveidojumus ( mathbb {R} ^ n. )

Apsveriet šādu piemēru.

Piemērs ( PageIndex {1} ): funkcija, kas pārveido vektorus

Apsveriet matricu (A = pa kreisi [ begin {masīvs} {ccc} 1 & 2 & 0 2 & 1 & 0 end {masīvs} right]. ) Parādiet, ka ar matricas reizinājumu (A ) pārveido vektorus mapē ( mathbb {R} ^ 3 ) par vektoriem, kas atrodas ( mathbb {R} ^ 2 ).

Risinājums

Vispirms jāatgādina, ka vektori ( mathbb {R} ^ 3 ) ir vektori, kuru lielums ir (3 reizes 1 ), savukārt ( mathbb {R} ^ {2} ) vektori ir (2 reizes 1 ). Ja reizinām (A ), kas ir (2 reizes 3 ) matrica, ar (3 reizes 1 ) vektoru, rezultāts būs (2 reizes 1 ) vektors. To mēs domājam, sakot, ka (A ) pārveido vektori.

Tagad ( left [ begin {array} {c} x y z end {array} right] ) sadaļā ( mathbb {R} ^ 3 ) reiziniet pa kreisi ar doto matricu, lai iegūtu jauno vektoru. Šis produkts izskatās kā [[ left [ begin {array} {rrr} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {r} x y z end {array} right] = left [ begin {array} {c} x + 2y 2x + y end {array} right] nonumber ] Iegūtais produkts ir (2 reizes 1 ) vektoru, ko nosaka, izvēloties (x ) un (y ). Šeit ir daži skaitliski piemēri. [ left [ begin {array} {ccc} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {c} 1 2 3 end {array} right] = left [ begin {array} {c} 5 4 end {array} right] nonumber ] Šeit vektors ( left [ begin { masīvu} {c} 1 2 3 end {array} right] ) in ( mathbb {R} ^ 3 ) matrica pārveidoja vektorā ( left [ begin { masīvs} {c} 5 4 end {array} right] ) in ( mathbb {R} ^ 2 ).

Šeit ir vēl viens piemērs: [ left [ begin {array} {rrr} 1 & 2 & 0 2 & 1 & 0 end {array} right] left [ begin {array} {r} 10 5 -3 end {array} right] = left [ begin {array} {r} 20 25 end {array} right] nonumber ]

Ideja ir definēt funkciju, kas ņem vektorus ( mathbb {R} ^ {3} ) un piegādā jaunus vektorus ( mathbb {R} ^ {2}. ). Šajā gadījumā šī funkcija ir reizināšana ar matricu (A ).

Apzīmēsim šādu funkciju ar (T ). Apzīmējums (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) nozīmē, ka funkcija (T ) pārveido vektorus ( mathbb {R} ^ {n } ) vektoros ( mathbb {R} ^ {m} ). Apzīmējums (T ( vec {x}) ) nozīmē vektoram ( vec {x} ) piemēroto transformāciju (T ). Iepriekš minētais piemērs parādīja transformāciju, kas panākta ar matricas reizināšanu. Šajā gadījumā mēs bieži rakstām [T_ {A} left ( vec {x} right) = A vec {x} nonumber ] Tāpēc (T_ {A} ) ir transformācija, ko nosaka matrica (A ). Šajā gadījumā mēs sakām, ka (T ) ir matricas transformācija.

Atgādināsim matricas reizināšanas īpašību, kas norāda, ka (k ) un (p ) skalāriem [A left (kB + pC right) = kAB + pAC nonumber ] Jo īpaši attiecībā uz (A ) (m reizes n ) matrica un (B ) un (C, ) (n reizes 1 ) vektorus ( mathbb {R} ^ {n} ), formula atbilst.

Citiem vārdiem sakot, tas nozīmē, ka matricas reizināšana sniedz lineārās transformācijas piemēru, kuru mēs tagad definēsim.

Definīcija ( PageIndex {1} ): lineārā transformācija

Ļaujiet (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) būt funkcija, kur katram ( vec {x} in mathbb {R} ^ { n}, T pa kreisi ( vec {x} right) in mathbb {R} ^ {m}. ) Tad (T ) ir lineārā transformācija ja ikreiz, kad (k, p ) ir skalāri, un ( vec {x} _1 ) un ( vec {x} _2 ) ir vektori mapē ( mathbb {R} ^ {n} ) ((n reizes 1 ) vektori (), ) [T left (k vec {x} _1 + p vec {x} _2 right) = kT left ( vec {x} _1 right] + pT left ( vec {x} _ {2} right) nonumber ]

Apsveriet šādu piemēru.

Piemērs ( PageIndex {2} ): lineārā transformācija

Ļaujiet (T ) būt transformācijai, ko definē (T: mathbb {R} ^ 3 to mathbb {R} ^ 2 ) definē [T left [ begin {array} {c} x y z end {array} right] = left [ begin {array} {c} x + y xz end {masīvs} right] mbox {visiem} left [ begin {array} {c} x y z end {array} right] in mathbb {R} ^ 3 nonumber ] Parādiet, ka (T ) ir lineāra transformācija.

Risinājums

Pēc definīcijas ( PageIndex {1} ) mums jāparāda, ka (T left (k vec {x} _1 + p vec {x} _2 right) = kT left ( vec {x} _1 right) + pT left ( vec {x} _ {2} right) ) visiem skalāriem (k, p ) un vektoriem ( vec {x} _1, vec {x} _2 ). Ļaujiet [ vec {x} _1 = pa kreisi [ begin {array} {c} x_1 y_1 z_1 end {array} right], vec {x} _2 = left [ begin { masīvs} {c} x_2 y_2 z_2 end {masīvs} right] nonumber ] Tad [ sākas {izlīdzināts} T pa kreisi (k vec {x} _1 + p vec {x} _2 pa labi) & = & T pa kreisi (k pa kreisi [ begin {array} {c} x_1 y_1 z_1 end {array} right] + p left [ begin {array} {c } x_2 y_2 z_2 end {masīvs} right] right) & = & T left ( left [ begin {array} {c} kx_1 ky_1 kz_1 end {masīvs } pa labi] + pa kreisi [ begin {masīvs} {c} px_2 py_2 pz_2 end {masīvs} pa labi] pa labi) & = & T pa kreisi ( pa kreisi [ begin {masīvs } {c} kx_1 + px_2 ky_1 + py_2 kz_1 + pz_2 end {array} right] right) & = & kreisais [ begin {masīvs} {c} (kx_1 + px_2) + (ky_1 + py_2) (kx_1 + px_2) - (kz_1 + pz_2) end {masīvs} right] & = & kreisais [ begin {masīvs} {c} (kx_1 + ky_1) + (px_2 + py_2) (kx_1 - kz_1) + (px_2 - pz_2) end {masīvs} right] & = & left [ begin {array} {c} kx_1 + ky_1 kx_1 - kz_1 end {array} right] + left [ begin {array} {c} px_2 + py_2 px_2 - pz_2 end {array} right] & = & k left [ begin {array} {c} x_1 + y_1 x_1 - z_1 end {array} right] + p left [ begin {array} {c} x_2 + y_2 x_2 - z_2 end {masīvs} right] & = & k T ( vec {x} _1) + p T ( vec {x} _2) end {aligned} nonumber ] Tāpēc (T ) ir lineāra transformācija.

Divi svarīgi lineāro transformāciju piemēri ir nulles transformācija un identitātes transformācija. Nulles transformācija, ko visiem ( vec {x} ) definē (T left ( vec {x} right) = vec (0) ), ir lineārās transformācijas piemērs. Līdzīgi identitātes transformācija, ko definē (T left ( vec {x} right) = vec (x) ), ir arī lineāra. Veltiet laiku, lai tos pierādītu, izmantojot metodi, kas parādīta piemērā ( PageIndex {2} ).

Mēs sākām šo sadaļu, apspriežot matricas transformācijas, kur reizināšana ar matricu pārveido vektorus. Šīs matricas transformācijas faktiski ir lineāras transformācijas.

Teorēma ( PageIndex {1} ): Matricas transformācijas ir lineāras transformācijas

Ļaujiet (T: mathbb {R} ^ {n} mapsto mathbb {R} ^ {m} ) būt transformācijai, kuru definē (T ( vec {x}) = A vec {x} ). Tad (T ) ir lineāra transformācija.

Izrādās, ka katru lineāro transformāciju var izteikt kā matricas transformāciju, un tādējādi lineārās transformācijas ir tieši tādas pašas kā matricas transformācijas.


Lekciju konspekti matemātikai 3410 ar skaitļošanas piemēriem

Atgādinām no 2. nodaļas 2.1.3 piemēra, ka, ņemot vērā jebkuru (m reizes n ) matricu (A text <,> ), mēs varam definēt matricas transformāciju (T_A: R ^ n to R ^ m ) ar (T_A ( xx) = A xx text <,> ), kur mēs ( xx in R ^ n ) skatām kā (n reizes 1 ) kolonnu vektoru.

Un otrādi, ņemot vērā jebkuru lineāro karti (T: R ^ n uz R ^ m text <,> ), ja mēs ļautu ( basis) apzīmē ( R ^ n text <,> ) standarta pamatu, tad matricu

Mēs jau esam apsprieduši faktu, ka šī ideja vispārina: ņemot vērā lineāru transformāciju (T: V uz W text <,> ), kur (V ) un (W ) ir ierobežotas dimensijas vektoru telpas, ir iespējams attēlot (T ) kā matricas transformāciju.

Attēlojums ir atkarīgs no bāzes izvēles gan (V ), gan (W text <.> ). Atgādiniet koeficienta izomorfisma definīciju no 2.3.4. Definīcijas 2.3. Sadaļā. Ja ( dim V = n ) un ( dim W = m text <,> ), tas dod mums izomorfismus (C_B: V to R ^ n ) un (C_D: W to R ^ m ) atkarībā no (V ) bāzes (B ) un (W text <.> ) Bāzes (D ) izvēles. Šie izomorfismi definē matricas transformāciju (T_A: R ^ n uz R ^ m ) saskaņā ar diagrammu, kuru mēs sniedzām 2.3.5.

Mums tomēr jāuzsver viens svarīgs punkts par koeficienta izomorfismu. Tas ir atkarīgs no bāzes izvēles, bet arī no rīkojumu no pamatelementiem. Tādējādi mēs parasti strādāsim ar pēc pasūtījuma šajā nodaļā. Tas ir, nevis vienkārši domāt par mūsu pamatu kā kopu, bet gan par sakārtotu sarakstu. Kārtībai ir nozīme, jo tai ir dota bāze (B = pamats text <,> ) mēs paļaujamies uz to, ka jebkuru vektoru ( vv ) varam uzrakstīt unikāli kā

lai veiktu uzdevumu (C_B ( vv) = bbm c_1 vdots c_n ebm text <.> )

5.1.1.

Parādiet, ka koeficienta izomorfisms patiešām ir lineārs izomorfisms no (V ) līdz ( R ^ n text <.> )

Ir skaidrs, ka (C_B ( mathbf <0>) = mathbf <0> text <,> ), jo vienīgais veids, kā ierakstīt nulles vektoru (V ) izteiksmē (B ) ( vai patiešām jebkura neatkarīga kopa) ir iestatīt visus skalārus vienādiem ar nulli.

Ja mums ir divi vektori ( vv, ww ), ko sniedz

Visbeidzot, jebkuram skalāram (c text <,> ), kas mums ir

Tas parāda, ka (C_B ) ir lineārs. Lai redzētu, ka (C_B ) ir izomorfisms, mēs vienkārši varam atzīmēt, ka (C_B ) pamatu (B ) pārnes uz ( R ^ n text <.> ) Standarta bāzi. mēs varam dot apgriezto vērtību: (C_B ^ <-1>: R ^ n to V ) dod

Doti (T: V uz W ) un koeficientu izomorfismi (C_B: V uz R ^ n, C_D: W uz R ^ m text <,> ) karti (C_DTC_B ^ <- 1>: R ^ n to R ^ m ) ir lineāra transformācija, un šīs transformācijas matrica skaidri attēlo (T text <.> ), Ļaujiet (B = basis) jābūt sakārtotam pamatam (V text <,> ) un ļaujiet (D = basis) jābūt sakārtotam pamatam (W text <.> ) Tā kā (T ( vv_i) in W ) katram ( vv_i in B text <,> ) pastāv unikāli skalāri (a_ text <,> ) ar (1 leq i leq m ) un (1 leq j leq n ) tā, lai

par (j = 1, ldots, n text <.> ) Tas dod mums (m reizes n ) matricu (A = [a_] text <.> ) Ievērojiet, ka (A ) pirmā kolonna ir (C_D (T ( vv_1)) text <,> ) otrā kolonna ir (C_D (T ( vv_2) ) text <,> ) un tā tālāk.

Dots ( xx V text <,> ) rakstīt ( xx = c_1 vv_1 + cdots + c_n vv_n text <,> ) tā, lai vdots c_n ebm text <.> ) Tad

Tādējādi mēs redzam, ka (C_DT = T_AC_B text <,> ) vai (T_A = C_DTC_B ^ <-1> text <,> ), kā paredzēts.

Definīcija 5.1.2. Matrica (M_(T) ).

Ļaujiet (V ) un (W ) būt ierobežotu dimensiju vektoru atstarpēm, un (T: V uz W ) ir lineāra karte. Ļaujiet (B = pamats) un (D = pamats) sakārtotas bāzes attiecīgi (V ) un (W text <,> ). Tad (M_(T) ) no (T ) attiecībā uz bāzēm (B ) un (D ) definē

Citiem vārdiem sakot, (A = M_(T) ) ir unikāla (m reizes n ) matrica, kas (C_DT = T_AC_B text <.> ) Tas dod definējošo rekvizītu

kā tika parādīts iepriekš.

5.1.3. Uzdevums.

Pieņemsim, ka (T: P_2 ( R) uz R ^ 2 ) piešķir

Aprēķiniet (T ) matricu attiecībā uz bāzēm (B = <1,1-x, (1-x) ^ 2 > ) no (P_2 ( R) ) un ( D = <(1,0), (1, -1) > ) no ( R ^ 2 teksta <.> )

Aprēķinot transformācijas matricu attiecībā uz nestandarta bāzi, mums nav jāuztraucas par to, kā rakstīt vektorus domēnā šī pamata izteiksmē. Tā vietā mēs vienkārši ieslēdzam transformācijas pamatvektorus un pēc tam nosakām, kā produkciju ierakstīt kodomēna bāzes izteiksmē. Tomēr, ja mēs to vēlamies izmantot šo matricu, lai aprēķinātu (T: V uz W text <,> ) vērtības, tad mums ir nepieciešams sistemātisks veids, kā rakstīt (V ) elementus, ņemot vērā norādīto pamatu.

5.1.4. Piemērs. Darbs ar transformācijas matricu.

Ļaujiet (T: P_2 ( R) uz R ^ 2 ) būt lineārai transformācijai, kuras matricu dod

attiecībā uz sakārtotajām bāzēm (B = <1 + x, 2-x, 2x + x ^ 2 > ) (P_2 ( R) ) un (D = <(0,1) ), (- 1,1) > ) no ( R ^ 2 text <.> ) Atrodiet (T (2 + 3x-4x ^ 2) text <.> ) Vērtību

Mums ir jāraksta ievade (2 + 3x-4x ^ 2 ) bāzes (B text <.> ) Izteiksmē. Tas nozīmē atrisināt vienādojumu sistēmu, ko

Protams, mēs varam viegli izveidot un atrisināt šo sistēmu, taču mēģināsim būt sistemātiski un iegūt noderīgāku rezultātu nākotnes problēmām. Tā kā mēs varam viegli noteikt, kā rakstīt jebkuru polinomu standarta bāzes izteiksmē ( <1, x, x ^ 2 > text <,> ), pietiek zināt, kā rakstīt šos trīs polinomus mūsu pamata.

Sākumā tas šķiet vairāk darba. Galu galā mums tagad ir trīs sistēmas, kas jāatrisina:

Tomēr visām trim sistēmām ir vienāda koeficientu matrica, tāpēc mēs tos varam atrisināt vienlaicīgi, pievienojot mūsu paplašinātajai matricai trīs “konstantes” kolonnas.

Bet tieši tā ir paplašinātā matrica, kuru mēs gribētu atrast tieši lejā, ja mēs mēģinātu atrast matricas apgriezto vērtību

kuru kolonnas ir mūsu doto bāzes vektoru koeficientu attēlojumi standarta bāzes izteiksmē.

Lai aprēķinātu (P ^ <-1> text <,> ), mēs izmantojam datoru:

Šī matrica vispirms pārveido koeficienta vektoru polinomam (p (x) ) attiecībā pret standarta bāzi koeficienta vektorā mūsu dotajai bāzei (B text <,> ) un pēc tam reizina ar matricu, kas attēlo mūsu transformācija. Rezultāts būs koeficienta vektors (T (p (x)) ) attiecībā pret pamatu (D text <.> )

Polinomam (p (x) = 2 + 3x-4x ^ 2 ) ir koeficienta vektors ( bbm 2 3 - 4 ebm ) attiecībā pret standarta bāzi. Mēs konstatējam, ka (M (T) P ^ <-1> bbm 2 3 - 4 ebm = bbm 12 - 10 ebm text <:> )

Koeficienti (12 ) un (- 10 ) ir koeficienti (T (p (x)) ) ar atkārtotu izvēli uz pamatu (D text <.> ). Tādējādi

Ņemiet vērā, ka pēdējā solī mēs sniedzām “vienkāršoto” atbildi ((10,2) text <,> ), kas ir vienkāršota galvenokārt ar to, ka tā ir izteikta attiecībā pret standarta bāzi.

Ņemiet vērā, ka mēs varam arī ieviest matricu (Q = bbm 0 amp -1 1 amp 1 ebm ), kuras kolonnas ir vektoru koeficienta vektori bāzē (D ) attiecībā pret standarta pamata. Reizinot ar (Q ), rezultāts tiek pārvērsts no koeficientiem attiecībā pret (D ) par koeficientu vektoru attiecībā pret standarta bāzi. Pēc tam mēs varam uzrakstīt jaunu matricu ( hat(T) = QM (T) P ^ <-1> text <> ) šī jaunā matrica tagad ir (T ) matricas attēlojums attiecībā pret standarta (P_2 ( R) ) un ( R ^ 2 text <.> ) bāzes

Mēs to atradām ( tilde(T) = bbm 1 amp 0 amp -2 0 amp 2 amp 1 ebm text <.> ] Tas ļauj mums noteikt, ka vispārējam polinomam (p (x) = a + bx + cx ^ 2 teksts <,> )

un tāpēc mūsu sākotnējai transformācijai ir jābūt

Iepriekšējais piemērs ilustrēja dažus svarīgus novērojumus, kas kopumā ir patiesi. Mēs nesniegsim vispārīgus pierādījumus, bet rezultātus apkopojam teorēmā.

5.1.5. Teorēma.

Pieņemsim, ka (T: V uz W ) ir lineāra transformācija, un pieņemsim, ka (M_0 = M_(T) ) ir matrica (T ) attiecībā uz bāzēm (B_0 ) no (V ) un (D_0 ) no (W text <.> ) Let (B_1 = pamats) un (D_1 pamats) būt jebkurai citai izvēles pamatai attiecīgi (V ) un (W text <,> ). Ļaujiet

jābūt matricām, kuru kolonnas ir vektoru koeficienta vektori (B_1, D_1 ) attiecībā pret (B_0, D_0 text <.> ). Tad (T ) matrica attiecībā pret bāzēm ( B_1 ) un (D_1 ) ir

Attiecība starp dažādām kartēm ir parādīta 5.1.6. Attēlā. Šajā attēlā kartes (V uz V ) un (W uz W ) ir identitātes kartes, kas atbilst viena un tā paša vektora attēlojumam attiecībā pret divām dažādām bāzēm. Vertikālās bultiņas ir koeficienta izomorfismi (C_, C_, C_, C_ teksts <.> )

5.1.6. Attēls. Transformācijas matricas diagramma attiecībā uz divām dažādām pamatu izvēlēm

5.1.5. Teorēmu parasti izmantojam gadījumā, ja (B_0, D_0 ) ir standarta (V, W text <,> ) bāzes, jo šajā gadījumā matricas (M_0, P, Q ) ir viegli nosakāmas, un mēs varam izmantot datoru, lai aprēķinātu (P ^ <- 1 > ) un produkts (QM_0P ^ <-1> text <.> )

5.1.7. Uzdevums.

Pieņemsim, ka (T: M_ <22> ( R) līdz P_2 ( R) ) ir matrica

attiecībā uz bāzēm

no (M_ <22> ( R) ) un (D = <1, x, x ^ 2 > ) no (P_2 ( R) text <.> ) Nosakiet formulu (T ) kā vispārīgu ievadi (X = bbm a amp b c amp d ebm text <.> )

Vispirms mums ir jāuzraksta mūsu vispārējais ieguldījums, ņemot vērā norādīto pamatu. Attiecībā uz standarta bāzi

mums ir matrica (P = bbm 1 amp 0 amp 0 amp 1 0 amp 1 amp 1 amp 0 0 amp 0 amp 1 amp 0 0 amp 1 amp 0 amp 1 ebm text <,> ), kas apzīmē izmaiņas no bāzes (B ) bāzes (B_0 text <.> ) (P_2 ( R) ) jau ir standarta bāze, tāpēc mums ir nepieciešama matrica (M_(T) P ^ <-1> teksts <:> )

Matricai (X = bbm a amp b c amp d ebm ) mēs atrodam

Bet tas ir vienāds ar (C_D (T (X)) text <,> )

Tādās mācību grāmatās kā Šeldons Akslers Lineārā algebra izdarīta pareizi kas galvenokārt koncentrējas uz lineārām transformācijām, iepriekš minēto transformācijas matricas uzbūvi attiecībā uz bāzes izvēli var izmantot kā primāro motivāciju matricu ieviešanai un to algebrisko īpašību noteikšanai. Jo īpaši matricu reizināšanas likumu, kas sākumā var likties savdabīgs, var uzskatīt par lineāro karšu sastāva sekām.

5.1.8. Teorēma.

Ļaujiet (U, V, W ) būt ierobežotu dimensiju vektoru atstarpēm ar attiecīgi sakārtotām bāzēm (B_1, B_2, B_3 text <,> ). Ļaujiet (T: U uz V ) un (S: V uz W ) būt lineārām kartēm. Tad

Pierādījums.

Ļaujiet ( xx U tekstā <.> ), Pēc tam (C_(ST ( xx)) = M_(ST) C_( xx) text <.> ) No otras puses,

Kopš (C_) ir apgriezts, rezultāts seko.

Spēja izteikt vispārēju lineāru transformāciju matricas izteiksmē ir noderīga, jo jautājumus par lineārām transformācijām var pārvērst jautājumos par matricām, kuras mēs jau zinām, kā atrisināt. It īpaši,

(T: V uz W ) ir izomorfisms tikai tad, ja (M_(T) ) ir invertējams dažām (un līdz ar to visām) bāzu izvēlei (B ) no (V ) un (D ) no (W text <.> )

(T ) rangs ir vienāds ar (M_(T) ) (un tas nav atkarīgs no pamata izvēles).

(T ) kodols ir izomorfs pret (M_) nulles atstarpi(T) teksts <.> )

Tālāk mēs vēlēsimies aplūkot īpaši divas tēmas. Pirmkārt, ja (T: V uz V ) ir lineārs operators, tad ir lietderīgi ņemt vērā matricu (M_B (T) = M_(T) ), kas iegūts, izmantojot to pašu bāzi gan domēnam, gan kodomēnam. Otrkārt, mēs vēlēsimies uzzināt, kā mainās šī matrica, ja mainīsim pamatu izvēli.


6 Atbildes 6

Lai pārbaudītu, vai T ir lineāra transformācija, jāpārbauda, ​​vai dažiem vektoriem $ a $ un $ b $ un dažiem nemainīgiem $ c $
$ T (a + b) = T (a) + T (b) $ $ T (ca) = cT (a) $ $ T (0) = 0 $ Tātad, piemēram,
A. $ T (x_1, x_2, x_3) = (x_1,0, x_3) $ $ T (x_1 + y_1, x_2 + y_2, x_3 + y_3) = (x_1 + y_1,0 (x_2 + y_2), x_3 + y_3) = T (x_1,0, x_3) + T (y_1,0, y_2) $$ T (cx_1, cx_2, cx_3) = T (cx_1, (c) 0, cx_3) = cT (x_1,0, x_3) ) $ $ T (0,0,0) = 0 $ B. $ T (x_1, x_2) = (2x_1−3x_2, x_1 + 4,5x_2) $ $ T (x_1 + y_1, x_2 + y_2) = (2 (x_1 + y_1) −3 (x_2 + y_2), (x_1 + y_1) +4,5 (x_2 + y_2)) = (2x_1 + 2y_1−3x_2-3y_2, x_1 + y_1 + 4,5x_2 + 5y_2) $$ T (x_1, x_2) + T (y_1, y_2) = (2x_1−3x_2, x_1 + 4,5x_2) + (2y_1−3y_2, y_1 + 4,5y_2) = (2x_1−3x_2 + 2y_1-3y_2, x_1 + y_1 + 8,5x_2 + 5y_2) not = T (x_1 + y_1, x_2 + y_2) $ Tātad B nav lineāra transformācija.

Lai $ T $ būtu lineāra transformācija, ir jāievēro divi kritēriji:

Piemēram, pieņemsim, ka $ mathbf = (x_1, x_2, x_3) $ un $ mathbf = (y_1, y_2, y_3) $. Sāksim ar A.

Pēc tam $ T ( mathbf) = (x_1, 0, x_3) $ un $ T ( mathbf) = (y_1, 0, y_3) $. Tagad $ mathbf+ mathbf = (x_1 + y_1, x_2 + y_2, x_3 + y_3) text <.> $ No tā izriet, ka $ T ( mathbf+ mathbf) = (x_1 + y_1, 0, x_3 + y_3) $.

Ir $ T ( mathbf+ mathbf) = T ( mathbf) + T ( mathbf)$?

Tagad par nemainīgu $ a $, $ a mathbf = (ax_1, ax_2, ax_3) $.

Mums ir $ T (a mathbf) = (ax_1, 0, ax_3) $.

Turklāt mēs zinām $ T ( mathbf) = (x_1, 0, x_3) $, tātad $ aT ( mathbf) = (ax_1, 0, ax_3) $.

Atkārtojiet to visiem pārējiem $ T $.

$ A $. $ T (a vec) = T (ax_1, ax_2, ax_3) = (ax_1, 0, ax_3) = a (x_1, 0, x_3) = aT ( vec)$

$ T ( vec + vec) = T (x_1 + y_1, x_2 + y_2, x_3 + y_3) = (x_1 + y_1,0, x_3 + y_3) = (x_1,0, x_3) + (y_1,0, y_3) = T ( vec) + T ( vec)$

Tāpēc pirmā transformācija ir lineāra, kā jūs pareizi uzminējāt. Vienkārši atkārtojiet to pašu procedūru B-E un pārbaudiet, vai tā darbojas vai nē.

Lineārajai transformācijai ir šī definīcija.

$ T ( mathbf x + mathbf y) = T ( mathbf x) + T ( mathbf y) T (c mathbf x) = cT ( mathbf x) $

Parādiet, ka tā ir (vai nav) taisnība katram iepriekšminētajam.

Lineāro transformāciju nosaka kopa viendabīgs lineāri (ti, visiem noteikumiem ir $ 1 $ pakāpe) polinomi, proti, formas $ T (x_1, x_2, x_3) = ax_1 + bx_2 + cx_3 quad (a, b, c in mathbf R). $ A un C vien šis kritērijs.

Vai T in A ir lineāra transformācija?

Pieņemsim, ka $ T: V rightarrow W $. Ja $ V $ un $ W $ ir vektoru atstarpes virs $ F $. Ievietojiet $ x_1, x_2, x_3 F $ un arī $ x_4, x_5, x_6 F $. Tātad $ (x_1, x_2, x_3) V $ un $ (x_4, x_5, x_6) V $. Tagad jāpārbauda, ​​vai $ T ((x_1, x_2, x_3)) + T ((x_4, x_5, x_6)) = T ((x_1 + x_4, x_2 + x_5, x_3 + x_6)) $.

Mums ir LHS $ = (x_1,0, x_3) + (x_4,0, x_6) = (x_1 + x_4,0, x_3 + x_6) = $ RHS. Tādējādi tas atbilst vektoru pievienošanas definīcijai.

Ļaujiet būt kā iepriekš, un pieņemsim, ka $ V $ ir vektora telpa virs lauka $ F $. Tad ļaujiet $ a ievadīt F $. Vēlaties pierādīt, ka:

$ aT (x_1, x_2, x_3) = T (ax_1, ax_2, ax_3) $. Tādējādi mums ir:

LHS $ = a (x_1,0, x_3) = (ax_1,0, ax_3) = $ RHS. Tas notiek ar vektoru skalāru reizināšanu un nulles īpašību $ mathbb$.

Tādējādi šī ir lineāra transformācija pēc definīcijas. Parasti jums jāpierāda, ka šīs divas īpašības ir spēkā.


Faila struktūra¶

Visas specifiskās mimetipu transformācijas tiek definētas, izmantojot klases failus direktoriju bibliotēkās / class / Plugins / Transformations /. Katrs no tiem paplašina noteiktu transformācijas abstrakto klasi, kas deklarēta bibliotēkās / klasēs / Spraudņi / Transformācijas / Abs.

Tie tiek glabāti failos, lai atvieglotu pielāgošanu un ļautu ērti pievienot jaunas vai pielāgotas transformācijas.

Tā kā lietotājs nevar ievadīt savus mimetipus, tiek uzskatīts, ka pārveidojumi vienmēr darbosies. Nav jēgas pārveidot modeli, kuru pārveidošanas funkcija nezina apstrādāt.

Ir fails ar nosaukumu bibliotēkām / klasēm / spraudņiem / Transformations.php, kas nodrošina dažas pamatfunkcijas, kuras var iekļaut jebkura cita transformācijas funkcija.

Faila nosaukuma princips ir [Mimetype] _ [Subtype] _ [Transformation Name] .php, savukārt abstraktajai klasei, kuru tā paplašina, ir nosaukums [Transformation Name] TransformationsPlugin. Visas metodes, kas jāievieš, izmantojot transformāciju spraudni, ir:

  1. getMIMEType () un getMIMESubtype () galvenajā klasē
  2. getName (), getInfo () un ApplyTransformation () abstraktajā klasē, kuru tā paplašina.

Metodes getMIMEType (), getMIMESubtype () un getName () attiecīgi atgriež MIME tipa, MIME apakštipa un transformācijas nosaukumu. getInfo () atgriež transformācijas aprakstu un iespējamās opcijas, kuras tā var saņemt un lietot. Transformation () ir metode, kas veic transformācijas spraudņa faktisko darbu.

Lūdzu, skatiet bibliotēkas / klases / Spraudņi / Transformācijas / TEMPLATE un Bibliotēkas / klases / Spraudņi / Transformācijas / TEMPLATE_ABSTRACT failus, lai pievienotu savu transformācijas spraudni. Varat arī ģenerēt jaunu transformācijas spraudni (ar abstraktu transformācijas klasi vai bez tās), izmantojot skriptus / transformations_generator_plugin.sh vai scripts / transformations_generator_main_class.sh.

Metode ApplyTransformation () vienmēr saņem trīs mainīgos:

  1. $ buferis - Satur tekstu kolonnas iekšpusē. Šis ir teksts, kuru vēlaties pārveidot.
  2. $ opcijas - Satur visas lietotāja nodotās opcijas pārveidošanas funkcijai kā masīvu.
  3. $ meta - Satur objektu ar informāciju par jūsu kolonnu. Dati tiek iegūti no mysql_fetch_field () funkcijas izejas. Tas nozīmē, ka visi manuālajā lapā aprakstītie objekta rekvizīti ir pieejami šajā mainīgajā un tos var izmantot, lai attiecīgi pārveidotu kolonnu parakstam / zerofill / not_null / ... Mainīgais $ meta- & gtmimetype satur kolonnas sākotnējo multivides tipu (t.i., “teksts / vienkāršs”, “attēls / JPEG” utt.)

un kopēt Autortiesības 2012 - 2021, The phpMyAdmin izstrādes komandas pārskatīšana 282fbe76.


Apgriežamo matricu piemēri

Piemērs. Atrodiet apgrieztās matricas no $ A = begin 2 un amp 3 6 un amp 9 beigas $ un $ B = sākas 1 un amp 2 3 un amp 9 beigas . $ Kopš $ teksta(A) = sākas 1/2 un amp 3/2 0 un amp 0 beigas neq I_2 $, $ A ^ <-1> $ neeksistē. $ B $ apgrieztais elements pastāv, un sākas $ B ^ <-1> = 3 un amp -2/3 -1 un amp 1/3 beigas$ kopš $ B ^ <-1> B = I_2 $ un $ B B ^ <-1> = I_2. $

Piemērs. Parādiet, ka $ A = sākas a & amp b & amp c & amp d beigas$ ir invertējams tikai tad, ja $ a d- b c neq 0 $ un kad iespējams

Mēs turpinām atrast apgriezto:

Tāpēc $ A $ ir invertējama matrica tikai tad, ja $ a d- b c neq 0 $ un eqref tur.

Piemērs. Kurām konstantu vērtībām $ a, b, c, $ ir matrica $ A = sākas 0 & amp a & amp b -a & amp 0 & amp c -b & amp -c & amp 0 beigas $ invertible? Pieņemsim, ka $ a neq 0. $ Rindu darbību piemērošana

Tādējādi, ja $ a neq 0 $, tad $ A $ nav invertējams, jo $ mathop<(A)> neq I_3. $ Ja $ a = 0 $, tad skaidri, $ mathop<(A)> neq I_3 $, un tāpēc $ A $ nav maināms abos gadījumos. Tāpēc nav konstantu $ a, b, c $, kurām $ A $ ir invertējama matrica.

Secinājums. Ļaujiet $ A $ būt $ n reizes n $ matricai.

Apsveriet vektoru $ vec b $ $ mathbb^ n. $ Ja $ A $ ir invertējams, tad sistēmai $ A x = b $ ir unikāls risinājums $ x = A ^ <-1> b. $ Ja $ A $ nav nemaināms, tad sistēma $ A x = b $ ir bezgalīgi daudz risinājumu vai nav neviena. Sistēmai $ A x = 0 $ kā risinājums ir $ x = 0 $. Ja $ A $ ir maināms, tad tas ir vienīgais risinājums. Ja $ A $ nav nemaināms, tad sistēmai $ A x = 0 $ ir bezgalīgi daudz risinājumu.

Piemērs. Atrodiet visas invertējamās matricas $ A $ tā, ka $ A ^ 2 = A. $ Tā kā $ A $ ir invertējams, mēs reizinām ar $ A ^ <-1> $, lai iegūtu: $ A = IA = (A ^ <-1> A ) A = A ^ <-1> (A ^ 2) = A ^ <-1> A = I_n $ un tāpēc $ A $ ir jābūt identitātes matricai.

Piemērs. Kurām konstantu $ b $ un $ c $ vērtībām ir matrica $ B = sākas0 & amp 1 & amp b -1 & amp 0 & amp c -b & amp -c & amp 0 end $ invertible? Matrica $ B $ nav maināma nevienam $ b $ un $ c $ kopš $ teksta(B) = sākas1 un amp 0 un amp -c 0 un amp 1 un amp b 0 un amp 0 un amp 0 beigas neq I_3 $ visiem $ b $ un $ c. $

Piemērs. Atrodiet matricu $ A $, kas atbilst vienādojumam $ begin 1 un amp 0 0 un amp -1 beigas A sākas 2 un amp 0 0 & amp -2 beigas sākas 1 un amp 1 1 un amp 1 beigas . $ Ļaujiet $ B = sākties 1 un amp 0 0 un amp -1 beigas$ un $ C = sākas 2 un amp 0 0 & amp -2 beigas. $ Tad sākas $ B ^ <-1> = 1 un amp 0 0 & amp-1 beigas qquad text qquad C ^ <-1> = sākas 1/2 un amp 0 0 un amp -1/2 beigas. $ Reizinot labajā pusē ar $ B ^ <-1> $ un pa kreisi ar $ C ^ <-1> $, mēs atrodam $ A = B ^ <-1> sākas 1 un amp 1 1 un amp 1 beigasC ^ <-1> = sākas 1/2 un amp -1/2 -1/2 un amp 1/2 beigas. $

Piemērs. Atrodiet matricu $ A $, kas atbilst vienādojumam $ begin 1 un amp 0 0 un amp -1 beigas A sākas 2 un amp 0 0 & amp -2 beigas sākas 1 un amp 1 1 un amp 1 beigas . $ Ļaujiet $ B = sākties 1 un amp 0 0 un amp -1 beigas$ un $ C = sākas 2 un amp 0 0 & amp -2 beigas. $ Tad sākas $ B ^ <-1> = 1 & amp 0 0 & amp-1 beigas qquad text qquad C ^ <-1> = sākas 1/2 un amp 0 0 un amp -1/2 beigas. $ Reizinot labajā pusē ar $ B ^ <-1> $ un pa kreisi ar $ C ^ <-1> $, mēs atrodam $ A = B ^ <-1> sākas 1 un amp 1 1 un amp 1 beigasC ^ <-1> = sākas 1/2 un amp -1/2 -1/2 un amp 1/2 beigas. $

Piemērs. Pieņemsim, ka $ A $, $ B $ un $ C $ ir $ n reizes n $ matricas un ka gan $ A $, gan $ B $ pārvietojas ar $ C. $ Parādiet, ka $ AB $ pārvietojas ar $ C. $ To parādiet, ka $ AB $ pārvietojas ar $ C $, mums ir jāparāda $ (AB) C = C (AB). $ Tas ir viegli, jo $ (AB) C = A (BC) = A (CB) = (AC) B = (CA) B = C (AB). $ Vai jūs varat pamatot katru soli?

Piemērs. Parādiet, ka $ AB = BA $ tikai tad, ja $ (AB) (A + B) = A ^ 2-B ^ 2. $ Pieņemsim, ka $ AB = BA $ mēs parādīsim $ (AB) (A + B) = A ^ 2-B ^ 2. $ Sākot ar kreiso pusi, mēs iegūstam sākas (AB) (A + B) & amp = (AB) A + (AB) B = A ^ 2-BA + AB-B ^ 2 & amp = A ^ 2-BA + BA-B ^ 2 = A ^ 2- B ^ 2 beigas Tagad pieņemsim, ka $ (AB) (A + B) = A ^ 2-B ^ 2 $, mēs parādīsim $ AB = BA. $ Tas ir viegli, jo $ (AB) (A + B) = (AB) A + (AB ) B = A ^ 2-BA + AB-B ^ 2 = A ^ 2-B ^ 2 $ nozīmē $ -BA + AB = 0 $ pēc vēlēšanās.


◆ getAffineTransform () [2/2]

Mat cv :: getPerspectiveTransform ( InputArray src,
InputArray dst,
int atrisinātMetode = DECOMP_LU
)
Python:
retval=cv.getPerspectiveTransform (src, dst [, atrisinātMetode])

Aprēķina perspektīvas transformāciju no četriem atbilstošo punktu pāriem.

Funkcija aprēķina perspektīvas transformācijas matricu (3 reizes 3 ) tā, lai:

[ sākas t_i x'_i t_i y'_i t_i end = texttt cdot sākas x_i y_i 1 beigas]

[dst (i) = (x'_i, y'_i), src (i) = (x_i, y_i), i = 0,1,2,3 ]

Parametri

srcČetrstūra virsotņu koordinātas avota attēlā.
dstAtbilstošo četrstūra virsotņu koordinātas mērķa attēlā.
atrisinātMetodemetode nodota cv :: atrisināt (DecompTypes)
Skatiet arī vietni findHomography, warpPerspective, perspectTransform Piemēri: paraugi / cpp / warpPerspective_demo.cpp un paraugi / dnn / text_detection.cpp.


Datu vizualizācija - punktu atdalīšana pēc krāsas, izmantojot tīklu

Vizualizācijā mums ir pieci spirāles zari, un katrs zars atbilst citai krāsai. Punkti dzīvo divdimensiju plaknē, un tos var attēlot kā dubultu, krāsa atspoguļo trešo dimensiju, ko var uzskatīt par dažādu punktu katram punktam. Pēc tam mēs izmantojam tīklu, lai katru punktu atdalītu pēc krāsas.

a) Ieejas punkti, iepriekšējs tīkls b) izejas punkti, pēc tīkla
1. attēls: Piecu krāsu spirāle

Tīkls "izstiepj" kosmosa audumu, lai katru no punktiem sadalītu dažādās apakšplatībās. Konverģences laikā tīkls katru krāsu atdala dažādās gala kolektora apakšvietās. Citiem vārdiem sakot, katra no krāsām šajā jaunajā telpā būs lineāri atdalāma, izmantojot vienu vs. visa regresija. Diagrammā esošos vektorus var attēlot ar piecu ar divu matricu. Šo matricu var reizināt ar katru punktu, lai atgrieztu rādītājus katrai no piecām krāsām. Pēc tam katru punktu var klasificēt pēc krāsas, izmantojot to attiecīgos rādītājus. Šeit izejas dimensija ir piecas, viena katrai no krāsām, un ievades dimensija ir divas, viena katra punkta x un y koordinātām. Atkārtoti sakot, šis tīkls būtībā paņem kosmosa audumu un veic telpas transformāciju, kuru parametrizē vairākas matricas un pēc tam nelineāritātes.

Tīkla arhitektūra

Pirmā matrica iezīmē divu dimensiju ievadi 100 dimensiju starpposma slēptā slānī. Tad mums ir nelineārs slānis, ReLU vai Rectified Linear Unit, kas ir vienkārši pozitīvā daļa Funkcija $ ( cdot) ^ + $. Pēc tam, lai parādītu mūsu attēlu grafiskā attēlojumā, mēs iekļaujam iegulšanas slāni, kas 100 dimensiju slēptā slāņa ievadi kartē ar divdimensiju izvadi. Visbeidzot, iegulšanas slānis tiek projicēts līdz tīkla pēdējam piecdimensiju slānim, norādot katras krāsas punktu skaitu.


5.1. Kadra / stāvokļa transformācijas¶

Atkarībā no lietojumprogrammas jūs izmantosiet jebkuru no tulkojuma stāvokļa (pozīcijas un ātruma) attēlojumiem. Tudatā ir pieejami reklāmguvumi, kas ietver šādus valsts attēlojumus:

Modificēti ekvinoktālie elementi.

Vienotā valsts modeļa elementi.

Katram no šiem elementu veidiem ir pieejami reklāmguvumi uz Dekarta elementiem. Konvertēšana starp diviem elementu tipiem, kur arī nav Dekarta, parasti vispirms pārveido par Dekarta elementiem un pēc tam pārveido par izejas stāvokļa tipu.

Gadījumā, ja strādājat arī ar rotācijas kustību, vietnē Tudat ir pieejami šādi attieksmes attēli:

Modificētie Rodrigues parametri.

Transformācija starp šiem elementiem tiek veikta, vispirms izlaižot caur kvaternioniem. In fact, this is the default attitude representation in Tudat.

For each state type, the physical meaning of each of the elements is defined in the statevectorIndices.h file. In this file, you will see for instance:

This indicates that, for instance the eccentricity is index 1 and the true anomaly is index 5. As a result, you can use the following to retrieve the eccentricity from a vector if Kepler elements:

which yields the exact same result.

In the definition of the KeplerianElementIndices enumeration, you can see something peculiar: both semiMajorAxisIndex and semiLatusRectumIndex are defined as index 0. The latter option is only applicable when the orbit is parabolic (when the eccentricity is 1.0). That is, if the orbit is parabolic, element 0 does not represent the semi-major axis (as it is not defined) but the semi-latus rectum. Below, we list the details of the implementation of each of these state types in Tudat:

5.1.1.1. Kepler Elements¶

The Kepler elements are the standard orbital elements used in classical celestial mechanics, with the element indices shown above. Converting to/from Cartesian state requires an additional piece of information in addition to the state itself: the gravitational parameter of the body w.r.t. the Keplerian elements are defined. Conversion to/from Cartesian elements is done as

Similarly, the inverse operation is done as:

In the definition of the state elements, you will notice that element 5 is the true anomaly, not the eccentric or mean anomaly. Tudat also contains functions to convert to these alternative anomalies. Converting between true and eccentric anomaly is done as follows:

or directly from the orbital elements:

Note that this function automatically identifies whether the orbit is elliptical or hyperbolic, and computes the associated eccentric anomaly. The function for the inverse operation is convertEccentricAnomalyToTrueAnomaly . Similarly, Tudat contains functions to convert from eccentric to mean anomaly (automatically checking whether the orbit is elliptical or hyperbolic):

The inverse operation, mean to eccentric anomaly, is done separately for hyperbolic and elliptical orbits, through the functions convertMeanAnomalyToEccentricAnomaly for elliptical and convertMeanAnomalyToHyperbolicEccentricAnomaly for hyperbolic orbits. In general, you will use them as follows:

However, this conversion involves the solution of an implicit algebraic equation, for which a root finder is used. Root finders are discussed in more detail here. When calling the function as in the above example, a RootFinder is created internally. However, in some cases you may want to specify your own root finder, as well as a first initial guess for the eccentric anomaly (which the root finder uses at its first iteration). When doing so, you create a pointer to a root finder object and pass it to the conversion function as follows:

where the argument false indicates that the user-specified initial guess is to be used. If you want to use a custom-defined root finder, but not an initial guess, use the following:

5.1.1.2. Spherical-orbital Elements¶

The spherical elements are typically used to denote the conditions in atmospheric flight. In most applications, they will be used to denote the state in a body-fixed frame. The details of the physical meaning of the elements is discussed here. The element indices in Tudat are the following:

The spherical elements consist of 6 entries, with no additional information required for the conversion to/from Cartesian elements. The conversion from Cartesian to spherical elements is performed as:

Similarly, the inverse operation is done as:

5.1.1.3. Modified Equinoctial Elements¶

The modified equinoctial elements are typically used for orbits with eccentricities near 0 or 1 and/or inclinations near 0 or (pi) . The element indices in Tudat are the following:

The modified equinoctial elements consists of 6 elements. The conversion to/from Cartesian elements requires the gravitation parameter of the body w.r.t. which the Modified Equinoctial elements are defined. Furthermore, a bool is used to indicate whether the singularity of this element set occurs for inclinations of 0 or (pi) . The conversion from Cartesian elements is done as:

The input flipSingularityToZeroInlination is optional for this conversion. If left empty, an overloaded function will determine whether this value is true or false based on the inclination of the orbit.

Similarly, the inverse operation is done as:

5.1.1.4. Unified State Model Elements¶

Three different versions of the Unified State Model are present in Tudat. They differ based on the coordinates chosen to represent the rotation from local orbital to inertial frame, which can be expressed in quaternions, modified Rodrigues parameters or exponantial map. The element indices for the Unified State Model elements with quaternions (or USM7) are the following:

For the Unified State Model elements with modified Rodrigues parameters (or USM6) the indeces are:

And finally, for the Unified State Model elements with exponential map (or USMEM) they are:

Regardless of the rotational coordinates chosen, the Unified State Model elements consists of 7 elements. For each Unified State Model representation, conversion to and from Keplerian and Cartesian coordinates is implemented. As an example, the conversion from Keplerian elements for the USM7 elements is shown here:

Similarly, the inverse operation is done as:

5.1.1.5. Quaternions¶

As mentioned at the beginning of this chapter, quaternions are the default attitude representation in Tudat. Depending on the location in the Tudat framework, you will find a quaternion element expressed as either of the two types below:

This method is used mainly in the Body class, to express various rotations, such as the rotation to base frame. The advantage of this class, is that it comes with some very useful member functions. For instance, if you have a Quaterniond object, you can directly transform it to a direction cosine matrix (or transformation matrix) by using the method .toRotationMatrix( ) . You can find more details on the definition and use of the Quaterniond in the Eigen website.

The definition of rotations in Eigen is slightly different than in Tudat. This means that when using Eigen functions such as .toRotationMatrix( ) to quaternions defined within Tudat, the result will be the inverse of what is desired. Thus, the tranformation to matrix should always be followed by .transpose( ) , to give the correct rotation matrix.

This method is mainly used, on the other hand, in propagation. By defining the quaternion as a simple four-dimensional vector, its element can be easily extracted and replaced from the rotational state vector (which also includes rotational velocity).

Transformation between the two methods is defined in the linear algebra module of Tudat (see linearAlgebra.h ). To transform a quaternion to vector format, one can use:


Transformations Of Linear Functions

These lessons with videos and examples help Pre-Calculus students learn about transformations of linear functions - how linear graphs are affected by different transformations.

Rules For Transformation Of Linear Functions

The following table gives the rules for the transformation of linear functions. Scroll down the page if you need more explanations about the rules and examples on how to use the rules.

How To Transform Linear Functions?

Transforming Linear Functions (Shift And Reflection)

Horizontal shift of |h| vienības
• f(x) → f(x - h)
• h > 0 moves right, h < 0 moves left

Vertical shift of |k| vienības
• f(x) → f(x) + k
• k > 0 moves up, k < 0 moves down

Reflection across y-axis
• f(x) → f(-x)
• The lines are symmetric about the y-axis

Reflection across x-axis
• f(x) → -f(x)
• The lines are symmetric about the x-axis

  1. Let g(x) be the indicated transformation of f(x). Write the rule for g(x).
    a) f(x) = x - 2 horizontal translation right 3 units.
    b) f(x) = 3x + 1 translation 2 units right.
  2. Let g(x) be a reflection over the x-axis of f(x). Write the rule for g(x).

Transforming Linear Functions (Stretch And Compression)

Stretches and compressions change the slope of a linear function.
If the line becomes steeper, the function has been stretched vertically or compressed horizontally.
If the line becomes flatter, the function has been stretched horizontally or compressed vertically.

Horizontal Stretch/Compression by a factor of b
• (fleft( x ight) o fleft( x> ight)) • b > 1 stretches away from the y-axis.
• 0 < |b| < 1 compresses toward the y-axis.
• y-intercepts remain the same.

Vertical Stretch/Compression by a factor of a
• f(x) → af(x) • a > 1 stretches away from the x-axis.
• 0 < |a| < 1 compresses toward the x-axis.
• x-intercepts remain the same.

  1. Let g(x) be a horizontal compression of f(x) = -x + 4 by a factor of 1/2. Write the rule for g(x), and graph the function.
  2. Let g(x) be a horizontal compression of f(x) = 3x + 2 by a factor of 1/4. Write the rule for g(x), and graph the function.
  3. Let g(x) be a horizontal shift of f(x) = 3x, left 6 units followed by a horizontal stretch by a factor of 4. Write the rule for g(x).

Transformations Of Linear Functions

Learn how to modify the equation of a linear function to shift (translate) the graph up, down, left, or right.
Learn how to reflect the graph over an axis. And how to narrow or widen the graph.

Examples:
y = f(x) + 1
y = f(x - 2)
y = -2f(x)

Linear Parent Graph And Transformations

Students learn that the linear equation y = x, or the diagonal line that passes through the origin, is called the parent graph for the family of linear equations.

Students also learn the different types of transformations of the linear parent graph. For example, if the parent graph is shifted up or down (y = x + 3), the transformation is called a translation.

If the parent graph is made steeper or less steep (y = ½ x), the transformation is called a dilation.

And if the parent graph is changed so that it falls to the right instead of rising to the right (y = -x), the transformation is called a reflection.

Piemērs:
Compare the graph of each of the following equations with the graph of y = x, and determine if it represents a translation, dilation, or reflection.

Izmēģiniet zemāk esošo bezmaksas Mathway kalkulatoru un problēmu risinātāju, lai praktizētu dažādas matemātikas tēmas. Izmēģiniet sniegtos piemērus vai ierakstiet savu problēmu un pārbaudiet atbildi, izmantojot detalizētus paskaidrojumus.

Mēs priecājamies par jūsu atsauksmēm, komentāriem un jautājumiem par šo vietni vai lapu. Lūdzu, iesniedziet atsauksmes vai jautājumus, izmantojot mūsu atsauksmju lapu.


Transformation for discrete variables

  • Label Encoding: this is when the actual value is text and you want to create numerical values for the variable. Piemēram:
  • Binning: binning is very handy when comes to ordinal values. In stead of reading the ordinal values as integers in the model, we can transform the variable to categorical by creating bins based on the value distribution and then create dummy variables.

In King County house price example, grade is an ordinal variable that has positive correlation with house price.

We can create 4 bins based on percentile values.

We then create dummy variables for them because some of the modeling technique requires numerical values.

Another way to create dummy variables is to use LabelBinarizer from sklearn.preprocessing package

The advantage of using dummies is that, whatever algorithm you’ll be using, your numerical values cannot be misinterpreted as being continuous. Going forward, it’s important to know that for linear regression (and most other algorithms in scikit-learn), one-hot encoding is required when adding categorical variables in a regression model!

Again, feature transformation involves multiple iterations. There are many ways to get the data right for the model. Just be curious and patient!


Skatīties video: BARBIE TRANSFORMACIJA. Niki (Decembris 2021).