Raksti

10.2: Lineārās neatkarības parādīšana - matemātika


Mēs esam redzējuši divus dažādus veidus, kā parādīt vektoru kopumu, kas ir lineāri atkarīgs: mēs varam atrast vai nu lineāru vektoru kombināciju, kas ir vienāda ar nulli, vai arī varam izteikt vienu no vektoriem kā citu vektoru lineāru kombināciju. Līdzīgi, lai parādītu, ka kopa (v_ {1}, v_ {2}, ldots, v_ {n} ) ir lineāri neatkarīga, mums ir jāpierāda, ka vienādojums (c_ {1} v_ {1} + c_ {2} v_ {2} + cdots + c_ {n} v_ {n} = 0 ) nav citu risinājumu kā (c_ {1} = c_ {2} = cdots = c_ {n} = 0. )

109. piemērs

Apsveriet šādus vektorus sadaļā ( Re ^ {3} ):
[v_ {1} = sākums {pmatrix} 0 0 2 end {pmatrix},
qquad v_ {2} = begin {pmatrix} 2 2 1 end {pmatrix},
qquad v_ {3} = begin {pmatrix} 1 4 3 end {pmatrix}. ]

Vai tie ir lineāri neatkarīgi?

Mums jāskatās, vai sistēma

[c ^ {1} v_ {1} + c ^ {2} v_ {2} + c ^ {3} v_ {3} = 0 ]

ir kādi risinājumi (c ^ {1}, c ^ {2}, c ^ {3} ). Mēs to varam pārrakstīt kā viendabīgu sistēmu:

[ begin {pmatrix} v_ {1} & v_ {2} & v_ {3} end {pmatrix} begin {pmatrix} c ^ {1} c ^ {2} c ^ {3} end {pmatrix} = 0. ]

Šai sistēmai ir risinājumi tikai tad, ja matrica (M = begin {pmatrix} v_ {1} & v_ {2} & v_ {3} end {pmatrix} ) ir vienskaitlis, tāpēc mums jāatrod ( M ):

[
det M = det sākas {pmatrix}
0 & 2 & 1 \
0 & 2 & 4 \
2 & 1 & 3 \
end {pmatrix}
= 2 det sākas {pmatrix}
2 & 1 \
2 & 4 \
end {pmatrix}
=12.
]

Tā kā matricai (M ) ir noteicējs, kas nav nulle, vienīgais vienādojumu sistēmas risinājums

[ begin {pmatrix} v_ {1} & v_ {2} & v_ {3} end {pmatrix} begin {pmatrix} c ^ {1} c ^ {2} c ^ {3} end {pmatrix} = 0 ]

ir (c_ {1} = c_ {2} = c_ {3} = 0 ). Tātad vektori (v_ {1}, v_ {2}, v_ {3} ) ir lineāri neatkarīgi.


MATRICU DIAGONALIZĀCIJA

Markova ķēdes ir lielisks piemērs tam, cik svarīgi ir uzrakstīt matricu kā, kur ir diagonāle. Kad to var izdarīt, mēs saucam par diagonalizējamu.

Ar definēto diagonalizācijas jēdzienu mēs varam pateikt vēl vienu lineārās algebras galveno problēmu, mūsu piekto.

Lai tuvotos diagonalizācijas problēmai, vispirms mēs jautājam: Ja diagonalizējama, kādai jābūt patiesībai un? Ja tas ir pa diagonāli, tad tas nozīmē. Tagad rakstu

kur ir vektors, kas izveidots no. Tāpēc matricu veido kolonnas, kas ir. Diagonālie elementi ir atbilstošās īpašvērtības. Turklāt, tā kā kolonnas ir apgriežamas, kolonnas ir lineāri neatkarīgas. Tāpēc mums ir šāda teorēma.

  1. Atrisiniet īpašo problēmu,
  2. Atrodiet, ka īpašvektorus var izvēlēties kā lineāri neatkarīgus,
  3. Iestatīt,

Patiesībā tā ir taisnība. Pirms pierādīt, ka šī procedūra darbojas, mēs sniedzam piemēru.

Risinājums Īpašā problēma tika atrisināta Sec. 5.2. Vispārējie īpatnieki ir

ir lineāri neatkarīgs kopums, tāpēc mēs veidojamies

Visbeidzot mēs pārbaudām, vai

Tādējādi tas ir pa diagonāli. Ja mēs būtu izveidojušies

Tagad mēs paziņojam un pierādām teorēmu, kuru ilustrē pēdējais piemērs.

tad ir diagonalizējams un, kur

Kopš tā laika mēs esam un esam diagonalizēti.

Punkti 5.3.1 un 5.3.2 kopā dod mums svarīgu rezultātu.

Rezultātu 5.3.3. Teorēmā var norādīt divos citos līdzvērtīgos veidos.

Ņemiet vērā, ka, lai atrisinātu diagonalizācijas problēmu, vispirms mēs atrisinām sākotnējo problēmu.

Risinājums Iepriekšējā piemērā konstatējām, ka īpatnējie pāri ir

Matricai mums ir divi lineāri neatkarīgi eigenvektori. Tādējādi tas ir pa diagonāli. Izvēloties, mēs varam izvēlēties

Risinājums Raksturīgais vienādojums ir

vai. Īpašās vērtības ir un. Attiecībā uz īpašajiem vektoriem mēs to atrisinām līdz

un mēs nevaram iegūt matricai divus lineāri neatkarīgus īpašivektorus. Tādējādi tas nav diagonalizējams. Vēl viens veids, kā to pateikt, ir tas, ka īpašvektori neveido pamatu.

Risinājums 5. nodaļas 5. piemērā. 5.2. Mēs atrisinājām īpašo problēmu. Atsaucoties uz šo piemēru, mēs redzam, ka specifiski īpašie pāri ir

ir lineāri neatkarīga, matricai ir trīs lineāri neatkarīgi eigenvektori un tā ir diagonalizējama. Izvēle ir

Ja mēs vēlētos, lai īpašvērtības būtu dilstošā secībā, mēs izvēlētos

abiem ir 3 kā daudzkārtīguma 2. īpašība. Parādiet, ka tas nav diagonalizējams, bet ir diagonalizējams.

Risinājums Raksturīgais polinoms faktoriem as, tā ka 3 ir daudzkārtības 2. īpašvērtība. Mēs jau zinām, ka 3 ir 2. daudzkārtīguma īpašvērtība, kas parādīta Sec. 5.2. Īpašnieku pāri ir

kā pamatelektrostacijas pašvektori. Tādējādi tas ir pa diagonāli. Taču īpašie pāri nerada pamatu un nav diagonalizējami. Galvenais novērojums ir tāds, ka attiecībā uz, ir stingri mazāks nekā 3. īpašvērtības daudzums, kas ir vienāds ar 3. īpašās vērtības daudzveidību.

Risinājums Lai atrisinātu šo problēmu, mēs izmantojam matricu, kas attēlo bīdes. Iemesls, ko to var izdarīt, ir tāds, ka, ja un ir līdzīgas matricas un viena ir līdzīga diagonālajai matricai, tad otra ir arī līdzīga tai pašai diagonālajai matricai (Prob. 14 4.4. Nodaļā). Tādējādi diagonalizējamība ir nemainīga līdzībā, un mēs sakām, ka lineārā transformācija ir diagonalizējama, ja daži transformācijas matricu ir diagonalizējami. Pietiek ar matricas izmantošanu attiecībā uz standarta bāzi

attēlot bīdes. Šīs matricas vispārējais īpašais pāris ir

Pamatu nevar izveidot no reprezentējošās matricas īpašajiem vektoriem. Tāpēc bīdes transformācija nav diagonalizējama.

Tagad mēs zinām, ka matrica ir diagonalizējama tikai tad, ja tai ir lineāri neatkarīgi neatkarīgie īpašivektori. Ja tas ir liels, lineārās neatkarības pārbaude var būt garlaicīga. Diagonalizējamībai ir vienkāršs pietiekams nosacījums.

veido lineāri neatkarīgu kopu un tāpēc ir diagonalizējama.

Risinājums Raksturīgais vienādojums ir tas, kas ir. Tādējādi īpašvērtības ir, un 2. Tā kā tai ir un ir trīs atšķirīgas īpašvērtības, 5.3.4. Teorēma nozīmē, ka tā ir diagonalizējama.

Pieņemsim, ka tas ir lineāri atkarīgs (LD). Ar šādu procesu mēs varam atrast kopu, kas ir lineāri neatkarīga (LI). Tā kā īpašvektori nav nulle, tas ir LI kopa. Ja ir LD, mēs apstājamies ar mūsu LI iestatījumu. Ja tas ir LI, bet ir LD, mēs apstājamies utt. Pieņemsim, ka mēs esam pabeiguši šo procesu un mums ir LI, bet LD (varētu būt vienāds).

Tātad pastāv konstantes, ne visas nulle, ar

Arī tāpēc, ka, ja ir nulle, tad (pēc lineārās neatkarības) un būtu LI, ir pretruna.

Tagad mēs reizinām abas vienādojuma puses. (5.3.1.) Un iegūšanai izmantojiet matricas algebru

Reizinot (5.3.1.) Ar un atņemot no Eq. (5.3.2.), Mums ir

Tā kā īpašvērtības ir atšķirīgas un ir LI, mums tā ir. Mēs aizstājam šīs vērtības (5.3.1.)

Tagad tam jābūt nulles vektoram, kas ir pretrunā ar hipotēzi, kas ir īpašvektors. Tāpēc nav iespējams būt LD, un tam jābūt LI.

Matricu diagonalizāciju pārbaude Kad matrica ir diagonalizēta, iespējams, vēlēsimies viegli pārbaudīt diagonālās formas. Kopš

nozīmē, ka tas ir līdzīgs iepriekšējiem rezultātiem par līdzīgām matricām

Risinājums 4. piemērā mēs to noskaidrojām

Šajā gadījumā tr tr, un ranga pakāpe. Tas negarantē, ka diagonalizācija ir pareiza, bet dod lielāku pārliecību par atbildi.

Tā kā rindas ir nevienlīdzīgas, persona ir nepareizi diagonalizējusies.

Ņemiet vērā, ka šīs pārbaudes nav pietiekamas, lai pierādītu diagonalizācijas pareizību, tās var tikai palīdzēt atrast nepareizu diagonalizāciju. Piemēram,

ir vienādas pēdas, noteicošais un rangs, bet

nav. diagonalizācija

nav pat pa diagonalizējamu. Skatīt 3. piemēru.

Diagonalizācijas ģeometriskā nozīme Reālā vektoru telpas gadījumā diagonalizācija sniedz informāciju par transformācijas ģeometrisko darbību, ko rada. Piemēram, kopš

mēs zinām, ka vienkārši izstiepj vektorus

ir pamats, ja vektoram ir koordinātu vektors

tad koordinātu vektors

Tas ilustrē vārdu raksturojošo vērtību un raksturīgo vektoru lietojumu tajā vektoros

ir "raksturīgas" darbībai. Vektori nosaka virzienus, kurus var saukt par galvenajiem virzieniem.

Risinājums Dotam vektoram koordinātas tiek dotas, kur ir pārejas matrica no standarta bāzes uz pamatu. Šajā gadījumā matrica ir

dod vektoru un ir pārejas matricas apgrieztā vērtība,

ir koordinātu vektors attiecībā pret.

Pēdējais piemērs ilustrē šādu faktu.

Nākamajā sadaļā redzēsim, ka, ja ir reāla simetriska matrica, tad īpašvektoru pamatu vienmēr var izvēlēties kā ortonormālu.

diagonalizējot matricu.

un aprēķināt. Raksturīgais vienādojums dod īpašvērtības un. Īpašnieki ir

Izvēloties un tā, lai īpašvektoriem būtu 1 garums, mums ir

Tas nozīmē, ka vektora standarta koordinātu matricas darbība ir šāda:

Otrkārt: projekcija uz asi

Trešais: rotācija pretēji pulksteņrādītāja virzienam

Kā šo piezīmju galīgo pielietojumu mēs atzīmējam, ka, tā kā bīdes transformācija nav diagonalizējama (6. piemērs), bīdes transformācija objektus "neizstiepj" divos neatkarīgos virzienos. Tas atspoguļo mūsu intuitīvās sajūtas par bīdi, kas rodas no kuba deformācijas uz sāniem, kas ilustrēta iepriekšējās tikšanās reizēs ar šo piemēru.


Lineārā algebra komandas balstītas izmeklēšanas mācībām

Mēs sakām, ka vektoru kopa ir tad, ja viens vektora kopa pieder pārējo laidumam. Pretējā gadījumā mēs sakām, ka kopa ir.

Jūs varat domāt par lineāri atkarīgām kopām, kas satur lieku vektoru tādā nozīmē, ka jūs varat izmest vektoru, nesamazinot kopas diapazonu. Iepriekš minētajā attēlā visi trīs vektori atrodas vienā un tajā pašā plaknes apakštelpā, bet plaknes aptveršanai ir nepieciešami tikai divi vektori, tāpēc kopa ir lineāri atkarīga.

2.5.2. Aktivitāte.

Ļaujiet ( vec_1, vec_2, vec_3 ) būt vektoriem ( mathbb R ^ n text <.> ) Pieņemsim (3 vec_1-5 vec_2 = vec_3 text <,> ) tātad kopa ( < vec_1, vec_2, vec_3 > ) ir lineāri atkarīgs. Kura no šīm ir taisnība attiecībā uz vektoru vienādojumu (x_1 vec_1 + x_2 vec_2 + x_3 vec_3 = vec <0> )?

Tas atbilst vienam risinājumam

Tas atbilst bezgalīgi daudziem risinājumiem

Fakts 2.5.3.

Jebkurai vektoru telpai kopa ( < vec v_1, dots vec v_n > ) ir lineāri atkarīga tikai tad, ja vektora vienādojums (x_1 vec v_1 + dots + x_n vec v_n = vec <0> ) atbilst bezgalīgi daudziem risinājumiem.

2.5.3. Aktivitāte.

un atzīmējiet matricas daļu, kas to parāda

ir lineāri atkarīgs (daļai, kas parāda tās lineāro sistēmu, ir bezgalīgi daudz risinājumu).

Novērojums 2.5.4.

Eiklida vektoru kopa ( < vec v_1, punkti vec v_n > ) ir lineāri atkarīga tikai tad, ja ( RREF left [ begin vec v_1 & amp punkti & amp vec v_n beigas right] ) ir kolonna bez pagrieziena pozīcijas.

Novērojums 2.5.5.

Salīdziniet šādus rezultātus:

( IR ^ m ) vektoru ( < vec v_1, dots vec v_n > ) kopa ir lineāri neatkarīga tikai tad, ja ( RREF left [ begin vec v_1 & amp punkti & amp vec v_n beigas right] ) ir visas pagrieziena kolonnas.

( IR ^ m ) vektoru kopa ( < vec v_1, dots vec v_n > ) aptver ( IR ^ m ) tikai tad, ja ( RREF pa kreisi [ sākt vec v_1 & amp punkti & amp vec v_n beigas right] ) ir visas pagrieziena rindas.

2.5.4. Aktivitāte.

Apsveriet, vai sākas Eiklida vektoru kopa ( left < left [-4 2 3 0 - 1 beigas pa labi], pa kreisi [ sākas1 2 0 0 3 beigas pa labi], pa kreisi [ sākas1 10 10 2 6 beigas pa labi], pa kreisi [ sākas3 4 7 2 1 beigas right] right > ) ir lineāri atkarīgs vai lineāri neatkarīgs.

Atkārtoti interpretējiet šo jautājumu kā piemērotu jautājumu par vektoru vienādojuma risinājumiem.

Izmantojiet šī jautājuma risinājumu, lai atbildētu uz sākotnējo jautājumu.

2.5.5. Aktivitāte.

Apsveriet, vai polinomu kopa ( left ) ir lineāri atkarīga vai lineāri neatkarīga.

Atkārtoti interpretējiet šo jautājumu kā piemērotu jautājumu par polinoma vienādojuma risinājumiem.

Izmantojiet šī jautājuma risinājumu, lai atbildētu uz sākotnējo jautājumu.

2.5.6. Aktivitāte.

Cik liels ir ( IR ^ 4 ) vektoru skaits, kas var veidot lineāri neatkarīgu kopu?


MATA 1530

Ārkārtas tabula (vai divvirzienu biežuma tabula) ir tabula, kurā frekvences atbilst diviem mainīgajiem. Vienu mainīgo izmanto, lai kategorizētu rindas, un otro mainīgo izmanto, lai kategorizētu kolonnas.

Neatkarības pārbaude pārbauda nulles hipotēzi, ka neparedzētu apstākļu tabulā rindu un kolonnu mainīgie ir neatkarīgi.

Prasības:

  1. Datu paraugi tiek izvēlēti nejauši
  2. Datu paraugi tiek parādīti kā frekvences skaitļi divvirzienu tabulā.
  3. Katrai neparedzēto situāciju tabulas šūnai paredzamais biežums E ir vismaz 5. (Nav prasību, ka katram novērotajam biežumam jābūt vismaz 5. Tāpat nav prasības, ka populācijai jābūt normālam sadalījumam vai kādam citam specifiskam sadalījumam.

Brīvības pakāpes:

Null un alternatīvās hipotēzes:

(H_0 ): rindu un kolonnu mainīgie ir neatkarīgi (nozīmē: nav saistības starp mainīgajiem)

(H_A ): Rindu un kolonnu mainīgie ir atkarīgi (nozīmē: zināma saistība starp mainīgajiem)

Neatkarības testa testa statistika:

Testa statistiku iegūsiet no tehnoloģijām. Pirmajā kolonnā ir jāmarķē rindas. Izmantojiet šo formulu, ja vēlaties aprēķināt testa statistiku ar rokām. Šo piezīmju pēdējās lappusēs ir detalizētāks skaidrojums par paredzamo biežumu, kritiskās vērtības un testa statistikas aprēķināšanu ar rokām.

Tehnoloģijas izmantošana neatkarības pārbaudei:

  • Nulle, (H_0 )
    • ___________ sadalījums ir tāds pats kā paredzamais sadalījums.
    • Katrai kategorijai novērotā vērtība ir vienāda ar paredzamo vērtību.
    • Matemātiski:
      • (p_ <1> = p_ <2> = p_ <3> punkti ) paredzamajam vienmērīgajam sadalījumam
      • (p_1 = _ _ _ _ _ _ _, p_2 = _ _ _ _ _ _ _, p_3 = _ _ _ _ _ _ _. ) par nevienmērīgu paredzamo sadalījumu.
      • _____________ sadalījums atšķiras no paredzamā sadalījuma.
      • Kategorijās vismaz viena novērotā vērtība NAV vienāda ar paredzamo vērtību.

      Tehnoloģijas izmantošana neatkarībai:

      1. Identificējiet kritiskā chi-kvadrātā vērtība, (< chi ^ 2> _) (saukts (< chi ^ 2> _) tekstā), lai noēnotu līkni.
        1. (df = (kolonnas - 1) (rindas - 1) )
        2. Platība pa labi (vienmēr labās astes tests, izmantojiet ≥) ir nozīmības līmenis
        1. Testa statistika (Chi-Square)
        2. P vērtība

        Vai motociklu vadītājiem vajadzētu izvēlēties ķiveres ar noteiktu krāsu? Ja jā, kura krāsa parādās vislabāk?

        Šķiet, ka motociklu vadītājiem vajadzētu izvēlēties ķiveres, kas ir dzeltenas / oranžas.

        *** Piezīme: ja veiksiet šo testu ar α = 0,01, jūs nevarētu noraidīt neatkarību.

        Paredzamo biežumu, kritiskās vērtības un testa statistikas aprēķināšana ar roku

        The chi-square tests nodrošina metodi, kā pārbaudīt saistību starp rindu un kolonnu mainīgajiem divvirzienu tabulā. Nulles hipotēzē H0 tiek pieņemts, ka starp mainīgajiem nav nekādas saistības (citiem vārdiem sakot, viens mainīgais nemainās atkarībā no otra mainīgā lieluma), savukārt alternatīvā hipotēze Ha apgalvo, ka kāda asociācija tiešām pastāv. Alternatīvā hipotēze nenosaka asociācijas veidu, tāpēc, lai interpretētu testa sniegto informāciju, ir jāpievērš īpaša uzmanība datiem.

        Chi-square tests ir balstīts uz testa statistiku, kas mēra novēroto datu atšķirību no vērtībām, kas būtu sagaidāma saskaņā ar nulles hipotēzi par nekādu saistību. Tas prasa aprēķināt paredzamās vērtības, pamatojoties uz datiem. Katras šūnas divvirzienu tabulā paredzamā vērtība ir vienāda ar (rinda kopā * kolonna kopā) / n, kur n ir kopējais tabulā iekļauto novērojumu skaits. (http://www.stat.yale.edu/Courses/1997-98/101/chisq.htm)

        Apzīmējums:
        • O apzīmē novēroto rezultātu biežumu neparedzētu situāciju tabulas šūnā
        • E apzīmē paredzamo frekvenci šūnā, kas atrasta, pieņemot, ka rindu un kolonnu mainīgie ir neatkarīgi

        (skat. 549-550. lpp. pamatojumu par gaidāmajām frekvencēm - to pamatā ir varbūtības tikt skaitītam noteiktā šūnā reizinājums ar izlases lielumu)

        Kritiskā vērtība:

        ( Chi ^ 2 ) kritiskā vērtība ir atrodama A-4. Tabulā, izmantojot brīvības pakāpes un nozīmīguma līmeni (atcerieties, ka neatkarības pārbaude ir labās puses, tāpēc α apzīmē apgabalu pa labi no kritiskā vērtība).

        Brīvības pakāpes
        Neatkarības testa testa statistika:

        E katrai ārkārtas situāciju tabulas šūnai jāaprēķina.

        TS tiek aprēķināts, no katras šūnas pievienojot visu ( frac < left (O-E right) ^ 2> E ).


        Mājasdarbs

        Katrai problēmai norādiet nejaušos mainīgos. Apskatiet arī, vai ir kādi novirzes, kas jānoņem. Veiciet korelācijas analīzi ar aizdomīgiem negaidītiem punktiem un bez tiem, lai noteiktu, vai to noņemšana ietekmē korelāciju. Datu kopas šajā sadaļā ir 10.1. Sadaļā un tiks izmantotas 10.3. Sadaļā.

        1. Kad antropologs atrod skeleta paliekas, viņiem jānoskaidro personas augums. Tika savākti cilvēka augums (cm) un metakarpālā kaula garums 1 (cm), un tie ir norādīti piemērā ( PageIndex <5> ) (& quot; Auguma prognozēšana, & quot 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        2. Piemērā ( PageIndex <6> ) ir iekļauta mājas vērtība un īres ienākumu summa gadā, ko māja ienes (& quotKapitāls un īre, & quot 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        3. Pasaules Banka vāc informāciju par personas paredzamo dzīves ilgumu katrā valstī (& quot; Dzīves ilgums 2013. gadā & quot; 2013) un dzimstības līmeni uz vienu sievieti valstī (& quot; Auglības līmenis & quot, 2013). Dati par 24 nejauši izvēlētām valstīm par 2011. gadu ir piemērā ( PageIndex <7> ). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        4. Pasaules Banka apkopoja datus par IKP procentuālo daļu, ko valsts iztērē veselības izdevumiem (& quot; Veselības izdevumi & quot; 2013), kā arī par to sieviešu procentuālo daļu, kuras saņem pirmsdzemdību aprūpi (& quot; Grūtniece saņem, & quot; 2013). Dati par valstīm, kurās šī informācija ir pieejama, par 2011. gadu ir piemērā ( PageIndex <8> ). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        5. Beisbola spēlētāju augstums un svars ir sniegts piemērā ( PageIndex <9> ) (& quotMLB heightsweights & quot 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        6. Dažādām sugām ir atšķirīgs ķermeņa svars, un smadzeņu svars ir piemērā ( PageIndex <10> ). (& quotBrain2bodyweight, & quot 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        7. Tika ņemts nejaušs liellopa gaļas hotdogu paraugs un izmērīts nātrija daudzums (mg) un kalorijas. (& quotData hotdogs, & quot 2013) Dati ir piemērā ( PageIndex <11> ). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        8. Eiropas valstu ienākumi uz vienu iedzīvotāju 1960. gada dolāros un darbaspēka procentuālais daudzums, kas 1960. gadā strādā lauksaimniecībā, ir piemērs ( PageIndex <12> ) (& quot; Ekonomiskās attīstības ekonomiskā attīstība & quot, 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        9. Cigarešu smēķēšana un vēzis ir saistīti. Urīnpūšļa vēža izraisīto nāves gadījumu skaits uz simts tūkstošiem un pārdoto cigarešu skaits uz vienu iedzīvotāju 1960. gadā ir piemērs ( PageIndex <13> ) (& quot; Smēķēšana un vēzis & quot, 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        10. Automašīnas svars var ietekmēt nobraukumu, ko automašīna var iegūt. Tika savākts nejaušs paraugs no automašīnu svara un nobraukuma, un tie ir piemērā ( PageIndex <14> ) (& quot; Pasažieru automašīnas nobraukums & quot, 2013). Atrodiet korelācijas koeficientu un noteikšanas koeficientu un pēc tam interpretējiet abus.
        11. Starp policijas izdevumiem un noziedzības līmeni pastāv negatīva korelācija. Vai tas nozīmē, ka, tērējot vairāk naudas policijai, noziedzības līmenis samazinās? Paskaidrojiet savu atbildi.
        12. Starp tabakas tirdzniecību un alkohola tirdzniecību pastāv pozitīva korelācija. Vai tas nozīmē, ka tabakas lietošana liek lietot alkoholu arī cilvēkam? Paskaidrojiet savu atbildi.
        13. Pastāv pozitīva korelācija starp vidējo temperatūru atrašanās vietā un morāles līmeni no krūts vēža. Vai tas nozīmē, ka augstākas temperatūras dēļ vairāk sieviešu mirst no krūts vēža? Paskaidrojiet savu atbildi.
        14. Pozitīva korelācija ir starp laiku, kādu trauku ražotājs pulē trauku, un trauka cenu. Vai tas nozīmē, ka šķīvja pulēšanas laiks nosaka trauka cenu? Paskaidrojiet savu atbildi.

        Tiek norādīts tikai korelācijas koeficients un noteikšanas koeficients. Skatiet visas atbildes risinājumus.


        Ja V ir vektora telpa virs lauka K un ja W ir apakškopa V, pēc tam W ir lineāra apakšvieta gada V ja to veic V, W ir vektora telpa pāri K. Līdzvērtīgi arī neapgrūtināta apakškopa W ir V ja, kad w1, w2 ir W un α, β ir K, no tā izriet, ka αw1 + βw2 ir iekšā W. [2] [3] [4] [5] [6]

        Līdz ar to visas vektoru telpas ir aprīkotas ar vismaz divām (iespējams, atšķirīgām) lineārām apakštelpām: nulles vektora telpa, kas sastāv tikai no nulles vektora un visas pašas vektoru telpas. Tos sauc par niecīgas apakšvietas vektora telpas. [7]

        I piemērs Rediģēt

        Ļaujiet laukam K būt komplekts R reālo skaitļu un ļaujiet vektora telpai V būt reālajai koordinātu telpai R 3. Veikt W būt visu vektoru kopai V kura pēdējā sastāvdaļa ir 0. Tad W ir V.

        1. Dots u un v iekšā W, tad tos var izteikt kā u = (u1, u2, 0) un v = (v1, v2, 0). Tad u + v = (u1+v1, u2+v2, 0+0) = (u1+v1, u2+v2, 0). Tādējādi u + v ir Warī.
        2. Dots u iekšā W un skalārs c iekšā R, ja u = (u1, u2, Tad atkal cu = (cu1, cu2, c0) = (cu1, cu2, 0). Tādējādi cu ir W arī.

        II piemērs Rediģēt

        Lai lauks būtu R atkal, bet tagad ļaujiet vektora telpai V esi Dekarta plakne R 2. Veikt W punktu kopa (x, y) no R 2 tādi, ka x = y. Tad W ir R 2 .

        1. Ļaujiet lpp = (lpp1, lpp2) un q = (q1, q2) būt W, tas ir, punkti plaknē tā, ka lpp1 = lpp2 un q1 = q2. Tad lpp + q = (lpp1+q1, lpp2+q2) kopš lpp1 = lpp2 un q1 = q2, pēc tam lpp1 + q1 = lpp2 + q2, tātad lpp + q ir W.
        2. Ļaujiet lpp = (lpp1, lpp2) būt W, tas ir, punkts plaknē tāds, ka lpp1 = lpp2, un ļaujiet c būt skalārs iekšā R. Tad clpp = (cp1, cp2) kopš lpp1 = lpp2, pēc tam cp1 = cp2, tātad clpp ir W.

        Kopumā jebkura reālās koordinātu telpas apakškopa R n ko nosaka viendabīgu lineāru vienādojumu sistēma, iegūs apakšvietu. (Vienādojums manā piemērā bija z = 0, un vienādojums II piemērā bija x = y.) Ģeometriski šīs apakšvietas ir punkti, līnijas, plaknes un atstarpes, kas iet caur punktu 0.

        III piemērs Rediģēt

        Atkal ņem laukā R, bet tagad ļaujiet vektora telpai V būt komplekts R R no visām funkcijām no R uz R. Ļaujiet C (R) ir apakškopa, kas sastāv no nepārtrauktām funkcijām. Tad C (R) ir R R .

        1. Pēc aprēķina mēs zinām, ka 0 ∈ C (R) ⊂ RR .
        2. Pēc aprēķina mēs zinām, ka nepārtraukto funkciju summa ir nepārtraukta.
        3. Atkal no aprēķina mēs zinām, ka nepārtrauktas funkcijas un skaitļa reizinājums ir nepārtraukts.

        IV piemērs Rediģēt

        Saglabājiet to pašu lauka un vektora atstarpi kā iepriekš, bet tagad ņemiet vērā iestatīto Diff (R) no visām diferencējamām funkcijām. Tas pats argumentu veids, kā iepriekš, parāda, ka arī šī ir apakšvieta.

        Piemēri, kas paplašina šīs tēmas, ir izplatīti funkcionālajā analīzē.

        No vektoru telpu definīcijas izriet, ka apakštelpas nav tukšas un ir slēgtas zem summām un zem skalāriem reizinājumiem. [8] Līdzvērtīgi apakštelpas var raksturot ar īpašību, ka tās ir slēgtas lineārās kombinācijās. Tas ir, neizturīgs komplekts W ir apakštelpa tikai un vienīgi tad, ja katra lineāri kombinēta galīgi daudz elementu W pieder arī W. Līdzvērtīgā definīcijā teikts, ka ir arī ekvivalents izskatīt divu elementu lineāras kombinācijas vienlaikus.

        Topoloģiskajā vektoru telpā X, apakšvieta W nav jābūt topoloģiski slēgtam, bet ierobežota dimensijas apakšstila vienmēr ir slēgta. [9] Tas pats attiecas arī uz ierobežotas kodimensitātes apakšspēlēm (t.i., apakštelpām, ko nosaka ierobežots skaits nepārtrauktu lineāru funkcionālo elementu).

        Apakšvietu apraksti ietver risinājumu, kas iestatīts uz viendabīgu lineāro vienādojumu sistēmu, Eiklida telpas apakškopu, ko apraksta homogēnu lineāro parametru vienādojumu sistēma, vektoru kopas diapazonu un nulles atstarpi, kolonnu telpu un rindu atstarpi. matrica. Ģeometriski (it īpaši virs reālo skaitļu lauka un tā apakšlaukiem) apakštelpa ir plakana n-telpa, kas iet caur izcelsmi.

        1-apakštelpas dabisks apraksts ir viena vektora, kas nav nulle, skalārs reizinājums v visām iespējamām skalārajām vērtībām. Divu vektoru norādītās 1-apakštelpas ir vienādas tikai tad, ja vienu vektoru var iegūt no cita ar skalāru reizinājumu:

        Šī ideja ir vispārināta augstākām dimensijām ar lineāru laidumu, bet vienādības kritērijiem k- telpas, kas norādītas k vektori nav tik vienkārši.

        Tiek sniegts duālais apraksts ar lineāriem funkcionāliem (parasti tiek realizēti kā lineāri vienādojumi). Viena lineāra funkcionāla, kas nav nulle F norāda tā kodola apakšvietu F = 1. kodimensionāls 1. Kodimetra 1. apakšplatības, kas norādītas ar diviem lineāriem funkcionāliem, ir vienādas tikai tad, ja vienu funkcionalitāti var iegūt no otras ar skalāru reizinājumu (duālajā telpā):

        To vispārina augstākiem kodimensionāliem ar vienādojumu sistēmu. Nākamajās divās apakšnodaļās tiks detalizēti aprakstīts pēdējais apraksts, un atlikušās četras apakšnodaļas sīkāk apraksta lineārā diapazona ideju.

        Lineāro vienādojumu sistēmas Edit

        Risinājums iestatīts jebkurai viendabīgai lineāro vienādojumu sistēmai ar n mainīgie ir apakštelpa koordinātu telpā K n :

        Piemēram, visu vektoru kopa (x, y, z) (virs reāliem vai racionāliem skaitļiem), kas atbilst vienādojumiem

        ir viendimensionāla apakšstila. Vispārīgāk, tas ir, sakot, ka, ņemot vērā n neatkarīgās funkcijas, apakštelpas dimensija K k būs nulles kopas dimensija A, kompozītmateriāla matrica n funkcijas.

        Matricas pilnā atstarpe Rediģēt

        Galīgā dimensiju telpā viendabīgu lineāro vienādojumu sistēmu var uzrakstīt kā vienotu matricas vienādojumu:

        Šī vienādojuma risinājumu kopums ir pazīstams kā matricas nulles telpa. Piemēram, iepriekš aprakstītā apakšvieta ir matricas nulles telpa

        Katra K n var aprakstīt kā kādas matricas nulles atstarpi (vairāk skat. § Zemāk esošos algoritmus).

        Lineārie parametru vienādojumi Rediģēt

        Apakškopa K n aprakstīts ar viendabīgu lineāro parametru vienādojumu sistēmu, ir apakšvieta:

        Piemēram, visu vektoru kopa (x, y, z), ko parametrizē vienādojumi

        ir divdimensiju apakšsistēma K 3, ja K ir ciparu lauks (piemēram, reālie vai racionālie skaitļi). [2. piezīme]

        Vektoru diapazons Rediģēt

        Lineārajā algebrā parametru vienādojumu sistēmu var uzrakstīt kā viena vektora vienādojumu:

        Labajā pusē izteikumu sauc par vektoru (2, 5, −1) un (3, −4, 2) lineāru kombināciju. Šie divi vektori ir teikts laidums iegūto apakšvietu.

        Kopumā a lineāra kombinācija no vektoriem v1, v2, . , vk ir jebkurš formas vektors

        Visu iespējamo lineāro kombināciju kopu sauc par laidums:

        Ja vektori v1, . , vk ir n komponentiem, tad to laidums ir K n . Ģeometriski laidums ir plakans caur izcelsmi n-dimensiju telpa, ko nosaka punkti v1, . , vk.

        Kolonnu un rindu telpa Rediģēt

        Lineāro parametru vienādojumu sistēmu galīgā dimensiju telpā var uzrakstīt arī kā vienotu matricas vienādojumu:

        Šajā gadījumā apakšvieta sastāv no visām iespējamām vektora vērtībām x. Lineārajā algebrā šī apakšvieta ir pazīstama kā matricas kolonnas telpa (vai attēls) A. Tieši tā ir K n ko aptver kolonnu vektori A.

        Matricas rindu telpa ir tās rindu vektoru aptvertā apakšvieta. Rindu telpa ir interesanta, jo tā ir tukšās vietas ortogonālais papildinājums (skat. Zemāk).

        Neatkarība, pamats un dimensija Rediģēt

        Kopumā apakšsistēma K n nosaka pēc k parametri (vai aptverti ar k vektori) ir dimensija k. Tomēr šim noteikumam ir izņēmumi. Piemēram, apakšsistēma K 3, ko aptver trīs vektori (1, 0, 0), (0, 0, 1) un (2, 0, 3), ir tikai xz-plakne, katru plaknes punktu raksturo bezgalīgi daudz dažādu vērtību t1, t2, t3 .

        Kopumā vektori v1, . , vk tiek saukti lineāri neatkarīgi ja

        priekš (t1, t2, . , tk) ≠ (u1, u2, . , uk). [3. piezīme] Ja v1, . vk ir lineāri neatkarīgi, tad koordinātas t1, . tk vektoram diapazonā ir unikāli noteikti.

        A pamata apakštelpai S ir lineāri neatkarīgu vektoru kopa, kuras laidums ir S. Elementu skaits bāzē vienmēr ir vienāds ar apakštelpas ģeometrisko izmēru. Jebkuru apakštelpas aptverošo kopu var mainīt par pamatu, noņemot liekos vektorus (vairāk skat. Zemāk esošos § Algoritmus).

        Iekļaušanas rediģēšana

        Kopu teorētiskā iekļaušanas binārā relācija nosaka daļēju secību visu apakšsummu kopā (jebkuras dimensijas).

        Apakšvieta nevar atrasties nevienā apakšdimensijā ar mazāku dimensiju. Ja blāvi U = k, ierobežots skaitlis un UW, tad blāvs W = k tad un tikai tad U = W.

        Krustojuma rediģēšana

        Piešķirtas apakšvietas U un W vektora telpas V, tad to krustojums UW := <vV : v ir abu elements U un W> ir arī apakšgrupa V. [10]

        1. Ļaujiet v un w būt elementi UW. Tad v un w pieder abiem U un W. Tā kā U ir apakštipa, tad v + w pieder U. Līdzīgi, kopš W ir apakštipa, tad v + w pieder W. Tādējādi v + w pieder UW.
        2. Ļaujiet v piederēt UW, un ļaujiet c esi skalārs. Tad v pieder abiem U un W. Kopš U un W ir apakštelpas, cv pieder abiem U un W.
        3. Kopš U un W ir vektoru atstarpes 0 pieder abiem komplektiem. Tādējādi 0 pieder UW.

        Par katru vektora telpu V, kopa <0> un V pašas ir V. [11] [12]

        Summa Rediģēt

        Ja U un W ir apakštelpas, to summa ir apakšvieta

        Piemēram, divu līniju summa ir plakne, kas satur tās abas. Summas dimensija apmierina nevienlīdzību

        max (blāvs ⁡ U, blāvs ⁡ W) ≤ blāvs ⁡ (U + W) ≤ blāvs U (U) + blāvs ⁡ (W).

        Šeit minimums iestājas tikai tad, ja viena apakšstaba ir otrā, savukārt maksimums ir visizplatītākais gadījums. Krustojuma un summas izmērs ir saistīts ar šādu vienādojumu:

        Apakšvietu kopa ir neatkarīgs kad vienīgais krustojums starp jebkuru apakštelpu pāri ir triviāla apakšstila. The tiešā summa ir neatkarīgu apakšvietu summa, kas rakstīta kā U ⊕ W < displaystyle U oplus W>. Līdzvērtīgs labojums ir tāds, ka tiešā summa ir apakštelpas summa ar nosacījumu, ka katra apakšvieta veicina summas diapazonu. [16] [17] [18] [19]

        Apakšvietu režģis Rediģēt

        Operāciju krustošanās un summa padara visu apakšvietu kopu par norobežotu moduļu režģi, kur apakšējā telpa <0>, vismazākais elements, ir summas operācijas identitātes elements, un identiska apakšvieta V, lielākais elements, ir krustošanās operācijas identitātes elements.

        Ortogonāli papildina Edit

        Šī darbība, ko saprot kā noliegumu (¬ < displaystyle neg>), padara apakšvietu režģi par (iespējams, bezgalīgu) ortokomplementētu režģi (lai arī tas nav izplatīšanas režģis). [ nepieciešama atsauce ]

        Telpās ar citām bilinārām formām daži, bet ne visi no šiem rezultātiem joprojām ir spēkā. Piemēram, pseido-Eiklida telpās un simplektiskajās vektoru telpās pastāv ortogonāli papildinājumi. Tomēr šajās atstarpēs var būt nulle vektoru, kas ir ortogonāli pašiem pret sevi, un līdz ar to pastāv tādas apakšvietas N < displaystyle N>, ka N ∩ N ⊥ ≠ <0> < displaystyle N cap N ^ < perp> neq <0 >>. Rezultātā šī darbība nepārvērš apakšvietu režģi par Būla algebru (ne arī par Heitinga algebru). [ nepieciešama atsauce ]

        Lielākā daļa algoritmu darbībai ar apakštelpām ietver rindu samazināšanu. Šis ir elementāru rindu darbību piemērošanas process matricai, līdz tā sasniedz vai nu rindu ešelona formu, vai samazinātu rindu ešelona formu. Rindu samazināšanai ir šādas svarīgas īpašības:

        1. Samazinātajā matricā ir tāda pati tukšā vieta kā oriģinālam.
        2. Rindu samazināšana nemaina rindas vektoru laidumu, t.i., reducētajai matricai ir tāda pati rindas telpa kā oriģinālam.
        3. Rindu samazināšana neietekmē kolonnu vektoru lineāro atkarību.

        Rindas vietas pamats Rediģēt

        1. Izmantojiet elementāras rindas darbības, lai ievietotu A rindu ešelona formā.
        2. Ešelona formas nulles rindas ir pamats rindas atstarpei A.

        Piemēru skatiet rakstā par rindu vietu.

        Ja mēs tā vietā ieliekam matricu A samazinātā rindas ešelona formā, tad iegūtais rindas atstarpes pamats ir unikāli noteikts. Tas nodrošina algoritmu, lai pārbaudītu, vai divas rindas atstarpes ir vienādas, un, paplašinot, arī to, vai divas apakšsistēmas ir K n ir vienādi.

        Rediģēt dalību apakšvietā

        1. Izveidot (k + 1) × n matrix A whose rows are the vectors b1, . , bk un v.
        2. Use elementary row operations to put A into row echelon form.
        3. If the echelon form has a row of zeroes, then the vectors <b1, . bk, v> are linearly dependent, and therefore vS .

        Basis for a column space Edit

        1. Use elementary row operations to put A into row echelon form.
        2. Determine which columns of the echelon form have pivots. The corresponding columns of the original matrix are a basis for the column space.

        See the article on column space for an example.

        This produces a basis for the column space that is a subset of the original column vectors. It works because the columns with pivots are a basis for the column space of the echelon form, and row reduction does not change the linear dependence relationships between the columns.

        Coordinates for a vector Edit

        1. Create an augmented matrixA whose columns are b1. bk , with the last column being v.
        2. Use elementary row operations to put A into reduced row echelon form.
        3. Express the final column of the reduced echelon form as a linear combination of the first k columns. The coefficients used are the desired numbers t1, t2, . tk . (These should be precisely the first k entries in the final column of the reduced echelon form.)

        If the final column of the reduced row echelon form contains a pivot, then the input vector v does not lie in S.


        Linear combinations of vectors and linear independence

        A linear combination is a weighted some of other vectors. The following are examples for linear combinations of vectors:

        (1)

        In general, a vector is a linear combination of vectors un if each can be multiplied by a scalar and the sum is equal to : for some numbers un .


        Graded assignments and exams

        Rules for collaboration on problem sets: You may use any textbooks or video resources you want. You may discuss the problems verbally with others (either in the class or not) without writing anything down (this includes typing) and without making any notes or recordings. When writing your solutions, you should work completely independently: no discussion at all is allowed during the writing process.

        Rules for submission of problems sets: Problem sets should be submitted in PDF format, as a single file (do not submit each page as an individual file). Legibility is important. Typed solutions are appreciated but not required (you can use the tex or overleaf links below to get a LaTeX template to start typing your solutions).


        Linear Independence Dependence of a Set of Functions

        Recall from the Wronskian Determinants and Higher Order Linear Homogenous Differential Equations page that if we have an $n^>$ order linear homogenous differential equation $frac + p_1(t) frac<>y><>> + . + p_(t) frac

        + p_n(t)y = 0$ where $p_1$ , $p_2$ , …, $p_n$ are continuous on an open interval $I$ and if $y = y_1(t)$ , $y = y_2(t)$ , …, $y = y_n(t)$ are solutions to this differential equation, then provided that $W(y_1, y_2, . y_n) eq 0$ for at least one point $t in I$ , then $y_1$ , $y_2$ , …, $y_n$ form a fundamental set of solutions to this differential equation - that is, for constants $C_1$ , $C_2$ , …, $C_n$ , then every solution to this differential equation can be written in the form:

        We will now look at the connection between the solutions $y_1$ , $y_2$ , …, $y_n$ forming a fundamental set of solutions and the linear independence/dependence of such solutions. We first define linear independence and linear dependence below.

        Definīcija: The functions $f_1$ , $f_2$ , …, $f_n$ are said to be Linearly Independent on an interval $I$ if for constants $k_1$ , $k_2$ , …, $k_n$ we have that $k_1f_1(t) + k_2f_2(t) + . + k_nf_n(t) = 0$ implies that $k_1 = k_2 = . = k_n = 0$ for all $t in I$ . This set of functions is said to be Linearly Dependent if $k_1f_1(t) + k_2f_2(t) + . + k_nf_n(t) = 0$ where $k_1$ , $k_2$ , …, $k_n$ are not all zero for all $t in I$ .

        Perhaps the simplest linearly independent sets of functions is that set that contains $f_1(t) = 1$ , $f_2(t) = t$ , and $f_3(t) = t^2$ . Let $k_1$ , $k_2$ , and $k_3$ be constants and consider the following equation:

        It's not hard to see that equation above is satisfied if and only if the constants $k_1 = k_2 = k_3 = 0$ .

        For another example, consider the functions $f_1(t) = sin t$ and $f_2(t) = sin (t + pi)$ defined on all of $mathbb$. This set of functions is not linearly independent. To show this, let $k_1$ and $k_2$ be constants and consider the following equation:

        Now choose $t = pi$ . Then we have that:

        But the above equation is true for any choice of constants $k_1$ and $k_2$ since $sin pi = sin 2pi = 0$ , and thus $f_1$ and $f_2$ do not form a linearly independent set on all of $mathbb$ .

        From the concept of linear independence/dependence, we obtain the following theorem on fundamental sets of solutions for $n^>$ order linear homogenous differential equations.


        BASES OF VECTOR SPACES THE BASIS PROBLEM

        The set of vectors spans . That is, any vector in is a linear combination of and . The set of vectors also spans . Sets and differ in that is linearly independent while is linearly dependent. This makes a difference in writing a vector as a linear combination of vectors in the set. For example, writing (2,4) in terms of the vectors in , we have for the only possibility

        However, in terms of vectors from , we have several possibilities:

        The point is: If a set of vectors spans and is linearly dependent, then representation of a vector x in terms of vectors in is not unique. If we want uniqueness, the spanning set must also be linearly independent. Such a set is called a basis for . Bases are used in coding theory, as we see later in this section.

        This definitions say the following

        Solution We must show that the set is linearly independent and spans . That is, we must show that

        has a solution for any and that

        has only the solution . These equations, respectively, in augmented form are

        Instead of solving both sets of equations separately, we solve both at once by working with the doubly augmented matrix

        Doing this, we find that this matrix reduces to

        We find for the span that for linear independence we find that . Since is linearly independent and spans , it is a basis for .

        In Example 1, the coefficients in the linear combination of basis elements were unique for any given vector . This is true in general.

        for v we will show that the coefficients are actually equal. To do this, form , which equals , and combine terms to obtain

        Since is a basis, it is a linearly independent set. Thus, the coefficients in the last linear combination must all be zero. That is, , and the original linear combinations are the same.

        Solution Proceeding as in Example 1, we form the doubly augmented matrix and row-reduce:

        This system has a unique solution. Therefore, is linearly independent and spans it is a basis for .

        Solution The set is linearly dependent because, for example,

        Example 4 shows that a vector space may fail to have a basis. We need to decide whether a given vector space has a basis or not. Spanning sets of vectors help us answer the question.

        Now , so we can substitute this expression into the former linear combination to obtain

        Thus spans . If is linearly independent, is a basis for . If is linearly dependent, one of the vectors in is a linear combination of the others. Now we argue as before. In this way we must arrive eventually at a linearly independent set which spans . (If we reduce to a set with a single vector, that set is linearly independent because was a set of nonzero vectors.) The resulting set is a basis of .

        Thus we have the following fundamental result:

        We are particularly interested in bases of finitely generated vector spaces. Example 3 illustrated the fact that any set of three or more vectors from cannot be a basis for . After all, these vectors would be coplanar and form a linearly dependent set. A set of only one vector cannot be a basis for because it spans only a line through the origin. Thus it appears that any basis for must contain exactly two vectors. This follows from Theorem 3.5.3.

        This theorem means that the number of vectors in a basis is unique. If we find a basis for and has eight vectors in it, then every basis has eight vectors in it. Because of this we can define the dimension of a vector space to be the number of vectors in a basis for . If a basis has vectors in it, the dimension of is , we write , and we say is finite-dimensional . More particularly, is called an - dimensional vector space when a basis for has vectors in it. Example 1 shows that . The dimension of the zero vector space is defined to be zero.