quaderni di matematica

Page 1

Quaderno n째 1

Roma, Gennaio 2006

Valter Chiovini



QUADERNI

Quaderno numero 1


___________________________________________________


Quaderno n°1

indice

Indice CAPITOLO 1. Valutazione della probabilità di una estrazione ............................................................ 1 1.2. Probabilità che un elemento venga estratto entro k estrazioni ........................................................ 1 1.3. Applicazioni al gioco del Lotto ........................................................................................................ 1 1.4. Approfondimento............................................................................................................................. 3 1.5. Esempio ........................................................................................................................................... 3 CAPITOLO 2. Attrazione gravitazionale di due corpi su traiettoria rettilinea .................................. 9 2.1. Impostazione del Problema.............................................................................................................. 9 2.2. Soluzione ......................................................................................................................................... 9 2.3. Integrazione dell’equazione dell’Energia Totale............................................................................ 10 2.3.1 Esempio : sistema Sole-Terra ..................................................................................................... 12 2.4. Problema dei due corpi su traiettoria rettilinea............................................................................. 13 CAPITOLO 3. Sistemi Lineari.................................................................................................................... 17 3.1. Generalità ...................................................................................................................................... 17 3.2. Metodi di Soluzione dei Sistemi Lineari ....................................................................................... 20 3.3. Risoluzione di Sistemi Lineari Quadrati Normali: Regola di Cramer .......................................... 21 3.4. Risoluzione di Sistemi Lineari Normali ........................................................................................ 22 3.5. Risoluzione di Sistemi Lineari Non Normali: Teorema di Rouchè-Capelli................................... 24 3.5.1 Teorema di Rouchè..................................................................................................................... 26 3.5.2 Teorema di Capelli ..................................................................................................................... 29 3.6. Struttura di un sistema lineare non normale compatibile ............................................................ 31 3.7. Condizione di annullamento dei determinanti.............................................................................. 33 3.8. Sistemi Lineari Omogenei ............................................................................................................. 38 3.9. Metodo di Risoluzione di Gauss.................................................................................................... 38 3.9.1 Struttura dei Pivot .................................................................................................................... 40 3.9.2 Legami tra le matrici dei coefficienti.......................................................................................... 42 3.9.3 Esempio...................................................................................................................................... 46 CAPITOLO 4. Le forme quadratiche ......................................................................................................... 49 4.1. Casi monodimensionale e bidimensionale ..................................................................................... 50 4.1.1. Studio del segno nel caso bidimensionale ..................................................................................... 51 4.2. Definizione Generale ..................................................................................................................... 53 4.2.1. Invarianza per congruenza ........................................................................................................... 53 4.2.2. Strategia per lo studio del segno ................................................................................................... 53 4.3. Studio della matrice A come operatore lineare..................................................................................... 54 4.3.1. Cambiamento di base .................................................................................................................... 54 4.3.2. Autovalori..................................................................................................................................... 55 4.3.3. Autovettori ................................................................................................................................... 55 4.3.4. Esistenza di basi di autovettori e diagonalizzazione: Teorema spettrale ..................................... 56 4.4. Teorema di Sylvester e Criteri di determinazione del segno ................................................................ 59 4.4.1. Teorema di Sylvester..................................................................................................................... 59 4.4.2. Condizioni di Positività ................................................................................................................ 60 4.4.3. Condizioni di Negatività .............................................................................................................. 63 4.4.4. Condizioni di Semipositività ........................................................................................................ 64

Pag. I


___________________________________________________


Quaderno n°1

Capitolo 1:Vautazione della probabilità di una estrazione

CAPITOLO 1. Valutazione della probabilità di una estrazione

1.2. Probabilità che un elemento venga estratto entro k estrazioni Supponiamo di avere: x x

un insieme di I di n elementi (ad esempio delle palline numerate con numeri interi da 1 ad n . k urne ciascuna contenente un insieme I (che naturalmente sono indistinguibili).

Eseguiamo l’operazione di estrazione di un elemento da ciascuna urna, in modo da avere un insieme I k di

k elementi (ad esempio si estrae una pallina da ogni urna e si ottiene una sequenza di k palline numerate e quindi si ottiene una sequenza di k numeri)

j I (ad esempio un numero associato ad una pallina), vogliamo calcolare la probabilità 3 (k ) di trovare tale elemento j I nell’insieme I k (nel caso dell’esempio si vuole calcolare la probabilità che un numero fissato appartenga alle sequenza di k numeri estratti dalle urne). Fissato un generico elemento

A tale scopo si osservi che: x

Il numero totale di insiemi I k (ossia di sequenze di k numeri estratti) è dato da

x

Il numero di insiemi I k non contenenti l’elemento j è dato da ( n 1) ;

x

Il numero di insiemi I k contenenti l’elemento j è dato da n ( n 1) ;

nk ;

k

k

k

Possiamo quindi concludere che

3 (k )

n k (n 1) k nk

§ 1· 1 ¨1 ¸ © n¹

k

(1)

1.3. Applicazioni al gioco del Lotto Il modello precedente può essere applicato al gioco del Lotto per calcolare la probabilità che un certo numero venga estratto entro k estrazioni come primo estratto di una ruota fissata. Infatti in questo caso il numero degli elementi dell’insieme I è pari a n 90 e nella (1) è sufficiente fissare il valore di k . Pag.1


Quaderno n°1

Capitolo 1:Vautazione della probabilitĂ di una estrazione

Vediamo alcuni esempi Numero Estrazioni k= 1 k= 2 k= 3 k= 4 k= 5 k= 6 k= 7 k= 8 k= 9 k= 10 k= 20 k= 30 k= 40 k= 50 k= 60 k= 70 k= 80 k= 90 k= 100 k= 200 k= 300 k= 400 k= 500 k= 600 k= 700 k= 800 k= 900 k= 1000

ProbabilitĂ 3(k)= 1,111% 3(k)= 2,210% 3(k)= 3,296% 3(k)= 4,371% 3(k)= 5,433% 3(k)= 6,484% 3(k)= 7,523% 3(k)= 8,551% 3(k)= 9,567% 3(k)= 10,572% 3(k)= 20,026% 3(k)= 28,480% 3(k)= 36,041% 3(k)= 42,803% 3(k)= 48,850% 3(k)= 54,257% 3(k)= 59,093% 3(k)= 63,417% 3(k)= 67,285% 3(k)= 89,297% 3(k)= 96,499% 3(k)= 98,854% 3(k)= 99,625% 3(k)= 99,877% 3(k)= 99,960% 3(k)= 99,987% 3(k)= 99,996% 3(k)= 99,999%

Il caso k

1 indica la probabilitĂ che un numero venga estratto come primo estratto su una ruota con una 1 singola estrazione ed è pari a . Come si evince dalla tabella, all’aumentare di k la probabilitĂ di trovare 90 un numero fissato aumenta sino a diventare circa 1 nel caso di k 1000 . Ciò significa ad esempio che la probabilitĂ che esca il famoso 53 sulla ruota di Venezia entro 900 estrazioni è pari al 99,996%. Per questo motivo è estremamente difficile trovare numeri con “ritardiâ€? superiori alle 180 estrazioni ed è cosĂŹ forte l’impulso a giocare i numeri “ritardatariâ€?. Tale impulso però si basa su una analisi non corretta dal punto di vista probabilistico. Infatti se si gioca un numero che ha un ritardo pari a k estrazioni (ossia un numero che non è stato estratto nelle precedenti k estrazioni) l’opportunitĂ di giocare tale numero rispetto ad un altro si deve basare sulla valutazione della probabilitĂ 3 ( k 1 / k ) che esso venga estratto alla k 1 esima estrazione condizionata al fatto che non sia uscito nelle precedenti k estrazioni. Tale probabilitĂ risulta pari a

3 (k 1 / k )

3 (1)

1 , 90

ossia è uguale alla probabilità di estrazione di un qualsiasi altro numero su una estrazione singola, poichÊ il sistema di estrazioni del Lotto non ha memoria di quanto è avvenuto in precedenza (se cosÏ non fosse dovremmo supporre che il processo di estrazione abbia una qualche capacità di memorizzazione del passato).

Pag.2


Quaderno n°1

Capitolo 1:Vautazione della probabilitĂ di una estrazione

Si può concludere quindi che non esiste alcuna convenienza a giocare numeri “ritardatariâ€? rispetto ad altri.

1.4. Approfondimento Riprendendo il discorso generale cerchiamo di valutare esplicitamente la probabilità dell’evento seguente: x

Estrazione di un generico elemento

3 (k 1 / k )

j Â? I alla k 1 esima estrazione condizionata al fatto che

non sia uscito nelle precedenti k estrazioni. A tale scopo si osservi che: x

Il numero totale di insiemi

I k 1 (ossia di sequenze di k 1 numeri estratti) in cui nei primi k posti

j è dato da (n 1) k n , in quanto nei primi k posti possiamo avere al piÚ (n 1) elementi diversi ( tutti gli n ad esclusione di j ) e nel k 1 esimo posto possiamo avere

non si trova l’elemento

n x

elemento diversi;

I k 1 contenenti l’elemento j al k 1 esimo posto è dato da (n 1) k poichĂŠ al k 1 esimo posto abbiamo una sola possibilitĂ , ossia quella di avere l’elemento j ; Il numero di insiemi

Possiamo quindi concludere che

3 (k 1 / k )

(n 1) k (n 1) k n

1 (2) n

Applicando la (2) al caso del Lotto ritroviamo il risultato illustrato alla fine del paragrafo precedente.

1.5. Esempio Come esempio ulteriore di applicazione delle (1) e (2) riportiamo il caso di una estrazione da un insieme di 5 numeri. In questo caso dunque I ^1,2,3,4,5`, si tratta di un caso semplificato del Lotto (invece di avere 90 numeri da estrarre su una ruota supponiamo di averne solo 5). Vogliamo calcolare la probabilitĂ dei seguenti due eventi: x x

Evento 1 (E1): estrazione del numero 1 entro 4 estrazioni Evento 2 (E2): estrazione del numero 1 alla 4° estrazione sapendo che non è stato estratto nelle precedenti 3 estrazioni.

1° Metodo di risoluzione Possiamo applicare direttamente le (1) e le (2) ponendo: x x

n k

5 4

Si ottiene:

x

E1: 3 (4)

§ 1¡ 1 ¨1 ¸ Š 5š

4

0,5904

Pag.3


Quaderno n°1

E2= 3 ( 4 / 3)

x

Capitolo 1:Vautazione della probabilità di una estrazione

1 5

0,2

2° Metodo di risoluzione

Tale metodo consiste nella valutazione esplicita di tutte le stringhe estratte. Si tratta sicuramente di un metodo inefficiente, ma ha il pregio di mettere in evidenza alcuni aspetti che possono sfuggire se si utilizza la semplice applicazione delle formule (1) e (2) Evento 1

La tabella 1 riporta tutti i possibili casi ottenibili tramite 4 estrazioni eseguite su 5 elementi. Tale tabella è suddivisa in 5 colonne da 125 righe e pertanto contiene 625 elementi (e si ritrova dunque il valore di

nk

54 ).

La tabella 2 riporta invece i soli casi favorevoli, ossia i casi in cui nelle 4 estrazioni venga estratto almeno una volta il numero 1. Il numero di tali caso favorevoli è pari a 369, come si evince eseguendo l’operazione materiale di conteggio. Pertanto possiamo concludere che

3 (4)

369 625

0,5904

Pag.4


Quaderno n°1

Capitolo 1:Vautazione della probabilitĂ di una estrazione

1111 1112 1113 1114 1115 1121 1122 1123 1124 1125 1131 1132 1133 1134 1135 1141 1142 1143 1144 1145 1151 1152 1153 1154 1155 1211 1212 1213 1214 1215 1221 1222 1223 1224 1225 1231 1232 1233 1234 1235 1241 1242 1243 1244 1245 1251 1252 1253 1254 1255 1311 1312 1313 1314 1315 1321 1322 1323 1324 1325 1331 1332 1333 1334 1335 1341 1342 1343 1344 1345 1351 1352 1353 1354 1355 1411 1412 1413 1414 1415 1421 1422 1423 1424 1425 1431 1432 1433 1434 1435 1441 1442 1443 1444 1445 1451 1452 1453 1454 1455 1511 1512 1513 1514 1515 1521 1522 1523 1524 1525 1531 1532 1533 1534 1535 1541 1542 1543 1544 1545 1551 1552 1553 1554 1555

Tabella 2111 3111 2112 3112 2113 3113 2114 3114 2115 3115 2121 3121 2122 3122 2123 3123 2124 3124 2125 3125 2131 3131 2132 3132 2133 3133 2134 3134 2135 3135 2141 3141 2142 3142 2143 3143 2144 3144 2145 3145 2151 3151 2152 3152 2153 3153 2154 3154 2155 3155 2211 3211 2212 3212 2213 3213 2214 3214 2215 3215 2221 3221 2222 3222 2223 3223 2224 3224 2225 3225 2231 3231 2232 3232 2233 3233 2234 3234 2235 3235 2241 3241 2242 3242 2243 3243 2244 3244 2245 3245 2251 3251 2252 3252 2253 3253 2254 3254 2255 3255 2311 3311 2312 3312 2313 3313 2314 3314 2315 3315 2321 3321 2322 3322 2323 3323 2324 3324 2325 3325 2331 3331 2332 3332 2333 3333 2334 3334 2335 3335 2341 3341 2342 3342 2343 3343 2344 3344 2345 3345 2351 3351 2352 3352 2353 3353 2354 3354 2355 3355 2411 3411 2412 3412 2413 3413 2414 3414 2415 3415 2421 3421 2422 3422 2423 3423 2424 3424 2425 3425 2431 3431 2432 3432 2433 3433 2434 3434 2435 3435 2441 3441 2442 3442 2443 3443 2444 3444 2445 3445 2451 3451 2452 3452 2453 3453 2454 3454 2455 3455 2511 3511 2512 3512 2513 3513 2514 3514 2515 3515 2521 3521 2522 3522 2523 3523 2524 3524 2525 3525 2531 3531 2532 3532 2533 3533 2534 3534 2535 3535 2541 3541 2542 3542 2543 3543 2544 3544 2545 3545 2551 3551 2552 3552 2553 3553 2554 3554 2555 3555

1 4111 4112 4113 4114 4115 4121 4122 4123 4124 4125 4131 4132 4133 4134 4135 4141 4142 4143 4144 4145 4151 4152 4153 4154 4155 4211 4212 4213 4214 4215 4221 4222 4223 4224 4225 4231 4232 4233 4234 4235 4241 4242 4243 4244 4245 4251 4252 4253 4254 4255 4311 4312 4313 4314 4315 4321 4322 4323 4324 4325 4331 4332 4333 4334 4335 4341 4342 4343 4344 4345 4351 4352 4353 4354 4355 4411 4412 4413 4414 4415 4421 4422 4423 4424 4425 4431 4432 4433 4434 4435 4441 4442 4443 4444 4445 4451 4452 4453 4454 4455 4511 4512 4513 4514 4515 4521 4522 4523 4524 4525 4531 4532 4533 4534 4535 4541 4542 4543 4544 4545 4551 4552 4553 4554 4555

5111 5112 5113 5114 5115 5121 5122 5123 5124 5125 5131 5132 5133 5134 5135 5141 5142 5143 5144 5145 5151 5152 5153 5154 5155 5211 5212 5213 5214 5215 5221 5222 5223 5224 5225 5231 5232 5233 5234 5235 5241 5242 5243 5244 5245 5251 5252 5253 5254 5255 5311 5312 5313 5314 5315 5321 5322 5323 5324 5325 5331 5332 5333 5334 5335 5341 5342 5343 5344 5345 5351 5352 5353 5354 5355 5411 5412 5413 5414 5415 5421 5422 5423 5424 5425 5431 5432 5433 5434 5435 5441 5442 5443 5444 5445 5451 5452 5453 5454 5455 5511 5512 5513 5514 5515 5521 5522 5523 5524 5525 5531 5532 5533 5534 5535 5541 5542 5543 5544 5545 5551 5552 5553 5554 5555

1111 1112 1113 1114 1115 1121 1122 1123 1124 1125 1131 1132 1133 1134 1135 1141 1142 1143 1144 1145 1151 1152 1153 1154 1155 1211 1212 1213 1214 1215 1221 1222 1223 1224 1225 1231 1232 1233 1234 1235 1241 1242 1243 1244 1245 1251 1252 1253 1254 1255 1311 1312 1313 1314 1315 1321 1322 1323 1324 1325 1331 1332 1333 1334 1335 1341 1342 1343 1344 1345 1351 1352 1353 1354 1355 1411 1412 1413 1414 1415 1421 1422 1423 1424 1425 1431 1432 1433 1434 1435 1441 1442 1443 1444 1445 1451 1452 1453 1454 1455 1511 1512 1513 1514 1515 1521 1522 1523 1524 1525 1531 1532 1533 1534 1535 1541 1542 1543 1544 1545 1551 1552 1553 1554 1555

2111 2112 2113 2114 2115 2121 2122 2123 2124 2125 2131 2132 2133 2134 2135 2141 2142 2143 2144 2145 2151 2152 2153 2154 2155 2211 2212 2213 2214 2215 2221 2231 2241 2251 2311 2312 2313 2314 2315 2321 2331 2341 2351 2411 2412 2413 2414 2415 2421 2431 2441 2451 2511 2512 2513 2514 2515 2521 2531 2541 2551 -

Tabella 2 3111 4111 3112 4112 3113 4113 3114 4114 3115 4115 3121 4121 3122 4122 3123 4123 3124 4124 3125 4125 3131 4131 3132 4132 3133 4133 3134 4134 3135 4135 3141 4141 3142 4142 3143 4143 3144 4144 3145 4145 3151 4151 3152 4152 3153 4153 3154 4154 3155 4155 3211 4211 3212 4212 3213 4213 3214 4214 3215 4215 3221 4221 3231 4231 3241 4241 3251 4251 3311 4311 3312 4312 3313 4313 3314 4314 3315 4315 3321 4321 3331 4331 3341 4341 3351 4351 3411 4411 3412 4412 3413 4413 3414 4414 3415 4415 3421 4421 3431 4431 3441 4441 3451 4451 3511 4511 3512 4512 3513 4513 3514 4514 3515 4515 3521 4521 3531 4531 3541 4541 3551 4551 -

5111 5112 5113 5114 5115 5121 5122 5123 5124 5125 5131 5132 5133 5134 5135 5141 5142 5143 5144 5145 5151 5152 5153 5154 5155 5211 5212 5213 5214 5215 5221 5231 5241 5251 5311 5312 5313 5314 5315 5321 5331 5341 5351 5411 5412 5413 5414 5415 5421 5431 5441 5451 5511 5512 5513 5514 5515 5521 5531 5541 5551 -

Pag.5


Quaderno n°1

Capitolo 1:Vautazione della probabilità di una estrazione

Evento 2 La tabella 3 riporta tutti i possibili casi ottenibili tramite 4 estrazioni eseguite su 5 elementi supponendo che nelle prime 3 estrazioni non venga mai estratto il numero 1. Tale tabella contiene 320 elementi e costituisce un sottoinsieme della tabella 1. Questo è un aspetto molto importante. Infatti da esso si deduce che la conoscenza del fatto che nelle prime tre estrazioni il numero 1 non sia uscito, cambia radicalmente l’insieme di tutti i possibili casi, ossia cambia la natura del fenomeno aleatorio che stiamo analizzando. In ultima analisi è per questo motivo che non ha senso pensare che un numero che non sia uscito dopo 3 estrazioni abbia più possibilità di uscire alla 4° estrazione, in quanto in tale tipo di ragionamento stiamo pensando di applicare l’insieme della tabella 1 come insieme di tutti i possibili casi, mentre invece dovremmo applicare quello della tabella 3 (per inciso si verifica anche che (n 1)

k

n

435 ).

La tabella 4 riporta invece i soli casi favorevoli, ossia i casi in cui nelle 4° estrazione sia stato estratto il numero 1 , mentre nelle precedenti 3 non sia stato estratto. Gli elementi di tale tabella sono 64.

Pertanto possiamo concludere

3 (4 / 3)

64 320

1 5

0,2

Pag.6


Quaderno n°1

Capitolo 1:Vautazione della probabilitĂ di una estrazione

-

2221 2222 2223 2224 2225 2231 2232 2233 2234 2235 2241 2242 2243 2244 2245 2251 2252 2253 2254 2255 2321 2322 2323 2324 2325 2331 2332 2333 2334 2335 2341 2342 2343 2344 2345 2351 2352 2353 2354 2355 2421 2422 2423 2424 2425 2431 2432 2433 2434 2435 2441 2442 2443 2444 2445 2451 2452 2453 2454 2455 2521 2522 2523 2524 2525 2531 2532 2533 2534 2535 2541 2542 2543 2544 2545 2551 2552 2553 2554 2555

Tabella 3 3221 4221 3222 4222 3223 4223 3224 4224 3225 4225 3231 4231 3232 4232 3233 4233 3234 4234 3235 4235 3241 4241 3242 4242 3243 4243 3244 4244 3245 4245 3251 4251 3252 4252 3253 4253 3254 4254 3255 4255 3321 4321 3322 4322 3323 4323 3324 4324 3325 4325 3331 4331 3332 4332 3333 4333 3334 4334 3335 4335 3341 4341 3342 4342 3343 4343 3344 4344 3345 4345 3351 4351 3352 4352 3353 4353 3354 4354 3355 4355 3421 4421 3422 4422 3423 4423 3424 4424 3425 4425 3431 4431 3432 4432 3433 4433 3434 4434 3435 4435 3441 4441 3442 4442 3443 4443 3444 4444 3445 4445 3451 4451 3452 4452 3453 4453 3454 4454 3455 4455 3521 4521 3522 4522 3523 4523 3524 4524 3525 4525 3531 4531 3532 4532 3533 4533 3534 4534 3535 4535 3541 4541 3542 4542 3543 4543 3544 4544 3545 4545 3551 4551 3552 4552 3553 4553 3554 4554 3555 4555

5221 5222 5223 5224 5225 5231 5232 5233 5234 5235 5241 5242 5243 5244 5245 5251 5252 5253 5254 5255 5321 5322 5323 5324 5325 5331 5332 5333 5334 5335 5341 5342 5343 5344 5345 5351 5352 5353 5354 5355 5421 5422 5423 5424 5425 5431 5432 5433 5434 5435 5441 5442 5443 5444 5445 5451 5452 5453 5454 5455 5521 5522 5523 5524 5525 5531 5532 5533 5534 5535 5541 5542 5543 5544 5545 5551 5552 5553 5554 5555

-

2221 2231 2241 2251 2321 2331 2341 2351 2421 2431 2441 2451 2521 2531 2541 2551 -

Tabella 4 3221 4221 3231 4231 3241 4241 3251 4251 3321 4321 3331 4331 3341 4341 3351 4351 3421 4421 3431 4431 3441 4441 3451 4451 3521 4521 3531 4531 3541 4541 3551 4551 -

5221 5231 5241 5251 5321 5331 5341 5351 5421 5431 5441 5451 5521 5531 5541 5551 -

Pag.7


Quaderno n°1

Capitolo 1:Vautazione della probabilitĂ di una estrazione

___________________________________________________

Pag.8


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

CAPITOLO 2. Attrazione gravitazionale di due corpi su traiettoria rettilinea

2.1. Impostazione del Problema

M e Pm un punto materiale mobile di massa m . Supponiamo che Pm , inizialmente fermo, venga attratto da PF lungo la retta r (asse coordinato r ) secondo Sia PF un punto materiale fisso di massa

la Legge di Attrazione Gravitazionale di Newton

& F

k

Mm & r0 (1) r

dove x x

k 6.66 ˜ 10 11 kg 1 m 3 sec 2 indica la costante di attrazione universale; & r0 il versore della forza diretto secondo l’asse r .

Vogliamo determinate l’istante di tempo t

W

in cui Pm raggiunge PF e pertanto l’analisi del moto verrĂ

effettuata solo intervallo di tempo 0 d t d W .

2.2. Soluzione Sia x

v r

x

r (0)

r0 ;

x

v(0)

0 , ossia Pm è fermo;

v(t ) la velocità del punto Pm ; r (t ) la distanza di Pm da PF x kMm , l’energia potenziale, determinata dalla forza (1), di Pm quando si trova alla x U (r ) r generica distanza r da PF ; 1 2 mv , l’energia cinetica di Pm ; x T 2 1 2 kMm mv (t ) x E E (t ) T U , l’energia totale del punto materiale Pm . 2 r (t ) All’istante di tempo t 0 la posizione, la velocità e l’energia totale di Pm sono:

Pag.9


Quaderno n°1

x

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

E0

E (0)

1 2 kMm mv (0) 2 r (0)

T U

kMm r0

PoichĂŠ la (1) è conservativa e supponendo l’assenza di attrito ( Pm si muove nel vuoto) vale la Legge di conservazione dell’Energia Totale:

E (t ) 1 2 kMm mv (t ) 2 r (t )

E0

kMm (2) r0

Inoltre valgono i seguenti vincoli: x x

2.3.

r d r0 ; v(t ) d 0 nell’intervallo di tempo 0 d t d W , in quanto Pm si sposta verso PF , ed il vettore velocità ha verso contrario a quello dell’asse r . Integrazione dell’equazione dell’Energia Totale

Integrando la (2) si ottiene l’equazione oraria del moto, ossia la finzione dalla natura del problema in quanto il moto avviene lungo l’asse r .

1 2 kMm mv (t ) 2 r (t )

kMm 1 kM Â&#x; v 2 (t ) r0 2 r

kM kM Â&#x; v2 r r0

1 2 v 2

v2

§1 1 kM ¨¨ Š r r0

§1 1 2kM ¨¨ Š r r0

¡ ¸¸ Â&#x; v š

r

r (t ) ; la traiettoria è già imposta

kM 1 Â&#x; v 2 (t ) r0 2

¡ ¸¸ Â&#x; v 2 š

§1 1 2kM ¨¨ Š r r0

§1 1 r 2kM ¨¨ Š r r0

Dalla (3), ricordando che v

§1 1 2kM ¨¨ Š r r0

¡ ¸¸ š

¡ ¸¸ ; š

¡ ¸¸ š

Come precedentemente osservato, nell’intervallo temporale di studio del moto

v

kM kM ; r r0

v(t ) d 0 , pertanto si ottiene:

(3)

dr , si ottiene la seguente equazione differenziale, integrabile per separazione dt

delle variabili:

v dr

§1 1 2kM ¨¨ Š r r0

¡ ¸¸ Â&#x; v š

§1 1 2kM ¨¨ Š r r0

¡ ¸¸dt Â&#x; š

dr dt

§1 1 2kM ¨¨ Š r r0

dr §1 1 ¨¨ Š r r0

¡ ¸¸ š

¡ ¸¸ š

2kM dt

Pag.10


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

Âł

dr §1 1 ¨¨ Š r r0

¡ ¸¸ š

³ 2kM dt ‌.(4)

Risolviamo ora i due integrali precedenti ( c1 e c 2 indicano le costanti di integrazione):

dr

x

Âł

x

Âł 2kM dt

§1 1 ¨¨ Š r r0

¡ ¸¸ š

ª § r 2r ¡ º 1 ¸ c ; r0 2 r r0 r r0 arctg ¨ 0 ¨ 2 r r r ¸ 1 2  0 Š šŸ

2kM t c 2 .

Dalla (4) si ottiene:

ª § r 2r ¡ º 1 ¸ c r0 2 r r0 r r0 arctg ¨ 0 ¨ 2 r r r ¸ 1 2  0 šŸ Š ª § r 2r ¡ º 1 ¸ r0 2 r r0 r r0 arctg ¨ 0 ¨ ¸ 2  Š 2 r r0 r šŸ

2kM t c 2

2kM t c 2 c1

Poniamo ora per compattezza:

ª § r 2r ¡ º 1 ¸ ; r0 2 r r0 r r0 arctg ¨ 0 ¨ 2 r r r ¸ 2  0 šŸ Š

x

g (r )

x

c 2 c1

c , costante di integrazione.

Si ha:

g (r ) PoichĂŠ per t

0 r

r0 Â&#x; g (r ) t

0

2kM t g (r )

t 0

2kM t c c Â&#x; g (r0 )

c , da cui:

2kM t g (r0 ) ;

ossia:

t

g (r ) g (r0 ) 2kM

(5)

Valutiamo ora il valore di g ( r0 ) effettuando il passaggio al limite sinistro r o r0 (il passaggio al limite è necessario in quanto la funzione

g (r ) non è continua per r

r0 ed occorre valutare il limite sinistro poichĂŠ Pag.11


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

r d r0 ):

lim

ª § r 2r ¡º 1 ¸ r0 2 r r0 r r0 arctg ¨ 0 ¨ 2 r r r ¸ 2  0 šŸ Š

lim

g (r )

r o r0

r o r0

S 4

r0

3

Pertanto la (5) diviene:

g (r )

S

4 2kM

t

r0

3

(6)

L’equazione (6) esprime l’istante di tempo in cui il punto Pm si trova a distanza r (t ) dal punto PF , ossia l’instante in cui ha percorso lo spazio 's

W

Quindi per determinare l’istante t

r0 r (t ) . 0 , ossia in cui Pm ha percorso lo spazio 's

in cui r

incontra PF , è sufficiente valutare la (6) ponendo r

g (r ) è discontinua in r

W

r0 e quindi

0 , attraverso un passaggio al limite destro poichĂŠ

0:

lim t lim r o0

r o0

ÂŞ Âş S 3 ÂŤlim g (r )Âť 4 r0 ÂŹ r o0 Âź 2kM

S ª 3 º  g (r ) 4 r0    2kM    Ÿ

PoichĂŠ

lim

ª § r 2r ¡ º 1 ¸ r0 2 r r0 r r0 arctg ¨ 0 ¨ 2 r r r ¸ 2  0 Š šŸ

g (r )

r o0

S 4

r0

3

Si ottiene:

S W

4

r0 3

S

4 2kM

r0

3

2

S

r0 4 2kM

3

S

r0

3

2 2kM

S

r0

3

8kM

3

W

r0 S 8kM

(7)

La (7) risolve il nostro problema.

2.3.1

Esempio : sistema Sole-Terra

Supponiamo che: x x

PF sia il Sole , da cui M Pn sia la Terra

1,995 ˜ 10 30 kg ;

Si vuole calcolare entro quanto tempo la Terra cade sul Sole nell’ipotesi in cui la Terra si arrestasse. Per risolvere questo problema è sufficiente applicare la (7) e la terza Legge di Keplero, nell’ipotesi di approssimare l’orbita terrestre ad una circonferenza e di supporre il sole come un punto fisso.

Pag.12


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

Dalla terza Legge di Keplero si deduce:

4S 2 T2

Mk r0

3

(8);

dove: x x

T è il periodo di rivoluzione dell’orbita terrestre (circa 365 giorni) r0 è il raggio dell’orbita e quindi la distanza della Terra da Sole al momento dell’arresto.

Manipolando la (8) si ottiene : 3

T2 . 4S 2

r0 kM Sostituendo la precedente espressione nella (7) si ha: 3

W

r0 8kM

S

S T

W

32

#

1 T2 8 4S 2 365 32

ST S

1 32

T

32

;

# 64,5 giorni

Allora si può concludere che la Terrà cade sul Sole in circa 64,5 giorni

2.4. Problema dei due corpi su traiettoria rettilinea Generalizziamo il problema trattato supponendo che entrambi i corpi di massa M e m siano liberi di spostarsi lungo una traiettoria rettilinea. Si vuole dimostrare che tale caso può essere ricondotto a quello precedente in cui uno solo dei corpi sia mobile e l’altro fisso. A tale scopo si indichi con x x x

M 1 e M 2 la massa dei due corpi; r1 e r2 la distanza dei due corpi dall’origine di un sistema di riferimento inerziale; r r2 r1 la distanza tra i due corpi

Si ricordi inoltre che fissato una schema di n punti materiali Pi di massa mi , è possibile definire un punto particolare denominato centro di massa (non necessariamente corrispondente ad uno dei punti materiali) definito come segue:

Mc

M c rc Dove x

d 2 ri d cui segue dt 2 i 1 n 1 n m r r ¦ ¦ mi ri i i c Mc i 1 i 1

d 2 rc dt 2

n

¦ mi

rc indica il vettore posizione del centro di massa n

x

Mc

¦m

i

.rappresenta la massa totale de sistema.

i 1

Pag.13


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

Si osservi che nel caso in cui M c

d 2 rc dt 2

n

ÂŚ mi i 1

d 2 ri dt 2

0Â&#x;

d 2 rc dt 2

0

Ossia

drc dt

cos t

(9)

Quindi il centro di massa si muove con velocitĂ costante, ossia di moto rettilineo uniforme; in altri termini un sistema di riferimento solidale al centro di massa in questo caso risulta essere un sistema inerziale. Dalla definizione di centro di massa inoltre, nel nostro caso vale:

rc e ricordando che r

M 1 r1 M 2 r2 ; M

r2 r1 , si deducono le seguenti relazioni. rc

M 1 r1 M 2 r2 M

M 1 r1 M 2 r1 M 2 r M

r1

M2 r M

da cui

M2 r (10) M M M r rc 2 r rc 1 r (11) M M

r1 r2

r r1

rc

Determiniamo ora l’equazione dell’energia totale per il sistema costituito dai due punti materiali Energia Cinetica 2

T

1 1 § dr ¡ § dr ¡ M1¨ 1 ¸ M 2 ¨ 2 ¸ 2 2 Š dt š Š dt š

2

Per semplicitĂ si ponga: x x x x

dr1 v1 dt dr2 v2 dt drc vc dt dr v dt

Valutiamo l’energia cinetica utilizzando le (10) e le (11): 2

T

T

ÂŞ 2 1 M 1 ÂŤv c 2 ÂŹÂŤ

2

M ¡ M ¡ 1 1 § § T M 1 ¨ vc 2 v ¸ M 2 ¨ vc 1 v ¸ 2 2 M š M š Š Š 2 2 ª 2 M1 M2 § M1 ¡ º § M2 ¡ º 1 v¸  vvc ¨ 2 v ¸  M 2 v c 2 vvc ¨ M M Š M š Ÿ Š M š Ÿ 2 

2 2 º ª 1 M 1 M 2 vc 2 1 M 1 §¨ M 2 ¡¸ 1 M 2 §¨ M 1 ¡¸ v 2 2 2  Š M š 2 Š M š Ÿ

1 1 M 1M 2 2 § M 2 M 1 ¡ 2 v ¨ Mvc ¸ 2 2 M M š Š M Pag.14


Quaderno n°1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

Da cui segue:

1 1 M 1M 2 2 2 Mvc v (12) 2 2 M

T Energia Potenziale

Per un sistema di punti materiali soggetti a forze interne conservative tale ch, con U ij si indica l’energia potenziale relativa alla forza interna

Fij

Â’U ij che il punto materiale

j esimo produce sul punto

materiale i esimo , e con U si indica l’energia potenziale totale del sistema, vale la seguente relazione

U

1 ÂŚU ij (13) 2 i, j

Nel caso dei due corpi soggetti ad una forza di attrazione gravitazionale ci troviamo esattamente in questa situazione, poichĂŠ le forze applicate sono forze interne uguali in modulo ed opposte (terzo principio della dinamica) e si ha :

U 12

k

U 21

M 1M 2 , r

ed applicando la (13) si ha:

U

1 U 12 U 21 k M 1 M 2 2 r

Siamo ora in grado di scrivere l’equazione dell’energia totale, che supponendo di scegliere un sistema di riferimento inerziale solidale con il centro di massa ( vc 0 ) risulta formalmente identica alla (2), in cui

r indica la distanza tra i due corpi in movimento e come massa si considera la somma due punti materiali.

M delle masse dei

M M M M 1 M 1M 2 2 v k 1 2 k 1 2 2 M r r0 M M 1 2 k v k 2 r r0 Allora si può concludere che la (7) assume la seguente forma: 3

W

S

r0 (14) 8k M 1 M 2

e gli andamenti di r1 e r2 possono essere dedotti applicando le (10), (11).

Pag.15


Quaderno n째1

Capitolo 2:Attrazione gravitazionale di due corpi su traiettoria rettilinea

___________________________________________________

Pag.16


Quaderno n°1

Capitolo 3:Sistemi Lineari

CAPITOLO 3. Sistemi Lineari

3.1. GeneralitĂ Nel presente capitolo viene illustrata la teoria dei Sistemi Lineari. Si definisca quindi:

x

x

x

§ a11 ¨ ¨ a21 una matrice di dimensione ( mxn) A ¨ .. ¨ ¨a Š m1

a12 a22 .. an 2

.. a1n ¡ ¸ .. a2 n ¸ , detta matrice dei coefficienti, .. .. ¸ ¸ .. amn ¸š

§ x1 ¡ ¨ ¸ ¨ x2 ¸ un vettore colonna di dimensione (nx1) X ¨ ¸ , detto vettore delle incognite .. ¨ ¸ ¨x ¸ Š nš § b1 ¡ ¨ ¸ ¨ b2 ¸ un vettore colonna di dimensione ( mx1) B ¨ ¸ , detto vettore dei termini noti .. ¨ ¸ ¨b ¸ Š mš

Si dice Sistema Lineare (nel seguito indicato anche con l’acronimo SL) la seguente equazione matriciale: Eq.1

AX

B

In modo esplicito il precedente sistema, che rappresenta m equazioni lineari nelle n incognite raggruppate nel vettore X , si esprime come segue:

­a11 x1 a12 x 2 ..... a1n x n b1 ° Eq. 2 °a 21 x1 a 22 x 2 .... a 2 n x n b2 Ž °.............................................. ° n 1 2 bm ¯a m1 x a m 2 x .... a mn x Si possono verificare fondamentalmente due casi: 1.

(n t m) , ossia il numero di incognite maggiore od uguale al numero di equazioni, (n m) , ossia il numero di incognite minore del numero di equazioni.

2. 3. Il primo caso contempla anche la situazione limite in cui n m (numero di equazioni pari a quello delle incognite) che determina un SL detto quadrato ( n u n) , in quanto la matrice dei coefficienti è una matrice Pag.17


Quaderno n°1

Capitolo 3:Sistemi Lineari

quadrata: mutuando tale nomenclatura un generico SL viene detto rettangolare ( m u n) , ossia ad m equazioni con n incognite, in quanto caratterizzato da un matrice dei coefficienti rettangolare (naturalmente un sistema quadrato rappresenta un caso particolare di un sistema rettangolare e quindi nella trattazione generale quando si parla si sistemi rettangolari rientrano anche quelli quadrati a meno che non venga specificato diversamente). Detto questo possiamo dire che risolvere un Sistema di Equazioni Lineari significa determinare, se possibile,

[ per i

i

(1..n) delle incognite, quindi determinare un vettore colonna , ; che moltiplicato matricialmente con A fornisca il vettore dei termini noti B , ossia che venga verifica l’Eq.1: gli n valori

A;

B.

In termini scalari la precedente uguaglianza significa che per la generica

i esima equazione deve valere:

bi per (i 1..m)

bi Â&#x; ÂŚ aij [ j bi

0 , per (i 1..m)

ai1 [ 1 ai 2 [ 2 ..... ain [ n

oppure in modo piĂš compatto:

ÂŚ aij [ j

n

n

j 1

j 1

In altri termini se si sostituiscono alle incognite i valori della soluzione a primo membro di ogni equazione, si deve trovare un valore pari al secondo membro, ossia al termine noto: se accade ciò si dice che l’equazione

i

è verificata per i valori [ della soluzione ed il relativo SL viene detto compatibile, in caso contrario incompatibile. Infine osserviamo che ogni equazione costruita attraverso una combinazione lineare delle equazioni del sistema di cui all’ Eq.1 , è verificata dalla soluzione del sistema stesso. Infatti indicati con Ok j per (k j 1..l ) l coefficienti numerici, si costruisca l’equazione ottenuta tramite la combinazione lineare di l equazioni del sistema: l

l

ÂŚ Ok (ak 1 x1 ak 2 x 2 ..... ak n x n ) j

j

j

ÂŚO

j

kj 1

Se

[ per i i

bk j

(1..n) rappresenta una soluzione del sistema, ognuna delle l equazioni è verificata , ossia

ak j 1 [ 1 ak j 2 [ 2 ..... ak j n [ n da cui

kj

kj 1

>

Ok ak 1 [ 1 ak 2 [ 2 ..... ak n [ n

j

j

j

>

j

bk j , per (k j

@

Ok bk j

ÂŚ Ok ak 1 [ 1 ak 2 [ 2 ..... ak n [ n

l

j

kj

j

j

j

j

@

1..l )

per (k j

1..l )

l

ÂŚO

b

kj kj

kj

e dunque risulta verificata l’equazione ottenuta come combinazione lineare. Vediamo alcuni esempi. Si consideri il seguente sistema quadrato di due equazioni in due incognite:

Pag.18


Quaderno n°1

x

Capitolo 3:Sistemi Lineari

in forma matriciale AX

B:

§1 1 ¡ § x 1 ¡ § 2 ¡ ¨¨ ¸¸ ¨¨ 2 ¸¸ ¨¨ ¸¸ , dove quindi A Š1 3 š Š x š Š 4 š ­° x1 x 2 1 . in forma estesa Ž °¯ x1 3x 2 4

x

Tale SL ammette come soluzione il vettore colonna ;

A;

§1 1 ¡ §1¡ ¸¸ ¨¨ ¸¸ ¨¨ 1 3 š Š1š Š

§ x1 ¡ ¨ 2¸,B ¨x ¸ Š š

§1 1 ¡ ¸¸ , X ¨¨ Š1 3 š

§ 2¡ ¨¨ ¸¸ Š 4š

§1¡ ¨¨ ¸¸ , infatti si ha: Š1š § 1 ˜1 1 ˜1 ¡ § 2 ¡ ¸¸ ¨¨ ¸¸ B . ¨¨ 1 1 3 1 ˜ ˜ š Š 4š Š

Consideriamo ora un altro sistema: x

in forma matriciale AX

B:

§ x1 ¡ §1 1 1¡ ¨ x 2 ¸ ¸¸ ¨ ¸ ¨¨ Š1 3 1š ¨ x 3 ¸ Š š § x1 ¡ ¨ x2 ¸ ¨ ¸,B ¨ x3 ¸ Š š 1 2 3 ­° x x x 1 in forma estesa Ž . °¯ x1 3 x 2 x 3 4

§1 1 1¡ ¸¸ , X dove quindi A ¨¨ Š1 3 1š x

§ 2¡ ¨¨ ¸¸ , Š 4š

§ 2¡ ¨¨ ¸¸ Š 4š

Ci troviamo di fronte ad un sistema di 2 equazioni in 3 incognite: verifichiamo che i due vettori colonna

;

§1¡ ¨1 ¸ e ; ¨¨ ¸¸ Š0š

§ 1¡ ¨ 1 ¸ individuano due soluzioni del SL. ¨¨ ¸¸ Š 2š

Infatti:

x

A;

x

A;

1 §1 1 1¡ §¨1 ¡¸ § 1˜1 1˜1 1˜ 0 ¡ § 2 ¡ ¨¨ ¸¸ ¨ ¸ ¨¨ ¸¸ ¨¨ ¸¸ Š1 3 1š ¨Š 0 ¸š Š1˜1 1˜ 3 1˜ 0 š Š 4 š 1 §1 1 1¡ §¨ 1 ¡¸ § 1 ˜ ( 1) 1 ˜1 1 ˜ 2 ¡ ¨¨ ¸¸ ¨ ¸ ¨¨ ¸¸ Š1 3 1š ¨Š 2 ¸š Š1 ˜ ( 1) 1 ˜ 3 1˜ 2 š

B, § 1 1 2 ¡ ¨¨ ¸¸ Š 1 3 2 š

§ 2¡ ¨¨ ¸¸ Š 4š

B

O §1 O ¡ ¨ 1 ¸, ¨¨ ¸¸ Š O š

IL SL ammette dunque piĂš di una soluzione, anzi ne ammette infinite; infatti se indichiamo con 3

generico valore assegnato all’incognita x , e quindi poniamo x rappresenta infiniti valori ottenuti facendo variare il parametro come evidenziato nel seguito:

O,

3

O,

il vettore ;

un che

individua tutte le possibili soluzioni,

Pag.19


Quaderno n°1

Capitolo 3:Sistemi Lineari

A;

1 O §1 1 1¡ §¨ 1 ¡¸ ¨¨ ¸¸ ¨ ¸ Š1 3 1š ¨Š O ¸š

§ 1 ˜ (1 O ) 1˜1 1˜ O ¡ ¨¨ ¸¸ Š1˜ (1 O ) 1˜ 3 1˜ O š

§1 O 1 O ¡ ¨¨ ¸¸ Š1 O 3 O š

§ 2¡ ¨¨ ¸¸ Š 4š

B

Infine come ultimo esempio si consideri il seguente SL: x

in forma matriciale

AX

B:

§1 1 ¡ 1 §1 1 ¡ ¨ ¸ § x ¡ §¨ 2 ¡¸ ¨ ¸ ¨1 3 ¸ ¨¨ 2 ¸¸ ¨ 4 ¸ , dove quindi A ¨1 3 ¸ , X ¨1 1 ¸ Š x š ¨Š 3 ¸š ¨1 1 ¸ Š š Š š

§ x1 ¡ ¨ 2¸,B ¨x ¸ Š š

§ 2¡ ¨ 4¸ ¨¨ ¸¸ Š3 š

­ x1 x 2 1 ° 1 2 x in forma estesa Ž x 3 x 4. ° 1 2 3 ¯x x Tale SL non ammette alcuna soluzione ed è quindi incompatibile, come si evidenzia confrontando la prima è terza equazione che impongono che la quantità ( x x ) sia contemporaneamente uguale a 1 ed a 3 . 1

2

3.2. Metodi di Soluzione dei Sistemi Lineari Attraverso gli esempi precedenti abbiamo evidenziato tre situazioni in merito alla problematica di risoluzione di un SL: 1. 2. 3.

il SL non ammette soluzioni, SL incompatibile, il SL ammette una soluzione unica, il SL ammette infinite soluzioni

Nasce dunque il problema di studiare dei criteri per stabilire l’esistenza delle soluzioni, il loro numero e la loro determinazione; in merito a tale analisi è importante evidenziare che fissato un SL rettangolare ( m u n)

AX

B

e detto

r

U ( A)

il rango della matrice

A deve necessariamente essere r

U ( A) d min(m, n) .

Nei paragrafi successivi lo studio dei SL viene effettuato suddividendolo nei seguenti casi:

m e rango U ( A) n , 2. SL rettangolari con m n e rango U ( A) m ,

1.

SL quadrati, quindi con n

3.

SL che non rientrano nelle due categorie precedenti, questo caso si verifica se U ( A) m , infatti tale condizione esclude automaticamente i casi contemplati nei punti 1) e 2) poichĂŠ in essi si ha sempre U ( A) m .

Tale classificazione è esaustiva di tutti i tipi di SL in quanto, come abbiamo giĂ notato, U ( A) d min(m, n) e viene fatta poichĂŠ, come verrĂ dimostrato nel seguito, i SL relativi alle prime due casistiche sono sempre compatibili e quindi ammettono sempre almeno una soluzione, per tale motivo vengono detti SL normali: tra l’altro essi hanno l’importante proprietĂ di avere un numero di equazioni minore od uguale al numero delle incognite, ossia non sono sovravincolati. Nel caso dei sistemi di cui al punto 3, che indicheremo come SL non normali, invece rientrano x

i sistemi con m ! n , ossia con un numero di equazioni maggiori del numero di incognite e dunque occorre verificare se tutte le equazioni siano compatibili, ossia che non ci siano due equazioni che

Pag.20


Quaderno n°1

x

Capitolo 3:Sistemi Lineari

impongono delle condizioni che non è possibile verificare contemporaneamente, come evidenziato negli esempi numeri precedenti, i sistemi con m d n , come nei punti 1) e 2), ma non verificano la condizione sul rango della matrice dei coefficienti e ciò in sostanza implica che diminuisce il numero di equazioni indipendenti e si ritorna al caso dei punto precedente.

3.3. Risoluzione di Sistemi Lineari Quadrati Normali: Regola di Cramer Supponiamo di avere un sistema di equazioni lineari quadrato normale AX B , con: x x

A matrice quadrata di ordine n , U ( A) n , da cui segue la non singolarità di A e quindi l’esistenza della matrice inversa A 1

Allora il sistema si può risolvere secondo il metodo seguente:

AX

B A 1 AX Eq. 3

X

A 1 B IX

A 1 B

1 T C B A

A 1 B

T

dove la matrice C rappresenta la matrice dei complementi algebrici e C la matrice aggiunta. La precedente relazione costituisce la cosiddetta regola di Cramer, che in forma esplicita scalare può essere posta come segue:

§ x1 · ¨ ¸ ¨ x2 ¸ ¨ .. ¸ ¨ ¸ ¨x ¸ © n¹

§ c11 ¨ 1 ¨ c12 a ¨ .. ¨ ¨c © 1n

c21 .. cn1 ·§ b1 · ¸¨ ¸ c22 .. cn 2 ¸¨ b2 ¸ .. .. .. ¸¨ .. ¸ ¸¨ ¸ c2 n .. cnn ¸¹¨© bn ¸¹

§ n · ¨ ¦ bi ci1 ¸ ¨i1 ¸ n ¨ 1 ¨ ¦ bi ci 2 ¸¸ A¨i1 ¸ ¨ n .. ¸ ¨ bc ¸ ¨ ¦ i in ¸ ©i1 ¹

§ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ©

· 1 n bi ci1 ¸ ¦ A i1 ¸ n ¸ 1 bi ci 2 ¸ ¦ , A i1 ¸ .. ¸ ¸ 1 n bi cin ¸ ¦ A i1 ¹

dalla quale si evidenzia che: x

i SL normali quadrati sono sempre compatibili,

x

la soluzione è unica ed è data dalla Eq. 3 da cui si evince che la generica incognita si ottiene da

x j per ( j 1..n)

n

Eq .4 x j

¦ bi cij

i 1

A

In altri termini la generica incognita j esima è data dal rapporto costituito a denominatore dal determinante della matrice A ed a numeratore dal determinante della matrice ottenuta da A sostituendo al j esima colonna con la colonna dei termini noti; in termini espliciti si ha:

Pag.21


Quaderno n°1

x1

Capitolo 3:Sistemi Lineari

b1

a12

.. a1n

1 b2 A .. bn

a22

.. a2 n

.. .. .. an 2 .. ann

a11 ,x

2

b1

.. a1n

1 a21 b2 .. a2 n n ,‌.,‌. x A .. .. .. .. an1 bn .. ann

a11

a12

.. b1

1 a12 A .. a1n

a22

.. b2

.. .. .. an 2 .. bn

3.4. Risoluzione di Sistemi Lineari Normali Si consideri ora un sistema rettangolare normale AX B con: x

A matrice quadrata di ordine (m u n) ,

x

m n e rango U ( A)

m , da cui segue la non singolaritĂ di almeno un minore di A di ordine m

e quindi, indicato con Am tale minore, l’esistenza della matrice inversa Am

1

Per semplicitĂ si supponga che Am sia costituito, oltre che da tutte le righe, dalle prime m colonne di

A:

tale ipotesi non è limitativa ai fini delle dimostrazioni, in quanto se non fosse verificata ci si può ricondurre ad essa rinominando le variabili. Ad esempio supponiamo che il minore diverso da zero di ordine m sia costituito con le prime m 1 colonne e con l’ultima colonna (la n esima) in riferimento al sistema seguente:

­a11 x1 a12 x 2 .. a1m 1 x m 1... a1n x n b1 ° 1 2 m 1 n °a21 x a22 x .. a2 m 1 x .. a2 n x b2 Ž °................................................................. °a x1 a x 2 .. a x m 1.. a x n b m2 nm 1 mn m ¯ m1 m 1

n

m 1

n

Ora se imponiamo la sostituzione della variabile x con la x , e quindi nominiamo x come x e viceversa, di fatto eseguiamo uno scambio tra la colonna ( m 1) esima con la colonna n esima ed il minore diverso da zero risulta quello relativo alle prime m colonne. Detto questo, consideriamo il SL quadrato normale (m u m) costituito dalle sole prime m colonne:

n ­ m 1 2 a x a x .. a x b a1k x k Œ 12 1m 1 ° 11 k m 1 ° n ° m 1 2 b2 Œ a2 k x k °a21 x a22 x .. a2 m x Ž k m 1 °................................................................. ° n ° 1 2 m a x a x .. a x b amk x k Œ m2 nm m ° m1 k m 1 ¯

Tale sistema viene detto Sistema Ridotto e può essere espresso in forma matriciale attraverso la seguente equazione:

Am X m

B

Pag.22


Quaderno n°1

Capitolo 3:Sistemi Lineari

§ x1 ¡ ¨ 2¸ ¨x ¸ ¨ ¸, B ¨ ... ¸ ¨ xm ¸ Š š

dove X m

n § ¡ ¨ b1 Œ a1k x k ¸ k m 1 ¨ ¸ n ¨ k ¸ ¨ b2 Œ a2 k x ¸ k m 1 ¨ ¸ .... ¨ ¸ n k ¸ ¨b ¨ m Œ amk x ¸ k m 1 Š š

§ b1 ¡ ¨ ¸ ¨ b2 ¸ ¨ ¸ ¨ ... ¸ ¨b ¸ Š m š

Come dimostrato nel paragrafo precedente il sistema ridotto, essendo un sistema normale e quadrato, ammette una soluzione unica fornita dalla Eq .4: n

ÂŚb

i

x

j

Si osservi che tali soluzioni dipendono da nell’intervallo

(cij ) m

i 1

per ( j

Am

1..m) .

(n m) parametri che possono assumere valori arbitrari compresi j

( f, f) , come si evince facilmente dal fatto che il generico valore x è dato da b j

bj

n

ÂŚa

1k

xk

k m 1

quantitĂ che dipende dalle ( n m) incognite ( x tutto arbitrari.

m 1

, x m 2 ,...., x n ) a cui possono essere forniti valori del

A questo punto siamo in grado di determinare tutte le soluzioni del sistema rettangolare normale AX di partenza; infatti se poniamo x

[

xj

j

per

n

ÂŚb

i

x

x

j

(j

B

j

(m 1)..n , dove [ è un parametro arbitrario a valori in ( f, f) .

(cij ) m

i 1

( j 1..m)

Am

tutte le equazioni del sistema risultano automaticamente verificate, come si può anche vedere per sostituzione diretta nella generica equazione: x il primo membro risulta

ÂŞ n Âş ÂŞ n Âş ÂŞ n Âş ( ) ( ) b c b c ÂŤÂŚ 1 1j m Âť ÂŤÂŚ 2 2 j m Âť ÂŤ ÂŚ bm (cmj ) m Âť Âť a22 ÂŤ i 1 Âť .. a2 m ÂŤ i 1 ÂťÂ&#x; a21 ÂŤ i 1 Am A A ÂŤ Âť ÂŤ Âť ÂŤ Âť m m ÂŤÂŹ Ÿ ÂŤÂŹ Ÿ ÂŤÂŹ Ÿ uguale a b j

n

ÂŚa

jk

[k

, in quanto si tratta di una equazione del sistema ridotto,

k m 1

x

il secondo membro risulta

bj

n

ÂŚa

jk

[k

, ossia uguale al primo membro e quindi l’equazione è verificata.

k m 1

Pag.23


Quaderno n°1

Capitolo 3:Sistemi Lineari

Si dice cha tali soluzioni costituiscono una molteplicità di f soluzioni, poichÊ dipendono da ( n m) parametri ognuno dei quali può assumere infinite soluzioni. n (sistema normale quadrato, il sistema ridotto coincide con il sistema di Nel caso particolare i cui m partenza e non vi sono parametri arbitrari poichÊ si hanno esattamente m incognite, allora dalle espressioni dei punti precedenti segue che si ha una sola soluzione che coincide con la Eq .4: in questo caso si può dire, n m

da un punto di vista puramente formale, che le soluzioni del sistema sono in numero pari a f

n m

f0

1.

3.5. Risoluzione di Sistemi Lineari Non Normali: Teorema di Rouchè-Capelli Prima di introdurre il teorema di Rouchè-Capelli, analizziamo i seguenti esempi di SL non normali:

x

AX

§1 1 ¡ ¨ ¸ B , A ¨1 3 ¸ , X ¨1 1 ¸ Š š

­ x

§ 2¡ §x ° ¨ ¸ , B ¨ 4¸ Â&#x; ÂŽ x ¨¨ ¸¸ ¨ x2 ¸ ° x Š š Š3 š 1¡

ÂŻ

1

1

3 x

2

4

1

2

3

x

2

2 x

1 .

Il numero di equazioni è pari a 3 , mentre il numero delle incognite è pari a 2 , quindi il numero di equazioni è maggiore del numero delle incognite: quindi il rango della matrice A può al piÚ essere pari a

2 . Infatti, il minore del secondo ordine A2

§1 1 ¡ ¨¨ ¸¸ , costituito dalle prime due righe Š1 3 š

e dalle colonne, ha determinante diverso da zero pari a 2 : allora il sistema ridotto costituito dalle prime due equazioni risulta un sistema normale quadrato e quindi ammette una soluzione unica :

­° x1 x 2 1 Â&#x; ( x1 ÂŽ 1 2 °¯ x 3x 4

1 , x2 2

3 ) 2

Nella determinazione della soluzione del SL ridotto abbiamo trascurato la terza equazione, per

1 3 , x2 ) rappresenta la soluzione del SL completa, occorre vedere se essa 2 2 1 2 verifica anche l’equazione ( x 2 x 3) (verifica delle condizioni di compatibilitĂ ): sostituendo 1 3 1 5 si ha ( 2 3Â&#x; 3 4Â&#x; 4) e quindi l’equazione non viene verificata, pertanto 2 2 2 2

verificare che ( x

1

la soluzione del sistema ridotto non è soluzione del sistema completo.

x

AX

B, A

§1 1 1¡ ¨ ¸ ¨1 3 1¸ , X ¨ 2 2 2¸ Š š

§ x1 ¡ ¨ x2 ¸ ¨ ¸,B ¨ x3 ¸ Š š

Si tratta di un sistema quadrato

§1¡ ¨ 4¸ Â&#x; ¨¨ ¸¸ Š3 š

­ x1 x 2 x 3 1 ° 1 2 3 4 . Ž x 3x x °2 x 1 2 x 2 2 x 3 3 ¯

(3 u 3) non normale in quanto il rango di A è pari a 2 ( A è

nullo come si evince direttamente osservando che la terza riga è proporzionale alla prima). Infatti,

§1 1 ¡ ¨¨ ¸¸ , costituito dalle prime due righe e dalle prime due Š1 3 š colonne, ha determinante diverso da zero pari a 2 : allora il sistema ridotto costituito dalle prime

il minore del secondo ordine A2

due equazioni Pag.24


Quaderno n°1

Capitolo 3:Sistemi Lineari

­° x1 x 2 1 x 3 Ž 1 °¯ x 3x 2 4 x 3 risulta un sistema normale le cui f soluzioni sono date da: 1

x1

1 2[ 2 , x 2

3 3 , x 2

[

con

[ Â? (f , f) .

Bisogna ora verificare la compatibilitĂ delle soluzioni del sistema ridotto con la terza equazione:

2 x1 2 x 2 2 x 3

3 Â&#x; 2

1 2[ 3 2 2[ 2 2

1 2[ 3 2[

2z3

La terza equazione non è dunque verificata pertanto le soluzioni individuate del SL ridotto non rappresentano soluzioni del SL completo. Dagli esempi precedenti si evince che un SL non normale può anche non essere compatibile e che occorre quindi effettuare delle verifiche di compatibilitĂ : a tale scopo è necessario determinare i criteri di compatibilitĂ di un sistema non normale. Per capire intuitivamente in quale direzione sviluppare la ricerca, analizziamo l’esempio seguente, che ha le prime due equazioni uguali a quelle del primo esempio sopra riportato e dunque presenta lo stesso sistema ridotto e la stessa soluzione ( x

1

1 , x2 2

3 ): 2

­ x1 x 2 1 ° 1 2 4 ° x 3x , Ž 1 2 1 2 °D ( x x ) E ( x 3 x ) D 4 E °J ( x1 x 2 ) G ( x1 3 x 2 ) J 4G ¯ ossia

­ x1 x 2 1 ° 1 2 4 ° x 3x Ž 1 2 D 4E °(D E ) x (D 3E ) x °(J G ) x 1 (J 3G ) x 2 J 4G ¯ In tale sistema si ha: x x

la terza equazione costituita da una combinazione lineare di coefficienti (D , E ) delle prime due equazioni; la quarta equazione costituita da una combinazione lineare di coefficienti (J , G ) delle prime due equazioni.

Ricordando che ogni equazione combinazione lineare delle equazioni di un sistema , è verificata dalla soluzione del sistema stesso, segue che

la soluzione ( x

1

1 , x2 2

3 ) del sistema ridotto è anche 2

soluzione del sistema completo, il quale dunque risulta compatibile. Ora da tale esempio si deduce che la ricerca dei criteri di compatibilità deve tenere conto di tale proprietà ; a tale scopo, sempre in riferimento all’esempio, si considerino i due sottosistemi seguenti:

Pag.25


Quaderno n°1

x

Capitolo 3:Sistemi Lineari

­ x1 x 2 1 ° 1 2 4 Ž x 3x ° 1 2 ¯(D E ) x (D 3E ) x

,

D 4E

costituito dal sistema ridotto e dalla terza equazione. Si consideri inoltre la seguente matrice (costituita dalla matrice dei coefficienti del sistema e dalla colonna dei termini noti) che chiameremo matrice estesa ' 3 , in cui il pedice indica il numero dell’equazione del sistema completo non facente parte del sistema ridotto (in questo caso 3 in quanto stiamo analizzando la terza equazione),:

'3

x

­ x1 x 2 1 ° 1 2 4 Ž x 3x °(J G ) x1 (J 3G ) x 2 ¯

1 1 § 1 ¡ ¨ ¸ 3 4 ¨ 1 ¸ ¨ (D E ) (D 3E ) (D 4 E ) ¸ Š š

J 4G

costituito dal sistema ridotto e dalla terza equazione. Si consideri anche in questo caso la matrice estesa ' 4 :

'4

1 1 ¡ § 1 ¨ ¸ 3 4 ¸ ¨ 1 ¨ (J G ) (J 3G ) (J 4G ) ¸ Š š

PoichĂŠ le ultime righe delle matrici estese ' 3 e ' 4 sono combinazione lineare delle prima due righe, per il modo in cui sono state costruite le equazioni, dalle proprietĂ sui determinanti segue

'3

'4

0.

In sostanza tutto questo ragionamento serve ad evidenziare che l’annullamento dei determinanti delle matrici estese ' i è strettamente correlato all’esistenza di equazioni costruite come combinazione lineare delle equazioni del sistema ridotto: ciò induce pertanto a pensare che i criteri di compatibilitĂ debbano essere legati all’annullamento di tali determinanti.

3.5.1

Teorema di Rouchè

Fatta questa premessa si consideri un generico SL non normale di chiameremo sistema completo:

AX

m

B , con A di dimensioni (m u n) e U ( A)

equazioni in

n

incognite, che

pdm

p , i minori con determinante diverso da zero di ordine massimo sono quelli di dimensione ( p u p ) ; inoltre si supponga per ipotesi che il minore (indicato con A p ), costituito dalle prime p righe e dalla prime p colonne di A abbia determinante diverso da zero (tale ipotesi come Essendo il rango di

A

uguale a

abbiamo già notato non è restrittiva in quanto possiamo sempre ricondurci a questo caso con opportuna rinominazione delle variabili). Sia Ap X p

B il sistema ridotto, Pag.26


Quaderno n°1

Capitolo 3:Sistemi Lineari

dove

Xp

§ x1 ¡ ¨ 2¸ ¨x ¸ ¨ ¸, e B ¨ ... ¸ ¨xp ¸ Š š

n § ¡ ¨ b1 Œ a1k x k ¸ k m 1 ¨ ¸ n ¨ k ¸ ¨ b2 Œ a2 k x ¸ . k m 1 ¨ ¸ .... ¨ ¸ n k ¸ ¨b ¨ p Œ a pk x ¸ k m 1 Š š

§ b1 ¡ ¨ ¸ ¨ b2 ¸ ¨ ¸ ¨ ... ¸ ¨b ¸ Š p š

Dal sistema ridotto sono escluse le ( m p ) equazioni del sistema completo e precisamente le equazioni

a j1 x1 a j 2 x 2 .. a jn x n

( p 1)..m

b j per j

Consideriamo

'r

§ a11 ¨ ¨ a 21 ¨ .. ¨ ¨ a p1 ¨ Š a r1

a12 a 22 ..

.. a1 p .. a 2 p ..

..

a p2

.. a pp

ar 2

.. a rp

b1 ¡ ¸ b2 ¸ .. ¸ per r ¸ bp ¸ ¸ br š

( p 1)..m

le ( m p ) matrici estese di dimensione ( p 1) u ( p 1) : ' r è costituita dal minore Ap a cui si aggiunge :

( p 1) esima riga, la r esima riga (ar1 , ar 2 ,..arn ) della matrice A ,

x

prima come

x

poi come colonna ( p 1) esima la colonna (b1 , b2 ,..br ) in cui i primi elementi sono i termini T

noti del sistema ridotto e

r esimo

elemento è il termine noto dell’equazione

r esima .

Allora si può affermare (Teorema di Rouchè) che condizione necessaria e sufficiente affinchÊ il sistema completo sia compatibile e che sia nullo il determinante di ogni matrice estesa ' r , ossia:

'r

0 per r

( p 1)..m

Dimostriamo la condizione necessaria. Si supponga che il sistema completo sia compatibile e dunque che esiste almeno una soluzione

; tale che

B , dove gli elementi del vettore colonna ; sono indicati con gli n valori [ i per i (1..n) Si indichino per ogni r ( p 1)..m con : j per j 1..n , le seguenti matrici di dimensione A;

r

( p 1) u ( p 1) :

: r

j

§ a11 ¨ ¨ a 21 ¨ .. ¨ ¨ a p1 ¨a Š r1

a12

.. a1 p

a 22

.. a 2 p

.. a p2 ar 2

..

..

.. a pp .. a rp

a1 j ¡ ¸ a2 j ¸ .. ¸ ¸ a pj ¸ a rj ¸š

Pag.27


Quaderno n°1

Capitolo 3:Sistemi Lineari

le quali hanno tutte determinante nullo, in quanto sono particolari minori di ordine

U ( A)

che per ipotesi ha rango ordine p ).

( p 1) della matrice A

p (e dunque i minori con determinante non nullo hanno al massimo

Si consideri ora la seguente matrice / r :

. /r

§ ¨ a11 ¨ ¨ ¨ a 21 ¨ ¨ .. ¨ ¨ a p1 ¨ ¨a ¨ r1 Š

¡ ¸ j 1 ¸ n ¸ j b2 Œ a 2 j [ ¸ j 1 ¸ .. ¸ n j ¸ b p Œ a pj [ ¸ j 1 ¸ n j ¸ br Œ a rj [ ¸ j 1 š n

a12

.. a1 p

a 22

.. a 2 p

..

..

.. a pp

ar 2

.. a rp

j

..

a p2

b1 ÂŚ a1 j [

Ricordando le proprietà dei determinanti (vedere paragrafo Errore. L'origine riferimento non è stata trovata.), si verifica che per il determinante di / r vale : n

j 1

PoichĂŠ come osservato in precedenza : r

j

j

: r

j

0 si ottiene: /r

D’altra parte essendo ;

'r ÂŚ [

/r

'r

soluzione del sistema completo per ipotesi, l’ultima colonna di

elementi nulli e quindi il suo determinante è nullo, quindi per r

/r

0 Â&#x; 'r

( p 1)..m si ha:

/r

ha tutti gli

0

Dimostriamo la condizione sufficiente. Si supponga che

'r

( p 1)..m

0 per r

e sia ; p dove gli elementi del vettore colonna di ; p sono indicati con i

p

valori

[

i

per i

(1.. p) ,

una soluzione del sistema ridotto. Come dimostrato nella dimostrazione della condizione necessaria vale la seguente relazione:

/r dove

/r

indica la matrice

' r , per r

( p 1)..m

( p 1) u ( p 1) definita in precedenza. Dalle ipotesi poste si deduce 'r

0 Â&#x; /r

0 Pag.28


Quaderno n°1

Capitolo 3:Sistemi Lineari

e quindi

n

a11

a12

b1 ÂŚ a1 j [

.. a1 p

j 1 n

a 21

a 22

..

..

a p1

a p2

b2 ÂŚ a 2 j [

.. a 2 p

j 1

/r

..

..

..

n

j 1 n

a r1

ar 2

colonna di

/r

[ per i i

( p 1)..m .

j

j 1

Essendo i valori di ; p ,

br ÂŚ a rj [

.. a rp

j

0 , per r

b p ÂŚ a pj [

.. a pp

j

j

(1.. p) , una soluzione del sistema ridotto i primi p termini dell’ultima

sono tutti nulli, ossia:

n

bi ÂŚ aij [ j j 1

0 , per i 1.. p .

Ciò implica:

/r

a11 a21 .. a p1

a12 a22 .. a p2

.. a1 p .. a2 p .. .. .. a pp

a r1

ar 2

.. arp

0 0 .. 0 n

0.

br ÂŚ arj [ j j 1

Risolvendo tale determinante come sviluppo sull’ultima colonna si ottiene:

/r

º A

n ÂŞ b ÂŤ r ÂŚ a rj [ j 1 ÂŹ

j

Âź

p

0 , per r

( p 1)..m .

PoichĂŠ Ap z 0 , in quanto determinante del sistema ridotto, segue: n ÂŞ ÂŤbr ÂŚ a rj [ j 1 ÂŹ

º j

Âź

n

0 Â&#x; ÂŚ a rj [ j 1

j

br , per r

( p 1)..m .

Ossia la soluzione del sistema ridotto verifica anche le equazioni escluse da esso appartenenti al sistema completo, il quale risulta quindi compatibile.

3.5.2

Teorema di Capelli

Un criterio di compatibilità di sistemi lineari, equivalente al Teorema di Rouchè è fornito dal Teorema di Capelli che afferma quanto segue: condizione necessaria e sufficiente per la compatibilità di un sistema lineare AX B è che

p

U ( A) U ( Ae ) Pag.29


Quaderno n°1

dove con

U

Capitolo 3:Sistemi Lineari

A

si indica il rango e con Ae la matrice costituita da

a cui viene aggiunta come ultima colonna

la colonna dei termini noti B come di seguito riportato:

Ae

§ a11 ¨ ¨ a21 ¨a ¨ 31 ¨ .. ¨ Š am1

a12 a21

.. a1n .. a2 n

a32

.. a3n

..

..

..

am 2 .. amn

b1 ¡ ¸ b2 ¸ b3 ¸ ¸ .. ¸ ¸ bm š

Dimostriamo la condizione sufficiente. Se

U ( A)

U ( Ae )

tutti i minori di ordine ( p 1) di Ae hanno determinante nullo e tra tali minori vi sono

anche le matrici estese ' r come si evince facilmente dalla struttura di Ae .Pertanto per il teorema di Rouchè il sistema

AX

B risulta compatibile.

Dimostriamo la condizione necessaria. Si supponga che il sistema lineare AX

B sia compatibile e che p

U ( A) ; allora tutti i minori di ordine

( p 1) estratti da Ae e che non contengono elementi dell’ultima colonna, ossia elementi di B , sono anche minori di A e quindi hanno determinante nullo in quanto per ipotesi U ( A) p . Si considerino ora i minori

Gh

di ordine ( p 1) estratti da

Ae

che contengono elementi di B , ossia

§ n 1¡§ m ¡ ¨¨ ¸¸¨¨ ¸¸ , in Š p šŠ p 1š quanto i loro elementi possono essere scelti a gruppi di p 1 righe (su un totale di m righe) e p colonne (su un totale di n 1 colonne, in quanto una colonna, l’ultima, è fissata). Allora si ha: dell’ultima colonna di l’ultima colonna Ae : tali minori sono in numero pari a n p

Gh

§ ah11 ¨ ¨ ah 21 ¨ .. ¨ ¨ ah p1 ¨a Š h ( p 1)1

ah12 ah 22 .. ah p 2 ah ( p 1) 2

Sviluppando il determinante del minore

¡ ¸ ¸ ¸ per h 1..n . p ¸ ¸ bh ( p 1) ¸š

.. ah1 p .. ah 2 p .. .. .. ah pp .. ah ( p 1) p

bh1 bh 2 .. bh p

G h secondo l’ultima colonna si ottiene : Gh

p 1

ÂŚc

b

h i ( p 1) hi

i 1

dove ch i ( p 1) è complemento algebrico di bhi , ossia dell’iesimo termine della colonna

Gh

( p 1) della matrice

(confrontare anche il paragrafo Errore. L'origine riferimento non è stata trovata.).

Si osservi inoltre che ch i ( p 1) individua il determinante di un minore di ordine p della matrice esempio nel caso

i

A:

ad

p 1 si ha

Pag.30


Quaderno n°1

Capitolo 3:Sistemi Lineari

§ ah11 ¨ ¨ ah 21 ¨ .. ¨ ¨ ah Š p1

ch ( p 1)( p 1)

Ora se

ah12 ah 22 .. ah p 2

.. ah1 p ¡ ¸ .. ah 2 p ¸ .. .. ¸ ¸ .. ah pp ¸š

G h z 0 deve esistere qualche ch i ( p 1) z 0 ; e ciò implica l’esistenza di un minore di ordine p della

matrice A con determinante diverso da zero che può essere considerato come matrice dei coefficienti del sistema di un sistema ridotto derivato dal sistema completo AX B . Ciò significa quindi che G h coincide con una delle matrici estese di tale sistema, le quali hanno determinante nullo in quanto per ipotesi il sistema completo è compatibile. Pertanto si ha:

Gh

0 per h 1..n p

Abbiamo dunque dimostrato che tutti i minori di ordine ( p 1) di

Ae

hanno determinante nullo. Come

conseguenza anche tutti i minori di ordine superiore hanno determinante nullo, in quanto lo sviluppo di tali determinanti si può ricondurre alla somma di determinanti di ordine ( p 1) e quindi necessariamente

U ( A)

U ( Ae )

3.6. Struttura di un sistema lineare non normale compatibile In questo paragrafo vogliano analizzare la struttura delle equazioni di un SL non normale compatibile AX B , con U ( A) p . All’inizio del paragrafo abbiamo evidenziato in alcuni esempi che se le equazioni escluse dal sistema ridotto sono una combinazione di quelle appartenenti al sistema ridotto, il sistema completo è compatibile. Adesso applicando il teorema di Rouchè si dimostra immediatamente la validitĂ di questa proprietĂ nel caso generale. Infatti, se le equazioni escluse sono combinazioni lineari di quelle del sistema ridotto, l’ultima riga di ogni matrice estesa ' r è combinazione lineare delle altre righe e quindi risulta

'r

0 , da cui segue per il

teorema di Rouchè che il SL è compatibile. Supponiamo ora viceversa che il SL lineare non normale AX B sia compatibile e dimostriamo che le equazioni non appartenenti al sistema ridotto sono combinazioni lineari di quelle del sistema ridotto, che

B dove A p indica il minore costituito dalle prime p

come al solito si suppone essere dato da Ap X p righe e dalla prime

p

colonne di

A (secondo le notazioni usate nel paragrafo 3.5.1).

Si indichi ora con : j la seguente matrice, dove i coefficienti sono quelli della matrice Ap e quindi delle equazioni del sistema ridotto.

:j

Naturalmente : j

§ a11 ¨ ¨ a21 ¨ .. ¨ ¨ a p1 ¨ Š a j1

a12 a22 ..

.. a1 p .. a2 p ..

..

a p 2 .. a pp a j2

.. a jp

b1 ¡ ¸ b2 ¸ .. ¸ con j 1.. p ¸ bp ¸ ¸ bj š

0 j in quanto l’ultima riga è uguale alla j esima riga.

Si definisca ora la seguente matrice per r

( p 1)..n in cui (O1 , O2 ,...., O p ) sono delle quantitĂ numeriche

variabili ed i coefficienti arj e br sono, rispettivamente, i coefficienti ed il termine noto della

r esima

equazione esclusa dal sistema ridotto: Pag.31


Quaderno n°1

Capitolo 3:Sistemi Lineari

/r

a11 a12 § ¨ a21 a22 ¨ ¨ .. .. ¨ a p1 a p2 ¨ p p ¨ ¨ ar1 ŒO j a j1 ar 2 ŒO j a j 2 ¨ j 1 j 1 Š

a1 p a2 p .. a pp

.. .. .. ..

¡ ¸ ¸ ¸ ¸ ¸ p ¸ br ŒO j b j ¸¸ j 1 š b1 b2 .. bp

p

.. arp ÂŚO j a jp j 1

Vale quanto segue, ricordando le proprietĂ dei determinanti: p

'r ÂŚOj :

/r

r

j 1

da cui / r

'r Â&#x; /r

0 per r

j

( p 1)..n , essendo il sistema compatibile e valendo quindi le

condizioni del teorema di Rouchè. Analizziamo ora il primi p termini dell’ultima riga di / r : p

p

p

j 1

j 1

j 1

ar1 Œ O j a j1 , ar 2 Œ O j a j 2 ......, arp Œ O j a jp e vediamo se è possibile determinare particolari valori di (O , O ,...., O ) , che siano soluzioni del seguente sistema: 1

p

2

p ­ ­ p j j a ° r1 ÂŚ O a j1 0 ° ÂŚ O a j1 j 1 ° °j 1 ° ° p p j ° 0 Â&#x; °° ÂŚ O j a j 2 Eq..5 °a r 2 ÂŚ O a j 2 ÂŽ j 1 ÂŽj 1 ° ° °...... °...... p ° ° p °a rp ÂŚ O j a jp 0 ° ÂŚ O j a jp °¯ °¯ j 1 j 1

a r1 ar 2

a rp

Tale sistema è un sistema quadrato compatibile in quanto la matrice dei coefficienti coincide con la trasposta della matrice matrice

/r

1

2

p

del sistema ridotto. Quindi esiste una soluzione unica (O , O ,...., O ) tale che la

Ap

possa assumere la forma:

/r

da cui essendo / r

§ a11 ¨ ¨ a21 ¨ .. ¨ ¨ a p1 ¨ ¨ 0 ¨ Š

a12 a22 .. a p2 0

.. a1 p .. a2 p .. .. .. a pp ..

0

¡ ¸ ¸ ¸ ¸, ¸ p ¸ br Œ O j b j ¸¸ j 1 š b1 b2 .. bp

0 segue:

Pag.32


Quaderno n°1

Capitolo 3:Sistemi Lineari

/r

a11 a 21 .. a p1

a12 a 22 .. a p2

0

0

.. a1 p .. a 2 p .. .. .. a pp

b1 b2 .. bp p

..

br ÂŚ O j b j

0

j 1

a11 ¡a § ¨ br Œ O j b j ¸ 21 ¨ ¸ .. j 1 š Š a n1

a12 a 22 .. an2

p

/r

a11

a12

.. a1 p

§ ¡a ¨ br Œ O j b j ¸ 21 ¨ ¸ .. j 1 Š š an1

a22

.. a2 p

p

.. a1 p .. a 2 p .. .. .. a pp

p § ¡ ¨ br Œ O j b j ¸ Ap ¨ ¸ j 1 Š š

.. .. .. an 2 .. a pp

0

0

Essendo per ipotesi Ap z 0 segue:

Eq..6

§ ¨ br ¨ Š

A questo punto risulta considerando la n

Eq..7

ÂŚ a ri x i

i 1

br

p

¡

j 1

š

Œ O j b j ¸¸

0 Â&#x; br

p

ÂŚ O j b j j 1

r esima

equazione esclusa dal sistema ridotto si ha:

p

p

§

j 1

Ši

ÂŚ O j b j j 1

n

¡

Œ O j ¨¨ Œ a ji x i ¸¸ 1

š

¡ § p i¨ x Œ ¨ Œ a ji O j ¸¸ i 1 Šj 1 š n

Dalla Eq..6 e dalla Eq..7 (applicando i criteri di uguaglianza dei polinomi) segue per r ogni equazione non appartenente al sistema ridotto): p

x

br

ÂŚO

j

( p 1)..n (ossia per

bj

j 1

x

ari

§ p ¡ ¨ Œ a ji O j ¸ ¨ ¸ Šj1 š

e ciò dimostra che nei SL compatibili tali equazioni sono tutte combinazioni lineari delle equazioni del SL ridotto.

3.7. Condizione di annullamento dei determinanti Sappiamo che una matrice con almeno una riga (colonna) combinazione lineare di altre righe (colonne) della matrice stessa, risulta avere determinante nullo . Ora possiamo affermare, grazie al risultato del paragrafo

Pag.33


Quaderno n°1

Capitolo 3:Sistemi Lineari

precedente, che vale anche il viceversa, ossia se una matrice ha determinante nullo necessariamente essa deve avere almeno una riga (colonna) esprimibile come combinazione lineare di altre righe (colonne). Per dimostrare tale affermazione, si consideri una matrice quadrata singolare di ordine n

§ a11 ¨ ¨ a21 ¨ .. ¨ ¨a Š n1

A

tale che

U ( A)

.. a1n ¡ ¸ .. a2 n ¸ .. .. ¸ ¸ .. ann ¸š

a12 a22 .. an 2

p n e sia Ap un minore non singolare di ordine p .

Applicando gli stessi ragionamenti del paragrafo precedente si deduce che i coefficienti delle righe non appartenenti a

Ap

sono combinazioni lineari delle righe di Ap .

Infatti supponiamo che Ap sia costituito dalle prime

p righe e dalle prime p colonne di A (denominiamo

questo caso come caso canonico) e consideriamo il SL esteso An 1 X x x

B costruito come segue:

la matrice An 1 è una matrice rettangolare di dimensioni

n u (n 1) che è ottenuta da A con

l’eliminazione della colonna n esima , il vettore dei termini noti B coincide con la n esima colonna di

Il SL ridotto associato a SL esteso

An 1 X B

ha A p come matrice dei coefficienti, essendo Ap anche un

minore di ordine massimo di An 1 (si osservi che Si osservi ora che tutte le matrici estese

A

'

r

U ( An 1 ) U ( A) ). con r ( p 1)..n sono

pertanto il loro determinante è nullo. Ciò implica che il SL esteso An 1 X

minori di ordine

( p 1) di A ,

B risulta compatibile e quindi,

come dimostrato nel precedente paragrafo, le equazioni escluse dal sistema ridotto sono combinazioni lineari delle equazioni del sistema ridotto e ciò implica che le righe della matrice A , dalla ( p 1) esima alla

n esima , risultano combinazioni lineare delle prime p righe, ossia delle righe di Ap .

Supponiamo ora che il minore costituito dalle prime p righe e dalle prime p colonne di A abbia determinante nullo. Come abbiamo già illustrato, è sempre possibile effettuare un riordinamento delle righe e delle colonne in modo da ricondurci al caso canonico, ottenendo una nuova matrice A0 , che differisce da

A

solo per l’ordine delle righe e delle colonne (e quindi anche i determinante di A0 è nullo).Come

dimostrato precedentemente A0 ha almeno una riga (colonna) combinazione lineare delle altre e, poichÊ effettuando il riordinamento inverso al precedente si riottiene A , anche quest’ultima matrice ha almeno una riga (colonna) combinazione lineare delle altre. Per maggiore chiarezza vediamo un esempio con una matrice quadrata di ordine 5 , in cui le lettere rappresentano generici valori numerici:

A

v1

v2

v3

v4

v5

w1

w2

w3

w4

w5

a1

a2

0

0

0

b1

b2

0

0

0

c1

c2

0

0

0

Pag.34


Quaderno n°1

A

Capitolo 3:Sistemi Lineari

0 come si verifica sviluppando il determinante secondo l’ultima colonna:

A

w1 a v5 1 b1 c1

w2 a2 b2 c2

w3 0 0 0

w4 v1 0 a w5 1 0 b1 0 c1 a1 v5 w4 b1 c1

Inoltre

v2 a2 b2 c2

a2 b2 c2

v3 0 0 0

v4 0 0 0

0 a1 0 v4 w5 b1 0 c1

a2 b2 c2

0 0 0

0

U ( A) 4 il quanto il seguente minore è non singolare: v1

v2

v3

v4

w1

w2

w3

w4

a1

a2

0

0

b1

b2

0

0

v2

v3

v4

w2

w3

w4

a2

0

0

b2

0

0

c2

0

0

·§ x1 · ¸¨ 2 ¸ ¸¨ x ¸ ¸¨ x 3 ¸ ¸¨ ¸ ¸¨ x 4 ¸ ¸¨ 5 ¸ ¹© x ¹

A4

Possiamo ora considerare il SL esteso seguente:

§ v1 ¨ ¨ w1 ¨a ¨ 1 ¨ b1 ¨c © 1 in cui l’ultima colonna della matrice di

A

è vista come colonna dei termini noti. Si osservi che è stata tolta

tale colonna poiché è quella che non appartiene al minore

A4 X 4

§ v5 · ¨ ¸ ¨ w5 ¸ ¨0¸ ¨ ¸ ¨0¸ ¨0¸ © ¹

§ v1 ¨ ¨ w1 ¨a ¨ 1 ¨b © 1

v2

v3

w2 a2

w3 0

b2

0

A4 che serve per determinare il SL ridotto v4 ·§ x1 · ¸¨ ¸ w4 ¸¨ x 2 ¸ 0 ¸¨ x 3 ¸ ¸¨ ¸ 0 ¸¹¨© x 4 ¸¹

Ora la matrice estesa ' 5 coincide esattamente con la matrice

A

§ v1 · ¨ ¸ ¨ w2 ¸ ¨0¸ ¨ ¸ ¨0¸ © ¹

e pertanto ' 5

0 e dunque per il teorema

di Rouchè il SL esteso è compatibile: per quanto dimostrata nel paragrafo 3.6 i coefficienti ed il termine noto dell’equazione esclusa dal SL ridotto risulta combinazione lineare delle altre equazione, ossia la quinta riga della matrice A è combinazione lineare delle altre quattro. Per determinare esplicitamente tale combinazione è sufficiente applicare il SL di cui all’Eq..5 in cui (O , O , O , O ) individuano i coefficienti della combinazione: 1

2

3

4

Pag.35


Quaderno n°1

Capitolo 3:Sistemi Lineari

AT 4 *4

§ v1 ¨ ¨ v2 ¨v ¨ 3 ¨v Š 4

w1

a1

w2

a2

w3

0

w4

0

b1 ¡§ O1 ¡ ¸¨ ¸ b2 ¸¨ O2 ¸ 0 ¸¨ O3 ¸ ¸¨ ¸ 0 ¸š¨Š O4 ¸š

§ c1 ¡ ¨ ¸ ¨ c2 ¸ ¨0¸ ¨ ¸ ¨0¸ Š š

che può essere risolto con la regola di Cramer

Vediamo un esempio numerico del caso precedente:

1 1 1 1 2

A

1 1 1 2 5

AT 4 *4

1 1 1 1 T

A

1 1 1 2 4

1 1 0 0 1 2 0 0

1 1 0 0 0

1 2 0 0 0

1 1 0 ; A4 0 0

§1 ¨ ¨1 ¨1 ¨ ¨1 Š

1 1 1 ¡§ O1 ¡ ¸¨ ¸ 1 1 2 ¸¨ O2 ¸ 1 0 0 ¸¨ O3 ¸ ¸¨ ¸ 2 0 0 ¸š¨Š O4 ¸š 1 1 1

§1 ¨ ¨1 ¨1 ¨ ¨1 Š

1 1 1 2

1 1 0 0

1¡ ¸ 2¸ , 0¸ ¸ 0 ¸š

§ 2¡ ¨ ¸ ¨ 3¸ ¨0¸ ¨ ¸ ¨0¸ Š š

1 1 1

1 1 1

1 1 0 21 1 0

1 1 0

1 2 0 1 1 1 2

1 2 0

1 2 0

2 1 1

Applicando la regola di Cramer:

O

1

x

1 AT 4

2 5 0 0

1 1 1 2

1 1 0 0

1 2 0 0

1 1 2 1 1 1 2 1 0 0 51 0 0 2 0 0 2 0 0 2 2

0 0 0 0 5 0 0 0 0

,

0

Pag.36


Quaderno n°1

O

2

x

Capitolo 3:Sistemi Lineari

1 1 1 AT 4 1 1

2 1 1 5 1 2 0 0 0 0 0 0 1

O

3

x

1 1 1 AT 4 1 1

1 1 1 2

2 5 0 0 5

O4 x

1 1 1 AT 4 1 1

1 1 1 2

1 1 0 0

1 5 1 1 1 0 0 21 0 0 0 1

0 0 0 0 2 0 0 0 0

1 2 0 0

,

0

1 1 5 1 1 1 1 0 21 1 1 2 0 1 2

1 1 1 1 2 2 1 2 1 2

2 5 0 0

2 1 0 0 0 0

2 0 0

5(2 1) 2 2 (2 1)

2 2 5

1 1 1 1 1 1 2 1 1 0 51 1 0 1 2 0 1 2 0 .

1 1 1 (5 2 ) 1 1 0 1 2 0

(5 2 )

Si ottiene dunque che la quinta riga ( 2 ,5,0,0) di

A

1 1 1 2

(5 2 )

è data dalla terza riga (1,1, ,0,0) premoltiplicata per

2 2 5 sommata alla quarta riga (1,2,0,0) premoltiplicata per 5 2 :

2 ,5,0,0

(2 2 5) 1,1, ,0,0 (5 2 ) 1,2,0,0

Infatti:

2 2 ,0,0

(2 2 5) 1,1, ,0,0 (5 2 ) 1,2,0,0

5 2 ,10 2

2 5,2 2 5, ,0,0

(2 2 5) 1,1, ,0,0 (5 2 ) 1,2,0,0

2

2 5 5 2 ,2 2 5 10 2 2 , ,0,0

(2 2 5) 1,1, ,0,0 (5 2 ) 1,2,0,0

2 ,5,0,0

Pag.37


Quaderno n°1

Capitolo 3:Sistemi Lineari

3.8. Sistemi Lineari Omogenei I Sistemi Lineari in cui il vettore colonna dei termini ha tutte le componenti nulle, ossia i SL del tipo

­a11 x1 a12 x 2 ...... a1n x n 0 ° n 1 2 0 °a21 x a22 x ...... a2 n x ÂŽ °........................................... °a x1 a x 2 ...... a x n 0 m2 mn ÂŻ m1 sono detto Sistemi Lineari Omogenei (indicati nel seguito con l’acronimo SLO). Una caratteristica fondamentale degli SLO è quella di essere sempre compatibili in quanto ammettono 1

2

n

3

almeno una soluzione: e precisamente la soluzione nulla data da x x x ..... x 0 , come facilmente si verifica mettendo tutti zeri al posto delle incognite nel SL sopra riportato. La soluzione di un SLO diverse dalla soluzione nulla vengono denominate autosoluzioni. Detta A la matrice dei coefficienti di un SL, le autosoluzioni esistono se e solo se U ( A) n x x

sia nel caso quadrato di n equazioni in n incognite, in cui quindi la matrice sia nel caso rettangolare di m equazioni in n incognite con n m .

A

risulta singolare,

3.9. Metodo di Risoluzione di Gauss Nel presente paragrafo si accenna al metodo di Gauss utilizzato per la soluzione dei Sistemi Lineare quadrati.; tale metodo inoltre può essere anche applicato ai SL rettangolari, nel senso che dopo avere verificato la compatibilità , si può utilizzare sul SL ridotto associato. Si consideri dunque il seguente SL:

­a11 x 1 a12 x 2 ...... a1n x n b1 ° n 1 2 b2 °a 21 x a 22 x ...... a 2 n x , Ž .......... .......... .......... .......... ... ° °a x1 a x 2 ...... a x n b n2 nn n ¯ n1 oppure in termini matriciale

AX

B

con il solito significato dei simboli matriciale riportati. Supponiamo che il termine a11 sia diverso da zero e si eseguano i seguenti passi: x

divisione della prima equazione per il termine a11

x

sottrazione dalla seconda equazione della prima moltiplicata per il termine

x

sottrazione dalla terza equazione della prima moltiplicata per il termine

x x x

‌‌.. ‌‌.. ‌‌..

x

sottrazione dalla n sima equazione della prima moltiplicata per il termine

a21 , a11

a31 , a11

an1 . a11 Pag.38


Quaderno n°1

Capitolo 3:Sistemi Lineari

In sostanza alla generica equazione k esima per ogni

(k

2..n) si sostituisce l’equazione

a a a12 2 ) x (ak 3 ak1 13 ) x 3 ....... (akn ak1 1n ) x n a11 a11 a11

( a k 2 ak 1

bk ak1

b1 a11

in modo da eliminare in tutte le equazioni successive alla prima il termine in cui è presente

x1 .

Si pongano ora le seguenti definizioni: x

a1 j

(1)

x

akjc

( 2)

x

b1

x

bkc

a1 j a11

(1)

( j 1..n) ,

per

akj ak1

a1 j a11

, per

( j 1..n) (k

2..n) ,

b1 a11 bk ak1

(k )

b1 , per ( k a11

2..n) ,

Con questa nomenclatura si passa al SL sotto riportato che è equivalente a quello dell’inizio di paragrafo, ma non presenta termini contenenti

x1 nelle equazioni successive alla prima:

­ x1 a12 (1) x 2 a13 (1) x 3 ...... a1n (1) x n b1(1) ° ( 2) 2 c x a23 c ( 2) x 3 ...... a2c n ( 2 ) x n b2c ( 2 ) °a22 Ž °................................................................ °ac ( 2 ) x 2 ac ( 2 ) x 3 ...... ac ( 2) x n bc ( 2 ) n3 nn n ¯ n2 c ( 2 ) sia diverso da zero e poniamo a2 j ( 2 ) Supponiamo anche in questo caso che il termine a22

a2c j

( 2)

c a22

( 2)

per

b2c : il precedente SL assume la seguente forma: a22 ( 2)

j

2..n e b2

( 2)

­ x1 a12 (1) x 2 a13 (1) x 3 ...... a1n (1) x n b1(1) ° 2 ( 2) 3 ( 2) n ( 2) ° x a23 x ...... a2 n x b2 ÂŽ °................................................................ °ac ( 2) x 2 ac ( 2) x 3 ...... ac ( 2 ) x n bc ( 2 ) n3 nn n ÂŻ n2 Iteriamo ora il procedimento precedente considerando solo le equazioni dalla seconda in poi, quindi escludendo la prima equazione che rimane invariata e facendo giocare alla seconda equazione il ruolo che in precedenza giocava la prima: equazione: si ottiene cos’ un SL in cui dalla terza equazione in poi non ci sono

x1 e x 2 : in sostanza si opera sul SL quadrato di (n 1) incognite (quelle dalla seconda alla n esima ) in (n 1) equazioni (anche in questo caso dalla seconda alla n esima equazione.

i termini con

Tale metodo di eliminazione delle variabili può essere iterato fino all’applicazione sull’equazione (n 1) esima ottenendo un sistema lineare del tipo Pag.39


Quaderno n°1

Capitolo 3:Sistemi Lineari

(1) ­ x1 a12 (1) x 2 a13 (1) x 3 ...... a1n (1) x n b1 ° ( 2) ( 2) ( 2) ° x 2 a23 x 3 ...... a2 n x n b2 ° Ž................................................................ ° ( n 1) ( n 1) x n 1 a( n 1) n x n bn 1 ° ( n) ° x n bn ¯

A questo punto il SL è facilmente risolvibile in quanto il valore di x

n

è dato dall’ultima equazione; tale n 1

valore sostituito nella equazione ( n 1) esima permette di ottenere x e cosi via per le altre incognite ottenendo una soluzione unica. Si può verificare il caso che al generico passo k d n 1 le rimanenti equazioni sono tutte nulle, allora se x

i termini noti di tali equazioni sono diversi da zero il SL risulta chiaramente incompatibile,

x

i termini noti sono nulli il SL ammette f

3.9.1

n k

soluzioni.

Struttura dei Pivot

Abbiamo visto nel metodo di Gauss la necessitĂ di dividere le equazioni per dei coefficienti. In particolare: x

a11 è il coefficiente di x1 con cui si divide la prima equazione,

x

c a22

x

c in generale akk

( 2)

è il coefficiente di (k )

x 2 con cui si divide la seconda equazione,

è il coefficiente di

x k con cui si divide la k esima equazione con k 1..(n 1) .

Tali coefficienti di divisione vengono denominati Pivots: nel paragrafo precedente abbiamo sempre supposto che i pivots fossero diversi da zero, poichĂŠ in caso contrario non sarebbe stato possibile eseguire le divisioni. Mantenendo ancora valida tale ipotesi vediamo i legami tra i pivots ed i coefficienti della matrice A : x

a11 è il primo pivot e coincide con il determinante del minore principale primario A1 , pertanto a11

x

ac22

( 2)

a22 a21

a12 c ( 2) Â&#x; a22 a11

A1

a22 a11 a21a12 ; a11

poichÊ il numeratore della precedente espressione è dato dal determinante del minore principale primario A2 si ha:

c a22 x

c a33

( 3)

( 2)

A2 A1

è il terzo pivot: in questo caso conviene ragionare in modo diverso rispetto ai due punti

precedenti. Concentriamoci solo sulle prime tre equazioni del SL

AX

B:

Pag.40


Quaderno n°1

Capitolo 3:Sistemi Lineari

n ­ 1 2 3 a x a x a x b a1i x i Œ 12 13 1 ° 11 i 4 ° n ° 1 2 3 a x a x a x b a2i x i Ž 21 Œ 22 23 2 i 4 ° n ° 1 2 3 i °a31 x a32 x a33 x b3 Œ a3i x i 4 ¯

Stiamo considerando dunque un SL ridotto in cui la matrice dei coefficienti è data del terzo minore principale A3 di A . Applicando la regola di Cramer si ottiene: n

b1 ÂŚ a1i xi

a11 a12

i 4

x

3

n 1 a21 a22 b2 ÂŚ a2i xi A3 i 4 n

a31 a32 b3 ÂŚ a3i x

A2 A3

n

(b3 ÂŚ a3i xi ) i 4

i

i 4

n n a11 a12 1 a21 a22 1 (b2 ÂŚ a2i xi ) (b1 ÂŚ a1i xi ) a31 a32 A3 a31 a32 A3 i 4 i 4

Da ciò segue

A3 3 n x ÂŚ a 3i x i A2 i 4

b3

1 A2

n ª§ ¡ a ˜ ¨ b2 ÂŚ a 2i x i ¸ ˜ 11 i 4 š a 21 Š

n a12 § ¡ a ¨ b1 ÂŚ a1i x i ¸ ˜ 21 a 22 Š i 4 š a31

a 22 Âş Âť a32 Âź

Si osservi ora che l’applicazione del metodo di Gauss nei primi due passi porta alla determinazione di

c x 3 ...... a3c n x n a33 ( 3)

( 3)

e quindi alla determinazione della incognita

b3

( 3)

x 3 . Siccome il valore di x 3 è unico segue: c a33

A3 A2

( 3)

Applicando lo stesso ragionamento del punto precedente al caso generico, ossia al caso in cui si

c considera il pivot akk

(k )

, e quindi si considera un SL ridotto con matrice dei coefficienti al

k esimo minore principale primario Ak di A si deduce che:

c Eq.8 akk

Ak per k Ak 1

(k )

2..n

Mentre si ricorda che

c a11

(1)

a11

A1

Tutto il discorso finora sviluppato vale nell’ipotesi di avere ad ogni passo i pivots diversi da zero, ossia applicando l’ Eq.8 nel caso in di tutti i minori principali primari di A risultano non singolari, dove per minori principali primari di una matrice A si intendono le seguenti quantità Pag.41


Quaderno n°1

Capitolo 3:Sistemi Lineari

A1

a11 , , ‌‌, Ak

a11 a 21

a12 a 22

..

..

a k1

ak 2

.. a1k .. a 2 k ..

..

(minore principale di ordine k

1..n )

.. a kk

Se qualche minori principali primario risulta essere singolare, non valgono piÚ le relazioni espresse dalla Eq.8; comunque è possibile applicare sempre il metodo di Gauss eseguendo uno scambio delle equazioni. CosÏ se arrivati al passo k il termine ackk

(k )

è nullo si scambia la k esima equazione con

k

una successiva che ha il coefficiente di x diverso da zero: se supponiamo che tale equazione sia la r esima con r ! k ciò implica che nella matrice A la riga k è stata sostituita dalla riga r e viceversa. Tale scambio si ottiene semplicemente premoltiplicando A con una matrice P di permutazione costruita come segue: x x x

la riga k ha tutti zeri ad esclusione della termine nel posto r che è uguale ad uno, la riga r ha tutti zeri ad esclusione della termine nel posto k che è uguale ad uno, tutte le altre righe hanno elementi nulli ad esclusione di quello appartenente alla diagonale principale che è pari ad uno.

Si osservi per inciso che tale scelta del pivot nella pratica viene effettuata non solo nei casi in cui i coefficienti risultano nulli, ma anche per diminuire l’errore di approssimazione nei calcoli svolti. Infatt poichĂŠ il coefficiente pivotale va a finire a denominatore, ossia con esso si esegue una divisione, è necessario evitare coefficienti troppo vicini allo zero. A tale scopo ad ogni passo del metodo do Gauss viene comunque effettuata una scelta pivotale scegliendo il coefficiente maggiore. La scelta può essere effettuata con scambio di equazioni, come illustrato in precedenza, o tramite rinominazione delle variabili: in questo caso lo scambio avviene tra le colonne e la matrice di permutazione ha una struttura che si costruisce come nel caso di scambio di righe, solo che nella definizione al termine riga si deve sostituire il termine colonna.

3.9.2

Legami tra le matrici dei coefficienti

Nel presente paragrafo si vuole evidenziare il legame tra la matrice A ( n u n) del SL di partenza AX

B:

­a11 x a12 x ...... a1n x b1 ° n 1 2 °a21 x a22 x ...... a2 n x b2 Ž °........................................... °a x1 a x 2 ...... a x n b n2 nn n ¯ n1 1

2

e la matrice,denominata TS ( n u n) , dei coefficienti del SL TS X

n

*

B (*)

(1) ­ x1 a12 (1) x 2 a13 (1) x 3 ...... a1n (1) x n b1 ° ( 2) ( 2) ( 2) ° x 2 a 23 x 3 ...... a 2 n x n b2 ° Ž................................................................ ° ( n 1) n ( n 1) x n 1 a ( n 1) n x bn 1 ° ( n) ° x n bn ¯

ottenuto dopo le trasformazioni effettuate dall’applicazione del metodo di Gauss.

Pag.42


Quaderno n°1

Capitolo 3:Sistemi Lineari

A tale scopo osserviamo che TS risulta essere una matrice triangolare superiore (con i coefficienti della diagonale principali tutti pari ad uno) ed indichiamo con D p la matrice diagonale generico elemento d ii coincide con il pivot aiic

(i )

(n u n) tale che il

dell’equazione i esima . Supponendo inoltre che tutti i

minori principali primari di A abbiano determinante non nullo, in modo che la scelta dei pivots possa essere effettuata senza modifica dell’ordine delle equazioni e delle incognite, cerchiamo di determinare la

~ A in modo che valga la seguente scomposizione:

matrice

A

Eq..9

dove

~ A

risulta necessariamente una matrice

Moltiplicando a destra la Eq..9 per il vettore

AX

B e TS X

~ A D p TS

( n u n) .

X delle incognite si ottiene: AX

~ A D p Ts X e ricordando che

~ A D p B ( ) . Analizziamo il termine D p B ( ) :

B ( ) segue: B

§ a11 ¨ ¨ 0 ¨ .. ¨ ¨ 0 ©

D p B

·§ b1(1) · ¸¨ ( 2 ) ¸ ¸¨ b2 ¸ ¸¨ .. ¸ ¸ ¸¨ ( n) .. ann ¸¹¨© bn ( n ) ¸¹

0 .. ( 2) ac22 .. .. .. 0

0 0 ..

§ a11b1(1) · ¨ ( 2) ( 2) ¸ c b2 ¸ ¨ a22 ¨ ¸ .. ¨ ¸ ¨ a ( n)b ( n) ¸ © nn n ¹

Ora si osservi che:

(1)

x

b1

x

b2

( 2)

x

b3

( 3)

b1 a11b1(1) a11

1 c ( 2) a22

b1 ,

§ b · c ( 2)b2 ( 2) ¨¨ b2 a21 1 ¸¸ , da cui a22 a11 ¹ ©

1 ( 2) ( 2) ( 2) b3 a32 b2 ( 3) c a33

b3

A3

( 3)

b3

( 3)

( 2)

b1 a11

· § b ¨¨ b3 a31 1 a32 ( 2) b2 ( 2) ¸¸ a11 ¹ ©

A2 ª b1 b ·º ( 2 ) a11 § ¨¨ b2 a21 1 ¸¸» a32 «b3 a31 a11 A2 © a11 ¹¼» « A3 ¬ b3

A2

dove si ricorda che a32

1 c ( 3) a33

b2 a21

a32

§ · 1 ( 2) a11 a ( 2) a32 b2 ¨¨ a31 11 a32 a21 ¸¸ b1 A2 A a 2 11 © ¹

a12 a31 a11 Pag.43


Quaderno n°1

Capitolo 3:Sistemi Lineari

Per il generico

k esimo

termine vale

bk

(k )

Ak 1 ( k 1) ( k 1) bk ak ( k 1)bk 1 per k Ak

2..n

In sostanza quindi il temine k esimo risulta essere una combinazione lineare dei primi vettore colonna B , ossia:

bk

k

termini del

k 1

bk ÂŚ F j ( k ) b j

(k )

j 1

dove

F

j

(k )

è una funzione dei coefficienti del minore principale primario A j .

Detto questo dobbiamo allora risolvere la seguente equazione matriciale : B

~ A D p B , che in forma

esplicita è data da:

§ b1 ¡ ¨ ¸ ¨ b2 ¸ ¨ .. ¸ ¨ ¸ ¨¨ .. ¸¸ Š bn š

§ a~11 ¨~ ¨ a21 ¨ a~31 ¨ ¨¨ ..~ Š an1 § a~11 ¨~ ¨ a21 ¨ a~31 ¨ ¨¨ ..~ Š an1

(1) a~12 .. a~1n ¡§ a11b1 ¡ ¸¨ ( 2) ( 2) ¸ c b2 ¸ a~22 .. a~2n ¸¨ a22 ~ ~ ¨ ¸ a32 .. a3n ¸ .. ¨ ¸ ¸ .. .. .. ¸¨ .. ¸ a~n 2 .. a~nn ¸š¨Š ann ( n) bn ( n) ¸š

a~12 .. a~22 .. a~32 .. .. .. ~ an 2 ..

b1 § ¡ ¨ ¸ b 1 ¨ ¸ b a ~ 2 21 a1n ¡¨ a ¸ 11 ¸ ¸ a~2n ¸¨ § ¡ 1 ( 2) a11 a11 ( 2) ¨ ~ a32 a21 ¸¸ b11 ¸ a32 b2 ¨¨ a31 a3n ¸ b3 ¨ A A 2 2 ¸ Š š a11 ¸ ¸ .. ¸¨ ..... .. ~ ¸ ¨ ¸ ann š n 1 ¨ ¸ bn Œ F j ( n) b j ¨ ¸ j 1 Š š

Sviluppando i prodotti matriciali si ha: x

b1

n 1 § ¡ § b ¡ a~11b1 a~12 ¨¨ b2 a21 1 ¸¸ .... a~1n ¨¨ bn Œ F j ( n ) b j ¸¸ a11 š j 1 Š Š š

Dal confronto tra il primo ed il secondo membro possiamo porre

a~12 x

b2

a~13

.......

a~1n

0 da cui a~11

1

n 1 § ¡ § b ¡ a~21b1 a~22 ¨¨ b2 a21 1 ¸¸ .... a~2 n ¨¨ bn Œ F j ( n ) b j ¸¸ a11 š j 1 Š Š š

Dal confronto tra il primo ed il secondo membro ponendo:

a~23 b2

a~24

.......

a~2 n

0 , segue

§ a ¡ a~22b2 a~21 ¨¨ a~21 21 ¸¸b1 , a11 š Š Pag.44


Quaderno n°1

Capitolo 3:Sistemi Lineari

da cui :

a~21

a21

a21 ~ , a22 a11

1

ª ¡1 º § ( 2) § b ¡ a a (2) n 1 b3 a~31b1 a~32¨¨b2 a21 1 ¸¸ a~33b3 11 a32 b2 ¨a31 11 a32 a21 ¸ b1  ~ §¨ b F j ( n ) b ¡¸ ¸a ¨ x a .... A a A Œ 2n ¨ n j¸  11 š 2 2 Š š 11 Ÿ Š j 1 Š š ponendo

a~34

a~35

.......

a~3n

0 , a~33

1 , la precedente relazione

si riduce a

¡1 ¡ § § a a b3 b3 ¨¨ a~32 11 a(2)32 ¸¸b2 ¨¨ a~32a21 a31 a~31a11 11 a(2)32a21 ¸¸ b1 A2 A2 š a11 š Š Š da cui si deduce

a~32

a11 ( 2 ) a 32 A2

§ ¡ a ¨¨ a32 12 a31 ¸¸ a11 Š š

a11 A2

a11a32 a12 a31 , a11a22 a12 a21

¡ §~ ¨ a32 a21 a31 a~31a11 a11 a ( 2 ) 32 a21 ¸ 1 b1 ¸a ¨ A2 š 11 Š a11 ( 2 ) a a 32 a21 a31 a~31a11 11 a ( 2 ) 32 a21 A2 A2

a~31 x x x x x

‌‌ ‌‌ ‌‌ ‌‌

x

bn

0

0

a31 a11

n 1 § ¡ § b ¡ a~n1b1 a~n 2 ¨¨ b2 a21 1 ¸¸ .... a~nn ¨¨ bn Œ F j ( n ) b j ¸¸ a11 š j 1 Š Š š

bn

n

n

j 1

j 1

a~nn bn ÂŚ F 1( j ) b1 ..... ÂŚ F n 1( j ) bn 1 n 1

bn

n

a~nn bn ÂŚÂŚ F k ( j ) bk k 1 j 1

Dal confronto tra il primo ed il secondo membro segue:

Pag.45


Quaderno n°1

Capitolo 3:Sistemi Lineari

a~nn

1 , a~nk

n

ÂŚF

k

( j)

per

k 1..(n 1)

j k

~

In sostanza quindi la matrice A è una matrice triangolare inferiore con i termini della diagonale principale tutti uguali ad uno e gli altri termini non nulli funzione dei coefficienti di A . In forma esplicita si ha dunque:

~ A

§ 1 ¨ a21 ¨ ¨ a11 ¨ .. ¨ n 1 ¨ Œ F ( j) Šj k

0 1 n

..

ÂŚF

2

( j)

j k

.. 0 ¡ ¸ .. 0 ¸ ¸ .. .. ¸ ¸ .. 1 ¸ š

Possiamo dunque concludere che presa una matrice quadrata ( n u n) nell’ipotesi in cui tutti i suoi minori principali primari siano non singolari (ossia a determinante diverso da zero), vale la scomposizione seguente

A dove

~ A D pTS ,

x

~ A è una matrice triangolare inferiore quadrata (n u n) con i coefficienti della diagonale

x

principale pari ad uno, D p è una matrice diagonale quadrata

k esimo d kk x

Ak con k Ak 1

(n u n) con il coefficiente d11

a11 ed il coefficiente

2..n ,

TS è una matrice triangolare superiore quadrata (n u n) con i coefficienti della diagonale principale pari ad uno.

Tale scomposizione non vale nel caso in cui non sia verificata la condizione di non singolaritĂ sui minori principali primari, ossia nel caso in cui nella scelta dei pivots occorre effettuare un riordinamento delle equazioni. In tale situazione abbiamo visto che occorre effettuare delle permutazioni di riga e detta P la matrice di permutazione vale

PA 3.9.3

~ A D p TS

Esempio

Vediamo un esempio di applicazione del metodo di Gauss. Si consideri quindi il seguente SL:

­2 x 1 x 2 3 x 3 ° 1 2 3 Ž2 x 5 x x ° x1 3 x 2 2 x 3 ¯

§ 2 1 3¡ §1¡ ¨ ¸ ¨ ¸ 5 ,in cui A ¨ 2 5 1 ¸ , B ¨ 5 ¸ . ¨1 3 2¸ ¨ 2¸ 2 Š š Š š

1

Applichiamo il metodo di Gauss: x

1° passo Elemento pivot a11

2, Pag.46


Quaderno n°1

Capitolo 3:Sistemi Lineari

­ 1 1 2 3 3 1 ­ 1 1 2 3 3 1 x x x ° °x 2 x 2 x 2 2 2 2 °° °° 2 3 2 3 5 1 Â&#x; ÂŽ 4x 2x 4 ÂŽ(5 1) x (1 3) x ° ° 1 3 1 5 2 1 3 3 °(3 ) x 2 (2 ) x 3 2 ° x x °¯ °¯ 2 2 2 2 2 2 x x

2° passo Elemento pivot

c a22

( 2)

4, ­ 1 1 2 3 3 1 ­ 1 1 2 3 3 1 °x 2 x 2 x °x 2 x 2 x 2 2 ° ° 2 4 1 ° ° Â&#x;ÂŽ x2 x3 x 2 x3 1 ÂŽ 4 4 2 ° ° 1 52 3 3 5 7 3 ° ° )x ( x 1 ° ° 2 2 2 24 4 ÂŻ ÂŻ

x

3° passo Elemento pivot

c a33

( 3)

7 , 4 ­ 1 1 2 3 3 1 ­ 1 1 2 3 3 1 °x 2 x 2 x °x 2 x 2 x 2 2 ° ° 1 1 ° ° x2 x3 1 Â&#x; ÂŽ x2 x3 1 ÂŽ 2 2 ° ° 7 3 4 ° ° x 1 x3 ° ° 4 7 ÂŻ ÂŻ

x

4° passo

x3

1 4 , x2 x3 1 Â&#x; x 2 7 2

1 3 x1 x 2 x 3 2 2

1 Â&#x; x1 2

14 5 1 27 7

1 3 1 x 2 x3 2 2 2

15 34 1 1 27 27 2

Con il 4° passo abbiamo risolto il SL. Determiniamo ora le matrici di scomposizione:

x

TS

x

AX

1 § ¨1 2 ¨ ¨0 1 ¨ ¨0 0 ¨ Š

B

3 ¡ ¸ 2 ¸ 1 ¸ , DP 2 ¸ 1 ¸ ¸ š

§2 0 ¨ ¨0 4 ¨ ¨0 0 Š

¡ 0¸ 0¸, 7¸ ¸ 4š

~ A DPTS X Â&#x; , Pag.47


Quaderno n°1

Capitolo 3:Sistemi Lineari

· § ¸ ¨ § 2 1 3 ·¨ 1 ¸ ¸ 5 ¨ ¸ ¨ 2 5 1 ¸¨ ¸ ¨ 7 ¨ 1 3 2¸ ¸ ¨ 4 ¹ © ¸ ¨ © 7 ¹

§1· ¨ ¸ ¨5¸ ¨ 2¸ © ¹

§1· ¨ ¸ ¨5¸ ¨ 2¸ © ¹

§ a~11 ¨~ ¨ a21 ¨ a~ © 31

§1· ¨ ¸ ¨5¸ ¨ 2¸ © ¹

§2 0 ¨ ~¨ A 0 4 ¨ ¨0 0 ©

§ ¨1 · 0 ¸¨ 0 ¸¨ 0 7 ¸¨ ¸¨ 0 4 ¹¨ ©

§ · § ·¨ 1 ¸ ¨ 2 1 3 ¸¨ ¸ 5 ¸ ~¨ ¸ ¨ A 0 4 2 ¨ 7 ¸¨ 7 ¸ ¨0 0 ¸¨ 4 ¸ 4 ¹¨ © ¸ © 7 ¹ a~12 a~22 a~ 32

a~13 ·§ 1 · ¸¨ ¸ a~23 ¸¨ 4 ¸ a~33 ¸¹¨© 1¸¹

§ ¨1 ¨1 ¨1 ¨ ©2

1 2 1 0

3 ·§ · ¸¨ ¸ 2 ¸¨ 1 ¸ 1 ¸¨ 5 ¸ 2 ¸¨ 7 ¸ 1 ¸¨ 4 ¸ ¸¨ ¸ ¹© 7 ¹

§ 1· ~¨ ¸ A¨ 4 ¸ ¨ 1¸ © ¹

· 0 0 ¸§ 1 · ¨ ¸ 1 0 ¸¨ 4 ¸ ¸ 5 1 ¸¨© 1¸¹ 8 ¹

Come si evince facilmente ricordando che gli elementi della diagonale devono essere pari ad uno e x

a~21

x

a~31

x

a~32

a21 2 1, a11 2 a31 1 , a11 2 a11 a32 a12 a31 a11 a 22 a12 a 21

2 3 1 1 2 5 2 1

5 . 8

Pertanto si ha:

Si può ora facilmente verificare che A

~ A DP TS

§ ¨1 ¨1 ¨1 ¨ ©2

0 1 5 8

· § ¨ 1 0 0¸ ~ A ¨ 1 1 0¸ . ¸ ¨1 5 ¨ 1¸ ¹ ©2 8 ~ A D pTS eseguendo direttamente i prodotti: ·§ 0 ¸¨ 2 0 0 ¸¨ 0 4 ¸¨ 1 ¸¨ 0 0 ¹©

§ ·¨ 1 0 ¸¨ 0 ¸¨ 0 7 ¸¨ ¸¨ 0 4 ¹¨ ©

1 2 1 0

3 · ¸ 2 ¸ 1¸ 2 ¸ 1 ¸ ¸ ¹

§ 2 1 3· ¨ ¸ ¨2 5 1¸ ¨ 1 3 2¸ © ¹

A

___________________________________________________ Pag.48


Quaderno n°1

Capitolo 4:Le forme quadratiche

CAPITOLO 4. Le forme quadratiche

Nella trattazione seguente si suppone di operare nel campo R dei numeri reali, ossia i coefficienti e le variabili appartengono ad R ( con R si indica l’insieme numerico reale n dimensionale, ossia le n ple n

n

di numeri reali). Si osservi per inciso che R ha una struttura di spazio vettoriale n dimensionale ed il prodotto matriciale di un vettore riga per un vettore colonna del tipo

Y T X (1) con X

§ x1 ¡ ¨ ¸ ¨ ... ¸ e Y ¨x ¸ Š nš

§ y1 ¡ ¨ ¸ ¨ ... ¸ ¨y ¸ Š nš

definisce un prodotto scalare strettamente euclideo che induce in R strettamente euclideo.

n

una struttura di spazio vettoriale

Si osservi infatti che fissate due n ple X e Y si possono definire le seguenti due operazioni: x x

X Y tale che z i xi y i ; prodotto per uno scalare Z DX tale che z i somma Z

Dx i

D Â?R.

con

n

Tali operazioni verificano gli assiomi di definizione di Spazio Vettoriale, pertanto R risulta essere uno Spazio Vettoriale e quindi ogni n pla X viene anche detta vettore. Diremo inoltre base canonica dello spazio R la base ^e1 , e2 ,....en ` n

x

^ei ` tale che

ei individua la n pla con elementi tutti nulli, ad eccezione dell’elemento i esimo che viene posto pari ad 1;

x

T

ei e j

G ij , dove G ij indica il simbolo di Kronecher.

Quindi la base ^e1 , e2 ,....en `

^ei ` è costituita da vettori di modulo unitario e ortogonali (base ortonormale). E’ facile dimostrare che i vettori ^ei ` costituiscono una base , ossia sono n vettori linearmente indipendenti.

Infatti n

ÂŚ D i ei i i

n

0 Â&#x; e Tj ÂŚ D i ei i i

n

ÂŚ D i eTj ei i i

n

ÂŚD G i

ij

Di

Supponiamo ora di effettuare un passaggio dalla base canonica

^H 1 , H 2 ,....H n ` ^H i `

0 per i 1,2,..n

i i

^e1 , e2 ,....en ` ^ei `

ad un’altra base

anch’essa ortonormale: vogliamo determinare la struttura della matrice C di

trasformazione da una base all’altra ( nel caso generico di passaggio da un base ad un’altra non ortonormale è sufficiente che la matrice C sia non singolare). A tale scopo ricordando che le coordinate di ei nella base

^ei `

sono tutti 0, ad esclusione della

i esima componente che risulta pari ad 1, si ha: Pag.49


Quaderno n°1

Capitolo 4:Le forme quadratiche

Hi

e quindi il vettore di base vettore

Hi

nella base ^ei `.

§ 0· ¨ ¸ ¨ .. ¸ C¨ 1 ¸ , ¨ .. ¸ ¨¨ ¸¸ © 0¹

Cei

H i , individua anche la i esima

colonna di C , che rappresenta le coordinate del

Allora la matrice C può essere espressa come segue:

H 1 , H 2 ,....H n

C Si esegue il seguente prodotto:

CTC

§ H 1T · ¨ T¸ ¨H 2 ¸ ¨ ¸ H 1 , H 2 ,....H n

¨ ... ¸ ¨H T ¸ © n ¹

§ H 1T H 1 H 1T H 2 ¨ T ¨ H 2 H1 H 2T H 2 ¨ .. ¨ .. T T ¨H H H H n 2 © n 1

T .. H 1 H n · ¸ T .. H 2 H n ¸ ¸ .. .. ¸ T .. H 1 H 1 ¸¹

0 1 .. 0

.. .. .. ..

0· ¸ 0¸ .. ¸ ¸ 1 ¸¹

I

C 1

I CT

CTC

§1 ¨ ¨0 ¨ .. ¨ ¨0 ©

Abbiamo dunque dimostrato che le matrici che trasformano basi ortonomali in basi ortonormali sono matrici ortonormali e viceversa; da un punto di vista geometrico ciò indica che si stà eseguendo una rotazione che lasca immutato la distanza , ossia il prodotto scalare. Infatti ricordando che il prodotto scalare in R definito da

n

è

YT X Ponendo

Y

CY ' e X

CX ' segue: YT X

4.1.

CY CX Y C C X Y

' T

'

' T

T

'

' T

X '=

Casi monodimensionale e bidimensionale

Consideriamo la seguente funzione:

y

a x 2 (1) ( x, y, a ) R

la (1) rappresenta una forma quadratica nel caso monodimensionale. 2

Si analizzi ora il segno di tale funzione: a tale proposito è facile concludere che, essendo x !0 per qualsiasi valore non nullo si ha: y !0 se a !0 y 0 se a 0 Da un punto di vista geometrico la (1) rappresenta una parabola con il vertice nell’origine e x x

la concavità verso l’alto se a !0 la concavità verso il basso se a 0

Più interessante è il caso bidimensionale in cui una forma quadratica, nelle due variabili rappresentata dalla seguente funzione :

( x; y ) è

Pag.50


Quaderno n°1

Capitolo 4:Le forme quadratiche

z a11 x 2 a 21 xy a12 xy a 22 y 2 (2’) z a11 x 2 (a 21 a12 ) xy a 22 y 2 (2â€?) Si osservi inoltre che si può porre ( a 21 a12 ) 2a da cui z a11 x 2 (a 21 a12 ) xy a 22 y 2 a11 x 2 2axy a 22 y 2 a11 x 2 (a a) xy a 22 y 2 (2’’’) Allora la forma quadratica non cambia se si pone a12 a 21 a Le (2) possono essere messe in forma matriciale come segue:

§a y ¨¨ 11 Š a 21

x

z

a12 ¡§ x ¡ ¸¨ ¸ a 22 ¸š¨Š y ¸š

dove la matrice dei coefficienti risulta essere una matrice simmetrica In forma piĂš compatta, ponendo x

XT

x

X

x

A

x

y

§ x¡ ¨¨ ¸¸ Š yš § a11 a12 ¡ ¸¸ ¨¨ Š a 21 a 22 š

si può porre

z

X T AX (3)

4.1.1.Studio del segno nel caso bidimensionale Come nel caso monodimensionale si vuole analizzare il segno della forma (3). A tale scopo manipoliamo le (2) che per semplicitĂ notazionale viene posta come segue:

z Ponendo A z

ax 2 2bxy cy 2

§a b¡ ¨¨ ¸¸ ; determinate A = A Šb cš 2 2 º c §b¡ ¡ y¸ y2 ¨ ¸ y2  a Šaš š Ÿ 2 2 2 ª§ ª§ b ¡ c 2 §b¡ 2º b ¡ § ca b 2 ¡ 2 º ¸y  a ¨ x y ¸ y ¨ ¸ y  a ¨ x y ¸ ¨¨ a š a a š Š a ¸š Ÿ Šaš Š Š Ÿ 2 ª§ b ¡ § A¡ º z a ¨ x y ¸ ¨¨ ¸¸ y 2  (4) a š Š a š Ÿ Š

ax 2 2bxy cy 2 z

b c ¡ § a¨ x 2 2 xy y 2 ¸ a a š Š

ª§ b a ¨ x a Š

Possiamo quindi concludere: Caso 1: a >0; A >0 Â&#x; z >0 per ( x, y ) z (0,0) La forma quadratica risulta positiva ( si dice definita positiva). In altri termini se i minori principali primari sono positivi la forma quadratica è definita positiva e vale anche il viceversa come si deduce dalla (4). Dal punto di vista geometrico la forma quadratica rappresenta un paraboloide con la concavitĂ verso l’alto, come riportato in figura.

Pag.51


Quaderno n°1

Capitolo 4:Le forme quadratiche

Caso 2: a <0; A <0 Â&#x; z <0 per ( x, y ) z (0,0) La forma quadratica risulta negativa ( si dice definita negativa) ,ossia se i minori principali sono negativi la forma è negativa e viceversa. Da punto di vista geometrico la forma quadratica rappresenta un paraboloide con la concavitĂ verso il basso. Caso 3: a >0; A =0 Â&#x; z t 0 La forma quadratica risulta semidefinita positiva , ossia z t 0 e si annulla per le coppie ( x, y ) tali che

x

b y a

0Â&#x; x

b y (5) a

Ossia la forma si annulla sui punti della retta (5) Caso 4: a >0; A <0 La forma quadratica risulta non definita, ossia può assumere valori positivi, negativi e nulli a seconda del valore delle coppie ( x, y ) . La forma quadratica definisce una quadratica denominata paraboloide iperbolico ( si veda la figura seguente).

Pag.52


Quaderno n°1

4.2.

Capitolo 4:Le forme quadratiche

Definizione Generale

Analizziamo ora il caso generale. Sia dunque x

x

X

§ x1 · ¨ ¸ n ¨ ... ¸ R un vettore n dimensionale ¨x ¸ © n¹

A

§ a11 .. a1n · ¨ ¸ ¨ .. .. .. ¸ una matrice quadrata simmetrica (n, n) ¨a ¸ © n1 .. a nn ¹

Allora si definisce forma quadratica n dimensionale la seguente funzione

y : Rn o R y dove si suppone che la matrice

X T AX (6)

A faccia riferimento alla base canonica.

4.2.1.Invarianza per congruenza n

Si supponga di effettuare un cambiamento di base dalla base canonica nello spazio R tramite una matrice C quadrata (n, n) non singolare tale che:

X

CZ

Allora la (6) assume la seguente forma:

y

CZ T A CZ y

Z T C T ACZ Z T C T AC Z

y

Z T C T AC Z

Ponendo

C T A C (7)

B Segue

ZTB Z

y

La matrici legate dalla relazione (7) sono dette congruenti e una forma quadratica rimane invariata per congruità, ossia passando da una matrice congruente ad un’altra. Per inciso si osservi come la proprietari simmetria è un invariante per congruenza ossia se A , anche

B

C T A C è simmetrica. Infatti: B

C T A C BT

A C T C T T

C T AT C

CT A C

B

4.2.2.Strategia per lo studio del segno Lo studio del segno di una forma quadratica e la definizione dei criteri positività, vengono semplificati se la forma viene espressa tramite una matrice B che sia più “semplice “ possibile, nel senso che abbia il maggior numero di elementi nulli, come ad esempio nel caso in cui tale matrice sia di tipo triangolare o addirittura diagonale. Infatti nel caso diagonale tutti i termini misti con coefficienti aij con i z j sono nulli e la forma risulta dalla somma dei soli termini quadratici :

¦ a x

n

y

i 2

ii

i 1

Nel seguito quindi si cercherà una trasformazione di base C tale da rendere la matrice della forma quadratica più semplice possibile e verrà dimostrato come sia sempre possibile porre tale matrice in forma

Pag.53


Quaderno n°1

Capitolo 4:Le forme quadratiche

diagonale, ossia verrà dimostrata l’esistenza di una matrice B , congruente alla matrice A di partenza, di tipo diagonale.

4.3.Studio della matrice A come operatore lineare Allo scopo di seguire la strategia illustrata alla fine del paragrafo precedente, nel seguito vengono analizzate le proprietà della matrice simmetrica A della forma quadratica di cui alla (6), vista come operatore lineare n

che agisce sullo spazio R dotato di prodotto scalare strettamente euclideo di cui alla (1) :

A : Rn o Rn Y AX in relazione alle proprietà di : x x x x

Similitudine ( cambiamento di base); autovalori; autovettori esistenza di basi di autovettori e diagonalizzazione

Si suppone che la matrice A esprima l’operatore lineare nella base canonica

4.3.1.Cambiamento di base Analizziamo la legge di trasformazione dell’operatore A a seguito di un cambiamento di base dovuto ad una matrice C non singolare. Si ha:

Y

CY ' , X

CX ' , Y

AX CY '

ACX ' Y '

C 1 ACX ' '

Allora l’operatore lineare nella nuova base definita dalla matrice C è espresso dalla seguente matrice A :

A'

C 1 AC (7’)

'

Le matrici A ed A sono dette simili. Tale proprietà è una relazione di equivalenza. Infatti se poniamo poniamo ( A simil B ) per indicare che le due matrici sono simili si ha: x x x

I 1 AI 1 1 ( A simil B ) ( B simil A ); Infatti se A C BC B CAC ; 1 1 ( A similr B )e( B simil D ) ( A simil D );infatti A C BC e B E DE A ( A simil A ); infatti A

A

EC 1 BEC

C 1 E 1 B EC

Inoltre le matrici simili hanno lo stesso determinante ( con il simbolo .. si indica il determinante):

A'

C 1 AC A '

C 1 A C

1 AC C

A

Se la trasformazione trasforma una base ortonormale ( la base canonica) in un’altra base ortonormale, abbiamo visto che C

1

C T e si ha:

A'

C 1 AC

C T AC

Si ottiene dunque che la (7) coincide con la (7’) , ossia le matrici simili sono anche congruenti.

Pag.54


Quaderno n°1

Capitolo 4:Le forme quadratiche

Si osservi per inciso che la proprietà di congruenza è un relazione di equivalenza per trasformazioni ortonormali. Infatti se poniamo ( A congr B ) per indicare che le due matrici sono congruenti si ha: x x x

I T AI T 1 ( A congr B ) ( B congr A ); Infatti se A C BC B CAC CAC T ; T T ( A congr B )e( B congr D ) ( A congr D );infatti A C BC e B E DE A ( A congr A ); infatti A

EC T BEC

A

C T E T B EC

4.3.2.Autovalori Vogliamo dimostrare che gli autovettori di sono tutti reali Si ricorda che una autovalore di un operatore A è dato da uno scalare O R tale che detto X R si abbia: AX OX (8) Il vettore X viene detto autovettore relativo all’autovalore O . Gli autovalori si determinano come soluzione del cospetto polinomio caratteristico che si ottiene dalla (8): n

AX

OX AX OX

0 A OI

0 (9)

Dove I indica la matrice unità (matrice diagonale con tutti 1 nella diagonale principale). Risolvendo la (9) si ottiene un polinomio di grado n in O , le cui radici sono gli autovalori cercati, che nel caso generale possono essere sia numeri reali sia numeri complessi, essendo soluzioni di una equazione algebrica. Si evidenzia inoltre che gli autovalori sono invarianti per matrici simili. Infatti

B

C 1 AC B OI

C 1 AC OI

B OI

C 1 AC OC 1 IC

C 1 A OI C

A OI

C 1 A OI C

Nel caso però di un operatore lineare simmetrico, ossia rappresentato da una matrice A è una matrice simmetrica, tali autovalori sono tutti reali. Infatti:

X T AX

X T AX

X T OX OX T X

Si osservi inoltre che: x x Quindi

X T X è reale e positivo ( si annulla solo se X è il vettore nullo) ; X T AX è un numero reale.

O

deve essere un numero reale.

4.3.3.Autovettori Si vuole dimostrate che autovettori corrispondenti ad autovalori distinti sono tra loro perpendicolari. n

Si ricordi che, in base al prodotto scalare di cui alla (1), due vettori X e Y di R si dicono perpendicolari se

YT X Siano dunque allora segue: x

O1

Y T AX

e

O2

X TY

0

due autovalori distinti che corrispondono rispettivamente agli autovettori

X e Y,

Y T AX Y T O1 X O1Y T X Pag.55


Quaderno n°1

T

x Y AX Da cui segue:

Capitolo 4:Le forme quadratiche

AY T X O2Y T X O2Y T X O1Y T X

O2Y T X Â&#x; essendo O1 z O 2

segue

YT X

X TY

0

4.3.4.Esistenza di basi di autovettori e diagonalizzazione: Teorema spettrale Come giĂ evidenziato gli autovalori sono ottenuti dalla soluzione dell’equazione caratteristica (9), che rappresenta una equazione algebrica di grado n . Si avranno pertanto un numero di autovalori distinti reali minori od uguali ad n , in quanto qualche radice dell’equazione (9) potrebbe non essere semplice ( doppia, tripla, ecc..). Allora l’insieme degli autovalori può essere indicato come segue:

>O1 , O2 , O3 ,....., Om @ con m d n >

Si indichi inoltre con X 1 , X 2 , X 3 ,....., X m

@

m autovettori corrispondenti.

Si può dimostrare che gli autovettori, associati ad autovalori distinti, sono linearmente indipendenti. Infatti supponiamo per assurdo che i suddetti autovettori siano linearmente dipendenti, ciò implica che esistono coefficienti

b j z 0 tale che b1 X 1 b 2 X 2 b 3 X 3 ..... b m X m

Senza perdere di generalitĂ supponiamo che b z 0 e sia X 1

autovettori sono perpendicolari, si ha:

X j b1 X 1 b 2 X 2 b 3 X 3 ..... b m X m T

Essendo

X

T j

X j z 0 Â&#x;bj

0 j

j

0 (10)

un atovettore con

T

bj X j X j

0 j

2..m , da cui anche Â&#x; b1

j

2..m ., poichĂŠ gli

2..m

0

PoichÊ i coefficienti della combinazione lineare (10) sono tutti nulli, ne consegue che gli autovettori sono linearmente indipendenti. Caso 1 : m n Nel caso m n , gli autovalori sono tutti soluzioni semplici dell’equazione caratteristica ed esistono quindi n autovettori distinti , i quali essendo n vettori linearmente indipendenti , rappresentano una base per lo spazio vettoriale R

n

n dimensionale; per inciso si osservi che tale base di autovettori è una base ortogonale.

Cerchiamo di capire la quale sia la rappresentazione matriciale dell’operatore A nella base di autovettori ^X 1 , X 2 , X 3 ,....., X n ` : x

X1

x

X2

x ‌.. x

Xn

1X 1 0 X 2 .. 0 X n Â&#x; i coefficienti del vettore X 1 nella nuova base sono dati da 1,0,0...0 ; T

0 X 1 2 X 2 .. 0 X n Â&#x; i coefficienti del vettore X 2 nella nuova base sono dati da 0,1,0...0 ; T

0 X 1 0 X 2 .. 1X n Â&#x; i coefficienti del vettore X n nella nuova base sono dati da 0,0,0...1 ;

Ricordando che AX , fornisce le coordinate del vettore x l’espressione Y A nella base prescelta; x AX j O j X j ;

T

Y trasformato di X secondo l’operatore

segue Pag.56


Quaderno n°1

Capitolo 4:Le forme quadratiche

§ O1 ¡ ¨ ¸ ¨0¸ O1 X 1 Â&#x; ¨ ¸ ... ¨ ¸ ¨0¸ Š š

AX 1

§0¡ ¨ ¸ ¨O ¸ O2 X 2 Â&#x; ¨ 2 ¸ ... ¨ ¸ ¨0¸ Š š

§1¡ ¨ ¸ ¨0¸ A¨ ¸ ; AX 2 ... ¨ ¸ ¨0¸ Š š

§0¡ ¨ ¸ ¨1¸ A¨ ¸ ;‌.; AX n ... ¨ ¸ ¨0¸ Š š

§0¡ ¨ ¸ ¨0¸ On X n Â&#x; ¨ ¸ ... ¨ ¸ ¨O ¸ Š nš

§0¡ ¨ ¸ ¨0¸ A¨ ¸ ... ¨ ¸ ¨1¸ Š š

Quanto sopra illustrato implica che la rappresentazione implica dell’operatore A nella base di autovettori è di tipo diagonale:

A

^X 1 , X 2 , X 3 ,....., X n ` di

La base

§ O1 .. 0 ¡ ¨ ¸ ¨ .. ... .. ¸ (11) ¨0 0 O ¸ n š Š

autovettori è sicuramente ortogonale, ma non è detto che sia anche

ortonormale. Per ottenere una base sicuramente ortonormale è sufficiente sostituire ^X 1 , X 2 , X 3 ,....., X n `

^X

`

Xi (tale operazione si chiama operazione di X iT X i normalizzazione): ;anche con questa base l’operatore A ha la forma (11).

con

'

1

, X ' 2 , X ' 3 ,....., X ' n

tale che

X 'i

Caso2 : m n Nel caso m n , gli autovalori non sono tutti soluzioni semplici dell’equazione caratteristica ed in generale ciò comporta la non esistenza di una base di autovettori come nel caso 1. La proprietĂ di simmetria dell’operatore A , comporta invece la possibilitĂ di determinare anche in questo caso l’esistenza di una base di autovettori (semplici). Allo scopo di dimostrare l’esistenza di tale base iniziamo ad analizzare il caso bidimensionale n

2.

Consideriamo quindi

A

§a b¡ ¨¨ ¸¸ Šb cš

Determiniamo il polinomio caratteristico:

b ¡ §a O ¨¨ ¸ Â&#x; A OI c O ¸š Š b

A OI

a O b b c O

0

(a c) r (a c) 2 4(ac b 2 ) a O c O b 0 Â&#x; O (a c)O (ac b ) 0 Â&#x; O1, 2 2 2 2 2 2 2 2 2 a c b t 0 ' (a c) 4(ac b ) a c 2ac 4ac b 2

2

2

O1, 2

( a c) r

a c 2 b 2 2

Si possono verificare i seguenti tre casi 1. a 0, c 0, b 0 Questo caso non è significativo in quanto A risulta pari alla matrice nulla

2.

a c z 0 , oppure a c

0, b z 0

In questo caso si hanno due autovalori reali e distinti, pertanto esiste una base di autovettori per cui si ha:

Pag.57


Quaderno n°1

Capitolo 4:Le forme quadratiche

§ O1 ¨¨ ©0

A

3.

a c

0, a z 0, c z 0 , b

0· ¸ O 2 ¸¹

0

In questo caso esiste un autovalore doppio diagonale in quanto b 0

A Dunque nel caso bidimensionale n

O

a

c , però la matrice risulta ugualmente

§a 0· ¨¨ ¸¸ ©0 a¹

2 l’operatore A risulta diagonalizzabile.

Dimostriamo ora il caso generale per induzione. Supponiamo quindi che l’operatore A sia diagonalizzabile per n k 1 e dimostriamo che la proprietà vale anche per n k . Infatti se valutiamo il polinomio caratteristico, esso è un polinomio algebrico di grado k , per cui deve esistere almeno una soluzione reale O . n

Lo spazio R risulta scomposto nella somma diretta di due sottospazi:

E O Wk 1

Rn

Dove E O è lo spazio monodimensionale di un autovettore semplice associato all’autovalore

O

e Wk 1 è un

sottospazio a k 1 dimensioni. Si osservi che Wk 1 e E O sono perpendicolari, in quanto se la proiezione di

Wk 1 su E O non fosse nulla vuol dire che è possibile esprimere un vettore della base di Wk 1 appartenente a E O , pertanto è sufficiente considerare il sottospazio Wk 1 epurato dal suindicato vettore di base. Allora si può individuare una base ortonormale in cui il primo vettore di base è l’autovettore dello spazio E O , eventualmente diviso per il proprio modulo per renderlo unitario come visto in precedenza, ed il resto un base ortonormale di Wk 1 . In questa nuova base l’operatore A assume la seguente forma:

A

§O ¨ ¨0 ¨ .. ¨ ¨0 ©

0

a 21 ..

ak 2

0 · ¸ .. a 2 k ¸ .. .. ¸ ¸ .. a kk ¸¹ ..

La sottomatrice

Ak

§ a 21 ¨ ¨ .. ¨a © k2

.. a 2 k · ¸ .. .. ¸ .. a kk ¸¹

risulta simmetrica, in quanto è stato eseguito un cambiamento di basi ortonormali, per cui le matrici sono state modificate per congruenza con mantenimento della simmetria. Per l’ipotesi induttiva Ak , che risulta essere di dimensioni n k 1 può essere diagonalizzata con una base di autovettori normalizzati. In conclusione quindi, anche nel caso 2, in cui si non s hanno n autovalori distinti, è possibile diagonalizzare la matrice A tramite un cambiamento di base che porta dalla base canonica ad una base di autovettori normalizzata in ciò consiste i cosiddetto teorema spettrale.

Pag.58


Quaderno n°1

Capitolo 4:Le forme quadratiche

4.4.Teorema di Sylvester e Criteri di determinazione del segno n

Si consideri una forma quadratica generale operante in R riferito a base canonica :

y X TAX , con X R n , A matrice simmetrica quadrata (n, n) ; nel paragrafo precedente abbiamo dimostrato l’esistenza in R

n

di una trasformazione di coordinate

1

caratterizzata dalla matrice C ortonormale ( C C ) che trasporta la base canonica in una base rappresentata da autovettori normalizzati ed ortogonali. Poiché, come abbiamo già visto, x

nella nuova base di autovettori normalizzati la matrice A , come operatore lineare, può essere sostituita con una matrice simile ad

x

e

A e diagonale come la (11): /

C 1 AC

diag (Oi )

poiché in questo caso la relazione di similitudine coincide con quella di congruenza, ossia

diag (Oi ) e quindi / nella nuova base rappresenta la stessa forma quadratica rappresentata da A nella base canonica; /

C 1 AC

C T AC

possiamo concludere che è sempre possibile determinare una base ortonormale tale che la forma quadratica

y X TAX possa essere espressa in forma diagonale:

y X T/X

x1

§ O1 ¨ ¨0 .. x n ¨ 0 ¨ ¨0 ©

x2

0

O2 0 0

0 ·§ x1 · ¸¨ ¸ .. 0 ¸¨ x 2 ¸ (12) .. 0 ¸¨ .. ¸ ¸¨ ¸ .. O n ¸¹¨© x n ¸¹ ..

Ossia in forma esplicita: n

y

¦ O x

i

2

i

, dove

Oi ( i 1..n )

(12’)

i 1

indicano gli autovalori anche non tutti distinti.

4.4.1.Teorema di Sylvester Gli autovalori di un operatore lineare sono un invariante per relazione di similitudine (cfr paragrafo 4.3.2.) D’altra parte se eseguiamo una trasformazione ortonormale tale trasformazione risulta simile e congruente, pertanto possiamo dire che l’insieme degli autovalori risulta invariante anche per l’insieme delle forme quadratiche le cui matrici risultano congruenti, ossia nella classe di equivalenza che rappresenta la forma quadratica (cfr paragrafo 4.3.1) e risultano invarianti anche i segni di tali autovalori. Pertanto detta

/

§ O1 ¨ ¨0 ¨0 ¨ ¨0 ©

0

O2 0 0

0· ¸ .. 0 ¸ (12”) .. 0 ¸ ¸ .. O n ¸¹ ..

la matrice rappresentativa della classe di congruenza si indichino con : x x x

p il numero di autovalori positivi; m il numero di autovalori negativi o il numero di autovalori nulli

Pag.59


Quaderno n°1

Capitolo 4:Le forme quadratiche

Si può concluderla validitĂ del teorema di Sylvester, che afferma l’invarianza per trasformazione congruenti ortonormali la somma s , detta segnatura della forma quadratica, dei tre valori sopra riportati:

s

p m o

n (13) corrispondente alla dimensione di R n

Si osservi che la forma se vi sono autovalori nulli, il determinante della matrice della forma quadratica risulta nullo e la forma viene detta degenere. Tutto ciò può essere dimostrato ricordando che il determinante è invariante per similitudine e nel caso ortonormale anche per congruenza (poichĂŠ le due relazioni coincidono) e basta allora prenderein considerazione la (12â€?) che avrĂ degli elementi nulli sulla diagonale principale. Infine con una opportuna trasformazione di coordinate (non ortonormale) la forma quadratica si può porre nella cosiddetta forma canonica diagonale. A tale scopo si consideri la (12’) e si ponga:

sgn(Oi )( Oi xi

zi Dove sgn( x )

­ 1 x ! 0 è la funzione segno. Ž ¯ 1 x 0

Allora la (12’) assume la seguente struttura: n

n

2 ÂŚ Oi x i

y

ÂŚ sgn(O ) z

i

i 1

2

i

i 1

Supponendo senza perdere di generalitĂ che le prime p variabili siano tutte con autovalori positivi e le ultime m variabili siano con autovalori negativi, si ottiene: p

y

m

ÂŚ z ÂŚ z

2

i

i

i 1

2

(12’�)

i 1

In questo caso la matrice rappresentativa diviene :

/c

§ 1 ¨ ¨0 ¨0 ¨ ¨0 ¨0 ¨ ¨0 ¨ ¨0 ¨ 0 Š

.. 0 0 .. 0 0 .. 1 0 .. 0 1 .. 0 0 .. 0 0 .. 0 0 .. 0 0

.. 0 .. 0 .. 0 .. 0 .. 0 .. 1 .. 0 .. 0

0¡ ¸ 0¸ 0¸ ¸ 0¸ 0 ¸¸ 0¸ ¸ 0¸ 0 ¸š

0 0 0 0 0 0 0 0

diag ( 1

,..

1

..,

1, 0, ..0 )

1,

p

m

n p m

Se la forma è non degenere si ha:

/c

diag ( 1

,..

1

..,

1,)

1,

p

n p

4.4.2.Condizioni di PositivitĂ Vogliamo ora determinare le condizioni di positivitĂ , ossia i criteri per cui la forma y definita positiva:

X TAX risulti

y X TAX ! 0 X z 0 Pag.60


Quaderno n°1

Capitolo 4:Le forme quadratiche

X TAX ! 0 X z 0 se e solo se tutti gli autovalori della matrice A sono positivi.

1° criterio: y Infatti

se y

X TAX ! 0 Â&#x; , allora se consideriamo y X T/X

n

ÂŚ O x

segue y

i

x2

! 0 xi z 0 se per assurdo si pone Oi 0 allora per x j

2

i

i 1

y Se si pone

x1

§ O1 ¨ ¨0 .. x n ¨ 0 ¨ ¨0 Š

Oi ! 0 j z i

n

segue y

ÂŚ O x

i

0 ¡§ x1 ¡ ¸¨ ¸ .. 0 ¸¨ x 2 ¸ !0 .. 0 ¸¨ .. ¸ ¸¨ ¸ .. O n ¸š¨Š x n ¸š

0

..

O2 0 0

0 j z i e xi z 0 si ha

O i x i 2 0

! 0.

2

i

i 1

2° criterio: y X AX ! 0 X z 0 se e solo se la forma risulta fattorizzabile in y matrice invertibile. T

Infatti se y

X T C T C X con C

X TAX ! 0 segue la possibilitĂ di esprimere la forma in modalitĂ canonica y

X

' T

diag ( 1, 1,...., 1) .

I X ' dove I

Eseguendo ora un cambiamento di coordinate

CX Â&#x; y

X' Viceversa se y

X

' T

X T CTC X

I X'

X T C T C X con C matrice invertibile segue: y

XC T I CX

X T CTC X

X

' T

I X ' dove X '

CX

3° criterio: y X AX ! 0 X z 0 se e solo se i minori principali primari della matrice ( confronta paragrafo 3.1.9 per la definizione di minore principale primario). T

Sia dunque y

x1

X TAX ! 0 X z 0 Â&#x; y X T/X

x2

§ O1 ¨ ¨0 .. x n ¨ 0 ¨ ¨0 Š

0

O2 0 0

A risultano positivi

0 ¡§ x1 ¡ ¸¨ ¸ .. 0 ¸¨ x 2 ¸ ! 0 , in cui .. 0 ¸¨ .. ¸ ¸¨ ¸ .. O n ¸š¨Š x n ¸š ..

tutti gli autovalori sono positivi per il criterio 1. PoichÊ il determinante è invariante per trasformazioni congruenti ortonormali si ha:

A

An

/

3 in 1 Oi ! 0

Si consideri ora il seguente vettore

X

§ Xk ¡ ¸¸ per k ¨¨ Š X n k š

1..n

Pag.61


Quaderno n°1

Capitolo 4:Le forme quadratiche

dove le componenti di X k sono tutte z 0 , mentre le componenti di X n k sono tutte nulle e si valuti la forma quadratica:

§ Xk · ¨¨ ¸¸ © X n k ¹

T

y X AX

X k Ak X k ! 0 Ak ! 0 k T

Poiché y

Viceversa si supponga che Ak ! 0 k

T

§ Ak ¨¨ T © An k

An k ·§ X k · ¸¨ ¸ Bk ¸¹¨© X n k ¸¹

X k Ak X k ! 0 T

1..n .

1..n . Ricordiamo quanto dimostrato nel paragrafo 3.9.2:

se una matrice quadrata (n u n) ha tutti i minori principali primari non singolari (ossia a determinante diverso da zero) vale , per tale matrice, la scomposizione seguente

A TI D p TS (13) dove x TI è una matrice triangolare inferiore quadrata (n u n) non singolare con i coefficienti della diagonale principale pari ad uno, x D p è una matrice diagonale quadrata (n u n) non singolare con il coefficiente d11 a11 ed il

Ak con k Ak 1

coefficiente k esimo d kk

2..n ,

TS è una matrice triangolare superiore quadrata (n u n) non singolare con i coefficienti della

x

diagonale principale pari ad uno.

AT simmetrica , ossia il caso che si presenta in una forma quadratica e vediamo come si specializza la (13). A tale scopo si indichi con D p la matrice diagonale

Analizziamo ora il caso particolare di una matrice A in tale che

Dp

diag ( d11 , d 22 ,....., d nn )

La (13) assume la forma

A TI D p TS

T

T

I

Dp

D p TS (13’)

Da cui

AT

> T

I

Dp

D p TS

@

AT

T

D p TS

TS T

T

I

Dp

T

D p D p TI

T

A

TS T

Dp

T

TS T D p TI T

TS T D p TI T

Dp

T

T

T

I

TS T

D p D p TI

T

A TI D p TS

TI D p TS

Essendo la matrice D p diagonale segue

TI

TS T

Pertanto

Pag.62


Quaderno n°1

Capitolo 4:Le forme quadratiche

A

TS T

D p D p TI

T

TS T

D p D p TS

Pertanto per il 2° criterio segue che la forma quadratica y

D p TS

X T AX

XT

T

D p TS

D p TS

T

D p TS X risulta

definita positiva. Osservazione T

Dall’applicazione dei criteri 2 e 3 segue che presa una matrice non singolare C la matrice C C risulta avere tutti i minori principali primari positivi e quindi ha positivo anche il determinante.

4.4.3.Condizioni di Negatività Studiamo ora le condizioni di negatività , ossia le condizioni per cui y

X TAX risulti definita negativa:

y X TAX 0 X z 0 X TAX 0 X z 0 se e solo se y X

A X

! 0 X z 0 , ossia basta applicare le condizioni di positività alla forma quadratica (detta negata) caratterizzata dalla matrice A i cui elementi sono dati dagli elementi di A cambiati di segno. Si osservi dunque che y

T

X TAX 0 X z 0 se e solo se tutti gli autovalori della matrice A sono negativi.

1° criterio: y Infatti

se y

x1

X TAX 0 y X T/X

Poiché y X /X 0 X z 0 se e solo se y devono essere tutti positivi. T

E dunque Oi ! 0

Oi ! 0

per i

x2

X

T

§ O1 ¨ ¨0 .. x n ¨ 0 ¨ ¨0 ©

/ X

0

O2 0 0

0 ·§ x1 · ¸¨ ¸ .. 0 ¸¨ x 2 ¸ 0 .. 0 ¸¨ .. ¸ ¸¨ ¸ .. O n ¸¹¨© x n ¸¹ ..

! 0 X z 0 segue gli autovalori di /

1..n

2° criterio: y X AX 0 X z 0 se e solo se tutti i minori principali della matrice A di dimensione dispari sono negativi e quelli di dimensione pari sono positivi. T

Si ricordi l’espressione analitica di un determinante (nel caso specifico un minore principale di ordine k ):

Ak Dove

H i i ......i 12

k

Hii

1 2 ......i k

a1i1 a1i2 ....a1ik

si chiama indicatore di Levi-Civita e vale

x

-1 se (i1i2 ......ik ) è una permutazione dispari;

x

+1 se (i1i2 ......ik ) è una permutazione par;

x

0 se (i1i2 ......ik ) non è una permutazione , ossia se ci sono indici con lo stesso valore.

Poiché y

X TAX 0 X z 0 se e solo se y X

T

A X

! 0 X z 0 si avrà: Pag.63


Quaderno n°1

Capitolo 4:Le forme quadratiche

y X TAX 0 se e solo se i minori principali primari di A sono tutti positivi. Essendo

H i i ......i a1i a1i ....a1i

Ak

12

k

1

2

k

( 1) k H i1i2 ......ik a1i1 a1i2 ....a1ik

( 1) k Ak per k

1..n

Segue il 2° criterio.

4.4.4.Condizioni di Semipositività Studiamo ora le condizioni di semipositività, ossia le condizioni per cui y positiva: y

X TAX risulti semidefinita

X TAX t 0 ed uguale a zero anche per vettori X z 0 T

1° criterio: y X AX risulta semidefinita positiva se e solo se i suoi autovalori risultano non negativi ed almeno uno nullo. Riconduciamoci come al solito alla forma diagonale:

§ O1 0 .. 0 ·§ x1 · ¸¨ ¸ ¨ n ¨ 0 O 2 .. 0 ¸¨ x 2 ¸ T T y X AX y X /X x1 x 2 .. x n ¨ y O i x i 2 ¦ 0 0 .. 0 ¸¨ .. ¸ i 1 ¸¨ ¸ ¨ ¨ 0 0 .. O ¸¨ x ¸ n ¹© n ¹ © Allora evidente la tesi in quanto si ottiene il y 0 per tutti vettori non nulli che hanno la componente diversa da zero relativa al fattore dovuto all’autovalore nullo.

X TAX risulta semidefinita positiva se e solo se i minori principali risultano non negativi e il determinante di A risulta nullo.

2° criterio: y

Infatti siccome deve esistere almeno un autovalore nullo in determinante di A risulta nullo.e viceversa. L’annullamento del determinante di A determina autosoluzioni del sistema lineare AX 0 , ossia esiste un *

vettore non nullo X tale che AX La forma quadratica y

*

0.

T

X AX valutata in X * risulta necessariamente nulla: y X *TAX *

X *T 0

0

A questo punto è sufficiente considerare una scomposizione identica a quella ottenuta nel paragrafo 4.4.2 per il 3° criterio per completare la dimostrazione. Osservazione Nel caso di una forma quadratica semidefinita positiva o negativa, la matrice della forma è necessariamente Singolare ( si parla di forma e matrice degenere).

___________________________________________________

Pag.64



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.