Page 1


Accastampato non e` un periodico, pertanto non e` registrato e non ha un direttore responsabile, e` solo un esperimento – per ora occasionale – realizzato dagli studenti di Fisica dell’Universit`a degli Studi di Roma la Sapienza

Gli articoli contenuti in questo numero sono protetti con marca digitale grazie a patamu.com

Quest’opera e` rilasciata sotto la licenza Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported. Se non specificato altrimenti, tutti gli articoli in essa contenuti sono rilasciati dai rispettivi autori sotto la medesima licenza. Per leggere una copia della licenza visita il sito web http://creativecommons. org/licenses/by-nc-sa/3.0/ o spedisci una lettera a Creative Commons, 171 Second Street, Suite 300, San Francisco, California, 94105, USA.


accastampato Rivista degli Studenti di Fisica dell’Universit`a Sapienza di Roma www.accatagliato.org EDITORIALE R EDAZIONE redazione@accatagliato.org

La divulgazione della Scienza a partire da chi la fa La ricerca scientifica a Roma: informare, orientare, incuriosire

A

Roma e dintorni si fa moltissima ricerca, ma troppo pochi ne sono a conoscenza. Soprattutto non lo sa la maggior parte degli studenti delle superiori, proprio loro che sono chiamati a scegliere un percorso universitario che li prepari al mondo del lavoro: una mancanza di informazione che rischia di rendere inconsapevole una scelta cos`ı

importante. [...] Questa riflessione e` stata il punto di partenza per un’idea tanto ambiziosa quanto, riteniamo, utile nell’ambito della divulgazione scientifica a Roma: accastampato, una rivista curata e gestita dagli studenti universitari del dipartimento di Fisica, che accolga i contributi di tutti coloro si impegnano quotidianamente nella Ricerca, dai dottorandi ai ricercatori ai docenti. Una rivista che abbia come obiettivo esplicito l’avvicinamento della popolazione studentesca delle superiori alla ricerca di punta, al meglio che venga prodotto nella nostra citt`a, affinch´e possa rendersi conto degli sbocchi e delle potenzialit`a del proprio studio e di una scelta orientata alla Scienza. [...]

Alessio Cimarelli jenkin@accatagliato.org

Carlo Mancini carlo@accatagliato.org

Silvia Mariani shyka@accatagliato.org

Erica Chiaverini erica@accatagliato.org

Niccol`o Loret niccolo@accatagliato.org

Isabella Malacari isabella@accatagliato.org

Kristian Gervasi Vidal krisgerv@accatagliato.org

C OMMISSIONE Giorgio Parisi

SCIENTIFICA

La sezione Il Ricercatore Romano raccoglier`a articoli riguardo i filoni di ricerca del Dipartimento, scritti direttamente dai loro protagonisti, con uno stile chiaro e divulgativo, il cui livello di difficolt`a sar`a indicato dagli atomi di accessibilit`a visibili nell’Indice: la possibilit`a di avere direttamente i contatti di coloro che lavorano e insegnano a Roma non potr`a che rendere ancora pi`u stretto il contatto tra il mondo universitario e quello delle scuole superiori. A margine di ci`o, questa sezione sar`a anche un’opportunit`a per gli studenti universitari di Fisica di conoscere le linee di ricerca al di fuori della propria specializzazione e di avere una panoramica tale da facilitare la scelta della dissertazione, della specialistica, dei laboratori o del dottorato.

giorgio.parisi@roma1.infn.it

Una rubrica speciale, Il Resto del Neutrino, sar`a incentrata sulla spiegazione scientifica di fenomeni e tecnologie quotidiane, ma troppo spesso sconosciuti, a volte apparentemente misteriosi. Articoli che renderanno chiaro come la Scienza e il metodo scientifico permeino ormai profondamente quasi ogni aspetto della vita e che avranno l’esplicito scopo di combattere il sempre pi`u diffuso utilizzo inconsapevole della tecnologia moderna.

Antonio Polimeni

La sezione Nanos Gigantum ripercorrer`a alcune delle tappe fondamentali del pensiero scientifico, affinch´e le meraviglie naturali che esso solo ci permette di scoprire possano essere comprese non solo sul corretto piano logico o applicativo, ma anche nel loro inquadramento storico. Sar`a quindi un’opportunit`a per recuperare il gusto del cammino verso la conoscenza, a fianco allo stupore mai sopito verso i contenuti della conoscenza stessa. Completano la rivista le rubriche dedicate agli Eventi rilevanti nel panorama scientifico italiano e internazionale, alle Recensioni di libri e non solo, che possano fungere da spunto per un approfondimento o da guida per esplorare nuovi orizzonti, agli Esperimenti, da fare anche in casa per toccare con mano alcuni principi delle leggi naturali, e infine alle problematiche sociali, politiche ed economiche connesse alla pratica scientifica. [...] Buona lettura e. . . buona Ricerca!

Fabio Bellini fabio.bellini@roma1.infn.it

Lara Benfatto lara.benfatto@roma1.infn.it

Riccardo Faccini riccardo.faccini@roma1.infn.it

Francesco Piacentini francesco.piacentini@roma1.infn.it

antonio.polimeni@roma1.infn.it

Antonello Polosa antonio.polosa@roma1.infn.it

H ANNO CONTRIBUITO L. Benfatto, A. Bonforti, A. Cimarelli, C. Cosmelli, M. Mitrano, G. Piredda, T. Scopigno.

S I RINGRAZIANO ANCHE Donald E. Knuth, Leslie Lamport, la Comunit`a del TEX Users Group (TUG: www.tug.org), Gianluca Pignalberi e Kerti Alev (http://freyja.pri.ee/, immagine di copertina)

Con il patrocinio del Dipartimento di Fisica della Sapienza di Roma

accastampato num. 0, Novembre 2009


Indice

num. 0, Novembre 2009

La ricerca scientifica a Roma: informare, orientare, incuriosire

EDITORIALE

ONDA LUNGA

La divulgazione della Scienza a partire da chi la fa 3

accastampato, Creative Commons e Patamu 8

Un’opportunit`a per gli studenti delle superiori per scoprire la pratica scientifica della propria citt`a e maturare una scelta consapevole del proprio futuro. Una possibilit`a per gli studenti di Fisica di entrare in contatto con tutte le linee di Ricerca attive in Dipartimento e per imparare a divulgare il proprio lavoro scientifico. accastampato: una rivista curata da studenti per studenti, a partire dal quotidiano lavoro di ricerca di Roma, tanto interessante quanto ancora troppo spesso sconosciuto

di A. Bonforti Tutti i contenuti di accastampato sono rilasciati sotto licenza Creative Commons BY–NC–SA e la loro paternit`a protetta da marca digitale grazie a patamu: vediamo cosa significa. . .

IL RESTO DEL NEUTRINO

Tecnologie del moderno Cinema 3D

10

di A. Cimarelli Gli enormi passi avanti fatti dalle tecnologie stereoscopiche aprono finalmente le porte ad una forte espansione dell’intrattenimento cinematografico tridimensionale

RECENSIONI

Storia del laser

6

di M. Mitrano Breve storia di un’invenzione che ha cambiato il mondo

ESPERIMENTI

Un palloncino sul phon

7

di C. Cosmelli Come il getto d’aria del phon tiene il palloncino sospeso sopra di s´e

4

Panoramica sul comportamento collettivo animale

15

di A. Cimarelli Cosa hanno in comune gli stormi di uccelli con i banchi di pesci o gli alveari di api? Un comportamento collettivo emergente sorprendentemente simile nonostante le differenze tra le specie

accastampato num. 0, Novembre 2009


ONDA LUNGA

La riforma dell’Universita` Italiana

20

di L. Benfatto L’idea stessa di creare una vera competizione tra le varie universit`a, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilit`a sociale del sistema italiano

IL RICERCATORE ROMANO

La transizione vetrosa

23

di T. Scopigno Nonostante un utilizzo molto diffuso dei materiali vetrosi, alcuni aspetti della transizione a questa particolarissima fase della materia non sono ancora pienamente compresi

Alla ricerca del decadimento proibito

27

di G. Piredda et al. Trovare il decadimento µ → eγ per andare oltre il Modello Standard

NANOS GIGANTUM

Prolusione del corso di Fisica Teorica di Ettore Majorana 30 di A. Cimarelli La Prolusione di Ettore Majorana del 13 gennaio 1938 per il suo corso di Fisica Teorica all’Universit`a Federico II di Napoli permette di comprendere le grandi capacit`a didattiche del grande scienziato, scomparso misteriosamente nel marzo dello stesso anno.

EVENTI

S TARFLAG @ Turin Photo Festival

34

di A. Cimarelli Il progetto S TARFLAG ha permesso di studiare quantitativamente grandi stormi in volo, al Turin Photo Festival le sue fotografie stereoscopiche diventano arte figurativa


RECENSIONI

Storia del laser

C OPERTINA

Breve storia di un’invenzione che ha cambiato il mondo Per completezza e per la sua chiarezza mi permetto di citare la quarta di copertina, pubblicata anche sul sito della casa editrice. Il termine laser e` ormai conosciuto al grande pubblico e molte delle applicazioni della luce che esso emette sono sotto gli occhi di tutti. Si parla di operazioni chirurgiche e di cure mediche eseguite mediante raggi laser; si sa che le discoteche usano questi raggi per creare particolari effetti di luce e che, per esempio, brevi impulsi di luce, sempre emessi da laser, viaggiando entro fibre di vetro e sostituendosi agli impulsi elettrici, permettono di realizzare collegamenti telefonici. Il laser e` l’elemento essenziale delle stampanti dei quotidiani, di quelle dei computer e di alcuni radar e, inoltre, con i suoi raggi si pu`o tagliare e forare ogni sorta di materiale, leggere CD, registrare, e riprodurre fotografie tridimensionali (ologrammi) e fare innumerevoli altre cose. Ma che cosa in effetti sia un laser e come esso funzioni sono in pochi a saperlo, oltre agli addetti ai lavori. Questo libro cerca di spiegarlo in modo comprensibile, pur senza prescindere da un certo numero di considerazioni strettamente tecniche, raccontando come si sia arrivati a costruirlo, insieme al maser, che e` il suo gemello nel dominio delle microonde. La caratteristica dei laser di emettere fasci collimati e colorati deriva dal diverso modo in cui in essi e` emessa la luce rispetto alle altre sorgenti. Nel libro si approfondisce cos’`e la luce e come viene emessa, e a tale scopo si esamina come si comportano gli atomi, utilizzando alcuni concetti della meccanica quantistica adatti a descriverli... Nel cercare di capire i vari fenomeni seguendo un filo storico l’autore ricostruisce, in un certo senso, parte della storia della luce e i primi passi della meccanica quantistica, sia pure a un livello elementare. Detto questo il libro che sto descrivendo e` un bel libro divulgativo che si muove in un segmento editoriale sempre pi`u trascurato ovvero quello del lettore con preparazione scientifica di base medioalta che desidera approfondire un singolo tema o settore a lui poco noto. Ovviamente e` un libro di lettura con un formalismo matematico veramente ridotto all’osso e presente solo qu`a e l`a nel testo ove necessario. A mio avviso, specialmente all’inizio, l’autore la prende troppo alla larga partendo da Galileo e il metodo scientifico e talvolta si perde in parentesi troppo dettagliate (ad es. il cap. 6 su Einstein). Naturalmente questo e` il parere di uno studente del I anno di specialistica e necessariamente sar`a diverso da quello del lettore non addetto ai lavori. Tuttavia gli ultimi capitoli riscattano tutto il testo fornendo molti retroscena storici e veramente molte informazioni sulla grande variet`a di lasers oggi esistenti. Complessivamente i soldi investiti sono pienamente ripagati da questo saggio veramente completo e molto scorrevole nella lettura. Matteo Mitrano

I NDICE 1. Introduzione 2. Le teorie ondulatoria e corpuscolare della luce 3. La spettroscopia 4. La teoria del corpo nero 5. L’atomo di Rutherford e di Bohr 6. Einstein 7. Einstein e la luce, l’effetto fotoelettrico e l’emissione stimolata 8. Microonde 9. Spettroscopia: atto secondo 10. La risonanza magnetica 11. Il maser 12. La proposta per un maser ottico 13. Le disavventure di Gordon Gould 14. E finalmente fu il laser! 15. A che cosa serve il laser?

I N BREVE Titolo Autore Editore Anno Pagine Prezzo

6

accastampato num. 0, Novembre 2009

Storia del Laser Mario Bertolotti Bollati Boringhieri

35.00 e


ESPERIMENTI

Un palloncino sul phon

S CHEMA

Come il getto d’aria del phon tiene il palloncino sospeso sopra di se´ di Carlo Cosmelli (Professore di Fisica alla Sapienza) ccendere il phon a mezza forza e tenerlo fermo con il getto d’aria rivolto verso l’alto. Prendere il palloncino e poggiarlo delicatamente nel mezzo del flusso di aria sopra il phon. Si vedr`a che il palloncino si metter`a in una posizione di equilibrio, pi`u in alto o pi`u in basso del punto in cui l’avevate lasciato, e ci rimarr`a stabilmente.

A

Suggerimenti ed astuzie Se il palloncino fosse troppo leggero, cio`e se vola via, vuol dire che il getto d’aria e` troppo forte. In tal caso ridurre il getto d’aria. Se non fosse possibile, provare ad aumentare la massa del palloncino inserendo un po’ d’acqua (circa mezzo cucchiaino) dentro di esso prima di gonfiarlo. Approfondimento Il palloncino rimane in equilibrio per due ragioni: la prima e` semplicemente la forza generata dal flusso d’aria diretto verso l’alto. Il flusso d’aria e` pi`u forte all’uscita del phon e diminuisce di intensit`a man mano che ci si allontana dalla bocca del phon. Ci sar`a un punto in cui la forza esercitata dal flusso d’aria e` uguale alla forza di gravit`a che si esercita sul palloncino. In questa posizione il palloncino potr`a stare in equilibrio. Tuttavia questo potrebbe essere un punto di equilibrio instabile, per spostamenti laterali. Invece si pu`o vedere che se diamo delle piccole botte al palloncino, questo si sposta dalla posizione di equilibrio, ma tende poi a ritornare verso il centro del getto d’aria, rimanendo sempre in equilibrio. Questo vuol dire che c’`e un secondo effetto che mantiene il palloncino in posizione: si tratta dell’effetto combinato del principio di Bernouilli e dell’effetto Coanda. Quello che succede e` che l’aria che esce dal phon crea una specie di guscio intorno al palloncino, dandogli un ulteriore supporto. Possiamo accorgerci di questo effetto anche spostando il getto di aria del phon dalla posizione verticale, inclinandolo lateralmente. Si pu`o vedere come, per angoli non troppo grandi, il palloncino continua a restare sospeso nel mezzo del getto di aria, anche se ora si trova fuori dalla verticale innalzata dalla bocca del phon. Il palloncino pu`o essere anche sostituito da una pallina da ping-pong, tutto dipende dalla potenza del phon.

M ATERIALE • 1 palloncino gonfiato poco (10 ÷ 15cm) • 1 phon elettrico

A RGOMENTO • Equilibrio di un corpo in un fluido • Fluidi reali

Principio di Bernoulli ed effetto Coand˘a

Esempio dell’effetto Coand˘a, da it. wikipedia.org

Un problema con cui ci siamo confrontati tutti? Riuscire a bere da una fontanella senza bagnarsi completamente volto e maglietta! Perch´e l’acqua che ci bagna il viso, anzich´e gocciolare gi`u dal mento, scorre lungo il collo? L’adesione di un fluido (un liquido o un gas) lungo superfici ricurve prende il nome di effetto Coand˘a: lo strato del fluido prossimo alla superficie su cui scorre, rallentando per attrito, vincola il movimento degli strati esterni a causa della reciproca attrazione; l’effetto mette in rotazione gli strati esterni verso l’interno, facendo aderire il fluido alla superficie stessa. Prendete ora tra le dita gli angoli del lato corto di un foglietto di carta (uno scontrino per esempio) e avvicinateli alla bocca. Soffiando delicatamente appena sopra il foglio, questo si alzer`a, restando sospeso a mezz’aria; aumentando la forza del soffio, il foglio inizier`a a sbattere freneticamente. Il fluire dell’aria sul lato superiore del foglio causa, infatti, una diminuzione della pressione rispetto al lato inferiore che, pertanto, e` spinto verso l’alto. Il principio di Bernoulli garantisce infatti che ad ogni aumento della velocit`a di un fluido corrisponde una diminuzione della sua pressione e viceversa. Effetto Coand˘a e principio di Bernoulli non sono indipendenti, ma possono essere descritti come casi particolari di una teoria generale dei fluidi, fondata sui lavori degli scienziati Claude-Louis Navier e George Stokes. accastampato num. 0, Novembre 2009


accastampato, Creative Commons e Patamu Una questione di licenze. . . Adriano Bonforti (Studente di Fisica, Terza Universit`a degli Studi di Roma)

a rivista accastampato ha scelto di liberare sin dal suo primo numero il proprio contenuto con licenze Creative Commons (CC), attraverso la consulenza e la collaborazione del sito patamu.com, che ha contestualmente fornito un servizio di tutela dal plagio. Per una rivista di carattere scientifico divulgativo la scelta non poteva essere migliore, poich´e la Scienza ed il Sapere in generale sono o dovrebbero essere per definizione libere da vincoli di diffusione ed elaborazione. D’altra parte la storia della scienza e` un’ottima e convincente dimostrazione di quanto virtuose possano essere la condivisione e la libera fruizione del sapere per il progresso scientifico. In questo articolo proponiamo una breve panoramica sulle licenze CC e sul servizio offerto da Patamu.

L

dalit`a, concedendone ad esempio la diffusione gratuita e libera in assenza di scopo di lucro. In altre parole, per mezzo delle CCPL l’autore d`a esplicitamente il consenso affinch´e la sua opera possa circolare ed essere diffusa pi`u o meno liberamente, disponendo come vuole dei propri diritti. Ci`o in contrapposizione al caso del copyright tradizionale, nel quale ci`o non e` possibile. -------------------------------------------

accastampato ha scelto di liberare sin da questo primo numero il proprio contenuto con licenza Creative Commons ------------------------------------------Per questo ci si riferisce spesso alle licenze di Creative Commons come licenze “copyleft”. Per favorire il pi`u possibile la libera circolazione di questa rivista e dei suoi contenuti, abbiamo scelto di liberarla attraverso la licenza CC di tipo BY- NC - SA (attribution, non commercial, share alike): significa che tutti i suoi contenuti possono essere riprodotti e diffusi, a condizione che ci`o non avvenga per scopi commerciali e che venga sempre indicato l’autore. Le opere possono inoltre essere modificate a condizione che sussista l’assenza di lucro e che l’autore e l’opera originaria vengano sempre indicati ed informati ove possibile; infine, l’opera derivata deve essere a sua volta liberata con le stesse condizioni.

Figura 1 Logo di patamu.com

Creative Commons Public Licenses Le Creative Commons Public Licenses (CCPL) sono delle particolari licenze che permettono di distribuire un’opera d’arte o di ingegno svincolandola parzialmente dalle rigide imposizioni del diritto d’autore tradizionale (copyright). La loro nascita si ispira al principio di natura legislativa in base al quale chi crea un’opera di ingegno, una volta dimostratane la paternit`a, pu`o disporre di essa come meglio crede, riservandosene i diritti in toto o solo in parte. Le licenze CCPL si basano quindi sul principio “alcuni diritti riservati” anzich´e “tutti i diritti riservati”: attraverso di esse l’autore svincola la propria opera secondo determinate mo8

Figura 2 Locandina Creative Commonsi (da OilProject)

accastampato num. 0, Novembre 2009


ONDA LUNGA

Patamu Spendiamo infine qualche parola per presentare il sito Patamu, attualmente in versione beta, che oltre ad offrire consulenza per quanto riguarda le tematiche CC e la cultura libera in generale, permette di integrare le licenze CC apponendo ad ogni opera inviata una sorta di timbro temporale informatico con validit`a legale riconosciuta dallo Stato Italiano. Il servizio al livello base e` gratuito e permette di tutelare dal plagio e di rilasciare contestualmente in Creative Commons qualsiasi opera artistica o di ingegno: opere musicali, foto, ma anche libri, articoli di giornale o di blog, articoli scientifici e quant’altro. Per case editrici, etichette, associazioni, societ`a, o per chiunque volesse accedere a servizi pi`u specifici e mirati, sar`a possibile abbonarsi con una piccola somma a vari servizi avanzati. Pur essendo possibile su Patamu la semplice tutela dell’opera, abbiamo scelto di offrire il servizio gratuitamente per chiunque sia disposto a liberare contestualmente l’opera in CC. Questa scelta e` stata certamente fatta per incoraggiare e favorire la diffusione della cultura cosiddetta “open source”, ma c’`e anche un’altro motivo: capita spesso infatti che le persone rimangano diffidenti di fronte alla dicitura “alcuni diritti riservati” e ritengano che il modo pi`u pratico e sicuro di tutelare la propria opera sia quello di rimanere detentore di tutti i diritti. Paradossalmente, per`o, in questo modo sono essi stessi a frenare la diffusione della propria opera, in quanto il copyright tradizionale ne rende pi`u difficoltosa la diffusione – ad esempio via internet, o via radio – anche in assenza di lucro.

Il copyleft e` quindi, a nostro avviso, anche il modo pi`u pratico e moderno per permettere di promuovere e far conoscere ad un numero pi`u ampio possibile di persone il proprio prodotto artistico. In questo contesto la tutela dal plagio fornita dal sito non diventa pi`u un’azione di tutela dell’autore fine a s´e stessa, ma si trasforma in un mezzo per diffondere le proprie opere senza il timore di essere plagiati, favorendo la libera circolazione della creativit`a e della cultura sotto qualsiasi forma e contribuendo ad innescare un circolo virtuoso da cui possono trarre vantaggio autori ed utenti dell’opera allo stesso tempo. Per richiedere qualsiasi informazione sulle tematiche CC o sui servizi del sito, o per partecipare alla fase di test della versione beta, siete i benvenuti su patamu.com.

Bibliografia Creative Commons: www.creativecommons.it Copyleft: www.copyleft-italia.it Patamu.com: www.patamu.com

Sull’autore Adriano Bonforti (adribonf@hotmail.it) e` esperto in licenze di copyleft ed e` amministratore del sito www. patamu.com


Tecnologie del moderno Cinema 3D Teoria e tecniche alla base della nuova era dell’intrattenimento digitale Alessio Cimarelli (Studente di Fisica)

a visione tridimensionale o, in altre parole, la percezione della distanza a partire da una proiezione bidimensionale della luce in ingresso e` basata sulle leggi della stereometria. Il supporto pu`o essere la retina, una pellicola fotografica o una CCD, non c’`e differenza: la stessa scena fotografata contemporaneamente da due posizioni leggermente diverse, a esempio meno di una decina di centimetri nel caso degli occhi, produce due immagini in cui gli oggetti pi`u vicini presentano una traslazione laterale relativa all’interno del campo visivo maggiore rispetto agli oggetti piu lontani (vedi Figura 1).

L

Figura 2 Alcuni esempi di videocamere dedicate al cinema 3d (quelle con doppio obiettivo) o adattate per lo scopo in alcuni recenti film 3d.

In fase di riproduzione si vuole far giungere all’occhio destro dello spettatore il film girato dalla macchina destra e viceversa, in modo che il cervello possa combinare naturalmente le due immagini e ricostruire la scena tridimensionale. Ci sono molti modi per ottenere questo effetto: mediante filtri colorati (anaglifia), filtri polarizzati circolarmente o linearmente oppure filtri shutter lcd, la cui trasparenza varia alternativamente in sincronia con le immagini.

Anaglifia

Figura 1 Sovrapposizione di due fotogrammi scattati da due posizioni differenti, in cui il borotalco e` centrato e a fuoco.

Attraverso questo shift relativo e` possibile ricavare con una certa precisione la distanza dell’oggetto in questione: nel caso di macchine fotografiche, conoscendo solo la distanza tra gli obiettivi e le loro inclinazioni relative e applicando semplici equazioni. Il cervello umano riesce a risolvere naturalmente queste equazioni a partire dal secondo, terzo anno di et`a. Nel cinema 3D vero, cio`e n´e d’animazione, n´e adattato in post-produzione, il film viene girato contemporaneamente da due videocamere ad alta risoluzione e velocit`a, montate l’una accanto all’altra con una certa distanza tra gli obiettivi. Macchine di questo tipo molto diffuse sono per esempio la Red One e la Silicon Imaging SI-2K Digital Cinema Camera (vedi Figura 2). 10

Si tratta del 3D tradizionale e pi`u conosciuto, che ha per`o il grosso limite di non poter rendere scene colorate, in quanto i filtri utilizzati lavorano proprio in frequenza su due soli colori (vedi Figura 3). La luce infatti non e` altro che un’oscillazione del campo elettromagnetico e per questo e` detta onda elettromagnetica: i campi elettrico e magnetico oscillano in direzioni perpendicolari, tra loro e rispetto alla direzione di propagazione dell’onda. La frequenza di quest’ultima e` semplicemente il numero di oscillazioni che compie nell’unit`a di tempo. L’unit`a di misura delle oscillazioni e` l’Hz, un’oscillazione al secondo. In questo ambito si usa molto il terahertz (THz), che corrisponde a 109 Hz e ad una lunghezza d’onda di 3 × 105 nm (nanometri, 10−9 m). Le due grandezze sono legate tra loro dalla semplice relazione λ = νc , con λ lunghezza d’onda, c velocit`a della luce, ν frequenza. L’insieme dei valori della frequenza della luce viene detto spettro e la finestra del visibile (ovvero le frequenze della luce a cui i nostri occhi sono in media sensibili) va dai 400 ai 790 THz o, se si preferisce, dai 750 ai 380 nm. Il cervello percepisce le diverse frequenze sotto forma di colori, dal rosso (basse frequenze, grandi lunghezze d’onda) al violetto (alte frequenze, piccole lunghezze d’onda), come evidenziato nella Figura 4.

accastampato num. 0, Novembre 2009


IL RESTO DEL NEUTRINO

Figura 4 Spettro della luce, e` evidenziato l’intervallo a cui l’occhio umano e` in media sensibile. Qui sono riportati i valori della lunghezza d’onda in nm (nanometri, 10−9 m) invece delle frequenze.

Figura 3 Esempio di anaglifo stampato su carta.

zione di raggi luminosi i cui campi sono diretti casualmente l’uno rispetto all’altro. Una luce si dice invece polarizzata se la direzione di oscillazione del campo elettrico e` costante nel tempo (tra le due situazioni ce ne sono infinite intermedie, dette di luce parzialmente polarizzata). Dato che campo magnetico ed elettrico sono perpendicolari, qualsiasi direzione sul piano che individuano pu`o essere scomposta in due contributi lungo due assi perpendicolari a scelta. Mediante speciali filtri e` possibile selezionare una particolare direzione di polarizzazione e scartare l’altra: e` il caso delle ben note lenti Polaroid (vedi Figura 6).

-------------------------------------------

La stereoscopia permette di ricavare la distanza di un oggetto da una coppia di immagini prese da due posizioni diverse ------------------------------------------Le due immagini stereoscopiche prendono il nome di stereogrammi e vengono stampate sulla stessa foto, ma mediante due colori complementari, tipicamente rosso e verde. I filtri sono costituiti da una coppia di lenti colorate montate su di un paio di occhiali (vedi Figura 5). Questi filtri sono costituti da sostanze che assorbono o riflettono tutto lo spettro tranne la piccola porzione relativa al proprio colore, che viene trasmessa e/o in parte riflessa. Essendo verde e rosso complementari, quindi lontani in frequenza, un filtro rosso assorbe tutta la luce verde e viceversa. Cos`ı ad ogni occhio giunge solo la sequenza di immagini che gli spetta e il cervello interpreta la differenza tra i due flussi come distanza degli oggetti. Il sistema e` estremamente economico, ma ormai superato.

Luce polarizzata e la soluzione RealD La resa dei colori e` invece ottima mediante filtri che lavorano in polarizzazione, nome con cui si indica la direzione di oscillazione del campo elettrico. Normalmente la luce a cui siamo abituati non e` polarizzata, nel senso che e` composta da una sovrapposi-

Figura 5 Schema di funzionamento del tradizionale cinema 3d.

Nel caso del cinema 3d, quindi, i due filmati, uno per l’occhio destro e l’altro per quello sinistro, vengono proiettati contemporaneamente sullo schermo da due proiettori sincronizzati: di fronte ad ognuno di essi e` posto un polarizzatore, lineare o circolare. Nel primo caso i campi elettrico e magnetico oscillano in fase, cio`e raggiungono il loro valore massimo insieme, mentre nel secondo in controfase: quando uno e` massimo, l’altro e` minimo e viceversa. In questo modo agli occhi dello spettatore la luce dei due filmati giunge con due polarizzazioni indipendenti e le lenti montate op-

accastampato num. 0, Novembre 2009

11


IL RESTO DEL NEUTRINO

Sono quindi necessari schermi speciali, detti silverscreen perch´e trattati con particelle d’argento che, essendo un metallo, riflette quasi tutta la luce, lasciandone cos`ı intatta la polarizzazione. Schermi costosi e che soprattutto non sono adatti alle classiche proiezioni 2d, perch´e troppo luminosi: necessitano quindi di sale dedicate alle sole proiezioni 3d.

Figura 7 Occhiali polarizzatori del sistema RealD.

portunamente sugli occhiali selezionano quella corretta per ogni occhio. In altre parole, di fronte ad ogni proiettore c’`e lo stesso filtro Polaroid montato davanti all’occhio ad esso associato. La scelta dei due tipi di polarizzazione, lineare o circolare, non e` equivalente: nel primo caso i filtri del proiettore e dell’occhio associato sono uguali, cio`e lasciano passare esattamente le stesse immagini, solo se la testa dello spettatore e` perfettamente verticale e quindi allineata con il filtro del proiettore. In questo caso piegare la testa di lato significa per ogni occhio vedere parte del filmato destinato all’altro perch´e i due filtri inclinati tra loro mescolano le due polarizzazioni, fino a che l’effetto 3d non svanisce completamente. Nel caso della polarizzazione circolare questo problema non esiste, ma in compenso i filtri relativi sono pi`u costosi e un po’ meno efficienti: e` il caso comunque della tecnologia pi`u diffusa al momento, RealD (vedi Figura 7), che tra l’altro utilizza un solo proiettore a doppia velocit`a (48 fps, frames al secondo, con fotogrammi destro e sinistro alternati) e un filtro Polaroid oscillante, che polarizza in maniera opposta i fotogrammi alternati. Ci`o diminuisce sicuramente i costi, ma riduce anche sensibilmente la luminosit`a delle immagini, anche del 50%, a causa del lavoro dei filtri. -------------------------------------------

Figura 6 Schema intuitivo del funzionamento di un filtro Polaroid.

Luce colorata e la soluzione Dolby3d La tecnologia concorrente alla RealD pi`u accreditata al momento e` quella della Dolby, Dolby3D (vedi Figura 9), basata invece su un avanzato sistema di filtri in frequenza e il cui proiettore produce ben 144 fps, 72 per ogni occhio: ogni frame viene ripetuto tre volte consecutivamente.

I filtri Polaroid permettono ad ogni occhio di vedere solo il filmato ad esso dedicato ------------------------------------------Un elemento importante per i sistemi basati sulla polarizzazione della luce e` lo schermo, in quanto la luce proiettata, prima di giungere agli occhi degli spettatori, deve essere da esso riflessa. Una superficie qualsiasi, per`o, come quella degli schermi classici, fa perdere irrimediabilmente polarizzazione alla luce incidente: la rugosit`a della superficie in un certo senso mescola le carte, in quanto ogni microsuperficie piana riflette la luce polarizzandola in parte lungo la direzione parallela a s´e, che e` diversa dalla direzione di polarizzazione incidente e soprattutto casualmente diretta (vedi Figura 8). 12

Figura 8 Una luce incidente all’angolo di Brewster (specifico per ogni materiale e dipendente anche dalla frequenza) viene riflessa e assorbita in proporzioni diverse a seconda della polarizzazione.

accastampato num. 0, Novembre 2009


IL RESTO DEL NEUTRINO

Figura 9 Occhiali con filtri dicroici del sistema Dolby3D.

Come nel caso RealD, il proiettore non e` dedicato, purch´e assicuri velocit`a e risoluzioni richieste. Tra la lampada e l’ottica viene posto un filtro cromatico rotante (un disco diviso in sei settori colorati) che per ogni frame filtra un colore diverso. Tre settori sono rosso, verde e blu, gli altri hanno gli stessi colori, ma di una tonalit`a leggermente pi`u chiara. Su uno schermo bianco normale arrivano in un 24-esimo di secondo le sei immagini, riflesse verso gli spettatori. Le lenti degli occhiali sono filtri dicroici composti da qualche decina o centinaia di strati atomici depositati sotto vuoto su un substrato di vetro. Hanno una finestra di trasmissione in frequenza molto stretta proprio attorno ai colori del filtro rotante, controllata con molta precisione variando lo spessore degli strati depositati. Il resto della luce viene riflesso e ci`o, come nel caso di RealD, causa una diminuzione notevole della luminosit`a. In questo modo, comunque, ad ogni occhio giungono solo i rispettivi tre fotogrammi colorati, che il cervello combina in un’immagine tridimensionale a colori reali (vedi Figura 10). I vantaggi di questa soluzione rispetto alle concorrenti sono molti: occhiali passivi, quindi economici quasi quanto quelli della RealD, costi contenuti, ma soprattutto la possibilit`a di adattare in poco tempo qualsiasi sala cinematografica 2d, purch´e dotata di un proiettore digitale moderno, in maniera non permanente grazie all’uso dello schermo standard e alla rimovibilit`a del filtro rotante colorato. Un punto a favore molto importante per la rapida estensione di questa tecnologia.

Schermi LCD Un’ulteriore tecnologia 3D, messa in campo per prima dalla nVidia per il settore videoludico, si basa su particolari occhiali attivi le cui lenti, dette shutters, possono oscurarsi alternativamente, passando da uno stato di trasmissione totale della luce ad uno di riflessione in pochi centesimi di secondo. Le lenti sono costituite da uno strato di cristalli liquidi che si orientano opportunamente quando sono sottoposti ad una differenza di potenziale, esattamente come i ben conosciuti schermi LCD (Liquid Crystal Display). Nel caso in esame rendono semplicemente la lente trasparente o opaca. Un proiettore a doppia velocit`a (48 fps) alterna

Figura 10 Schema di funzionamento del sistema Dolby3D. 1- Colori primari nei proiettori del cinema 2D standard. 2- Nel Dolby3D ogni colore primario e` separato in due tonalit`a, una per l’occhio sinistro e l’altra per il destro. 3- Dato che per ogni occhio sono usati tutti e tre i colori primari, la resa cromatica finale e` realistica.

i fotogrammi destinati ai due occhi e gli occhiali sono ad esso sincronizzati mediante un sistema wireless, in modo da selezionare il giusto fotogramma per ogni occhio (vedi Figura 11). Le lenti sono basate sulle peculiari propriet`a ottiche dei cristalli liquidi, che rispondono a campi elettrici esterni orientandosi parallelamente ad essi. Tale liquido e` intrappolato fra due superfici vetrose provviste di contatti elettrici, ognuno dei quali comanda una piccola porzione del pannello identificabile come un pixel. Sulle facce esterne dei pannelli vetrosi sono poi posti due filtri polarizzatori disposti su assi perpendicolari tra loro. I cristalli liquidi, quando sono orientati casualmente, sono in grado di ruotare di 90◦ la polarizzazione della luce che arriva da uno dei polarizzatori, permettendole di passare attraverso l’altro. Quando il campo elettrico viene attivato, invece, le molecole del liquido si allineano parallelamente ad esso, limitando la rotazione della luce in ingresso. Ad un allineamento completo dei cristalli, corrisponde una luce polarizzata perpendicolarmente al secondo polarizzato-

accastampato num. 0, Novembre 2009

13


IL RESTO DEL NEUTRINO

re, che quindi la blocca del tutto (pixel opaco). Controllando la torsione dei cristalli liquidi in ogni pixel, proporzionale al campo elettrico applicato, si pu`o dunque regolare quanta luce far passare.

Figura 11 Alcuni esempi di occhiali LCD Shutters.

Questa tecnologia, che non fa uso di filtri n´e in frequenza n´e in polarizzazione, risolve alla radice alcuni problemi, come la non perfetta resa cromatica del primo caso, ma riduce sensibilmente la luminosit`a e ha il costo pi`u alto in assoluto (ogni occhiale pu`o raggiungere i 100$). E` per`o la pi`u accreditata, come dimostra l’offerta dedicata all’Home Enterteinment di nVidia, per il prossimo futuro dell’Home Cinema 3D, soprattutto alla luce dei moderni schermi LCD o al plasma con frequenze di aggiornamento di 200 Hz o pi`u. A margine segnalo che la Creative offre una soluzione ulteriore e radicale con il suo nuovo sistema MyVu, in cui all’interno degli occhiali sono montati veri e propri schermi LCD opportunamente messi a fuoco da lenti ottiche: semplicemente infilandosi gli occhiali, si pu`o vedere il filmato scelto come in un sistema head-up (schermo virtuale sovrapposto alla realt`a esterna) con una risoluzione di 640x480 a 24 bit di profondit`a di colore e una frequenza di aggiornamento di 60Hz, vale a dire una qualit`a equivalente al dvd, ma non ancora all’alta definizione del blu-ray. Per ora non si parla di funzionalit`a 3D, ma e` evidente che un semplice sistema di input a doppio canale video, uno per ogni schermo, lo permetterebbe. Soluzione sicuramente interessante per l’intrattenimento privato, a differenza evidentemente di quello cinematografico.

per scene miste con oggetti sia in primo piano che sullo sfondo. Guardando una foto o un film bidimensionale noi vediamo le zone sfocate e non possiamo ovviamente metterle a fuoco ulteriormente. Usiamo per`o quest’informazione per ricostruire idealmente le distanze relative tra i vari oggetti, partendo dal presupposto che gli oggetti pi`u lontani siano pi`u sfocati rispetto all’oggetto in primo piano, a fuoco. Nel caso del cinema 3D, per`o, noi gi`a vediamo una scena tridimensionale e l’informazione data dalle zone fuori fuoco non serve. Porre quindi l’attenzione su queste zone d`a fastidio, soprattutto se ci sono oggetti in movimento, che evidenziano l’omonimo effetto (motion blur, in inglese). Curiosamente questo permette al regista, che decide dove mettere a fuoco la scena, di catturare molto di pi`u l’attenzione dello spettatore sui particolari che gli interessa sottolineare, quasi costringendolo a guardare ci`o che vuole.

Bibliografia sparsa Anaglifia: http://en.wikipedia.org/wiki/Anaglyph_image Semplice tutorial per realizzare stereogrammi:

http://dicillo.

blogspot.com/2007/07/tutorial-stereografia-come-realizzare.html

Silicon Imaging SI-2K Digital Camera:

http://www.siliconimaging.

com/DigitalCinema/SI_2K_key_features.html

3dStereo.it: http://www.3dstereo.it/index.html Bob’s trip into Dolby3D Technology: http://www.moviestripe.com/ dolby3d/

The Dolby solution to Digital 3D:

http://www.edcf.net/edcf_docs/

dolby-3d.pdf

Dolby3D: http://www.dolby.com/consumer/technology/dolby-3d.html Filtri dicroici: http://en.wikipedia.org/wiki/Dichroic_filter LCD: http://it.wikipedia.org/wiki/LCD Creative MyVu: http://www.tecnologiecreative.it/schede/MyVu_Edge_ 301/index.html

Commenti

Sull’autore

A mio avviso nelle tecnologie appena elencate c’`e un problema di fondo che non e` legato alla particolare implementazione usata, ma proprio alle caratteristiche intrinseche della fotografia e della stereoscopia. Il sistema visivo umano e` tale che la messa a fuoco e` automatica e segue il processo attentivo: il punto della scena su cui poniamo attenzione e` sempre messo a fuoco (nei soggetti sani o portatori di occhiali correttivi, naturalmente), a meno che non cerchiamo consapevolmente di vedere zone sfocate dell’immagine (il classico caso delle gocce su una finestra). Nella fotografia (sia da stampa che cinematografica), invece, l’estensione della zona messa a fuoco (profondit`a di campo) e` limitata, soprattutto

Alessio Cimarelli (jenkin@accatagliato.org) si e` laureato in Fisica nel settembre 2009 alla Sapienza di Roma, con una tesi sul comportamento collettivo degli stormi di uccelli in volo (progetto Starflag). E` tra gli ispiratori e gli amministratori del portale accatagliato.org. Al momento frequenta il Master in Comunicazione Scientifica alla Sissa di Trieste, collaborando attivamente con il portale accatagliato.org e la rivista accastampato.

14

accastampato num. 0, Novembre 2009


Panoramica sul comportamento collettivo animale Una grande varieta` di specie animali mostrano spesso comportamenti di gruppo simili Alessio Cimarelli (Gruppo S TARFLAG, CNR/INFM)

on il termine comportamento collettivo si intende l’emergenza di propriet`a di un gruppo irriducibili a quelle dei singoli individui che lo compongono, caratteristiche per lo pi`u dipendenti dalle mutue interazioni tra di essi. Condizione fondamentale per un comportamento emergente e` che ogni individuo interagisca con gli altri alla pari, con le stesse modalit`a, che non ci siano cio`e elementi primari (ad es. leader) che dettino il comportamento ad altri elementi secondari, n´e elementi esterni che influiscano globalmente sul sistema, individuo per individuo indipendentemente. Le interazioni hanno normalmente natura locale, vale a dire che ogni individuo interagisce con un numero limitato di altri suoi simili, rimanendo sostanzialmente all’oscuro del comportamento globale del gruppo a cui appartiene, molto pi`u vasto della sua sfera di interazione. Spesso l’interazione con un ambiente esterno dinamico e` centrale, specialmente nei sistemi biologici. Il principale indizio della presenza di un comportamento collettivo e` l’apparire di patterns macroscopici ordinati, di configurazioni particolari e persistenti del sistema su scala maggiore dell’estensione dei singoli individui. Questa e` una condizione necessaria, ma non sufficiente, in quanto ci sono casi in cui e` sufficiente il teorema del Limite Centrale (box a pag. 19) dei processi aleatori per spiegare fenomeni ordinati e apparentemente coordinati (2).

C

I principi base dell’auto-organizzazione, condizione primaria del comportamento collettivo emergente, possono essere individuati in feedback positivi e negativi, in meccanismi di amplificazione di fluttuazioni casuali, di inibizione, catalizzazione, risposta a soglia, ridondanza e sincronizzazione (2). Tutta la ricerca che in questi decenni e` andata sotto il nome di complessit`a ha insegnato che meccanismi di questo genere possono prodursi a partire da elementi legati tra loro da semplici regole, per lo pi`u di natura non lineare. Ha insegnato come normalmente ci sia un parametro critico, interno o esterno al sistema, il cui valore permette la presenza o meno di uno stato ordinato, l’emersione quindi di un comportamento collettivo: la teoria delle transizioni di fase e dei fenomeni critici e` una delle maggiori conquiste della Fisica moderna e sta dimostrando di essere applicabile con successo a tutti i fenomeni che mostrino auto-organizzazione. Nel caso di sistemi biologici, per`o, non si pu`o prescindere dall’evoluzione e dalla selezione naturale dovute ad un’interazione continua e profonda con l’ambiente, per cui devono essere considerati anche meccanismi di massimizzazione della sopravvivenza e minimizzazione dei rischi, sia per gli individui, sia per l’intero gruppo. In un’ottica evolutiva l’aggregazione nel mondo biolo-

gico porta all’emersione di nuove funzioni che il gruppo riesce ad espletare molto meglio del singolo individuo o che sono addirittura fuori dalla portata di quest’ultimo. Esempi sono l’abilit`a di costruire un formicaio, di regolare termicamente un alveare, di procacciarsi il cibo, di difendersi dai predatori, di aumentare l’efficacia delle scelte in un processo decisionale complesso (2).

Figura 1 A sinistra, Lunepithema humile; a destra, code di turisti.

Tutto ci`o pu`o far pensare che la selezione naturale abbia individuato nel comportamento collettivo un efficace mezzo per sopravvivere meglio all’ambiente, ma spesso questa connessione non e` affatto immediata. Ad esempio l’aggregarsi in certi casi aiuta a difendersi dai predatori, ma in altri li attira: si pensi ai banchi di pesci, un incubo per gli squali, ma una benedizione per i pescatori. Inoltre i singoli animali sono molto pi`u complessi di qualsiasi molecola e nel comportamento collettivo le dinamiche sociali devono sempre confrontarsi con quelle individuali: ad esempio la ricerca di cibo all’interno di una mandria e` pi`u efficiente, ma in caso di risorse scarse richiede la suddivisione tra tutti i suoi membri. Questo che potremmo definire dilemma dell’individualit`a si pu`o tradurre nella domanda: su che scala agisce la selezione? Quali variabili determinano il punto oltre il quale il comportamento collettivo si esplica in configurazioni realmente adattative e con quali modalit`a? Queste domande appaiono ancora pi`u importanti alla luce degli studi che hanno mostrato come l’auto-organizzazione sia un ingrediente centrale anche a livello genetico e di sviluppo dell’embrione. Nel seguito, senza alcuna pretesa di essere esaustivo o esauriente, presenter`o e descriver`o una parte degli studi sulla grande variet`a di fenomeni biologici che a buon titolo rientrano nella categoria comportamento collettivo, sia dal punto di vista biologico e spe-

accastampato num. 0, Novembre 2009

15


IL RESTO DEL NEUTRINO

Figura 2 A sinistra, alveare di api; a destra, traffico a Los Angeles.

rimentale, che da quello matematico e computazionale. Il tutto corredato da suggestive immagini che appartengono alla nostra esperienza quotidiana, ma che celano fenomeni naturali ancora non del tutto compresi. Colonie di formiche Una delle prime evidenze della presenza di meccanismi di autoorganizzazione nel mondo biologico si e` avuta studiando le formiche (famiglia delle Formicidae, a cui appartengono pi`u di 12000 specie componenti il 10% dell’intera biomassa animale e il 50% di quella degli insetti) e il loro sistema di comunicazione e coordinamento basato su tracce chimiche di feromone. In molte specie le formiche operaie (foragers) rilasciano durante il loro cammino una sostanza volatile rilevabile dalle altre, con cui riescono a tracciare una pista invisibile dal formicaio alle risorse di cibo. Essendo volatile, la persistenza della pista dipende dalla frequenza del suo utilizzo da parte delle formiche, che la rafforzano seguendola. Questo e` un tipico esempio di feedback positivo, unitamente ad un meccanismo di inibizione (la volatilit`a del feromone). La possibilit`a che si instauri un procacciamento stabile di cibo basato sulle tracce di feromone dipende fortemente dal numero di operaie impegnate in questo compito, o in altre parole dalla dimensione del formicaio: vari esperimenti hanno dimostrato che il passaggio da una ricerca individuale e casuale ad una basata sulle tracce chimiche ha le stesse caratteristiche delle transizioni di fase del primo ordine, confermate anche da simulazioni apposite (vedi box a pagina 26). Storicamente lo studio delle societ`a di insetti e` considerato alla base del paradigma dell’auto-organizzazione, perch´e inizialmente le incredibili capacit`a del formicaio o dell’alveare nel risolvere problemi molto al di l`a delle capacit`a della singola formica o ape apparivano incomprensibili senza appellarsi a improbabili 16

capacit`a percettive e comunicative della regina. Poi, attraverso osservazioni, modelli e soprattutto un cambio di paradigma interpretativo, e` stata individuata tutta una serie di abilit`a e comportamenti con alla base meccanismi auto-organizzativi. Ad esempio la presenza di fenomeni di biforcazione e di rottura spontanea di una simmetria: in un classico esperimento si costruiscono due vie identiche ma alternative tra il formicaio e una risorsa di cibo e si scopre che, superato un certo numero di operaie, l’utilizzo prima simmetrico di esse viene a mancare in favore di un solo cammino (cfr. Figura 1). In questo caso le leggere differenze iniziali nel numero di formiche che si dirigono da una parte o dall’altra divengono determinanti per la scelta finale del percorso. Da notare che se le due vie sono diverse, per esempio una pi`u lunga dell’altra, la deposizione del feromone fa s`ı che sia pi`u concentrato lungo la via pi`u breve e che quindi a regime sia sempre questa la pi`u usata dalle operaie. E` interessante anche un altro esperimento che dimostra come sia importante nei sistemi biologici un buon bilanciamento tra comportamento sociale e individuale, quest’ultimo modellizzabile in qualche caso come rumore statistico. Tale concetto e` chiarito da un semplice esempio. Introducendo una risorsa di cibo nei pressi di un formicaio, dopo qualche tempo una formica scout la individuer`a e, nel caso ci siano abbastanza operaie, si former`a una traccia persistente e un flusso stabile di cibo. Introducendo ora una nuova risorsa pi`u energetica, la possibilit`a che il formicaio la scopra e la sfrutti dipende dall’accuratezza delle formiche nel seguire la vecchia traccia. Se fossero tutte infallibili, infatti, non abbandonerebbero mai un percorso gi`a fissato. Solo se le caratteristiche comportamentali individuali sono abbastanza forti le operaie sono invece in grado di stabilire una nuova traccia verso la nuova risorsa, abbandonando la vecchia (3). Da quando il meccanismo delle tracce chimiche e` stato scoperto, si e` dimostrato che e` alla base di numerose abilit`a delle formiche: raccolta di cibo, ottimizzazione dei percorsi anche sulla scala dei

Figura 3 Esempi di configurazioni auto-organizzate nelle colonie di formiche (3). A sinistra, selezione spontanea di un percorso verso il cibo attraverso un ponte a diamante da parte di Lasius niger; a destra, gocce di Lunepithema humile cadono non appena raggiungono una taglia critica.

accastampato num. 0, Novembre 2009


IL RESTO DEL NEUTRINO

Figura 4 A sinistra, stormo di pipistrelli; a destra, sciame di locuste.

chilometri (4), strategie di combattimento, costruzione di formicai sotterranei. Appare ora chiaro del perch´e quello degli insetti sia un esempio paradigmatico: a fronte di interazioni non lineari locali dirette (contatto e sfregamento) e indirette (deposito di feromone), grazie a meccanismi di feedback positivo (rafforzamento della traccia) e negativo (volatilit`a del feromone), si produce un qualche tipo di transizione di fase dipendente dalle dimensioni del formicaio, da cui emergono abilit`a collettive che amplificano enormemente le capacit`a dei singoli insetti.

na di regole repulsione-allineamento-attrazione, ognuna agente a scale differenti. La fase ordinata e` individuata dal grado di allineamento dei pesci e anche in questo caso sono stati forniti indizi della presenza di una transizione dal disordine all’ordine al variare della densit`a. I primi tentativi di analisi quantitativa risalgono a met`a degli anni ’70, con un lavoro di Graves in cui si presenta un setting sperimentale originale per fotografare banchi di pesci nel loro ambiente naturale e stimarne densit`a e distanza media di primo vicino. Dal 1983 si inizia ad utilizzare la tecnica stereoscopica per ricostruire le posizioni individuali dei pesci all’interno del banco, ottenendone una stima della densit`a, delle distanze reciproche, della distanza media di primo vicino, della forma e delle proporzioni. Vengono utilizzate tecniche di videofotografia stereo e un algoritmo di tracking per ricostruire le velocit`a dei pesci ed individuare cos`ı l’emergenza di una fase con fortes allineamento a partire dalle interazioni di primo vicino in tre dimensioni, ma limitandosi a soli 8 pesci.

Sciami di locuste Le locuste sono insetti molto particolari il cui comportamento collettivo e` purtroppo tristemente famoso: per lunghi periodi della propria vita sono insetti solitari, che tendono a mantenere territori separati l’uno dall’altro, ma in vari momenti attraversano fasi di aggregazione, formando sciami di miliardi di individui capaci di devastare completamente qualsiasi terreno attraversino, inclusi naturalmente quelli coltivati dall’uomo (5). Per avere un’idea dell’imponenza di questi sciami, le loro dimensioni possono raggiungere i 1000km2 con una densit`a media di ben 50 milioni di locuste per km2 , viaggianti a 10 - 15 km/h per migliaia di km: tenendo conto che ogni insetto mangia l’equivalente del proprio peso al giorno, si sta parlando di un consumo dello sciame pari a 200 milioni di kg al giorno! Le dinamiche interne di questi sciami sembrano simili a quelle dei fluidi e sono trattabili matematicamente in modo analogo, cio`e mediante modelli continui, grazie alle loro dimensioni e densit`a. Il principale problema e` capire come possa mantenersi la coesione dello sciame su dimensioni cos`ı grandi rispetto a quelle del singolo insetto e i meccanismi che sono alla base della transizione alla fase di aggregazione. Banchi di pesci Tra le innumerevoli specie di pesci molte presentano comportamenti di aggregazione, che originano da interazioni diverse da quelle viste per le formiche. Non si tratta ora di utilizzare l’ambiente come deposito del proprio segnale perch´e l’interazione e` diretta, riassumibile nella ter-

Figura 5 Qualche esempio suggestivo di banchi di pesci nella loro fase di aggregazione.

Sono poi videoregistrati gruppi di Nile Pilatias (Oreochromis niloticus L.) di un centinaio di elementi, costretti per`o a muoversi in due dimensioni all’interno di una vasca opportunamente progettata. Su tempi di decine di secondi Becco et al. hanno tracciato le traiettorie dei singoli pesci e sono stati in grado di portare a termine analisi sulla struttura e sulla dinamica del banco in funzione della sua densit`a: distribuzione delle distanze di primo vicino e grado di allineamento hanno mostrato indizi di una transizione di fase disordine-ordine ad una densit`a critica di circa 500 pesci/m2 . Purtroppo fino ad ora conclusioni sperimentali quantitative sono praticamente assenti, a causa di grandi problemi metodologici non ancora del tutto risolti: estrema ristrettezza della base statistica dovuta allo studio di non pi`u di un centinaio di pesci, forti bias introdotti dalle dimensioni e forme delle vasche, limitazioni dovute alle tecniche di tracciamento dei pesci e da una non sempre corretta gestione degli effetti di taglia finita. Da un punto di vista etologico e biologico molto lavoro e` stato fatto per comprendere la funzione adattativa delle varie caratteristi-

accastampato num. 0, Novembre 2009

17


IL RESTO DEL NEUTRINO

Figura 6 A sinistra, mandria di bufali; a destra, formiche Matabele.

che della fase ordinata, tra cui la forma del banco, i profili interni di densit`a, le posizioni dei pesci collegate alla loro grandezza o al grado di familiarit`a, ecc. Le due funzioni primarie sono senz’altro la protezione dai predatori e la ricerca di cibo, mentre i meccanismi di base individuati vanno nel primo caso dalla diluizione del rischio all’effetto di confusione, dalla capacit`a di individuare prima il predatore al coordinamento di manovre di evasione, mentre nel secondo caso consistono in una maggiore velocit`a di trasferimento dell’informazione sulla distribuzione delle risorse di cibo (per un’ampia lista di referenze, cfr. (1)). I banchi di pesci sono anche alla base di moltissimi modelli, poi efficacemente adattati anche ad altre specie animali come gli uccelli: le interazioni dirette a corto raggio descritte prima sono facilmente implementabili in algoritmi bottom-up che hanno dimostrato di poter riprodurre non solo la transizione alla fase ordinata, ma anche parte delle caratteristiche di quest’ultima riscontrate in vari esperimenti.

affetti da problemi di taglia finita). Il problema primario di questa mancanza di dati sperimentali nello studio degli uccelli sta prevalentemente nelle tecniche di ricostruzione delle posizioni che non possono essere chiaramente invasive e devono essere implementate sul campo. Per questi motivi sono tecniche per lo pi`u di tipo ottico (stereoscopia, metodo ortogonale) che prevedono l’utilizzo di immagini sincrone del gruppo e che richiedono di risolvere esplicitamente il problema del matching, cio`e il riconoscimento dello stesso individuo in ogni immagine (6). Queste difficolt`a hanno reso per decenni impossibile una comparazione adeguata tra modelli teorici, numerici e dati sperimentali, perch´e il comportamento collettivo emerge all’aumentare del numero di individui e limitarsi a piccoli gruppi spesso non permette di studiarne efficacemente le caratteristiche globali.

Figura 7 Esempi degli stormi pi`u suggestivi visibili a Roma nel periodo invernale (foto dell’autore e della squadra STARFLAG).

Dinamiche di folla

-------------------------------------------

` possibile ricavare il comportamento E collettivo simulando semplici modelli al computer ------------------------------------------Stormi di uccelli Nel caso degli uccelli, l’approccio sperimentale e` ancora pi`u problematico rispetto al caso dei pesci, dato che non e` possibile ricorrere ad una situazione controllata in laboratorio ed e` obbligatorio considerare tutte e tre le dimensioni spaziali (6). A parte lavori pionieristici degli anni ’60, nel ’78 vi e` la prima ricostruzione delle posizioni degli uccelli, limitata a 70 individui in volo dalle campagne ai dormitori, seguita da quella delle traiettorie complete di poco pi`u di 16 individui. E` evidente come qualsiasi analisi su una base di dati cos`ı ristretta non possa che portare a risultati solo qualitativi, con il rischio di introdurre bias non controllabili (si pensi al problema del bordo: in tre dimensioni trattare piccoli gruppi significa considerare per lo pi`u individui sul bordo e quindi ottenere risultati pesantemente 18

A volte si dice che l’intelligenza di una folla di persone e` inversamente proporzionale al numero di cervelli che la compongono. Questa massima deriva dall’osservazione che spesso le dinamiche interne di una folla appaiono irrazionali se viste dall’esterno, tanto da produrre veri e propri disastri nelle situazioni di pericolo, vero o presunto, che scatenano il panico. Si pensi ad incendi in edifici chiusi, ma anche a concerti di star famose o all’apertura della stagione dei saldi in alcuni grandi magazzini. Questi fenomeni sono in aumento con il crescere delle dimensioni di eventi che attirano grandi masse, ma e` solo da poco pi`u di un decennio che si stanno studiando e sviluppando teorie quantitative e modelli delle dinamiche di folla (7). Simulazioni di questo tipo hanno permesso di migliorare la comprensione di questi fenomeni e individuare tutti quegli elementi, architettonici e psicologici, che contribuiscono a rallentare o a rendere pi`u pericolosa la fuga in situazioni di panico: ad esempio uscite strette o allargamenti prima delle uscite ostacolano il deflusso, che invece e` facilitato dalla presenza di colonne poste asimmetricamente di fronte alla uscite che spezzano gli ingorghi. Inoltre sono risultati utili nello studio anche di altre formazioni, come il traffico automobilistico o le ola negli stadi.

accastampato num. 0, Novembre 2009


IL RESTO DEL NEUTRINO

ci, che mostrer`o nel dettaglio in un prossimo articolo dedicato al comportamento collettivo animale.

Bibliografia (1) Cimarelli A., Funzioni di struttura e correlazioni di velocit`a in stormi di uccelli in volo: un’analisi empirica nell’ambito del progetto Starflag, Tesi magistrale (Settembre 2009) (2) Sumpter D.J.T., The principles of collective animal behaviour, in Phil. Trans. R. Soc. B, vol. 361:5–22 (2006)

Figura 8 A sinistra, folla a Longchamp, Parigi; a destra, sciame di batteri M. Xanthus.

(3) Detrain C. e Deneubourg J.L., Self-organized structures in a superorganism: do ants behave like molecules?, in Physics of Life Reviews, vol. 3:162–187 (2006) (4) H¨olldobler B. e Wilson E.O., The ants, Belknap Press of Harvard University (1990)

Conclusioni

(5) FAO Locust watch:

Da questa breve panoramica delle specie animali che mostrano peculiari comportamenti collettivi emerge una delle caratteristiche fondamentali e pi`u interessanti di questi sistemi: dinamiche macroscopiche simili a fronte di elementi microscopici estremamente diversi tra loro. Si tratta di un qualche tipo di universalit`a del comportamento collettivo, che apparir`a ancora pi`u chiaramente dallo studio dei modelli, sia analitici che numeri-

http://www.fao.org/ag/locusts/en/info/info/index.

html

(6) Giardina I., Collective behavior in animal groups: theoretical models and empirical studies, in HFSP J., vol. 2(4):205–219 (2008) (7) Helbing D., Farkas I. e Vicsek T., Simulating dynamical features of escape panic, in Nature, vol. 407:487–490 (2000)

Il Teorema del Limite Centrale Curiosando tra risultati statistici d’ogni sorta, come la distribuzione delle altezze in un paese o quella dei risultati degli esami di maturit`a di un particolare anno, non si pu`o non notare la presenza ricorrente di una particolare curva, detta Gaussiana, dalla forma a campana, con un picco al centro e code laterali sottili. Quella che pu`o apparire come una semplice curiosit`a, e` invece la realizzazione di un importante teorema della teoria della probabilit`a, il ramo della matematica che studia e descrive il comportamento delle variabili casuali (dette aleatorie), ossia delle quantit`a che possono assumere diversi valori, ciascuno con una certa probabilit`a. Il Teorema del Limite Centrale (nella versione generalizzata dal fisico-matematico russo Funzione di densit`a della variabile casuale normale (o di Gauss). Aleksandr Lyapunov), sotto alcune ipotesi, asserisce che: “la µ indica il valor medio (posizione del picco), σ2 la varianza somma di n variabili casuali indipendenti ha una distribuzio(larghezza della campana). Da it.wikipedia.org ne di probabilit`a che tende a una curva Gaussiana al crescere di n all’infinito”. In altre parole, un fenomeno aleatorio, risultato della cooperazione di molti piccoli fattori casuali indipendenti, avr`a una distribuzione di probabilit`a Gaussiana. Il voto che uno studente prender`a alla maturit`a, per esempio, dipender`a da molti fattori, quali la sua preparazione, le abilit`a acquisite, la capacit`a di concentrazione, ecc. . . Nonostante la distribuzione di probabilit`a di questi fattori non sia necessariamente Gaussiana, il voto, che e` la somma di questi fattori, si distribuir`a secondo tale curva.

accastampato num. 0, Novembre 2009

19


La riforma dell’Universita` Italiana Dove siamo e dove stiamo andando. . . Lara Benfatto (Dipartimento di Fisica della Sapienza di Roma)

a circa un mese e` stata presentata una bozza del Disegno di Legge Gelmini riguardante la riforma dell’Universit`a (1). Tale DDL arriva ad un anno esatto dall’imponente mobilitazione di tutto il settore dell’Istruzione seguito al decreto legge 133 dell’Agosto 2009, con il quale si pianificavano pesantissimi tagli a scuola ed universit`a, in termini sia di finanziamento che di reclutamento, riguardanti il periodo 2009–2013. Il successivo decreto legge 180 del Dicembre 2009 ha parzialmente corretto il tiro sul fronte del blocco delle assunzioni e dei tagli all’universit`a, lasciando tuttavia in essere un taglio di 946 milioni di euro in 5 anni, pari al 2.7% del Fondo di Finanziamento Ordinario (FFO) del comparto universit`a (2). A prima vista tale riduzione pu`o sembrare non particolarmente significativa: tuttavia, occorre ricordare che le universit`a utilizzano gi`a circa il 90% del FFO per pagare gli stipendi. Ma per fare didattica e ricerca servono anche (ingenti) fondi per la gestione di strutture didattiche e laboratori, per le collaborazioni scientifiche, partecipazione a convegni, personale a tempo determinato, ecc. Quindi un taglio del 2.7% del FFO azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario, che non pu`o essere compensato da alcun progetto di riorganizzazione amministrativa del medesimo.

D

Prima di entrare nel merito del DDL Gelmini vale la pena di fare uno sforzo analitico di lettura dei contenuti reali e di quelli virtuali del DDL. E` infatti interessante notare come gran parte degli editoriali apparsi in questi giorni su autorevoli quotidiani nazionali si siano focalizzati sui punti pi`u vaghi della prospettata riforma, quelli cio`e la cui definizione viene affidata a decreti leggi successivi all’approvazione del DDL, e quindi dai contenuti assolutamente incerti e al momento imprevedibili. Tentiamo quindi di riassumere a grandi linee i contenuti del DDL, distinguendo tra i provvedimenti di immediata attuazione e quelli da definirsi.

Provvedimenti immediati • Riorganizzazione della struttura amministrativa ([Art. 2]). Questa si articola in vari punti: in particolare, si prevede che al senato accademico venga affiancato un consiglio di amministrazione in cui il 40% dei membri sono esterni all’ateneo e con competenze gestionali-amministrative. Tale CdA ha anche potere decisionale che spazia dalla definizione delle “funzioni di indirizzo strategico” alla soppressione/istituzione di corsi di studio e sedi. Si prevede inoltre l’accorpamento dei dipartimenti (aventi un numero minimo 20

di docenti di 35 o 45) in massimo 12 facolt`a o ’scuole’. Si parla poi di un codice etico che le universit`a sono tenute ad adottare entro centottanta giorni dall’entrata in vigore della legge, ma non si d`a indicazione alcuna rispetto ai contenuti in questione. • Fondo per il merito degli studenti ([Art. 4]). Si tratta di borse di studio e prestiti di onore, da attribuirsi con criteri unicamente meritocratici (non di reddito) e previa selezione nazionale. Si occupa della gestione del tutto una societ`a, la Consap spa, che andr`a pagata con i soldi stessi destinati al fondo. Il Fondo e` istituito presso il Ministero dell’Economia, a cui il Ministero dell’Istruzione fa comunque riferimento per coordinarne la gestione. Il Fondo viene finanziato con “trasferimenti pubblici e con versamenti effettuati a titolo spontaneo e solidale effettuati da privati, societ`a, enti e fondazioni, anche vincolati, nel rispetto delle finalit`a del fondo, a specifici usi”. • Riordino del reclutamento ([Art. 7-10]). I punti salienti sono: Art. 8 Si istituisce l’abilitazione nazionale per associato e ordinario, basata sui soli titoli. La valutazione viene fatta da una commissione di durata biennale, con 4 membri sorteggiati da una lista di ordinari (a cui si aggiungono anche gli associati solo se gli ordinari di quel settore sono meno di 50) che fanno richiesta di esserci, e il cui curriculum e` pubblico, pi`u un membro straniero. Le selezioni hanno cadenza annuale, ma nel caso in cui il candidato non la superi deve aspettare 2 anni per riprovarci, e 3 per riprovare il livello successivo. Da notare che una volta ottenuta l’abilitazione bisogna comunque sostenere il concorso presso le singole sedi universitarie qualora queste bandiscano dei posti. Le universit`a possono anche indire procedure riservate per personale gi`a in servizio nell’ateneo, ma destinandovi non pi`u del 30% dei posti disponibili nei primi 5 anni successivi all’attuazione della riforma. Dopo questo periodo si richiede che siano obbligatoriamente esterni 1/5 dei posti da ordinari e 1/3 di quelli da associati. Art. 10 Assegni di ricerca. Hanno durata da 1 a 3 anni, rinnovabili, ma non devono superare complessivamente i 10 anni. Oltre ai bandi locali di ateneo (che possono basarsi su fondi di ateno o fondi esterni su progetti

accastampato num. 0, Novembre 2009


ONDA LUNGA

specifici) vengono istituiti anche dei bandi per selezioni nazionali, nelle quali il ricercatore presenta un progetto che, in caso di vittoria, verr`a svolto presso una sede universitaria scelta dal candidato. Art. 11 Contratti di insegnamento. Ci sono due casi: contratti a titolo gratuito o oneroso da dare a studiosi esterni per potersi avvalere delle loro prestazioni. Poi i veri contratti di docenza da attribuirsi previo espletamento di procedure disciplinate con propri regolamenti, che assicurino la valutazione comparativa dei candidati e la pubblicit`a degli atti. Lo stipendio viene deciso a livello ministeriale, ma non si sa in che modo. Art. 12 Scompare la figura del ricercatore a tempo indeterminato, per divenire a tempo determinato. Lo stipendio incrementa del 20% rispetto ai livelli attuali (arrivando a circa 2200 euro mensili), ma diventano obbligatorie 350 ore di didattica annuali. Vengono assunti previa selezione nazionale simile a quella prevista per gli assegni (cio`e si presenta un progetto e si richiede una sede in cui svolgerlo). Una quota del FFO deve essere devoluta solo a queste posizioni, che durano 3 anni e possono essere rinnovate per altre 3. Se nel secondo triennio il titolare prende l’abilitazione ad associato pu`o essere chiamato direttamente dall’ateneo. Provvedimenti differiti • Miglioramento dell’efficienza del sistema universitario ([Art. 5]). Il Governo si impegna a promulgare entro 12 mesi dall’entrata in vigore della presente legge dei decreti che vertano sui seguenti punti: – introdurre dei sistemi di valutazione periodica della ricerca svolta dai docenti, basati sui criteri dell’ANVUR (6) – strumenti di controllo della situazione patrimoniale delle universit`a – disciplinare l’attivit`a dei docenti, per esempio stabilendo un impegno dovuto di 1500 ore annue di cui 350 di docenza. Vanno individuati i casi di incompatibilit`a tra la posizione di professore e ricercatore universitario e l’esercizio di altre attivit`a o incarichi. Gli scatti diventano triennali (ma complessiavmente della stessa entit`a) e previa valutazione dell’attivit`a didattica e di ricerca del docente. Una quota del FFO destinata ad una certa universit`a verr`a assegnata in base a criteri di valutazione scientifica dei docenti stessi. – riforma del diritto allo studio: si parla di una generica definizione di ’requisiti minimi’ per garantire il diritto allo studio, ma non vi e` alcuna proposta concreta.

Nella sua impostazione generale il DDL prevede un mutamento decisamente radicale dell’universit`a italiana. Quello che colpisce e` tuttavia una sorta di scollamento tra la realt`a italiana quale essa e` e gli obiettivi della riforma. Ad esempio, la presenza in un CdA dotato di forti poteri decisionali di personalit`a esterne al mondo accademico e` prassi comune nel sistema americano, nel quale per`o la sinergia tra mondo accademico e privati e` di gran lunga pi`u avanzato che da noi, giustificando la presenza di un forte interscambio tra le due realt`a. Meno chiaro e` come in Italia tale sinergia possa essere ’imposta per legge’: il rischio e` che nel tentativo di destrutturare l’attuale sistema di potere delle baronie universitarie (che finora non e` stato in grado di sanare da solo un sistema malato) ci si affidi a cure esterne sulle cui competenze ci sono ancora pi`u dubbi e incertezze. Anche l’idea stessa di creare una vera competizione tra le varie universit`a, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilit`a sociale del sistema italiano: se uno studente non pu`o permettersi di andare all’universit`a migliore perch´e e` lontana da casa, la competizione non esiste. In questa prospettiva gli stanziamenti (pubblici, perch`e quelli privati si concentrerebbero solo su alcuni settori) per il Fondo per il merito dovrebbero essere veramente ingenti, ma non vi e` traccia nella legge di alcun impegno in tal senso. Riguardo ai criteri di riordino del reclutamento si apprezzano segnali positivi: la regolarit`a delle procedure di valutazione, l’idea di bandire assegni di ricerca nazionali in cui il ricercatore ha l’autonomia di proporre il suo progetto, l’obbligariet`a (almeno sul medio periodo) di reclutare personale esterno all’ateneo, un tentatvo di regolamentazione dei contratti di insegnamento, di cui al momento si abusa largamente. Tuttavia mentre e` chiaro che a regime queste norme possono produrre effetti positivi, non si prevede un periodo di transizione intermedio che tenga conto dell’attuale realt`a italiana. Prendiamo il caso della norma che fa diventare quella del ricercatore una posizione a tempo determinato: un analogo della ’tenure track’ che e` largamente diffusa all’estero, in cui il ruolo di docenza viene preceduto da un periodo di prova in cui il ricercatore mostra le sue capacit`a. In principio, una buona norma, che all’estero viene usata per avere modo di valuare un ricercatore prima dell’assunzione a tempo indeterminato. Nel nostro caso, tuttavia, passati i 6 anni di tenure l’assunzione del ricercatore non e` vincolata solo alle sue capacit`a: anche se il ricercatore acquisisce l’abilitazione nazionale a professore associato la sua immissione in ruolo e` automatica solo presso la sede in cui lavora, quindi e` vincolata sia alla situazione finanziaria della stessa sia al gradimento del ricercatore stesso da parte delle baronie locali. Questo e` un baco in generale del perverso meccanismo di abilitazione nazionale e concorso locale: e` inutile fare una programmazione sulle procedure valutative nazionali (fatto comunque positivo) se poi i posti ’veri’ vengono comunque banditi localmente, e come tali assoggettati ai noti meccanismi di baronia locale e ai problemi di deficit finanziario delle varie sedi.

accastampato num. 0, Novembre 2009

21


ONDA LUNGA

Un secondo aspetto che la riforma ignora e` che ad oggi si diventa ricercatore universitario in media a 36 anni (3): non e` quindi auspicabile che la nuova figura del ricercatore a tempo determinato interessi questa categoria di scienziati, che hanno alle spalle gi`a 10 anni di precariato nella ricerca. Queste figure andrebbero quindi gradualmente inserite in ruoli di docenza (ovviamente, previa selezione dei soli meritevoli), il che e` reso impossibile dai blocchi attualmente in essere e da un sistema che vede accedere ai ruoli di associato ricercatori in media di 44 anni, quindi con ulteriori 10 anni di esperienza. Questo significa anche che in un’abilitazione nazionale gli standard fissati per accedere ai ruoli di associato riguarderanno scienziati con circa 20 anni di esperienza, rendendo impossibile anche per i migliori giovani ricercatori del nostro paese aspirare direttamente alla docenza universitaria di ruolo. Non si vede quindi, a dispetto delle numerose esternazioni in tal senso da parte di molti commentatori ignari della reale situazione universitaria, come queste norme possano risolvere l’enorme problema del precariato universitario. A voler fare una stima al ribasso dell’entit`a del problema, si consideri che lo stesso Ministero dell’Istruzione ci informa che al momento ci sono 18,000 persone tra assegnisti e borsisti impegnati in attivit`a di ricerca nell’universit`a italiana (4): un numero enorme, se si pensa che nei prossimi anni (2009-2012) vi sar`a al massimo (5) un turn over di 10,000 unit`a, che per`o stante le norme sul blocco del turn over e sui tagli al FFO produrranno nella migliore delle ipotesi 5000 nuovi posti. A questi ricercatori, spesso impegnati in programmi di ricerca di altissima qualit`a, si propone di quindi prolungare la precariet`a con altri 6 anni di posto da ricercatore a tempo determinato. Inoltre, si rende obbligatorio per il ricercatore a tempo determinato un carico didattico pari a quello del docente di ruolo. Tale novit`a ha connotati estremamente negativi: attualmente i ricercatori non sono tenuti a fare attivit`a didattica (anche se spesso si trovano a farla su base pi`u o meno volontaria). L’idea e` che un giovane debba fare principalmente ricerca, acquisire i titoli per diventare professore universitario, e dedicarsi a quel punto alla didattica con tutto l’impegno che questa richiede. Questo sistema invece delega ufficialmente l’insegnamento a figure precarie, a discapito della qualit`a stessa dell’insegnamento. Infine si arriva alla parte pi`u interessante della riforma, ossia l’adozione di procedure di valutazione del personale docente, da parte di un agenzia, l’ANVUR (6), la cui utilit`a viene curiosamente riconosciuta dopo un anno e mezzo di stasi completa delle procedure per la sua messa in funzione. Vorrei osservare che in questo stesso periodo la parte ’sana’ dell’universit`a italiana ha sempre chiesto a gran voce una riforma del sistema in senso meritocratico, perch`e e` questa l’unica strada percorribile per migliorare veramente la qualit`a del mondo accademico. E` inutile cambiare le procedure dei concorsi, bloccare il turn-over, invocare codici etici, se la gestione rimane nelle mani dei soliti noti (o, ancor peggio, nelle mani di un CdA del tutto disinteressato al mondo della ricerca). Solo un meccanismo che fa ’pagare’ a posteriori a ogni 22

singolo dipartimento i costi di scelte scientifiche sbagliate pu`o sconfiggere il malcostume. Questo e` il punto di partenza, non quello di arrivo: ma richiede un coraggio - quello di scardinare veramente poteri consolidati- ed una comprensione dei meccanismi reali del mondo universitario che sono al momento assenti nel nostro panorama politico.

Bibliografia (1) Il documento e` disponibile on-line: www.accatagliato. org (2) Il rapporto presentato dal Prof. P. Rossi al Convegno C.U.N. del 18 giugno 2008 (http://www.df.unipi.it/ ˜rossi/documenti.html) mostra chiaramente che l’incremento nominale del 17% del FFO dal 1998 al 2008 e` servito unicamente a fare fronte all’aumento degli stipendi stabiliti in base all’indice di inflazione ISTAT. Questo significa che non vi e` stato alcun aumento netto in termini di investimenti in ricerca e sviluppo. (3) Dati forniti dal CNVSU (Comitato Nazionale di valutazione del Sistema Universitario): http://www.cnvsu.it/ publidoc/datistat/default.asp (4) Dati rilevabili dal sito del Miur: http://statistica. miur.it/Data/uic2007/Le_Risorse.pdf (5) Una stima esatta del numero dei pensionamenti previsti per i prossimi anni e` difficile: tuttavia i dati del CNVSU (http: //www.cnvsu.it) stimano tra i 5000 ed i 10000 pensionamenti. (6) L’ANVUR (www.anvur.it) e` l’Agenzia Nazionale per la Valutazione del Sistema Universitario: la sua istituzione era stata avviata dal precedente ministro Mussi ma le procedure sono state bloccate al momento dell’insediamento del presente governo.

Sull’autore Lara Benfatto (lara.benfatto@roma1.infn.it) e` ricercatrice presso il CNR/INFM di Roma.

accastampato num. 0, Novembre 2009


La transizione vetrosa Il vetro e` tra i materiali piu` familiari, ma non smette di affascinare gli scienziati Tullio Scopigno (Gruppo G LAS, Dip. di Fisica della Sapienza di Roma)

Quanto a me, perdonatemi per quello che sto per dire, ma preferisco il vetro, che almeno non manda odore. E se non fosse cos`ı fragile, lo preferirei all’oro. (Petronio, Satyricon, I secolo d.C.)

egli ultimi venti anni enormi progressi sono stati fatti verso la comprensione dei meccanismi di formazione del vetro, la cosiddetta transizione vetrosa, ma nonostante ci`o resta ancora valida l’affermazione di P.W. Anderson, premio Nobel per la fisica nel 1977, che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia. Il vetro, nell’accezione comune del termine, e` una sostanza che trova largo impiego nell’uso quotidiano. Dal punto di vista fisico, per`o, pu`o essere inquadrata in un contesto ben pi`u generale, in quanto rappresenta una forma di aggregazione della materia che pu`o acquisire alcune caratteristiche (per esempio la rigidit`a meccanica) del solido e altre (come la struttura microscopica) del liquido. Allo stato solido, in effetti, i materiali possono presentarsi in forma cristallina o amorfa: nel primo caso gli atomi (o le molecole) che lo compongono sono disposte in modo da formare un reticolo ordinato (cristallo), mentre nel secondo caso, proprio come accade in un liquido, vi e` totale assenza di periodicit`a spaziale, e si parla appunto di sostanze vetrose. In base a questa definizione rientrano nella categoria dei vetri le ceramiche, le plastiche, le resine epossidiche e i materiali polimerici, e dunque nelle comuni applicazioni si ha a che fare con sostanze vetrose molto pi`u spesso di quanto non suggerisca il senso comune. A dispetto di questa larga diffusione, il meccanismo di formazione del vetro, la transizione vetrosa appunto, risulta essere il problema pi`u interessante e profondo non ancora risolto nella fisica della materia, per citare le parole di P.W. Anderson, premio Nobel per la fisica nel 1977.

N

La temperatura della transizione La fenomenologia della transizione vetrosa pu`o essere analizzata osservando il comportamento termodinamico di alcuni parametri macroscopici. Supponiamo, ad esempio, di raffreddare un liquido sottraendogli calore (ponendolo in contatto con un ambiente a temperatura pi`u bassa). Se si misura il calore ceduto durante il raffreddamento al variare della temperatura (cfr. Figura 1) possono essere identificate diverse regioni termodinamiche.

Figura 1 Calore scambiato da un fuso in fase di raffreddamento. Rosso: fase liquida. Nero: fase cristallina, che si genera alla temperatura di fusione Tm . Arancio: il fluido, in particolari condizioni (per es. raffreddamento veloce) pu`o mantenersi in una fase liquida metastabile, detta di liquido sottoraffreddato. Blu: diverse fasi vetrose, che si generano alle temperature di transizione vetrosa Tg , dipendenti dalla velocit`a di raffreddamento. Si osservi la diversa dipendenza del calore dalla temperatura (capacita termica) nella fase liquida e nelle fasi solide.

Al di sopra della temperatura di fusione il liquido rilascia calore con continuit`a. Alla temperatura di fusione il sistema solitamente cristallizza, ma in particolari condizioni pu`o seguire un diverso comportamento, mantenendosi in uno stato metastabile, detto di liquido sottoraffreddato. Nel primo caso il calore rilasciato subisce una brusca variazione (calore latente) per poi continuare a diminuire, ma con minor rapidit`a rispetto alla fase liquida. Usando il linguaggio della termodinamica si dice che, alla temperatura di fusione, il sistema compie una transizione di fase del primo ordine. Nel secondo caso il rilascio di calore continua come in

accastampato num. 0, Novembre 2009

23


IL RICERCATORE ROMANO

fase liquida (si parla pertanto di liquido sottoraffreddato) finch´e, alla temperatura di transizione vetrosa, il calore continua a essere rilasciato in modo continuo ma con una rapidit`a minore, simile a quella del cristallo. Mentre la cristallizzazione e` un processo ben definito, nel senso che la temperatura di fusione e` un parametro che caratterizza univocamente ogni liquido, le modalit`a secondo le quali avviene la transizione vetrosa dipendono da diversi fattori, come per esempio la storia termica del materiale, ovvero la velocit`a di raffreddamento. La temperatura di transizione vetrosa, pertanto, viene solitamente definita sulla base della velocit`a di raffreddamento che si riesce ad ottenere sperimentalmente, che e` dell’ordine di qualche decina di gradi al secondo.

Figura 2 Struttura e dinamica nelle varie fasi termodinamiche. A) Liquido e liquido sottoraffreddato. Gli atomi compiono un moto di tipo diffusivo, la loro posizione media varia nel tempo. B) Fase vetrosa: gli atomi sono congelati in posizioni di equilibrio disordinate, attorno alle quali compiono un moto vibrazionale. C) Gli atomi sono congelati in posizioni di equilibrio disposte su un reticolo ordinato, attorno alle quali compiono un moto vibrazionale.

In corrispondenza ai diversi stati termodinamici sopra menzionati anche le propriet`a dinamiche degli atomi e/o molecole subiscono importanti variazioni. Allo stato liquido gli atomi e/o le molecole si muovono in maniera disordinata e la loro posizione media cambia continuamente. Quando un liquido viene raffreddato, normalmente la perdita di energia termica degli atomi induce un progressivo ordinamento spaziale. Se la sostanza cristallizza, gli atomi continuano a muoversi, ma in modo diverso da quanto accadeva nel liquido: il moto di diffusione si arresta e gli atomi vibrano intorno a delle posizioni di equilibrio che rispettano ben definite periodicit`a spaziali (strutture cristalline), come farebbe, ad esempio, un sistema di palline (gli atomi) disposte su un reticolo cubico collegate tra loro da molle (i legami chimici). Se la sostanza non cristallizza, superato il punto di fusione, la dinamica rallenta ulteriormente finch´e, una volta raggiunta la temperatura di transizione vetrosa, Tg , il moto diffusivo e` praticamente congelato e sopravvivono solo le vibrazioni, che avvengono ora intorno a posizioni di equilibrio che non hanno alcuna periodicit`a spaziale. In realt`a, la transizione vetrosa marca un confine pi`u labile tra liquido-solido di quanto non avvenga nella cristallizzazione. Come vedremo, infatti, la temperatura di transizione 24

vetrosa identifica uno stato in cui la capacita di fluire del liquido scende al di sotto di un certo valore convenzionalmente scelto. Dunque, anche nel vetro, si ha un moto di tipo diffusivo, seppure estremamente lento, ovvero su scale temporali molto pi`u lunghe dei tipici tempi di osservazione. Se potessimo dunque fotografare la struttura atomica di un vetro otterremmo un’immagine simile a quelle riportata in Figura 2.

Le cattedrali gotiche e la viscosita` A questo proposito, e` significativo ricordare il mito delle cattedrali gotiche, la cui origine viene fatta risalire a una lezione di chimica tenuta nel 1946 nella West Side High School in Newark, New Jersey. Il vetro e` in realt`a un liquido - pare abbia detto il professor Clarence Hoke in questa occasione - Lo si pu`o dire guardando alle vetrate delle antiche cattedrali europee. Il vetro e` pi`u spesso nella parte bassa che in quella alta. Il motivo di questa differenza di spessore sarebbe dovuto al flusso del vetro sotto il proprio peso. Pare che la convinzione del professor Hoke abbia fatto proseliti negli anni successivi, raccogliendo un significativo numero di citazioni. Del resto bisogna ammettere che questo mito presenta un certo appeal: vetro e liquido sono spesso presentati come stati di aggregazione molto simili, caratterizzati dalla mancanza di ordine nella disposizione atomica. Poich´e questo e` certamente vero dal punto di vista qualitativo, si pu`o comprendere una certa tentazione nello spingersi troppo oltre nell’analogia, ignorando gli aspetti quantitativi della similitudine. In realt`a molti scienziati, ma anche semplici appassionati, si sono cimentati nella verifica quantitativa, e dunque sperimentale, dell’affermazione del professor Hoke, con risultati incontrovertibili che indicano come il mito sia totalmente (o quasi) infondato. Pare che effettivamente si riscontrino disomogeneit`a nello spessore di vetrate antecedenti il XIX secolo, ma allo stesso tempo il lato con lo spessore maggiore e` montato in alto, in basso o lateralmente con frequenze statisticamente simili. -------------------------------------------

...il problema piu` interessante e profondo non ancora risolto nella fisica della materia... ------------------------------------------Dunque questa leggenda popolare si spiegherebbe in modo molto semplice: prima del XIX secolo le lastre di vetro venivano prodotte partendo da una sfera e riducendola a disco mediante percussione. In questo processo inevitabilmente si ottenevano disomogeneit`a negli spessori ed e` possibile che gli artigiani del tempo preferissero montare il lato pi`u spesso in basso per sopportare meglio il carico strutturale. Al giorno d’oggi le moderne finestre vengono formate facendo adagiare per galleggiamento il fuso vetroso su un substrato di stagno fuso, processo che rende la lastra altamente uniforme. D’altra parte, se e` vero che anche al di sotto

accastampato num. 0, Novembre 2009


IL RICERCATORE ROMANO

della transizione vetrosa il materiale mantiene una certa capacit`a di fluire, questa e` talmente bassa che a temperatura ambiente occorrerebbe l’et`a dell’universo per creare un aumento di spessore di soli 10 Angstrom (l’Angstrom e` la dimensione caratteristica di un atomo, pari a 10−10 metri) in una lastra verticale alta un metro. Per contro, per osservare sensibili aumenti di spessore su tempi ragionevolmente brevi (per esempio la vita di media di un essere umano), occorrerebbe applicare alla lastra sforzi talmente grandi che questa si romperebbe prima di poter fluire. Questo tipo di calcolo ci porta al concetto di viscosit`a, ovvero la quantificazione della capacit`a di fluire di un materiale, che si misura usualmente in unit`a chiamate poise. Per farci un’idea, l’acqua ha una viscosit`a di 0,01 poise, la marmellata di 500 poise. Il formaggio Brie e` molto pi`u viscoso, 500.000 poise, e alla fine di una cena potremmo forse osservare un certo rammollimento di una fetta sotto il proprio peso. Ma un vetro a temperatura ambiente possiede una viscosit`a di 100.000.000.000.000.000.000 poise (s`ı, proprio 1 seguito da 20 zeri!), ovvero mille milioni di volte pi`u del piombo. Ora il piombo viene proprio utilizzato per le rilegature artistiche delle stesse vetrate incriminate e nessuno ha mai osservato tali rilegature fluire neanche sotto i grandi carichi strutturali ai quali queste sono soggette. E ancora, se a temperatura ambiente le vetrate gotiche potessero davvero essersi deformate sotto il proprio peso, perch´e non dovrebbe aver fatto altrettanto anche il vasellame ritrovato qualche migliaio di anni prima nelle tombe egizie o negli scavi greci e romani?

La viscosita` e la fragilita` Al livello macroscopico dunque, il parametro fisico che controlla la vetrificazione, ovvero il rallentamento delle variabili dinamiche microscopiche, e` la viscosit`a. In particolare, il comportamento della viscosit`a al diminuire della temperatura in prossimit`a della Tg permette di classificare i materiali vetrosi secondo uno schema universale, reso celebre dallo scienziato americano C.A. Angell. Secondo questo schema, i vetri (o meglio i liquidi in grado di vetrificare) si dividono in duri e fragili (strong e fragile), a seconda della rapidit`a con la quale la viscosit`a cambia al variare della temperatura in prossimit`a di Tg . In generale, nel processo di vetrificazione, la viscosit`a aumenta di molti ordini di grandezza, passando da circa 10−4 poise, valore caratteristico dello stato liquido alle alte temperature, a circa 1013 poise nel vetro, valore convenzionalmente scelto come caratteristico dello stato vetroso (un aumento di 1017 volte, dunque). Per rappresentare graficamente questo enorme aumento si usa riportare il logaritmo della viscosit`a in funzione dell’inverso della temperatura, scalato per la Tg . In questo modo, con riferimento alla Figura 3, seguendo il verso dei valori crescenti lungo l’asse delle ascisse, si pu`o quantificare l’aumento della viscosit`a al diminuire della temperatura, fino all’approssimarsi del valore 1013 alla transizione vetrosa, ovvero

quando ogni sistema raggiunge la sua temperatura di transizione vetrosa (T = Tg , valore unitario dell’ascissa).

Figura 3 Andamento della viscosit`a al variare della temperatura. La fragilit`a di un liquido e` data dalla pendenza in prossimit`a della temperatura di transizione vetrosa (Tg /T = 1). Questo importante parametro e` dunque legato alla variazione di temperatura nell’intervallo di viscosit`a in cui il vetro pu`o essere lavorato. Intervalli di temperatura pi`u o meno ampi, a loro volta, determinano i tempi di lavorazione, pi`u o meno lunghi, per esempio durante la soffiatura. La silice e` il prototipo di vetro duro (adatto per applicazioni con tempi di lavorazione lunghi), il glicerolo e` un liquido intermedio, mentre i materiali polimerici sono solitamente molto fragili (necessitano di tempi di lavorazione relativamente brevi).

Osservando gli andamenti schematicamente riportati in Figura 3, e` possibile evidenziare alcuni aspetti generali: 1) alcuni liquidi, detti forti, mostrano un andamento lineare della viscosit`a, altri, detti fragili, mostrano un andamento concavo: la rapidit`a con cui aumenta la viscosit`a al diminuire della temperatura verso Tg aumenta con la diminuzione stessa della temperatura. 2) Le curve caratteristiche di ciascun materiale non si incrociano mai. Dunque, intorno a Tg , nelle sostanze forti la viscosit`a cresce pi`u lentamente, mentre in quelle fragili pi`u rapidamente. Volendo andare oltre questa distinzione qualitativa, e` possibile quantificare il concetto di fragilit`a, m, misurando la pendenza delle curve in prossimit`a della transizione vetrosa (valore unitario dell’ascissa). In questo modo si va dal valore di m = 20, che caratterizza il prototipo di vetro duro - la silice pura - verso valori via via crescenti che, per le sostanze polimeriche possono arrivare a m > 200. Mentre esiste un limite inferiore di fragilit`a (nessun materiale mostra un andamento convesso, ovvero con pendenza minore di 17 in vicinanza di Tg , non esiste a priori nessun limite superiore alla fragilit`a. Ecco dunque perch´e, essendo la fragilit`a una caratteristica

accastampato num. 0, Novembre 2009

25


IL RICERCATORE ROMANO

definita nello stato liquido (sottoraffreddato) e non vetroso, sarebbe pi`u corretto parlare di fragilit`a dei liquidi piuttosto che dei vetri. Lungi dall’essere un mero esercizio matematico, il concetto e la quantificazione della fragilit`a racchiude in s´e alcuni aspetti essenziali della transizione vetrosa, primo fra tutti quello dell’universalit`a: sistemi diversi si comportano qualitativamente in maniera simile, differendo solo nell’aspetto quantitativo. Il concetto di fragilit`a, inoltre, ha implicazioni fondamentali anche negli aspetti pratici legati alla lavorazione del vetro. Tali implicazioni erano probabilmente note, in forma qualitativa, dai tempi dei pionieri della lavorazione del vetro (Fenici ed Egiziani), e certamente sono ben note ai soffiatori che da lungo tempo identificano i vetri duri in lunghi e quelli fragili in corti. La ragione di questa diversa nomenclatura e` proprio legata alle implicazioni pratiche del concetto di fragilit`a. Solitamente, infatti, l’intervallo di lavorazione del vetro per la soffiatura e` compreso tra 104 e 108 poise. In tale intervallo di viscosit`a un liquido molto fragile tender`a a raffreddarsi in un intervallo di temperatura relativamente piccolo, al contrario di un vetro duro, che si raffredder`a in un intervallo di temperatura relativamente pi`u ampio. In modo corrispondente, i liquidi fragili vetrificano in tempi relativamente corti, mentre quelli duri in tempi pi`u lunghi. I vetri corti si preferiscono solitamente nelle applicazioni di

tipo industriale, in cui il fattore decisivo e` la velocit`a di produzione, mentre nelle applicazioni artistiche, quali la soffiatura, sono i vetri lunghi (duri) a essere preferiti, poich´e permettono, appunto, tempi di lavorazione pi`u lunghi. La fragilit`a di un composto pu`o essere modulata a partire dalla silice pura mediante l’aggiunta di elementi alcalini o terre rare quali sodio, potassio calcio o lantanio. Concludendo, sebbene negli ultimi venti anni enormi progressi siano stati fatti verso la comprensione dei meccanismi che regolano la transizione vetrosa, l’affermazione di Anderson che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia sembra essere ancora decisamente attuale.

Sull’autore Tullio Scopigno (tullio.scopigno@roma1. infn.it) e` ricercatore presso il Dipartimento di Fisica della Sapienza di Roma. Ha recentemente vinto il premio europeo Idea con il quale ha fondato Femtoscopy, una nuova linea di ricerca di spettroscopia Raman ultra-veloce.

Transizioni di fase del primo ordine Le transizioni di fase di prima specie (o del primo ordine) sono il pi`u comune tra i cambiamenti di stato in cui incorrono i sistemi fisici. Esempio, infatti, ne sono il congelamento dell’acqua o la sua evaporazione, quando la temperatura del liquido attraversa una valore specifico. Sebbene l’essere di prima specie sia formalmente identificato dalla presenza di calore latente, ossia dalla necessit`a di cedere o assorbire calore (senza variare la temperatura) perch´e possa avvenire il passaggio di stato, l’effetto tipico che contraddistingue queste transizioni e` la coesistenza delle due fasi all’interno di un intervallo di temperature: riscaldando l’acqua in una pentola con il coperchio parte del liquido evaporer`a creando un sistema in cui l’acqua e il suo vapore convivono alla stessa temperatura. In altre parole c’`e un intervallo di temperature in cui in cui e` possibile trovare l’acqua sia nella fase liquida che in quella gassosa. Un’ulteriore caratteristica delle transizioni di prima specie e` la presenza di un salto, durante il passaggio di stato, di quantit`a direttamente misurabili come il volume: mentre una sostanza sta evaporando, per esempio, il suo volume aumenta sensibilmente anche per infinitesime variazioni della temperatura. 26

Diagramma di fase dell’acqua. In ascissa la temperatura T, in ordinata la pressione P. Ogni punto del piano rappresenta una fase della sostanza, eccetto che per quelli che si trovano sulle linee che vengono dette linee di transizione. Su di esse avviene il passaggio da una fase all’altra della sostanza. Da it.wikipedia.org

accastampato num. 0, Novembre 2009


Alla ricerca del decadimento proibito Verificare i limiti del Modello Standard studiando i muoni nell’esperimento MEG Giancarlo Piredda, Gianluca Cavoto, Francesco Renga, Cecilia Voena, Erica Chiaverini (Gruppo MEG, Sezione INFN di Roma) n Svizzera non c’`e solo il CERN - il pi`u importante e famoso laboratorio al mondo per lo studio delle particelle elementari - ma nei pressi di Zurigo si trova anche il Paul Scherrer Institut (Figura 1, http://www. psi.ch/index_e.shtml), il laboratorio confederale dove e` stato realizzato il pi`u intenso fascio continuo di muoni (fino a 108 µs−1 ) al mondo, ottenuti dal decadimento dei pioni prodotti nell’interazione di protoni da 590 MeV su un bersaglio di grafite.

I

e a quale livello le previsioni delle teorie supersimmetriche e/o di grande unificazione - che per tutta una serie di ragioni fondamentali rappresentano il possibile superamento delle limitazioni del MS - sono verificate sperimentalmente. Per raggiungere questo scopo si e` dovuto migliorare molto la sensibilit`a degli esperimenti con un lungo e laborioso lavoro: basti pensare che c’`e voluto un quarto di secolo per migliorare di due ordini di grandezza, passando da 10−9 a 10−11 . Per la precisione il miglior limite 1.2 × 10−11 e` stato raggiunto dall’esperimento MEGA alle soglie del 2000. L’ambizioso obiettivo di MEG e` di fare un ulteriore passo avanti spingendo la sensibilit`a a 10−13 in una regione in cui vari modelli predicono l’esistenza di un segnale.

L’apparato sperimentale Come e` fatto MEG? L’apparato e` molto diverso da quello che si usa in un tipico esperimento di alta energia, per esempio ad un collider. In questo caso l’apparato sar`a general purpose, fatto a cipolla: un rivelatore di vertice all’interno, un tracciatore nello strato successivo e a seguire calorimetria e rivelatore di µ. Il tutto immerso in un opportuno campo magnetico. Figura 1 Il Peter Scherrer Institut sulle sponde del fiume Aar.

E` proprio qui che una piccola ma cosmopolita collaborazione ha assemblato e sta operando l’esperimento MEG, progettato per trovare il decadimento proibito, cio`e la disintegrazione di un muone in un elettrone ed un fotone (µ → eγ), in luogo del normale decadimento in elettrone e due neutrini (µ → eνe νµ ). Non e` la prima volta che si fa questa ricerca, anzi. I primi tentativi risalgono a pi`u di 60 anni fa, quando Pontecorvo cercava questo decadimento nei raggi cosmici con una sensibilit`a di circa 10−4 , perch´e si pensava che il µ fosse un elettrone pesante e quindi soggetto al decadimento radiativo. E` interessante notare che l’assenza di questo decadimento a quel livello e` stato un argomento usato all’epoca in favore dell’esistenza di due diversi tipi di neutrino. Anche se poi si e` scoperto che i neutrini possono oscillare, cio`e per esempio un νe pu`o tramutarsi in un νµ e viceversa, la probabilit`a che questo avvenga e` cosi bassa che la predizione della dsintegrazione µ → eγ nel Modello Standard (MS) e` di 10−54 , cio`e praticamente nulla. Quindi il decadimento senza neutrini assume una importanza strategica perch´e va a sondare se

Figura 2 Schema del rivelatore MEG.

accastampato num. 0, Novembre 2009

27


IL RICERCATORE ROMANO

MEG e` molto diverso da questo schema (vedi Figura 2): l’apparato e` stato progettato appositamente per la rivelazione di un fotone e di un positrone da circa 50 MeV/c provenienti dal decadimento di un µ a riposo e quindi collineari e simultanei e per misurarne con la pi`u alta precisone possibile le variabili cinematiche.

Le pareti esterne sono equipaggiate con circa 800 fotomoltiplicatori che permettono di raggiungere risoluzioni in energia di 1.2 MeV, pari al 2.4%.

I muoni (positivi) del fascio, con impulso di circa 30 MeV/c (corrispondente ad una energia cinetica di 4.5 MeV) ed una intensit`a di circa 3 × 107 s−1 (pari a uno ogni 30 ns!) vengono fermati in un sottile bersaglio di polietilene in modo che il µ decada a riposo. Il fotone viene rivelato nel calorimetro a Xenon liquido (LXe, vedi Figura 3), il rivelatore pi`u innovativo di MEG dal punto di vista tecnologico ed anche il pi`u grande di questo tipo mai costruito, con il quale vengono misurati energia e tempo del fotone.

Figura 4 Il magnete COBRA durante l’installazione.

Il positrone da 52.8 MeV/c, emesso in direzione opposta rispetto al fotone, viene curvato dalle potenti spire del COBRA - uno speciale magnete superconduttore a gradiente di campo che spazza via i positroni di impulso inferiore dei decadimenti ordinari (Figura 4)-, lascia i segni del suo passaggio in un delicato sistema di camere a deriva (Figura 5), per andare infine a schiantarsi sul Timing Counter (Figura 6), un insieme di barre di scintillatore plastico, ognuna letta alle due estremit`a da fotomoltiplicatori, dove viene registrato con grande precisione il suo tempo di arrivo.

Figura 3 L’interno del calorimetro durante l’assemblaggio.

Gli 800 litri di materiale scintillante sono mantenuti ad una temperatura di 16K in una struttura di acciaio e alluminio (criostato) a forma di semitoroide trapezoidale (una C, per intenderci) che copre il 10% dell’angolo solido (questioni di bilancio non hanno permesso una copertura maggiore). 28

accastampato num. 0, Novembre 2009

Figura 5 Le camere a deriva.


IL RICERCATORE ROMANO

raggiunto una risoluzione temporale di circa 100 ps che rappresenta una delle migliori prestazioni finora raggiunte e costituisce un miglioramento di un fattore di pi`u di un ordine di grandezza rispetto all’esperimento precedente.

Bibliografia

Figura 6 Il Timing Counter.

Research Proposal to INFN: The MEG experiment: search for the µ+ → e+ γ decay at PSI (http://meg.web.psi.ch/docs/ prop_infn/nproposal.pdf) MEG Collaboration, A limit for the µ → eγ decay from the MEG esxperiment, http://arxiv.org/pdf/0908.2594 MEG Collaboration, Search for the lepton-family-number nonconserving decay µ+ → e+ γ, Phys. Rev. D 65, 11 (2002) (http://prola.aps.org/abstract/PRD/v65/ i11/e112002)

Sull’autore Come si vede in linea di principio il compito sembra semplice e facilmente realizzabile. Bisogna per`o ricordare che occorre cercare un debolissimo segnale (se esiste) in un fondo sterminato (che esiste sicuramente!). Le ricerche precedenti ci dicono infatti che su cento miliardi di µ finora neanche uno ha mostrato segni di violare la disintegrazione prevista dal modello standard. Non basta essere ben equipaggiati per registrare il segnale, occorre anche essere in grado di discriminare tutti quegli eventi di fondo che possono simularlo. Il fondo pi`u pericoloso e` quello cosiddetto accidentale, in cui un vero positrone ed un vero fotone, provenienti da decadimenti di µ diversi appaiono simultanei entro la risoluzione finita dell’apparato. Per questo la risoluzione in tempo gioca un ruolo cruciale nel risultato finale dell’esperimento. MEG ha

Giancarlo Piredda (giancarlo.piredda@ roma1.infn.it) e` ricercatore all’INFN, attualmente responsabile del gruppo MEG di Roma, Gianluca Cavoto (gianluca.cavoto@roma1.infn.it) e Cecilia Voena (cecilia.voena@roma1. infn.it) sono ricercatori all’INFN, Francesco Renga (francesco.renga@roma1.infn.it) e` Post-Doc all’Universit`a Sapienza di Roma, tutti membri della collaborazione MEG. Erica Chiaverini (erica.chiaverini@roma1.infn.it) e` laureanda nel gruppo di Roma dell’esperimento MEG.


Prolusione del corso di Fisica Teorica di Ettore Majorana 13 gennaio 1938: una lezione speciale che mostra le capacita` didattiche dello scienziato Alessio Cimarelli (grazie a Bruno Prezioni, Erasmo Recami, Salvatore Esposito) (Studente di Fisica) Al mondo ci sono varie categorie di scienziati; gente di secondo e terzo rango, che fanno del loro meglio ma non vanno lontano. C’`e anche gente di primo rango, che arriva a scoperte di grande importanza, fondamentale per lo sviluppo della scienza. Ma poi ci sono i geni come Galileo e Newton. Ebbene Ettore era uno di quelli. Majorana aveva quel che nessun altro al mondo ha. Sfortunatamente gli mancava quel che e` invece comune trovare negli altri uomini: il semplice buon senso. (Enrico Fermi)

Figura 1 Ettore Majorana

ttore Majorana nacque a Catania il 6 agosto 1906 e scomparve misteriosamente nel marzo 1938 mentre era di ritorno da Palermo. Il 13 gennaio 1938 aveva tenuto la lezione inaugurale del suo corso di Fisica Teorica presso l’universit`a Federico II di Napoli, ove era stato nominato professore ordinario per meriti eccezionali. Questi appunti che di seguito pubblichiamo mostrano l’interesse dello scienziato non solo per le questioni generali e di fondo che animano la ricerca scientifica, ma anche per il migliore metodo didattico da seguire per trasmettere il sapere agli allievi, per i quali ha sempre nutrito un profondo interesse. Una lettura degli appunti di Majorana per la sua Prolusione pu`o riuscire rivelatrice, dunque, riguardo a vari aspetti del carattere scientifico ed umano dello scienziato.

E

30

Il concorso a cattedra e l’approdo a Napoli Nel 1937 l’Universit`a di Palermo, per interessamento di Emilio Segr´e, richiese un nuovo concorso per la cattedra di Fisica Teorica. I concorrenti, oltre Majorana (invitato insistentemente a partecipare al concorso da Fermi e dagli amici), erano Leo Pincherle, Giulio Racah, Gleb Wataghin, Gian Carlo Wick e Giovanni Gentile (figlio dell’omonimo filosofo, gi`a ministro). La commissione giudicatrice, riunitasi a Roma, era presieduta da Fermi ed era costituita da Antonio Carrelli (segretario), Orazio Lazzarino, Enrico Persico e Giovanni Polvani. I documenti ufficiali testimoniano che la commissione prospett`o al Ministro Bottai (il quale accoglier`a la proposta) l’opportunit`a di nominare il Majorana professore di Fisica teorica per alta e meritata fama in una Universit`a del Regno, indipendentemente dal concorso. La cattedra fu attribuita fuori concorso a Majorana e la nomina a professore ordinario, partecipata dal Ministro Bottai il 2 novembre 1937, decorse dal 16 novembre dello stesso anno. Majorana si rec`o per`o a Napoli verso l’inizio dell’anno successivo (probabilmente il 10 gennaio 1938). Qui si rese subito conto dell’esiguit`a del gruppo di fisici napoletani: [...] Praticamente l’Istituto si riduce alla persona di Carrelli [direttore dell’Istituto di Fisica, ndr], del vecchio aiuto Maione e del giovane assistente Cennamo. Vi e` anche un professore di fisica terrestre difficile a scoprire [...]. Delle perplessit`a di Majorana per l’ambiente napoletano testimoniano allo stesso modo alcuni suoi allievi, tuttavia, in una successiva lettera a Gentile, egli dichiarer`a di essere contento degli studenti, alcuni dei quali sembrano risoluti a prendere la fisica sul serio.

Il corso di Fisica Teorica Majorana annuncia l’inizio del suo corso per il gioved`ı 13 gennaio 1938 alle 9:00, ma concorda con il preside della Facolt`a di evitare ogni carattere ufficiale all’apertura del corso. Di ci`o se ne ha traccia indiretta nell’assenza di una tale notizia sui giornali cittadini (come, ad esempio, Il Mattino), contrariamente a quanto avveniva per altri corsi, certamente pi`u affollati. Secondo la testimonianza di Gilda Senatore, alla lezione inaugurale non parteciparono gli studenti del corso medesimo (o per espressa indicazione del direttore o per cause contingenti). Lo stesso Majorana afferma che non e` stato possibile verificare se vi sono sovrapposizioni d’orario, cos`ı che e` possibile che gli studenti non vengano e che si debba rimandare. Di fatto, la prolusione si terr`a come previsto il 13 gennaio 1938 nell’aula grande di Fisica Sperimentale

accastampato num. 0, Novembre 2009


NANOS GIGANTUM

in Via Tari, senza gli studenti ma con una decina di partecipanti, secondo quanto ricorda Sciuti, forse anch’egli presente alla lezione inaugurale. E da notare che se e` fondata l’ipotesi secondo la quale la non partecipazione degli studenti fu espressamente voluta (da Carrelli o da altri), ci`o potrebbe trovare una valida spiegazione in una antica consuetudine dell’Universit`a di Napoli secondo cui il nuovo docente doveva dimostrare agli altri professori dell’Universit`a di essere meritevole del posto che sarebbe andato ad occupare. Tale consuetudine sarebbe rimasta in vigore fino all’immediato dopoguerra. La successiva lezione, l’inizio vero e proprio del corso, si tenne il sabato 15 gennaio 1938 e il corso proseguir`a fino a marzo nei giorni pari (marted`ı, gioved`ı e sabato). La sede delle lezioni era un’auletta posta di fronte a quella usata per la Prolusione, l’aula di Fisica Superiore e l’aula di Fisica Teorica, situata al pian terreno dell’Istituto di Via Tari e che affacciava su un largo all’interno del cortile dell’Universit`a.

rio Corbino e Fermi a Roma), e seguire il corso di Majorana (che proveniva dal gruppo di Roma) appariva ai suoi occhi come il primo passo nel raggiungimento del suo obiettivo. Nella loro attivit`a di ricerca, tutti gli allievi si occupavano prevalentemente di Fisica sperimentale; ad esempio la Altieri veniva seguita dall’assistente Cennamo, mentre la Senatore, sebbene incline alla Fisica teorica, si occupava di Fisica molecolare con l’aiuto Maione e, dopo la scomparsa di Majorana, con Cennamo. Oltre ai cinque studenti di Fisica ricordati sopra, vanno poi aggiunti altri uditori pi`u o meno assidui del corso di Fisica teorica: Mario Cutolo e don Savino Coronato. Il primo probabilmente partecipava al corso anche perch´e invaghito di un’altra studentessa, Nada Minghetti, mentre il secondo era uno studente di Matematica e diventer`a poi l’assistente fedele di Caccioppoli all’Istituto di Analisi Matematica; fu probabilmente invitato a seguire il corso dallo stesso Caccioppoli, che aveva partecipato alla lezione inaugurale. In aggiunta a queste informazioni gi`a note, si e` poi scoperto nel 2004 che, oltre ai due uditori appena menzionati, si deve tener conto di un altro probabile assiduo uditore del corso: Eugenio Moreno. Lo stile del docente

Figura 2 La famiglia di Ettore Majorana (a destra) a passeggio.

Gli studenti del corso Gli studenti fisici che partecipavano al corso erano cinque: Nella Altieri, Laura Mercogliano, Nada Minghetti, Gilda Senatore e Sebastiano Sciuti. Le quattro studentesse erano tutte allievi interni (per cui oltre a studiare per i corsi, svolgevano anche attivit`a di ricerca, prevalentemente in Fisica classica), e seguirono le lezioni di Majorana quando erano al loro quarto anno di Fisica; una delle loro maggiori preoccupazioni era quella di superare esami, essendosi trovate fuori corso. Sciuti, invece, aveva gi`a seguito un corso di Fisica teorica tenuto da Carrelli. Tuttavia egli era desideroso di entrare in contatto con il gruppo di Roma guidato da Fermi (si era iscritto a Fisica a 17 anni proprio accogliendo l’invito di Orso Ma-

Majorana, vestito di blu, aveva sempre un aspetto triste e perplesso e ci`o, unito alla non facile comprensione degli argomenti avanzati che egli trattava a lezione certamente infondeva una certa soggezione nei giovani uditori del corso di Fisica teorica. D’altro canto, il soprannome di Grande Inquisitore gli era stato attribuito gi`a molti anni prima dagli amici di sempre del gruppo di Fermi a Roma. E anche al di fuori del contesto ufficiale delle lezioni, Majorana confermava questo comportamento: salutava e rispondeva gentilmente al saluto e, magari, timidamente sorrideva; si intuiva che doveva essere profondamente buono e sensibilissimo, ma non fu mai estroverso o invitante, anzi fu sempre estremamente schivo. E ancora: in quel lungo corridoio buio al piano terra... camminava sempre rasente al muro, silenziosamente e solo, muovendosi come un’ombra. Quando arriv`o a Napoli, certamente il direttore Carrelli dovette parlare degli studenti e delle loro ricerche a Majorana, il quale si dovette rendere subito conto del singolare compito che si era apprestato ad accettare con un cos`ı esiguo numero di studenti. Tuttavia egli era fermamente deciso a portare a termine in maniera responsabile il compito assunto. A lezione era chiarissimo nella trattazione dell’argomento che proponeva di volta in volta all’inizio della lezione e che svolgeva con dovizia di particolari, dando sempre la prevalenza alla parte fisica pi`u che a quella matematica; ma quando si volgeva alla lavagna e cominciava a scrivere, faceva calcoli che sul momento non sempre si riusciva a seguire. Il carattere di Majorana, poi, certamente non invitava i timidi studenti a interromperlo per chiedergli spiegazioni. Talvolta alcune domande gli venivano esplicitamente rivolte solo da Sciuti, il quale gli chiese anche se poteva avvalersi dell’ausilio di qualche testo nel seguire le lezioni del corso. A

accastampato num. 0, Novembre 2009

31


NANOS GIGANTUM

ci`o Majorana rispose che avrebbe distribuito degli appunti, e che comunque avrebbe seguito il recente testo di Persico (un libro in italiano, molto bello), sebbene apportando alcune semplificazioni formali. Un altro testo consigliato a Sciuti fu quello di Heisenberg, ma anche per questo vale la considerazione svolta sopra. Gli studenti in difficolt`a con la comprensione degli argomenti trattati non potevano, quindi, contare sull’aiuto di un libro di testo, e la Senatore ricorda che solo gli appunti presi durante le lezioni e raccordati tra noi dopo, ci permettevano di correlare la parte teorica, magistralmente spiegata, con quella matematica che la giustificava. Infatti, gli studenti (probabilmente solo quelli fisici) usualmente si incontravano il giorno successivo a quello del corso per confrontare gli appunti presi a lezione e studiare insieme gli argomenti relativi. Talvolta a lezione, quando Majorana si accorgeva (interrompendosi e voltandosi indietro) che gli studenti stentavano a capire ci`o che lui stava esponendo, si fermava e rispiegava lo stesso argomento. Proprio durante qualcuna di quelle lezioni pi`u aride e pi`u pesanti in quanto l’argomento trattato era afferente essenzialmente a metodi matematici da applicarsi allo studio di fenomeni fisici, Majorana dimenticava forse di essere quel grandissimo scienziato che era, perch´e mentre era alla lavagna e scriveva, improvvisamente si fermava, poi si volgeva, ci guardava un attimo, sorrideva e riproponeva la spiegazione facendo aderire il concetto gi`a esposto alle formule che riempivano la lavagna.

Figura 3 Logo dell’Universit`a Federico II di Napoli.

32

Appunti per la Lezione Inaugurale Universita` di Napoli, 13 gennaio 1938 In questa prima lezione di carattere introduttivo illustreremo brevemente gli scopi della fisica moderna e il significato dei suoi metodi, soprattutto in quanto essi hanno di pi`u inaspettato e originale rispetto alla fisica classica. La fisica atomica, di cui dovremo principalmente occuparci, nonostante le sue numerose e importanti applicazioni pratiche - e quelle di portata pi`u vasta e forse rivoluzionaria che l’avvenire potr`a riservarci -, rimane anzitutto una scienza di enorme interesse speculativo, per la profondit`a della sua indagine che va veramente fino all’ultima radice dei fatti naturali. Mi sia perci`o consentito di accennare in primo luogo, senza alcun riferimento a speciali categorie di fatti sperimentali e senza l’aiuto del formalismo matematico, ai caratteri generali della concezione della natura che e` accettata nella nuova fisica. La fisica classica di Galileo e Newton all’inizio del nostro secolo e` interamente legata, come si sa, a quella concezione meccanicistica della natura che dalla fisica e` dilagata non solo nelle scienze affini, ma anche nella biologia e perfino nelle scienze sociali, informando di s´e quasi tutto il pensiero scientifico e buona parte di quello filosofico in tempi a noi abbastanza vicini; bench´e, a dire il vero, l’utilit`a del metodo matematico che ne costituiva la sola valida giustificazione sia rimasta sempre circoscritta esclusivamente alla fisica. Questa concezione della natura poggiava sostanzialmente su due pilastri: l’esistenza oggettiva e indipendente della materia, e il determinismo fisico. In entrambi i casi si tratta, come vedremo, di nozioni derivate dall’esperienza comune e poi generalizzate e rese universali e infallibili soprattutto per il fascino irresistibile che anche sugli spiriti pi`u profondi hanno in ogni tempo esercitato le leggi esatte della fisica, considerate veramente come il segno di un assoluto e la rivelazione dell’essenza dell’universo: i cui segreti, come gi`a affermava Galileo, sono scritti in caratteri matematici. L’oggettivit`a della materia e` , come dicevo, una nozione dell’esperienza comune, poich´e questa insegna che gli oggetti materiali hanno un’esistenza a s´e, indipendente dal fatto che essi cadano o meno sotto la nostra osservazione. La fisica matematica classica ha aggiunto a questa constatazione elementare la precisazione o la pretesa che di questo mondo oggettivo e` possibile una rappresentazione mentale completamente adeguata alla sua realt`a, e che questa rappresentazione mentale pu`o consistere nella conoscenza di una serie di grandezze numeriche sufficienti a determinare in ogni punto dello spazio e in ogni istante lo stato dell’universo fisico. Il determinismo e` invece solo in parte una nozione dell’esperienza comune. Questa d`a infatti al riguardo delle indicazioni contraddittorie. Accanto a fatti che si succedono fatalmente, come la caduta di una pietra abbandonata nel vuoto, ve ne sono altri - e non solo nel mondo biologico - in cui la successione fatale e` per lo meno poco evidente. II determinismo in quanto principio universale della scienza ha potuto perci`o essere formulato solo come generalizzazione delle leggi che reggono la

accastampato num. 0, Novembre 2009


NANOS GIGANTUM

meccanica celeste. E` ben noto che un sistema di punti - quali, in rapporto alle loro enormi distanze, si possono considerare i corpi del nostro sistema planetario - si muove e si modifica obbedendo alla legge di Newton. Questa afferma che l’accelerazione di uno di questi punti si ottiene come somma di tanti vettori quanti sono gli altri punti: ~P¨r ∑ ms ~ers , 2 s Rrs essendo ms la massa di un punto generico e ~ers il vettore unitario diretto da ~Pr a ~Ps . Se in tutto sono presenti n punti, occorreranno 3n coordinate per fissarne la posizione e la legge di Newton stabilisce fra queste grandezze altrettante equazioni differenziali del secondo ordine il cui integrale generale contiene 6n costanti arbitrarie. Queste si possono fissare assegnando la posizione e le componenti della velocit`a di ciascuno dei punti all’istante iniziale. Ne segue che la configurazione futura del sistema pu`o essere prevista con il calcolo purch´e se ne conosca lo stato iniziale, cio`e l’insieme delle posizioni e velocit`a dei punti che lo compongono. Tutti sanno con quale estremo rigore le osservazioni astronomiche abbiano confermato l’esattezza della legge di Newton; e come gli astronomi siano effettivamente in grado di prevedere con il suo solo aiuto, e anche a grandi distanze di tempo, il minuto preciso in cui avr`a luogo un’eclisse, o una congiunzione di pianeti o altri avvenimenti celesti. Per esporre la meccanica quantistica nel suo stato attuale esistono due metodi pressoch´e opposti. L’uno e` il cosiddetto metodo storico: ed esso spiega in qual modo, per indicazioni precise e quasi immediate dell’esperienza, sia sorta la prima idea del nuovo formalismo; e come questo si sia successivamente sviluppato in una maniera obbligata assai pi`u dalla necessit`a interna che non dal tenere conto di nuovi decisivi fatti sperimentali. L’altro metodo e` quello matematico, secondo il quale il formalismo quantistico viene presentato fin dall’inizio nella sua pi`u generale e perci`o pi`u chiara impostazione, e solo successivamente se ne illustrano i criteri applicativi. Ciascuno di questi due metodi, se usato in maniera esclusiva, presenta inconvenienti molto gravi. E` un fatto che, quando sorse la meccanica quantistica, essa incontr`o per qualche tempo presso molti fisici sorpresa, scetticismo e perfino incomprensione assoluta, e ci`o soprattutto perch´e la sua consistenza logica, coerenza e sufficienza appariva, pi`u che dubbia, inafferrabile. Ci`o venne anche, bench´e del tutto erroneamente, attribuito a una particolare oscurit`a di esposizione dei primi creatori della nuova meccanica, ma la verit`a e` che essi erano dei fisici, e non dei matematici, e che per essi l’evidenza e giustificazione della teoria consisteva soprattutto nell’immediata applicabilit`a ai fatti sperimentali che l’avevano suggerita. La formulazione generale, chiara e rigorosa, e` venuta dopo, e in parte per opera di cervelli matematici. Se dunque noi rifacessimo semplicemente l’esposizione della teoria secondo il modo della sua apparizione storica, creeremmo dapprima inutilmente uno stato di disagio o di

diffidenza, che ha avuto la sua ragione d’essere ma che oggi non e` pi`u giustificato e pu`o essere risparmiato. Non solo, ma i fisici - che sono giunti, non senza qualche pena, alla chiarificazione dei metodi quantistici attraverso le esperienze mentali imposte dal loro sviluppo storico - hanno quasi sempre sentito a un certo momento il bisogno di una maggiore coordinazione logica, di una pi`u perfetta formulazione dei principi e non hanno disdegnato per questo compito l’aiuto dei matematici. Il secondo metodo, quello puramente matematico, presenta inconvenienti ancora maggiori. Esso non lascia in alcun modo intendere la genesi del formalismo e in conseguenza il posto che la meccanica quantistica ha nella storia della scienza. Ma soprattutto esso delude nella maniera pi`u completa il desiderio di intuirne in qualche modo il significato fisico, spesso cos`ı facilmente soddisfatto dalle teorie classiche. Le applicazioni, poi, bench´e innumerevoli, appaiono rare, staccate, perfino modeste di fronte alla sua soverchia e incomprensibile generalit`a. Il solo mezzo di rendere meno disagevole il cammino a chi intraprende oggi lo studio della fisica atomica, senza nulla sacrificare della genesi storica delle idee e dello stesso linguaggio che dominano attualmente, e` quello di premettere un’esposizione il pi`u possibile ampia e chiara degli strumenti matematici essenziali della meccanica quantistica, in modo che essi siano gi`a pienamente familiari quando verr`a il momento di usarli e non spaventino allora o sorprendano per la loro novit`a: e si possa cos`ı procedere speditamente nella derivazione della teoria dai dati dell’esperienza. Questi strumenti matematici in gran parte preesistevano al sorgere della nuova meccanica (come opera disinteressata di matematici che non prevedevano un cos`ı eccezionale campo di applicazione), ma la meccanica quantistica li ha sforzati e ampliati per soddisfare alle necessit`a pratiche; cos`ı essi non verranno da noi esposti con criteri da matematici, ma da fisici. Cio`e senza preoccupazioni di un eccessivo rigore formale, che non e` sempre facile a raggiungersi e spesso del tutto impossibile. La nostra sola ambizione sar`a di esporre con tutta la chiarezza possibile l’uso effettivo che di tali strumenti fanno i fisici da oltre un decennio, nel quale uso - che non ha mai condotto a difficolt`a o ambiguit`a - sta la fonte sostanziale della loro certezza.

Bibliografia B. Preziosi, E. Recami, La Lezione Inaugurale di Ettore Majorana al suo corso di Fisica Teorica S. Esposito, Il corso di fisica teorica di Ettore Majorana: il ritrovamento del documento Moreno

accastampato num. 0, Novembre 2009

33


S TARFLAG @ Turin Photo Festival 15–22 ottobre 2009: un inedito lato artistico della ricerca scientifica Alessio Cimarelli (Gruppo S TARFLAG, CNR/INFM)

egli scorsi anni il progetto europeo S TARFLAG, coordinato in Italia da Giorgio Parisi e a cui partecipa attivamente la sezione INFM di Roma, ha raggiunto con successo l’obiettivo di fornire dati quantitativi all’analisi degli stormi di storni in volo, ricostruendo la posizione tridimensionale di tutti gli uccelli che li compongono attraverso tecniche di fotografia stereoscopica.

N

sentazioni, incontri e letture portfolio, dando spazio a oltre 60 fotografi internazionali. Otto giorni (15–22 ottobre 2009) dedicati alla fotografia e all’immagine. Un progetto sperimentale con l’obiettivo di rendere Torino un polo di riferimento per il mondo della fotografia, reso possibile grazie allo sforzo di istituzioni, enti, aziende e, soprattutto, persone capaci di vedere il mondo con un altro sguardo.

Unitamente all’importanza scientifica di questi studi nell’ambito della Teoria della Complessit`a, l’indubbio fascino che le dinamiche di volo di questi animali infondono in tutti i loro osservatori ha suggerito un’inedita interpretazione dei dati fotografici: quella estetica ed artistica.

Figura 2 Gli stormi di S TARFLAG in mostra alle ex Manifatture Tabacchi di Torino

Figura 1 Una delle sale di esposizione del Turin Photo Festival 2009

Da questa intuizione, poco comune nell’ambito scientifico, ma di indubbio interesse, e` nato l’allestimento fotografico ospitato dal Turin Photo Festival di quest’anno, promosso dall’associazione Gente della Citt`a Nuova nell’ambito del progetto unaltrosguardo (www.unaltrosguardo.com). Si tratta di 6 stampe Lambda 80 × 80cm di altrettanti stormi fotografati durante le due stagioni di presa dati (2006–2008) del progetto S TARFLAG.

Il Turin Photo Festival Il Turin Photo Fetival e` alla sua seconda edizione. Nelle ex Manifatture Tabacchi, gentilmente concesse dall’Universit`a di Torino, torna a vivere la Citt`a della Luce con mostre fotografiche, pre34

S TARFLAG e la fotografia Attraverso la fotografia stereoscopica e` possibile ricavare la distanza di un oggetto analizzando due immagini scattate da due posizioni differenti nello stesso istante. Si tratta dello stesso principio su cui si basa la visione binoculare: i nostri occhi vedono due scene leggermente differenti fra loro e il cervello e` in grado di fondere queste due immagini per ottenere una scena tridimensionale che abbia profondit`a spaziale. Naturalmente e` necessario riconoscere lo stesso oggetto nelle due immagini e questo non e` un problema banale quando si ha un gruppo compatto composto da migliaia di uccelli in volo distanti anche centinaia di metri. E` il cosiddetto problema del matching, brillantemente risolto da apposito algoritmi sviluppati proprio all’interno del progetto stesso. Nel progetto S TARFLAG si utilizzano in totale 6 fotocamere digitali Canon EOS 1D Mark II equipaggiate con obiettivi Canon

accastampato num. 0, Novembre 2009


EVENTI

Figura 3 I sei stormi di S TARFLAG stampati con tecnica Lambda

Il sistema e` composto da due gruppi indipendenti e sincronizzati di 3 fotocamere l’uno, che scattano sequenze interlacciate di foto per un totale di 10 fotogrammi al secondo (fps). Di ogni gruppo fanno parte 2 macchine distanti ∼ 25m l’una dall’altra, la coppia stereoscopica, i cui assi ottici convergono con un angolo di 0.22rad, insieme ad una terza macchina che facilita il matching permettendo di implementare il cosiddetto metodo trifocale. In questo modo e` possibile scattare fino ad un massimo di 70 foto stereoscopiche consecutive, per sequenze di massimo 7 secondi.

Bibliografia da 35mm e aventi sensori CMOS da 7.8 Megapixel (frame da 3504 × 2336 pixel). L’esperimento ha luogo nelle ore immediatamente precedenti al tramonto, quindi l’esposizione delle foto e` caratterizzata da valori compresi tra 100 e 800 per la sensibilit`a (ISO), tra 1/1000s e 1/250s per il tempo di scatto e tra f 2.0 e f 4.0 per l’apertura del diaframma.

Progetto unaltrosguardo: http://www.unaltrosguardo.com/ Speedcolor: http://www.speedcolor.it/ Stampa Lambda: http://en.wikipedia.org/wiki/Type_C_print Starflag Project: http://angel.elte.hu/starling/

La stampa Lambda Anche conosciuta come stampa digitale C-type o stampa Lightjet, si tratta di una tecnica di stampa fotografica a colori effettuata in negativo su una carta fotografica che abbia almeno tre livelli di emulsioni argentate sensibili alla luce. In altre parole le immagini digitali vengono impresse su pellicola tradizionale grazie ad una sua esposizione alla luce di laser rossi, verde e blu, e quindi ingrandite e sviluppate secondo tecniche standard. Il sistema di stampa dei laser e` a tono continuo, a differenza della classica stampa a getto di inchiostro che invece si dice a mezzotono, tipica dei processi digitali, con una resa ottimale su tutti i toni e sulle sfumature Schema di una stampante Lambda, da www.speedcolor.it dei colori mantenendo un’ottima definizione sia sui piccoli che grandi formati di stampa. La Stampa Lambda si distingue dalle altre tecnologie di stampa digitale per la totale assenza di retino, la nitidezza, la naturalezza e ricchezza dei toni e delle sfumature. Questo, unito alla elevata rapidit`a e alla variet`a dei formati stampabili, la rendono uno strumento versatile tanto per la produzione di grandi quantitativi di stampe fotografiche per cataloghi e cartelle stampa, quanto per la stampa di mostre fotografiche e la realizzazione di pannelli espositivi con immagini e testo. Il principio e lo scopo di questa tecnologia e` quella di sostituire la stampa fotografica tradizionale in ambito digitale senza abbandonarne per`o la qualit`a. La stampa su materiale fotografico, inoltre, garantisce una notevole stabilit`a del colore nel tempo: una successiva plastificazione, poi, pur non essendo necessaria, prolunga ulteriormente la durata del prodotto. E` questo uno dei motivi che fanno della Stampa Lambda la tecnologia di riferimento per l’Arte Contemporanea e la Fotografia d’Autore.

accastampato num. 0, Novembre 2009

35


Accastampato n. 0  

Numero 0 di accastampato, la rivista di divulgazione scientifica della comunita' di accatagliato.org (final version)

Read more
Read more
Similar to
Popular now
Just for you