Page 1

Rivista bimestrale - anno XVII - Numero 3/2013 Sped. in abb. postale 70% - Filiale di Roma

www.rivistageomedia.it

La prima rivista italiana di geomatica e geografia intelligente

N°3 2013

VUOI VIVERE IN UNA SMART CITY ?

 Palmari gps nella gestione del verde a Milano  Rilievo ed elaborazione di dati laser

 Di Wild non è rimasto nemmeno il nome  Nuove tecnologie per la divulgazione geologica e turistica


The times they are a changin’ www.rivistageomedia.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica. Da oltre 15 anni pubblica argomenti collegati alle tecnologie dei processi di acquisizione, analisi e interpretazione dei dati, in particolare strumentali, relativi alla superficie terrestre. In questo settore GEOmedia affronta temi culturali e tecnologici per l’operatività degli addetti ai settori dei sistemi informativi geografici e del catasto, della fotogrammetria e cartografia, della geodesia e topografia, del telerilevamento aereo e spaziale, con un approccio tecnico-scientifico e divulgativo. Direttore RENZO CARLUCCI direttore@rivistageomedia.it Comitato editoriale Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino Murgante, Mauro Salvemini, Domenico Santarsiero, Donato Tufillaro Direttore Responsabile FULVIO BERNARDINI fbernardini@rivistageomedia.it Redazione redazione@rivistageomedia.it SANDRA LEONARDI sleonardi@rivistageomedia.it GIANLUCA PITITTO gpititto@rivistageomedia.it Marketing e Distribuzione ALFONSO QUAGLIONE marketing@rivistageomedia.it Diffusione e Amministrazione TATIANA IASILLO diffusione@rivistageomedia.it Progetto grafico e impaginazione DANIELE CARLUCCI dcarlucci@rivistageomedia.it MediaGEO soc. coop. Via Palestro, 95 00185 Roma Tel. 06.62279612 Fax. 06.62209510 info@rivistageomedia.it ISSN 1128-8132 Reg. Trib. di Roma N° 243/2003 del 14.05.03 Stampa: SPADAMEDIA srl VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA) Editore: mediaGEO soc. coop. Condizioni di abbonamento La quota annuale di abbonamento alla rivista è di 45,00. Il prezzo di ciascun fascicolo compreso nell’abbonamento è di 9,00. Il prezzo di ciascun fascicolo arretrato è di 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Numero chiuso in redazione il 30 Settembre 2013. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore. Rivista fondata da Domenico Santarsiero.

Cosa stia catturando l’attenzione nel futuro del posizionamento e della misura di precisione è difficile dirlo oggi, poiché la velocità dei cambiamenti tecnologici è talmente elevata da non dar tempo di sviluppare e testare uno strumento che nel volgere di pochi mesi è già vecchio e superato. Non abbiamo dubbi su questo se solo pensiamo ad esempio ai Droni per il rilevamento aereo che, dai primi esordi quasi nel campo del modellismo, hanno raggiunto oggi livelli tali da insidiare il mondo dell’aerofotogrammetria per la produzione cartografica. Eppure questo è avvenuto proprio mentre le ricerche tecnologiche della geomatica si rivolgevano principalmente al posizionamento satellitare e alle nuove tecnologie di acquisizione laser scanning. Un’altra schiera di ricercatori era al lavoro, i nuovi makers, coloro che per esprimere il loro genio creativo usano materie prime come il web, i software open source, i processori open source e le stampanti 3D, come ad esempio Chris Anderson, ex direttore di Wired Usa, ora costruttore di droni e promotore dell’utilizzo degli stessi in molti campi, che spaziano dal mapping alle ricerche forestali alle analisi urbane o al monitoraggio dei diritti umani. Dal quasi amatoriale al professionale il passo è stato breve e oggi la precisione che può essere raggiunta dai droni, UAV (Unmanned Aerial Vehicles), per la fotogrammetria alle scale urbane di 1:1000 o 1:500 è all’altezza delle nostre normative. Ciò ci porta non lontano dal pensare che molto del lavoro di rilievo topografico di dettaglio, attualmente realizzato con sistemi GNSS RTK, sarà presto superato da un rilevamento con Droni UAV, anche se i sistemi GNSS RTK rimarranno indispensabili per la precisione della geo-referenziazione dei segnalatori a terra necessari per l’appoggio spaziale dei fotogrammi aerei. Stazioni totali e laser scanner, a differenza dei sistemi GNSS e UAV, sono molto più adatti a raccogliere dati sotto gli alberi o sotto i tetti e quindi saranno utilizzati sempre più per rilievi, a terra, di ciò che non può essere visto da sopra. Oltre ad un enorme risparmio di tempo senza una perdita apprezzabile di precisione, gli UAV per fotogrammetria aerea offrono prodotti molto più ricchi di dati vettoriali come nei rilievi, rappresentati da punti, testo e linee. In termini di rappresentazione del paesaggio, l'ortofoto generata da un UAV può essere combinata con il DEM per la produzione di modellazione 3D fotorealistica molto accurata in programmi come ArcScene e può essere analizzata per produrre calcoli volumetrici per movimento di terra altamente accurati. Risultati importanti che significano che gli UAV per fotogrammetria stanno sostituendosi ai rilievi GPS, GNSS o con Total Station, come principale metodo di acquisizione dei dati per progetti di ingegneria, mappatura di confini e rilievo topografico in genere. La reazione delle Total Station e dei Laser Scanner, per non perdere tranche di mercato, è pronta ed immediata. Basta guardare alla ultime stazioni che in uno strumento solo integrano il laser scanner e la total station con un cannocchiale trasformato in un visore in grado di selezionare, fotografare e scandire l’oggetto del rilievo. Se solo Heinrich Wild di cui ci parla Selvini nel suo articolo “Non è rimasto nemmeno il nome. Heinrich Wild, il grande topografo e costruttore”, potesse vedere come è mutato il suo T2 nella moderna MultiStation completamente integrata, chissà come reagirebbe. D’altronde Bob Dylan ce lo aveva detto qualche tempo fa che i tempi stessi sono un “cambiando”. Buona lettura, Renzo Carlucci

Conserva il piacere di sfogliare GEOmedia, sottoscrivi l'abbonamento! www.rivistageomedia.it/abbonamento


In mare parliamo la stessa lingua. MaRS è il marchio italiano di noleggio di strumentazione per rilievi in mare. MaRS ha gli strumenti in Italia. Ti permette di risparmiare tempo e denaro. E ti da assistenza tecnica immediata. In italiano. MaRS offre noleggi a breve e lungo termine. Anche con operatore. Consulenze, installazione ed elaborazione dati. > > > > > > > > > >

Multibeam Beamformer Reson Multibeam interferometrici SEA Posizionamento e assetto Applanix POS MV/LV Side Scan Sonar Edgetech Sub Bottom Profiler Edgetech ROV GEI Pollux III ADCP USBL GPS/GNSS RTK, OmniStar e MarineStar Strumentazione ausiliaria: SVS, SVP, Link radio UHF, GPS Compass ...

MaRS noleggi & soluzioni

Lungomare P. Toscanelli, 64 00122 Lido di Ostia RM tel. +39 333 6670058

Via Labus, 13 - Milano tel. +39 02 4830.2175 mars@codevintec.it


SOMMARIO 3 - 2013

FOCUS

6

Smart cities: un’analisi critica delle opportunità e dei rischi di

Beniamino Murgante e Giuseppe Borruso

REPORTS

12 Palmari

26 Rilievo ed elaborazione di dati laser acquisiti

gps integrati nella

gestione del verde di di

Milano

Franco Guzzetti, Anna Privitera, Manuela Re, Paolo Viskanic

con sistemi MMS in un parco urbano di

Gino Dardanelli e Marco Carella

32 Non è rimasto nemmeno il nome. Heinrich Wild,

il grande topografo e costruttore di Attilio Selvini

42 Creare cartografia digitale grazie al GIS e al Remote-Sensing

di

Federico Foria

46 Nuove Tecnologie per la divulgazione geologica e geo-turistica

38 Il

cercare nuove terre, ma nell’avere

di

Niccolò Iandelli

Inserzionisti

vero viaggio non consiste nel

nuovi occhi

di

(Marcel Proust)

Erminio Paolo Canevese, Nicola Benedet

Aerrobotix Applanix CGT Codevintec Crisel Epsilon Esri Geogrà Geografica Geo-Solutions Geotop GESP

21 53 22 4 25 24 56 52 20 49 11 35

Intergeo Intergraph Leica Planetek R3GIS Sigergis Sister SurveySoft Teorema Trimble Virtualgeo

L' immagine di copertina è stata acquisita dalla costellazione satellitare Pleiades e mostra una parte della città di Dubai, negli Emirati Arabi Uniti. Dubai è geograficamente collocata nel sud-est del Golfo Persico, sulla Penisola Arabica e si trova all' interno del Deserto Arabico. La città è uno dei più importanti centri finanziari a livello mondiale ed i suoi profitti derivano principalmente dal turismo, dal patrimonio immobiliare e dai servizi legati alla finanza. L' area di colore blu chiaro al centro dell' immagine è il lago artificiale Burj Khalifa Lake. Accanto al lago è visibile il grattacielo che oggi costituisce la più alta struttura al mondo costruita dall' Uomo: la sua lunga ombra si può osservare proiettatata verso nord (a destra dell' immagine). Sul lago possiamo osservare le curve e le formazioni circolari della Dubai Fountain. Il sistema proietta acqua con una gittata di 73 m che è coreograficamente accompagnata da note musicali. I palazzi, il lago e la fontana sono parte dello sviluppo di un'area chiamata Downtown Dubai. Quest'area ha una estensione superficiale di 2 kmq e si stima che l' intero complesso abbia avuto un costo di 20 miliardi di dollari (US). L' immagine è stata acquisita dai satelliti francesi Pleiades il 4 Gennaio 2012. Credits ESA/CNES 2012/Astrium Services/Spot Image - Esa Immagine della settimana traduzione di Gianluca Pititto

23 55 37 51 10 2 45 48 18 19 54

ALTRE RUBRICHE

20

MERCATO

52

ASSOCIAZIONI

54 AGENDA


FOCUS

Smart cities: un’analisi critica delle opportunità e dei rischi di Beniamino Murgante e Giuseppe Borruso

Il termine ‘Smart city’ è oggi ampliamente utilizzato, ma sembra esservi poca chiarezza dietro alla sua definizione. La maggior parte degli approcci tende a porre una grande enfasi sull’utilizzo combinato di tecnologie dell’Informazione Geografica e della comunicazione per inquadrare processi di pianificazione e gestione urbana. Nelle righe che seguono si cerca di definire il concetto di ‘Smart city’ e di identificare sia i termini di ‘intelligenza’ sia quelli critici legati alla loro attuale interpretazione. In particolare è vivo il rischio di considerare solo lo ‘strato tecnologico’ quale elemento innovativo di una città ‘smart’, mentre al contrario gli strumenti dell’ICT dovrebbero giocare senz’altro un ruolo importante ma nell’ottica di uno sforzo di pianificazione urbana in cui il comportamento e l’interazione dei diversi attori vengono armonizzati.

S

ebbene il termine ‘Smart city’ sia al giorno d’oggi ampiamente utilizzato, non vi è una totale chiarezza dietro alla sua definizione ed al suo effettivo significato. La principale idea è che nell’attuale era digitale le aree urbane, le città e le loro funzioni, non siano caratterizzate soltanto dalle infrastrutture fisiche e dalle eredità delle generazioni passate, ma anche da qualcosa di meno direttamente tangibile, come la qualità della comunicazione della conoscenza e le ‘infrastrutture sociali’, ovvero il capitale sociale e intellettuale. In un simile ambiente (urbano) si sviluppa il concetto di Smart city, come dispositivo, o meglio, come quadro, all’interno del quale i fattori della produzione urbana tradizionale si coniugano con il capitale sociale e culturale per mezzo delle tecnologie dell’informazione e della comunicazione. Nell’accezione più diffusa, la Smart city si basa su sei assi principali di ‘intelligenza’, ovvero una città è ‘smart’ se sono a loro volta ‘smart’ la sua economia, la mobilità, l’ambiente, le persone, la qualità della vita e la governance. Tali assi comprendono dei concetti già ampiamente presenti nelle teorie neoclassiche della crescita urbana, dello sviluppo sostenibile, dell’ICT e della partecipazione dei cittadini alla governance urbana. Secondo questa interpretazione una città smart è qualcosa di più di una città digitale o intelligente, in cui l’attenzione viene posta quasi esclusivamente alle componenti ICT, quali

6

abilitatrici di connessioni e scambi di dati e informazioni all’interno dell’ambiente urbano. Dati i sei assi e l’attenzione a crescita, sostenibilità, ICT, partecipazione e governance dei cittadini, una città smart assomiglia di più a una nuova utopia urbana, sebbene non troppo difficile da realizzare (al contrario di altre utopie), e sostanzialmente quale evoluzione della città sostenibile, in quanto ambiente (quello urbano) in cui si combinano gli aspetti dell’economia, della società e dell’ambiente con il capitale sociale e umano, nonché con il potenziale delle tecnologie dell’informazione e della comunicazione e le loro applicazioni. Se è vero che le infrastrutture fisiche di una città sono il risultato dell’interazione tra gli esseri umani e l’ambiente urbano, è altresì vero che le medesime infrastrutture fisiche, quali edifici, strade, reti tecnologiche, ecc., sono state costruite per facilitare la crescita e lo sviluppo della città, mentre la loro presenza ed essenza fornisce a sua volta la direzione e l’evoluzione dello sviluppo urbano stesso. In tal senso si assiste a uno scambio reciproco di influenze e di relazioni causali. Recentemente De Biase (2012) ha ricordato le parole di Winston Churchill: “We shape our buildings; thereafter they shape us” (noi diamo forma ai nostri edifici, dopodiché questi danno a noi la forma), trovandovi delle analogie molto forti con le Smart cities. Senz’altro gli edifici e le infrastrutture ‘dure’, visibili di una città vengono tuttora costruite,

ma al giorno d’oggi accanto a queste vi sono quelle più nascoste legate al mondo ICT e ai dispositivi connessi che a loro volta danno forma alle strutture e alle forme delle città, in maniera non dissimile alle grandi cattedrali medievali, alle ordinate piazze del Rinascimento italiano e alle stazioni ferroviarie del XIX secolo. Città, tecnologie, smartness Con la diffusione di Internet nascono le Virtual Cities (Smith, 1998), incentrate sulla costruzione e rappresentazione di scenari urbani. L’uso del Virtual Reality Modeling Language (VRML) consentiva la creazione di ambienti virtuali e la fruibilità in rete di modelli tridimensionali di città. L’esperienza delle Virtual Cities non si è solo limitata alla simulazione di progetti riguardanti la città, ma grazie alla crescita avuta da Internet in quegli anni, ha stimolato la creazione di molti laboratori partecipativi virtuali. Si è consentito così a una parte di popolazione di prendere parte alla creazione di politiche urbane o, semplicemente mediante voto elettronico, di partecipare alla scelta del progetto da realizzare per la riqualificazione di un quartiere (Levy, 1995; Batty e Doyle, 1998; Hudson-Smith et al., 1998; Batty et al., 1998). Batty (1995) aveva intuito le enormi possibilità derivanti da una massiccia convergenza tra aspetti comunicativi e computer attraverso varie forme di media. In un primo momento i computer venivano adoperati per approfondire e suppor-

GEOmedia n°3-2013


FOCUS tare la pianificazione e la programmazione della città. Negli anni successivi l’interesse si è spostato su come i computer e le tecnologie dell’informazione cambiano la città. Nasce così il concetto di Computable City (Batty, 1995) incentrato sulla fusione e l’analisi contestuale di entrambi gli aspetti. Con il trascorrere degli anni si diffondono altre tipologie di computing, ubiquitous computing, pervasive computing, physical computing, tangible media, tutte con forti ricadute sulla città, ciascuna come sfaccettatura di un paradigma coerente di interazione che Greenfield (2006) definisce everyware. Dalle ultime considerazioni scaturisce che il concetto di computable city ha assunto una sempre maggiore importanza con il crescere dei dispositivi elettronici nel nostro ambiente fisico (HudsonSmith et al., 2007). Il passaggio verso un ambiente non più solo virtuale, ma con una profonda interazione umana e sociale attraverso i computer, caratterizza l’urban computing (Greenfield e Shepard 2007). Queste teorie prendono in considerazione la dimensione sociale di ambienti umani ponendo in secondo piano i computer stessi. Le teorie di Greenfield e Shepard (2007) sull’urban computing insieme alle ricerche sull’Ubiquitous Computing sviluppate presso lo Xerox Research Centre di Palo Alto (Weiser, 1993) favoriscono le prime esperienze di ubiquitous city (Jang e Suh 2010) prevalentemente concentrate in Asia. L’obiettivo delle ubiquitous city (U-city) è quello di creare un ambiente integrato nel quale il cittadino può ottenere qualsiasi tipologia di servizio, in tutti i luoghi, in qualsiasi momento e con ogni dispositivo ICT (Lee et al., 2008). Si tratta di applicazioni basate su infrastrutture della città che mirano a supportare le esigenze locali migliorando la vita quotidiana della comunità locale. La possibilità di utilizzare dati acquisiti in tempo reale, consentendo un monitoraggio continuo dei principali fenomeni urbani, può migliorare in maniera sostanziale l’efficacia della pianificazione territoriale e della gestione urbana. Si ha un passaggio da un tradizionale approccio basato sulla sequenza città reale, computer, rappresentazione virtuale ad una sequenza computer, città reale, ubiquitous city. La sequenza tradizionale vedeva molte persone lavorare su uno o pochi computer mentre la sequenza riguardante le U-city vede una sola

visita il sito www.rivistageomedia.it

persona gestire molti computer e dispositivi elettronici (Lee, 2005). Il city sensing si basa quindi su sensori elettronici ed umani o sulla combinazione di entrambi (Bergner et al., 2013), su azioni volontarie o inconsapevoli (Manfredini et al., 2012) ed è una componente fondamentale delle Smart cities. Diventa centrale definire in maniera corretta il rapporto che intercorre tra city sensing e Smart city, perché trattandosi di concetti nuovi si incontra una certa difficoltà ad attribuire una definizione precisa. Se poi si considera che il dominio di applicazione è quello della città, i cui elementi sono radicati nella nostra quotidianità, si rischia, come avvenuto per il concetto di sostenibilità, che dopo molti anni si siano raccolte molte parole e pochi risultati. Il corretto rapporto tra city sensing e Smart city deve basarsi su una pari dignità di tutti gli aspetti. Potrebbe capitare molto facilmente di dimenticarsi della città per concentrarsi prevalentemente sulle tecnologie. Il principale rischio potrebbe essere rappresentato da una pioggia di dispositivi elettronici sulla città che non hanno una diretta relazione con i suoi problemi principali. L’esperienza europea si differenzia dalle U-city per una minore importanza degli aspetti computazionali e per una maggiore attenzione alle potenzialità delle tecnologie nel migliorare la qualità delle città. Si è prestata molta attenzione agli aspetti connessi alla cittadinanza digitale che portano a nuove forme di organizzazione sociale connesse alle tecnologie. Una definizione condivisa individua nelle Smart cities una sintesi di infrastrutture materiali e sociali (Caragliu, Del Bo e Nijkamp, 2009), dove le prime non sono altro che un catalizzatore della comunicazione delle conoscenze accrescendo il capitale intellettuale e sociale. Una visione superficiale unita a una fretta di essere inclusi sotto la definizione di smart porterebbe a trascurare questi ultimi aspetti concentrando l’attenzione prevalentemente sul potenziamento di apparecchiature e impianti tecnologici che invecchiano rapidamente. Una città può essere smart solo se riesce rapidamente a integrare e sintetizzare i dati prodotti da ogni tipo di sensore per migliorare l’efficienza, l’equità, la sostenibilità e la qualità della vita della città stessa (Batty et al., 2012). Si tratta quindi di considerare il grosso impatto delle tecnologie sulle nuove forme di policy e di pianificazione. Nell’analizzare le città intelli-

genti Batty et al. (2012) individuano sette punti verso i quali concentrare l’attenzione nell’analizzare i problemi chiave delle città, utilizzando le tecnologie ICT: 1 Un nuovo approccio alla comprensione dei fenomeni urbani; 2 Metodi più efficaci e fattibili per coordinare le diverse tecnologie adottate alla scala urbana; 3 Modelli e metodi per l’utilizzo dei dati urbani alle differenti scale spaziali e temporali; 4 Lo sviluppo di nuove tecnologie di comunicazione e divulgazione; 5 Nuove forme di organizzazione e governance urbana; 6 Definire i problemi critici relativi a Città, Trasporti ed Energia; 7 Rischi, incertezze e pericoli nella Smart city. I pilastri della Smart city Identificare che cosa rende smart una città è legato alle differenti dimensioni, che si collegano a loro volta a concetti alquanto consolidati nella letteratura sulla città e le aree urbane. Nel significato di smart, la componente tecnologica è soprattutto collegata agli elementi e alle infrastrutture dell’ICT. Queste giocano un ruolo importante, in particolare come facilitatori dei processi di innovazione, condivisione e partecipazione attiva da parte dei cittadini/utilizzatori urbani, così come dello sviluppo di elementi tipici dell’economia della conoscenza. Seguendo alcune delle più interessanti interpretazioni, le Smart cities sono città in cui uno strato tecnologico viene sovrapposto alla struttura e intelaiatura urbana esistente, consentendo ai suoi cittadini e utenti di connettersi alla rete, interagire tra loro e con altri attori: pubblica amministrazione, fornitori di beni e servizi, ecc., di fatto ottimizzando la città e i suoi spazi. Dato che la popolazione mondiale sta crescendo e che tale crescita ci si aspetta avvenga soprattutto nelle città, la tecnologia può giocare un ruolo importante nel limitare il consumo di suolo e migliorare la qualità della vita. Tuttavia oggi il rischio è che i decisori finali, i politici, i cittadini e le imprese si focalizzino soltanto sulla moda e la fascinazione del lato tecnologico dell’“intelligenza”, con poca attenzione al suo inserimento all’interno del processo di pianificazione e progettazione urbana. In una Smart city l’infrastruttura tecnologica connessa all’ICT è centrale, nello stesso modo in cui nel passato lo era la realizza-

7


FOCUS zione di nuovi edifici, strade, ferrovie, linee e reti telefoniche e di distribuzione dell’energia. Tali infrastrutture da un lato supportavano i bisogni della popolazione mentre dall’altro influenzavano le modalità con cui le persone interagivano con lo spazio urbano. Le infrastrutture di una Smart city dovrebbero pertanto giocare un ruolo simile, basandosi pertanto su una pianificazione focalizzata, in quanto il loro utilizzo non deve essere limitato al breve termine, ma dovrebbe essere persistente, avendo in mente che le impostazioni date oggi influenzeranno i modi in cui i cittadini interagiranno con la città nei tempi presenti e futuri. Nella Smart city quindi la metafora della rete si sovrappone alla metafora urbana, in tal senso agendo quale nuova, differente infrastruttura capace di incanalare relazioni e interazioni, nonché essere influenzata e plasmata da tali processi, in modo similare a una rete di trasporto pubblico che si sviluppa in una città per connettere e servire luoghi, e successivamente evolve dando vita a ‘nuovi’ luoghi. La città dovrebbe pertanto presentarsi come una “piattaforma abilitante per le attività che i cittadini sono in grado di sviluppare, collegando quelle ereditate dal passato con quelle che si potranno realizzare nel futuro, non focalizzandosi soltanto sulle applicazioni ma sulla possibilità che i cittadini hanno di realizzarle”. Una città smart dovrebbe pertanto basarsi su tre diversi ‘pilastri’ (Figura 1): 1 Connessioni – quali le reti e le infrastrutture tecnologiche; 2 I dati – aperti, pubblici o di interesse pubblico per consentire lo sviluppo di soluzioni innovative e l’interazione tra I cittadini/utenti della città; 3 I sensori – compresi I cittadini (Goodchild, 2007a; 2007b; 2009), in grado di partecipare attivamente anche ‘dal basso’ alle attività della città. Tali pilastri dovrebbero essere tenuti assieme da una governance in grado di collegarli, fornendo una direzione e una ‘vision’ alla città. Tale governance dovrebbe regolare la Smart city in un modo neutrale, senza entrare nel dettaglio delle applicazioni e dei contenuti. La Smart city quindi si pone come progetto urbano, come una grande infrastruttura e come una metafora della rete in un contesto urbano. In una frase, una Smart city diventa l’ambiente in cui una serie definita di elementi (sen-

8

Figura 1 - I “Pilastri” che sostengono la Smart city e la sua Governance (nostra elaborazione grafica, in Murgante e Borruso, 2013, seguendo De Biase, 2012).

sori, dati, connessioni), armonizzata da un insieme limitato di regole di base, fornisce a enti pubblici, cittadini, associazioni, imprese, ecc., la possibilità di sviluppare nuove applicazioni e soluzioni in grado di migliorare la vita della città stessa, lasciando, di fatto, a questi ultimi attori, l’iniziativa dello sviluppo e di creare nuovi mercati e realtà. Le città sono smart? Le nostre città sono smart? Vent’anni fa ci saremmo chiesti: le città sono sostenibili? In quel periodo la sostenibilità era il paradigma del momento – di fatto continua a esserlo, ma con una molto più ampia accettazione a tutti i livelli – in quanto le città si caratterizzano come i luoghi dove si attuano le principali attività umane e quindi dove dare azione a politiche volte a un futuro sostenibile in termini di un adeguato e rispettoso sfruttamento delle risorse da punti di vista economico, ambientale e sociale. In che senso ‘smart’ è diverso da sostenibile? E perché è diverso? Quali elementi vi vengono aggiunti? Le città e le comunità smart puntano di fatto a uno sviluppo sostenibile, e in realtà le sei dimensioni presentate più sopra condividono i concetti di base della sostenibilità dello sviluppo (ambientale, economico e sociale). Di certo una differenza immediata risiede nella presenza dello ‘strato tecnologico’ (come evidenziato da Ratti 2012), caratterizzato in particolare dalla rivoluzione intervenuta nel settore dell’ICT, che consente un’opportunità senza precedenti di interazione tra le persone, le organizzazioni e i luoghi. Questa è probabilmente la vera rivoluzione, associata alla diffusione di dispositivi mobili e all’aumento nella precisione localizzativa consentita dalle tecnologie geospaziali (ricevitori con GPS integrato, ecc.). Di conseguenza, il ruolo dei cittadini o, in senso più ampio, degli utilizzatori urbani è cambiato

nel corso del tempo, rendendoli potenziali e potenti influencers e attori nell’ambiente urbano, sia in termini di servizio alle proprie comunità, nella segnalazione di elementi critici, o nella partecipazione a incontri relativi a scelte pubbliche, ma anche implementando le proprie attività economiche basate sulle tecnologie ICT e sull’interazione. I cittadini – come uno dei pilastri – sono considerati come sensori. Ma che tipo di sensori? Lo sono solo i cittadini dotati di dispositivi mobili connessi alla rete? Una Smart city possiede una forte dimensione sociale, soprattutto dal punto di vista dell’inclusione e del coinvolgimento dei suoi cittadini e nel consentire lo sviluppo di soluzioni per affrontarle. A ogni modo, sembra affermarsi in questo momento una visione molto tecnologica, orientata allo sviluppo di applicazioni, strumenti e dispositivi intelligenti, che probabilmente riguardano solo una parte, sebbene crescente, della popolazione e degli utenti urbani, quelli ‘tecnologicamente consapevoli’ o in ogni modo quelle che al giorno d’oggi sono costantemente connessi per mezzo di dispositivi mobili (smartphones, tablet, ecc.). Al momento attuale nel mondo il divario digitale esiste ed è pesante e soltanto una parte della popolazione ha accesso a Internet e dispositivi IT. Pertanto una città ‘intelligente’ in questo senso sarebbe una città in cui una ‘pioggia di app’ riguarderebbe soltanto un sottoinsieme della popolazione, di fatto peggiorando le disuguaglianze piuttosto che ridurle. Parlando poi di cittadini come sensori, potremmo dire che il concetto non è del tutto nuovo, ma ‘soltanto’, più veloce, semplice e ampio. I cittadini hanno iniziato a partecipare alle questioni urbane fin dall’origine dei diversi media. Lettere a giornali, comuni, telefonate sono state modalità di evidenziare disservizi o problemi legati alla città.

GEOmedia n°3-2013


FOCUS

Figura 2 - L’evoluzione del Web. a) Web 1.0 (utenti=fruitori), b) Web 2.0 (utenti=fruitori e creatori di contenuti informali), c) Web 3.0 (utenti e creatori di contenuti formali e informali interagiscono).

Certamente al momento attuale ciò può essere fatto per mezzo di foto georeferenziate condivise attraverso i social media e social network e pertanto capaci di raggiungere più facilmente un gran numero di utenti e di enti. Così una Smart city, in quanto piattaforma abilitante, dovrebbe sia consentire lo sviluppo – nonché l’hosting – della ‘pioggia di app e di dispositivi’ ma anche includere altre manifestazioni e utenti meno tecnologici – più avvezzi alle telefonate, alla parola scritta su carta, ecc. – e in ciò sta la difficoltà: quella di costruire una rete reale e inclusiva e farla lavorare. Che senso ha, infatti, disporre della più avanzata applicazione mobile che può mettere un utente in grado di comunicare al proprio comune di una perdita nel sistema fognario o della rete del gas in prossimità di una scuola, se dietro alla segnalazione non è stata messa in piedi un’infrastruttura, o un insieme di procedure e abitudini per affrontare tale problema? In questo modo l’intelligenza dovrebbe agire più come un prodotto culturale che come un elemento tecnologico. Inoltre, l’attenzione dovrebbe essere posta nell’interazione tra i vari enti pubblici, in questo superando la logica del web 2.0, interazioni ‘dal basso’ tra cittadini e dai cittadini verso la PA, ma implementando il web 3.0, in cui le istituzioni condividono i propri dati e contenuti tra di loro e con gli utenti, in modo da limitare ridondanze nell’acquisizione e gestione di dati e informazioni e rendendosi consapevoli di cosa viene realizzato e affrontato da chi (Figura 2). Il vero problema diventa quindi quello della governance e lo stabilire regole comuni. Pensando a un’infrastruttura ‘smart’, sarebbe necessario condividere un ‘codice della strada’ contenente una serie di (poche) regole, il rispetto delle quali eviterebbe in molti casi problemi nell’accesso alle soluzioni ‘smart’ della città.

visita il sito www.rivistageomedia.it

Conclusioni Il paradigma della Smart city è il risultato dell’evoluzione del pensiero e del ragionamento sulla città e sulle sue questioni. In particolare, sembra essere una combinazione di concetti legati alla sostenibilità e allo sviluppo sostenibile, dal punto di vista delle sue declinazioni urbane. Inoltre, l’idea di un’azione locale, originariamente proposta per la sostenibilità urbana, presentava alcuni suggerimenti che pochi anni più tardi sarebbero stati introdotti nel concetto di partecipazione dei cittadini e nell’idea di ‘web 2.0’. Inoltre, la Smart city non deriva soltanto dalla città sostenibile ma anche dall’evoluzione della tecnologia e del pensiero nell’era digitale. Digital City, Computable City e Virtual City sono solo alcuni dei nomi e dei concetti utilizzati per individuare una città dove la componente tecnologica è fortemente presente e influenza le modalità con cui i cittadini utilizzano e interagiscono con essa. Le rivoluzioni intervenute negli ultimi anni, tra la fine del ventesimo secolo e l’inizio del ventunesimo, hanno riguardato la sostenibilità, l’era digitale, la diffusione di Internet, delle tecnologie legate all’Informazione Geografica, di dispositivi mobili e l’ampliamento della disponibilità di dati hanno portato a un ampia disponibilità di dispositivi, connessioni e dati e l’opportunità di collegarli tra loro, sviluppando applicazioni dall’elevato valore aggiunto, in grado di migliorare la qualità della vita urbana. Si è pertanto sviluppata un’attenzione nei confronti delle applicazioni e agli aspetti tecnologici collegati alla città, aprendo nuove prospettive e criticità. Il dibattito è tuttora in corso, ma alcune riflessioni portano a pensare alle ‘Smart cities’ come a una rivoluzione in termini di nuove infrastrutture e piattaforme, costituite sia da elementi fisici, concreti, che virtuali, in grado di abilitare i cittadini, gli utenti e tutti i diversi attori urbani a portare avanti iniziative e realizzare applicazioni, grazie alle opportunità date dai miglio-

ramenti tecnologici e alla loro ampia presenza. In tali termini, parliamo di un’infrastruttura non concettualmente dissimile da quelle di trasporto che nelle decadi e nei secoli passati hanno sia consentito l’allargamento delle estensioni urbane e di collegare i luoghi una volta non appartenenti alla città, così come sviluppare nuove aree urbane.

Parole chiave Smart city, Smart communities, Neogeography, Open data, Citizens as sensors, Governance.

Abstract The

term

Smart City

is to-date widely used

little clarity appears in the definition behind that.

Several approaches lead to a growing

emphasis on the combined use of geographic information and communication technology to build cognitive frameworks in city planning and management.

The

present paper

tackles an effort of defining smart cities and identifying theelements of smartness but also the critical aspects related to the current interpretation of the term. In particular

the risks of considering also the technological layer of the

Smart City

as an innova-

tive element is observed, highlighting on the contrary the need to consider

Smart Cities

in terms of a major urban planning effort to coordinate and harmonize the different urban players sustained by

ICT instruments.

Autori Beniamino Murgante, Università della Basilicata Viale dell’Ateneo Lucano 10 85100 Potenza beniamino.murgante@unibas.it Giuseppe Borruso Università di Trieste, P. le Europa 1 34127 Trieste giuseppe.borruso@econ.units.it

9


FOCUS

Bibliografia • Batty M., Axhausen K. W., Giannotti F., Pozdnoukhov A., Bazzani A., Wachowicz M., Ouzounis G., Portugali Y. (2012) Smart cities of the future. The European Physical Journal Special Topics Volume 214, Issue 1, pp 481-518. • Batty, M (1995) The computable city. Fourth International Conference on Computers in Urban Planning and Urban Management, Melbourne, Australia, July 11th - 14th, 1995. • Batty, M and Doyle, S (1998) Virtual regeneration. (CASA Working Papers n. 06). Centre for Advanced Spatial Analysis (UCL): London, UK. ISSN: 1467-1298. • Batty, M, Dodge, M, Jiang,B., Hudson-Smith, A. (1998) GIS and Urban Design. (CASA Working Papers n. 03). Centre for Advanced Spatial Analysis (UCL): London, UK. ISSN: 1467-1298. • Bergner B. S., Exner J.P., Memmel M, Raslan R., Dina Taha D., Talal M., Zeile P. (2013) "Human Sensory Assessment Methods in Urban Planning – a Case Study in Alexandria" Proceedings REAL CORP 2013, p. 407-417, 20-23 May, Rome (Italy). • Caragliu, A., Del Bo, C., Nijkamp, P (2009). Smart cities in Europe. Research Memoranda Series 0048 (VU University Amsterdam, Faculty of Economics, Business Administration and Econometrics). CRC Press, Boca Raton • De Biase, L. (2012) “L’intelligenza delle Smart cities”, http://blog.debiase.com/2012/04/intelligenza-delle-smart-city/ • Goodchild, M.F. (2007)a: Citizens as Voluntary Sensors: Spatial Data Infrastructure in the World of Web 2.0. International Journal of Spatial Data Infrastructures Research 2, 24–32 • Goodchild, M.F. (2007b): Citizens as sensors: the world of volunteered geography. GeoJournal 69(4), 211–221, doi:10.1007/s10708-007-9111-y • Goodchild, M.F. (2009) : NeoGeography and the nature of geographic expertise. Journal of Location Based Services 3, 82–96 • Greenfield, A. (2006) Everyware: The dawning age of ubiquitous computing New Riders, Berkeley, CA. • Hudson-Smith, A., Dodge, M, Doyle, S (1998) Visual Communication in Urban Planning & Urban Design. GIS and Urban Design. (CASA Working Papers n. 02). Centre for Advanced Spatial Analysis (UCL): London, UK. ISSN: 1467-1298. • Hudson-Smith, A., Milton, R, Dearden, J, Batty, M (2007) Virtual Cities: Digital Mirrors into a Recursive World. (CASA Working Papers n. 125). Centre for Advanced Spatial Analysis (UCL): London, UK. ISSN: 1467-1298 • Jang, M.; Suh, S. (2010) U-City: New Trends of Urban Planning in Korea Based on Pervasive and Ubiquitous Geotechnology and Geoinformation. Lecture Notes in Computer Science Volume 6016, 2010, pp 262-270, Taniar, D., Gervasi, O., Murgante, B., Pardede, E., Apduhan, B., Eds.; Springer: Heidelberg, Germany. • Lee, B.G., Kim, Y.J., Kim, T.H. & Yean, H.Y. (2005). Building Information Strategy Planning for Telematics Services, KMIS International Conference, 24-26 November 2005, Jeju Island, Korea. • Lee, S. H., Han, J. H., Leem, Y. T., & Yigitcanlar, T. (2008). Towards ubiquitous city: concept, planning, and experiences in the Republic of Korea. In T. Yigitcanlar, K. Velibeyoglu, & S. Baum (Eds.), Knowledge-Based Urban Development: Planning and Applications in the Information Era (pp. 148-170). Hershey, PA: Information Science Reference. doi:10.4018/978-1-59904-720-1.ch009 • Levy R., M. (1995) Visualisation of Urban Alternatives, Environment and Planning B: Planning and Design (22) pp. 343-358. • Manfredini, F., Pucci, P., Tagliolato, P. (2013). Mobile Phone Network Data: New Sources for Urban Studies?. In G. Borruso, S. Bertazzon, A. Favretto, B. Murgante, & C. Torre (Eds.), Geographic Information Analysis for Sustainable Development and Economic Planning: New Technologies (pp. 115-128). Hershey, PA: Information Science Reference. doi:10.4018/978-1-4666-1924-1.ch008 • Murgante B. e Borruso G. (2013). Cities and Smartness: A Critical Analysis of Opportunities and Risks, in Murgante B. et al (a cura di). ICCSA 2013, Part III, LNCS 7973, Springer-Verlag, Berlin, pp. 630-642. • Roche S., Nabian N, Kloeckl K., Ratti C. (2012) “Are ‘Smart cities’ Smart Enough?”, Global Geospatial Conference 2012, Global Spatial Data Infrastructure Association, http://www.gsdi.org/gsdiconf/gsdi13/papers/182.pdf • Shepard, M. and Greenfield, A. (2007) Urban Computing and its Discontents, New York: The Architectural League of New York, New York USA. • Smith, A. (1998) Virtual Cities - Towards the Metaverse, Virtual Cities Resource Centre, http://www.casa.ucl.ac.uk/planning/virtualcities.html. • Weiser, M. (1993). Hot Topics: Ubiquitous Computing. IEEE Computer vol. 26, n.10, pp.71-72, October 1993.

www.r3-gis.com/trees/

MANUTENZIONE EFFICENTE DEL VERDE PUBBLICO

Catasto alberi Attrezzi ludici Manutenzione Rendicontazione

10

www.r3-gis.com | info@r3-gis.com Tel. +39 0473 494949

GEOmedia n°3-2013 Documentazione


FOCUS

Precision & Reliability

GEOTOP srl Via Brecce Bianche, 152 -60131 Ancona Tel 071/213251 - Fax 071/21325282 www.sokkia-italia.it info@sokkia-italia.it visita il sito www.rivistageomedia.it

11


FOCUS

PALMARI GPS INTEGRATI NELLA GESTIONE DEL VERDE DI MILANO Un sistema di controllo della qualità a supporto della pianificazione di Franco Guzzetti, Anna Privitera, Manuela Re, Paolo Viskanic

Il Comune di Milano si avvale di strumenti GIS per la gestione e pianificazione della manutenzione delle aree a verde. Il modello di gestione integrata descritto collega tutti gli interventi di manutenzione ai singoli elementi che costituiscono le aree verdi e prevede l’uso di palmari dotati di GPS per monitorare la qualità del verde cittadino.

I

l verde pubblico della realtà urbana di Milano rappresenta una risorsa che appartiene alla collettività, e come tale va salvaguardata per i suoi effetti ambientali, sociali e culturali. La gestione del verde di Milano è completamente informatizzata ed è basata su un sistema GIS al quale sono collegate tutte le attività di gestione, manutenzione, controllo e documentazione. Lo sviluppo di questo modello di gestione è avvenuto per passi successivi, e un aspetto di primaria importanza è stato garantire sempre un elevato livello di qualità, relativa sia agli spazi vissuti dai cittadini, sia agli aspetti legati alla sua amministrazione. Ad avvalorare questo intento il comune di Milano ha attivato nel 1999 un appalto in Global Service, basato e misurato su standard ben definiti, per garantire un livello di qualità alto delle aree verdi, senza distinzioni tra aree periferiche e aree centrali. Il Global Service è attualmente eseguito da un Consorzio di Imprese con un coordinamento centralizzato. Dal 2004 la gestione è affiancata da un GIS tematico per rendere più efficace la gestione dei dati a disposizione (Di Maria et al., 2005). Un elemento fondamentale, che ha permesso di garantire il successo del progetto, è stato un modello dati studiato per gestire tutte le informazioni necessarie alla manutenzione e alla documentazione del verde. Tale modello dati è stato applicato al censimento delle aree verdi ed ha consen-

12

tito di classificare tutti gli elementi in base al tipo d’interventi manutentivi a cui sono soggetti, pur mantenendo una compatibilità con le specifiche tecniche per i database topografici applicate a livello nazionale per le informazioni geografiche (IntesaGIS). Il modello dati utilizzato e le specifiche di contenuto sono state presentate in varie occasioni agli operatori del settore (Cattaneo et al., 2007) e sono state pubblicate su riviste del settore (Cattaneo et al., 2010). La volontà del Comune di disporre di un’adeguato, efficace strumento di gestione e controllo dell’appalto,unitamente alla professionalità delle risorse umane sono stati gli elementi qualificanti del miglio-

ramento della gestione, supportati da un attento e progressivo sviluppo tecnologico di supporto. In parallelo si è sviluppata la struttura di controllo sul campo. Per monitorare il livello della performance manutentiva, le figure dei controller, preposte dal Settore Arredo Urbano e Verde del comune di Milano, verificano lo stato qualitativo delle aree e segnalano le eventuali difformità, definite “non conformità”, rispetto agli standard di qualità stabiliti in fase di progetto. La rilevazione delle “non conformità” si traduce, in termini contrattuali, nella comunicazione all’Appaltatore di una richiesta di intervento per la rimessa a norma degli oggetti non conformi in tempi stabiliti e inderogabili (1 gg

Figura 1 – Modello integrato di gestione del GIS del Verde.

GEOmedia n°3-2013


FOCUS

Figura 2 - Banca dati centrale condivisa.

per situazioni di pericolo, 4 gg per difformità dallo standard) pena l’applicazione di una penale economica. Per alcune “non conformità” la sola segnalazione del controller genera, inoltre, una penale diretta (es. erba piu’ alta dello standard richiesto contrattualmente). Sino al 2011 la pianificazione operativa e la segnalazione delle non conformità erano gestite all’interno di un sistema parallelo al GIS del Verde, generando notevoli problemi nell’individuazione degli elementi contestati. Per questo motivo, dal 2012, è stato sviluppato un innovativo modello di gestione integrato attraverso il quale ogni attività in campo, programmazione, gestione e controllo, è pianificata all’interno del GIS del Verde. A tal fine è stato introdotto l’uso di palmari GPS, sia da parte dei controller del Comune di Milano, sia da parte degli operatori addetti alla manutenzione, per individuare le non conformità e per monitorare tutte le lavorazioni, collegandole al GIS tematico. In parallelo si è sviluppata un‘apposita applicazione per ottimizzare il collegamento fra il posizionamento fornito dal ricevitore GPS e gli oggetti della banca dati, in funzione degli obiettivi di gestione. Di seguito è raffigurato lo schema concettuale della base dati unica, accessibile via Web ai diversi utenti, dove operatori in campo e controller identificano tempestivamente gli oggetti che necessitano di un intervento attraverso i palmari GPS, con un’integrazione continua dell’informazione geografica all’interno della banca dati centrale. Palmari GPS: processi e principi di funzionamento L’uso del palmare GPS ha permesso di risolvere il problema dell’identificazione delle segnalazioni, introducendo la georeferenziazione degli oggetti associata alla documentazione fotografivisita il sito www.rivistageomedia.it

ca, oltre ad aver consentito la connessione di ogni attività di manutenzione al GIS del Verde, grazie allo sviluppo dell’applicativo R3 TREES basato su tecnologie open source. Infatti, il modello sviluppato, integra nel GIS sia la programmazione operativa, sia il controllo delle non conformità, con l’obiettivo di gestire il servizio di manutenzione del verde nella sua totalità.

va i palmari GPS sono parte integrante del sistema WebGIS, proprio per pianificare e monitorare tutte le attività sul campo. Inoltre, il sistema tiene traccia della provenienza della segnalazione, per meglio gestire le priorità d’intervento. In questo modo sia il proprietario del bene (il Comune e indirettamente i cittadini) sia il manutentore, hanno a disposizione, in tempo reale, tutte le informazioni relative alle trasformazioni in atto sul territorio, di supporto alle programmazioni future. Per comprendere l’operatività dei palmari GPS, di seguito si descrivono le fasi che compongono la segnalazione di una non conformità. 4Raccolta dati e rilevazione della non conformità: la raccolta dei dati relativi all’oggetto interessato dalla non conformità, avviene attraverso palmare dotato di GPS. Viene registrata la posizione, la tipologia di problema, l’urgenza e viene scattata una foto:

Figura 3 – Interfaccia WebGIS del programma di gestione del verde R3 Trees.

Di seguito si riportano le diverse categorie di segnalazioni cui corrispondono le tipologie di lavorazioni che costituiscono la programmazione operativa, gestita integralmente all’interno della banca dati del verde. La programmazione operativa comprende sia la programmazione semestrale delle attività di manutenzione, sia l’organizzazione delle lavorazioni derivanti dalle verifiche fitosanitarie degli alberi (VTA) e delle ispezioni dei giochi, e comprende anche quelle attività che nascono giornalmente dall’operatività in campo, quali le non conformità, le segnalazioni pervenute tramite Help Desk, le consuntivazioni e le ripianificazioni delle attività. All’interno di questa modalità organizzati-

4Sincronizzazione e abbinamento fra non conformità e oggetto presente in banca dati: si verifica l’associazione tra la non conformità e l’oggetto presente nel GIS, in base al tipo di problema rilevato.

Figura 4 – Suddivisione della programmazione operativa per provenienza delle segnalazioni.

13


FOCUS 4Analisi della non conformità pervenuta a sistema: si valuta la qualità della segnalazione, accertando le eventuali sovrapposizioni tra il problema riscontrato e lavorazioni dello stesso tipo già a programma sul medesimo oggetto. 4Generazione automatica degli interventi utili in base al livello di degrado riscontrato, e quindi di pericolosità, che determina una priorità nella gestione degli interventi. Infatti, le segnalazioni pervenute a sistema sono classificate come NC1 (pericolose), NC2 (degrado) o NC3 (riparazione). 4Esecuzione e consuntivazione delle lavorazioni effettuate. 4Verifica della risoluzione della NC da parte del segnalatore. All’interno dell’applicativo R3 TREES, a ogni non conformità è associata una scheda di riferimento, che riporta i passaggi che costituiscono l’iter della non conformità in questione. Si riporta di seguito un esempio di scheda, con l’iter da seguire per una segnalazione che giunge a sistema. In particolare la scheda riporta una parte a sinistra con le informazioni testuali, quali il numero della non conformità, la località di riferimento, l’impresa che si occupa di manutenere tale area, le coordinate geografiche di posizione sia dell’oggetto sia del punto di presa fotografica e la tipologia di non conformità, con una descrizione nel campo note. A destra è presente uno spazio dedicato alle immagini, con l’individuazione in mappa dell’elemento e la fotografia di riferimento. In ultimo, nella parte sottostante, si aprono i menù relativi agli oggetti, ai documenti allegati, alle immagini e all’iter della segnalazione, dal rilievo in campo, sino alla sua chiusura una volta che la lavorazione è stata eseguita. I palmari GPS si sono rivelati efficaci per documentare lo stato del territorio, catturando il posizionamento sia geografico sia temporale dei dati sul campo. Inoltre l’introduzione delle segnalazioni di non conformità georefe-

Figura 5 – Scheda tipo di una non conformità.

14

renziate garantisce anche un controllo continuo sullo stato d’aggiornamento del GIS. Per l’operatività in campo sono impiegati dei palmari Trimble JUNO, dotati di GPS a 12 canali codice L1 e fotocamera digitale per l’acquisizione d’immagini di alta qualità, utili a documentare le segnalazioni riscontrate sul territorio e a facilitarne l’identificazione.

Figura 6 – Palmari Trimble JUNO utilizzati per il rilievo delle non conformità.

L’interfaccia del palmare è semplice e intuitiva, al fine di assicurarne l’operatività anche da parte di personale che non è esperto di rilievi GPS. Per questo motivo non presenta una mappa, e permette d’identificare l’oggetto

dei punti a terra con il GPS utilizza la tecnica di misura del posizionamento assoluto, con una stima in tempo reale della posizione del punto rilevato e con una precisione di posizionamento da due a cinque metri. Tale precisione è tipica degli strumenti monofrequenza e, come si dimostra in seguito con l’analisi dei dati ad oggi raccolti, più che sufficiente a raggiungere gli obiettivi previsti. Passare a una categoria di GPS di accuratezza metrica superiore avrebbe immediatamente aumentato il costo e diminuito la facilità d’uso delle apparecchiature, che vengono impiegate da tecnici del verde e non da rilevatori. Per questo motivo si è ritenuto opportuno studiare con più cura criteri che aiutassero a correlare in modo corretto la singola segnalazione all’oggetto del GIS del verde, sfruttando le altre informazioni presenti in banca dati, piuttosto che decidere di passare a ricevitori GPS di accuratezza posizionale superiore. Questa scelta tende a ottimizzare il posizionamento GPS sul campo con i dati già presenti all’interno del GIS, in quanto il problema vero non è rilevare nel modo più preciso la corretta posizione di qualcosa, ma fare in modo

Figura 7 – Utilizzo del Palmare GPS e operatività in campo.

contestato descrivendo la consistenza del problema, rilevando la posizione e scattando una foto, utile al riconoscimento dell’oggetto. La sincronizzazione con il lato server non è effettuata contestualmente al rilievo ma due volte al giorno, al rientro dei controller, in ufficio, dove, una volta trasmesse le informazioni alla banca dati, la posizione rilevata è armonizzata con gli elementi caricati a sistema. La procedura di rilievo della posizione

che la posizione rilevata abbia un livello di accuratezza adeguato a interagire con tutti gli altri dati normalmente disponibili in un GIS aggiornato di continuo, cioè ad identificare l’oggetto della segnalazione. Gli elementi presenti in banca dati vengono intersecati creando un buffer di cattura che ha origine dalla localizzazione geografica della non conformità individuata dal GPS; l’ampiezza dell’area che si genera dipende dal DOP al momento del rilievo. Il DOP è un parametro di diluizione della precisione, il cui valore è inversamente proporzionale all’accuratezza del rilievo, e dipende, in modo generale, dalla distanza e dalla disposizione dei satelliti nel cielo. A seguito di un periodo di sperimentazione e sulla base dei risultati ottenuti, si è stabilito di impostare il buffer di ricerca dal punto di stazionamento GPS con un valore pari a:

GEOmedia n°3-2013


FOCUS 2,7 · (valore DOP) [m] Con un valore di DOP uguale a 2, ad esempio, si genera un buffer di cattura di 5,4 m. Tale scelta è l’esito di una serie empirica di test nell’area milanese interessata dall’attività; non ha ovviamente un valore rigoroso visto che il valore DOP non è dimensionale e non ha andamento lineare con alcun indicatore di accuratezza metrica. Una volta impostato il buffer di cattura, l’esito dell’abbinamento, il fatto cioè che il buffer di ricerca permetta di catturare l’oggetto previsto, dipende da diversi fattori. In primo luogo, ovviamente, dipende dal valore di DOP, che riassume parametricamente l’effetto degli errori di rilevamento satellitare; dipende anche dall’accuratezza metrica e dalla completezza informativa degli elementi presenti in banca dati (perché non potrà mai essere catturato correttamente un elemento se esso non è in banca dati o è in posizione errata); dipende dal rigore con cui gli operatori in campo si posizionano in prossimità dell’elemento, per rilevarne la posizione, tenendo conto, ad esempio, che avvicinando molto il GPS al tronco di un grosso albero dalla chioma molto fitta peggiora la qualità del segnale GPS; infine, a Milano in particolare, potrebbe dipendere dalla presenza di campi elettromagnetici dovuti a disturbi vari quali i campi magnetici prodotti dai tram. Sulla base di queste considerazioni ci s’imbatte in diverse situazioni possibili: 4abbinamento immediato: questa è la situazione ottimale in cui viene catturato in automatico un solo oggetto sul GIS, corrispondente alla tipologia di oggetto scelta come segnalazione (ad esempio viene catturato un solo albero); 4abbinamento da verificare, con cattura multipla: vengono intersecati due o più oggetti sul GIS a cui potrebbe essere associata la segnalazione in baso al tipo di non conformità rilevata; in un secondo momento, tramite le informazioni desumibili dalla fotografia, si sceglie l’oggetto certo fra quelli catturati in automatico. Questo caso si può presentare, ad esempio, quando l’oggetto della segnalazione è un albero singolo all’interno di un gruppo arboreo; 4abbinamento da verificare, con oggetto non trovato in banca dati: non viene catturato nessun elemento sul GIS; questa è la situazione più critica che può dipendere da un’imprecisione posizionale, risolvibile grazie

visita il sito www.rivistageomedia.it

all’aiuto della documentazione fotografica, oppure dalla mancanza o classificazione errata dell’elemento all’interno della banca dati o dalla contestazione di una non conformità non pertinente. Possono nascere, quindi, due tipi di abbinamento: immediato o da verificare. In questa seconda ipotesi, al momento della sincronizzazione, sono i controller stessi che, insieme ai Figura 6 – Distribuzione tecnici di zona comunali, degli oggetti provvisori. verificano le non conformità non abbinate e associano gli elementi corretti. getto e la sua reale collocazione a Un aspetto sostanziale da sottolineare terra; è che, nel caso degli abbinamenti da 4temporale, legata alla valutazione verificare, con oggetti non trovati in dello stato d’aggiornamento degli banca dati, eventuali anomalie del GIS elementi; non bloccano in alcun modo la proce4tematica, da riferirsi alla corrispondura delle segnalazioni e non creano denza tra realtà e attributo associato tempi d’attesa. Infatti, in presenza di all’oggetto ed alla non conformità. un disallineamento tra la difformità rilevata con palmare GPS e il GIS del Verde, ad esempio per codice attributo non corretto, piuttosto che per oggetto mancante, la segnalazione, al momento della sincronizzazione, viene associata lato server a un oggetto provvisorio, definito oggetto civetta, con la denominazione “l’oggetto è da determinare”. In un secondo momento, all’interno del Consorzio che gestisce la manutenzione del verde, i responsabili del GIS verificano e aggiornano la base dati, eliminando gli oggetti provvisori segnalati dai controller e sostituendoli con codici aderenti al catalogo oggetti adottato. In questo modo risulta chiaro che le non conformità rilevate e filtrate, costituiscono un input per l’aggiornamento della banca dati, in quanto un disallineamento rappresenta un avvertimento rispetto a una situazione dubbia da verificare e correggere. Palmari GPS: uno sguardo ai dati L’uso del dispositivo GPS, dovendo produrre un abbinamento tra realtà e oggetto in banca dati, ha permesso di valutare la qualità dei dati a disposizione nel GIS del Verde. In particolare è stata verificata l’accuratezza, che riguarda il grado di corrispondenza con il dato reale e di riferimento, nelle sue diverse accezioni: 4posizionale, nel caso di discordanza tra la posizione geografica dell’og-

A seguito di un primo studio delle non conformità giunte a sistema sono emersi dei fattori da considerare, per non falsare i risultati dell’analisi e quindi le conclusioni sullo stato della qualità della banca dati che ne derivano. In primo luogo occorre stabilire un periodo certo e quindi escludere le segnalazioni che ricadono nella fase iniziale di sperimentazione, che va da maggio 2012 sino a giugno 2012, in cui i diversi operatori hanno testato l’utilizzo stesso del palmare GPS. Di seguito si riporta una tabella con relativo istogramma contenente la totalità delle NC giunte a sistema da maggio 2012 a maggio 2013, distinguendo, per ogni mese, la tipologia di abbinamento riscontrata. Dai diagrammi sono evidenti due dati: 4in primo luogo che dopo il periodo iniziale, il primo trimestre, le non conformità che vengono registrate ogni mese sono circa 2000 (quasi 70 al giorno), cioè il sistema è molto utilizzato e quindi i dati medi dalle analisi che seguono sono certamente significativi; 4In secondo luogo ogni mese, ad eccezione dei primi due, circa due terzi delle NC rientrano negli abbinamenti da verificare e tale abbinamento è praticamente sempre risolto lavorando sulla banca dati del GIS del verde; circa un terzo delle NC è

15


FOCUS

Mese

NC totali

mag-12 giu-12 lug-12 ago-12 set-12 ott-12 nov-12 dic-12 gen-13 feb-13 mar-13 apr-13 mag-13

2116 3963 4569 2678 3572 3610 2052 1543 1894 1326 1748 1909 1880

NC con abbinamento immediato

NC risolte manualmente

NC con oggetto mancante

valori

%

valori

%

valori

%

606 1256 1726 1164 1063 1167 603 430 544 362 559 633 584

28,64 31,69 37,78 43,47 29,76 32,33 29,39 27,87 28,72 27,30 31,98 33,16 31,06

1504 2697 2730 1452 2367 2301 1333 1062 1248 871 1050 1181 1225

71,08 68,05 59,75 54,22 66,27 63,74 64,96 68,83 65,89 65,69 60,07 61,86 65,16

6 10 113 62 142 142 116 51 102 93 139 95 71

0,28 0,25 2,47 2,32 3,98 3,93 5,65 3,31 5,39 7,01 7,95 4,98 3,78

abbinato in modo automatico, pochissimi sono i casi di abbinamenti da verificare che richiedono la generazione di un elemento civetta, che cioè testimoniano un significativo disallineamento fra banca dati e realtà sul terreno. Un ulteriore interessante analisi riguarda il valore di DOP, che indica il livello di accuratezza del rilievo. In alcuni casi il suo valore inammissibile è stato accettato dal sistema. Dalle statistiche ad oggi disponibili, capita che su 32908 casi sono 301 (0.9%) quelli in cui il valore di DOP è superiore a 5 e sono 48 (0,1%) i casi in cui assume valori non accettabili (ad esempio negativi). In questi casi è opportuno che la posizione sia in ogni caso memorizzata ma essa e l’eventuale associazione siano evidenziate in modo da apparire in ogni caso fra quelle da controllare e non considerare automaticamente risolte. Una volta preso atto di tali aspetti ed eliminate le non conformità che presentavano criticità iniziali si sono potute indagare le sole non conformità

“certe”, che si riportano nella tabella seguente, contenente le NC segnalate da agosto 2012 a maggio 2013, suddivise in base alla tipologia di oggetto. Sono numerose le osservazioni che nascono dall’analisi di questa grossa mole di dati. In primo luogo, osservando l’ultima colonna, si può notare come la necessità di generare oggetti civetta, sintomo di una banca dati non corretta, accada percentualmente in modo limitato e solo per gli oggetti lineari e per i cespugli. Cespugli, cordonature, panchine, recinzioni e siepi sono però tipologie di oggetti a cui nel modello di gestione precedente al 2011 non era associato workflow di gestione georeferenziato e quindi è abbastanza logico che nel tempo si riscontri un maggiore disallineamento per tali oggetti rispetto a quelli che già da 5 anni sono costantemente monitorati nel GIS del verde. Alberi e giochi, che corrispondono di fatto alla maggioranza delle segnalazioni, hanno un problema opposto: il loro dato nel GIS del verde è presente ed è sufficientemente aggiornato

Alberi

PUNTUALE

6530

1835

28,10

4695

71,90

0

0,00

Cespugli

PUNTUALE

1439

378

26,27

899

62,47

162

11,26

Giochi

PUNTUALE

1179

333

28,24

846

71,76

0

0,00

Fontanelle

PUNTUALE

13

5

38,46

8

61,54

0

0,00

Chiusini

PUNTUALE

310

65

20,97

245

79,03

0

0,00

Segnaletica bacheche - pali sabbionaie

PUNTUALE

1260

202

16,03

1058

83,97

0

0,00

Siepi Recinzioni cancelli Cordonature

LINEARE

708

255

36,02

307

43,36

146

20,62

LINEARE

2429

822

33,84

1010

41,58

597

24,58

LINEARE

319

111

34,80

143

44,83

65

20,38

Panchine

LINEARE

3462

784

22,65

2678

77,35

0

0,00

Prati

AREALE

1652

850

51,45

802

48,55

0

0,00 1,29

Aiuole

AREALE

619

231

37,32

380

61,39

8

Boschi

AREALE

4

0

0,00

4

100,00

0

0,00

Fontane monumentali

AREALE

9

4

44,44

5

55,56

0

0,00

Pavimentazioni

AREALE

867

495

57,09

372

42,91

0

0,00

Campi gioco

AREALE

395

90

22,78

305

77,22

0

0,00

Impianti irrigui

AREALE

981

650

66,26

331

33,74

0

0,00

Pulizia

AREALE

2

0

0,00

2

100,00

0

0,00

22178

7110

32,06

14090

63,53

978

4,41

TOTALE

16

NC totali

e accurato; è il posizionamento GPS che genera spesso un buffer elevato per cui nell’area di ricerca generata ricadono più di un oggetto della categoria selezionata. Gli alberi ed i giochi si trovano accorpati in piccoli gruppi; solo con l’ausilio della fotografia è possibile riconoscere di quale oggetto si tratta fra quelli catturati nel buffer di ricerca. In ogni caso l’intelligente accoppiamento fra posizione e interfaccia con la banca dati permette di risolvere in modo semiautomatico l’individuazione del punto; se quindi da un lato circa solo il 30% degli oggetti è associato in modo automatico, il restante 70% è risolto senza la necessità di creare oggetti civetta (ad esclusione dei cespugli di cui si è parlato in precedenza). Va anche ricordato, per quanto riguarda gli alberi, che spesso il posizionamento GPS tende ad essere meno preciso avvicinandosi al tronco, in quanto la ricezione del segnale è disturbata dalla chioma delle piante. Altro elemento che può destare interesse è l’elevato numero di associazioni non automatiche per quanto riguarda gli oggetti areali. Ci s’immaginerebbe infatti pressoché certa l’associazione di un posizionamento GPS con un’area a prato. Invece il dato sperimentale riporta a circa il 50% le corrette associazioni. Approfondendo il problema si è visto che in questo caso il difetto sta nella modalità di associazione: quando un controller si trova di fronte a una porzione di pavimentazione in pietra da ripristinare, deve

Analisi NC – Periodo maggio 2012/maggio 2013

GEOmedia n°3-2013


FOCUS

Analisi di 22178 NC pervenute a sistema, periodo da agosto 2012 a maggio 2013 in base alla tipologia di oggetto

associare la non conformità alla lavorazione specifica “ripristino pavimentazioni in pietra”; nel caso in cui associasse erroneamente la non conformità ad un’altra lavorazione, quale ad esempio “ripristino pavimentazione in calcestre”, l’abbinamento non risulterebbe più immediato. Una soluzione a questa eventualità, è certamente quella di rendere più intelligenti i criteri di associazione dalla banca dati; facendo riferimento all’esempio precedente, basterebbe ricercare l’associazione con le lavorazioni relative a tutte le tipologie di pavimentazione, risolvendo anche in questo caso con la fotografia la domanda sulla tipologia di pavimentazione realmente esistente. Ovviamente, il dato di cui si va più fieri è proprio il dato complessivo: utilizzando il posizionamento GPS con una dinamica semiautomatica di verifica dei casi dubbi, la quasi totalità delle segnalazioni viene associata agli oggetti esistenti; i pochi casi di creazione degli oggetti civetta sono quindi semplicemente fisiologiche non corrispondenze fra banca dati GIS e realtà, che rimandano ad un aggiornamento locale del dato. Questi risultati rilevano l’importanza del nuovo modello di gestione implementato, che garantisce un continuo monitoraggio su tutti gli elementi presenti nelle aree verdi, soggetti ad interventi di manutenzione. L’intera innovazione, in pochi mesi di utilizzo, si è dimostrata performante e sta migliorando, indirettamente, il contenuto informativo delle aree verdi di Milano. Inoltre, dall’analisi, è emerso che la qualità delle segnalazioni tramite l’utilizzo del palmare dotato di GPS, e quindi l’esito dell’operatività in campo, è uniforme per tutte le zone di circoscrizione di Milano, con un’ottimizzazione generalizzata dell’operazione di segnalazione e una riduzione dei contenziosi tra i diversi attori coinvolti. Si riporta di seguito per tutte le zone di circoscrizione di Milano la distribuzione degli oggetti civetta.

visita il sito www.rivistageomedia.it

Risultati L’utilizzo dei palmari GPS, ha risolto, nell’immediato, il problema delle non conformità svincolate dal GIS e di difficile individuazione, eliminando, inoltre, la duplicazione delle segnalazioni per uno stesso oggetto, in quanto ogni nota, prima di entrare a sistema, viene accertata e confermata. La georeferenziazione delle non conformità ha permesso quindi di rendere oggettive le ispezioni, consentendo inoltre una tracciabilità completa di tutte le attività manutentive, gestite integralmente all’interno della banca dati del verde. Considerando che la manutenzione del verde risente delle modifiche nel tempo, la tracciabilità di ogni trasformazione del territorio condiziona fortemente la qualità dei dati a disposizione e la possibilità reale di supportare programmazioni future. Altro aspetto basilare è che grazie all’utilizzo dei palmari GPS, è stato possibile introdurre un monitoraggio continuo della qualità del GIS e quindi un continuo miglioramento della qualità dello stesso. Inoltre, grazie al sistema implementato di gestione, gli operatori in campo si sono trasformati in attori indispensabili non solo al monitoraggio della qualità ma anche alla crescita del patrimonio informativo contenuto nel GIS. Lo sviluppo tecnologico descritto ha migliorato nettamente la qualità del lavoro ma soprattutto ha rivalutato le risorse umane coinvolte. Gli operatori, avendo a disposizione gli strumenti adeguati e un sistema interattivo intelligente e funzionante, hanno assunto un ruolo attivo e produttivo e la loro attività è diventata una fonte reale di miglioramento del dato e quindi del servizio. Il modello di gestione descritto permette di comprendere il significato di un GIS, strumento a servizio della conoscenza e della gestione dei fenomeni del mondo reale, la cui essenza è costituita dalla qualità dei dati a disposizione. La conoscenza è alla base della gestione ottimale e della progettualità, ed è possibile solo se i dati sono aderenti alla realtà ed aggiornati dai processi manutentivi. Infine emerge l’importanza di un modello dati adeguato e di un censimento iniziale delle aree verdi ben eseguito. Solo con dati affidabili si riescono a realizzare sistemi di gestione completi, che consentono un continuo controllo della qualità ed un ottimale utilizzo delle risorse. A Milano la creazione della banca dati, la formazione degli attori coinvolti, l’adeguamento

delle procedure lavorative e l’aggiornamento degli strumenti di gestione hanno richiesto diversi anni, ma ora stanno portando a risultati più che soddisfacenti in termini di trasparenza del servizio, qualità di gestione delle aree verdi ed economia delle risorse. Margini di miglioramento? Sicuramente si. La continua evoluzione degli strumenti tecnologici e l’esperienza maturata negli anni fanno intravedere la possibilità di utilizzare tecnologie quali l’RFID, senza peraltro perdere quella base storica creatasi nel tempo, che consente oltre all’analisi puntuale anche strategie a medio e lungo termine di gestione e di ottimizzazione dei costi.

Parole chiave verde pubblico; gps; webgis; open source; palmari; catasto alberi; catasto giochi

Abstract Green public spaces within cities are precious resources that have to be safeguarded and enhanced as public assets with an important environmental and social role.

The municiGIS-based management system, which allows managing, monitoring and documenting all maintenance activities, while ensuring an agreed level of quality. The activities are carried out by external companies, in the framework of a Global Service. In order to monitor the quality of green areas, municipal conpality of

Milano

has developed a

trollers and operators in the field monitor quality standards and report non compliance cases using handheld

GPS

devices.

The

geo-referenced reports are then matched with the elements in the

GIS and forwarded This

to the gardeners in charge of the area.

article analyses the result of one year of use of

GPS devices in the field, the problems en-

countered, and the improvements made in the overall green area management in the of

Milano.

City

Autori Franco Guzzetti franco.guzzetti@polimi.it ABC–Politecnico di Milano Anna Privitera anna.privitera@polimi.it ABC–Politecnico di Milano Manuela Re manuela.re@oaks.com Oaks srl, Grosseto Paolo Viskanic paolo.viskanic@r3-gis.com R3-GIS srl, Merano (BZ)

17


FOCUS

Bibliografia • Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2005), Alberi e professionisti: catasto ed informatizzazione – due esempi di gestione informatizzata del verde con strumenti WebGIS - Convegno Internazionale ALBERI&DINTORNI – Riccione 19/21 Ottobre. • Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2005), Progetto verde Milano: il censimento e la gestione del verde con strumenti WebGIS - atti della 9° Conferenza Nazionale ASITA – Catania 15/18 Novembre. • Cattaneo N., Di Maria F., Guzzetti F., Privitera A. (2007), Specifiche tecniche per il rilievo topografico delle aree verdi nell’ambito del GIS tematico del Comune di Milano, – atti della 11° Conferenza Nazionale ASITA – Torino 6/9 Novembre. • Cattaneo N., Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2008), La gestione della banca dati delle aree verdi del Comune di Milano attraverso l’aggiornamento continuo dei dati, atti della 12° Conferenza Nazionale ASITA – L’Aquila 21/24 Ottobre. • Cattaneo N., Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2008), Milano: l’aggiornamento del GIS del Verde. MondoGIS 68, 51-55. • Vigani L. (2008), Alberi a portata di mouse: Milano, gestione del verde pubblico ottimizzata con uno specifico GIS. Acer 6/2008, 75-76. • Cattaneo N., Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2009), Milano: developments in the management of green areas through computerization. UDMS Annual (published by Taylor & Francis). • Cattaneo N., Di Maria F., Guzzetti F., Privitera A., Viskanic P. (2010), Terreno comune, Acer 6/2010, 51-53. • Guzzetti F., Pasquinelli A., Privitera A., (2013), Quality in public spaces: monitoring green areas in Milan, 29th Urban Data Management Symposium 29–31 May, London (UK) - ISPRS Archives – Volume XL-4/W1, 25-29.

TEOREMA srl

SOLUZIONI TOPOGRAFICHE INNOVATIVE

Leica Multistation MS50

Leica GS08 Plus

Leica Disto D510 per iPhone e iPad

Leica 3D Disto

Leica P20

www.disto.it • www.geomatica.it Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988 teorema@geomatica.it

18 200 x 143 Geomedia 013 QR 2.indd 1

GEOmedia n°3-2013 02/07/13 13:30


FOCUS

MAppAre oLTre ognI LIMITe, e AncorA dI pIù La nuova soluzione Trimble UX5 Aerial Imaging sta creando un nuovo standard per la raccolta aerea di dati rapida e sicura, conservando inalterata la produttività per tutto il giorno, indipendentemente dal lavoro eseguito. Che scegliate di volare sotto la pioggia lungo scogliere ventose, in deserti torridi o in un territorio montuoso e innevato, Trimble UX5 è una soluzione sicura progettata per i professionisti della cartografia e della topografia, che richiedono la massima precisione. In combinazione con gli intuitivi flussi di raccolta dati Trimble Access™ e con la potente funzionalità di elaborazione dei dati fotogrammetrici di Trimble Business Center, sarete subito a un livello superiore, oltre tutti gli altri. Provate voi stessi presso trimble.com/uas Unitevi alla conversazione: #TrimbleUX5

visita il sito www.rivistageomedia.it

© 2013, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation 19 Limited, registrati negli Stati Uniti e in altri paesi. Tutti gli altri sono marchi dei rispettivi proprietari. SUR-218-ITA


MERCATO Topcon e FARO: nuovo accordo di distribuzione per EMEA Topcon Europe Positioning (TEP) e di FARO Europe GmbH & Co. KG annunciano un nuovo accordo strategico di durata triennale per la distribuzione. L'accordo prevede la distribuzione del laser scanner FARO Focus3D e del software in tutta Europa, Medio Oriente e Africa (EMEA). "Non vediamo l'ora di portare avanti il successo che abbiamo avuto negli ultimi 15 mesi con la nostra partnership con FARO Europe attraverso l'apertura di tutti i territori EMEA ai distributori Topcon." Ha detto Rene Worms, direttore generale TEP, "La combinazione del laser scanner a lungo raggio GLS-1500 di Topcon con il FARO Focus3D si è dimostrata una combinazione che ha avuto molto successo proponedo soluzioni di rilievo per tutti i tipi di ambienti di lavoro". Drews Ralf, amministratore delegato di FARO Europe GmbH & Co. KG ha dichiarato "Siamo lieti di estendere la nostra partnership strategica già esistente con Topcon Europe Positioning, questo ci permetterà di proseguire nel progresso che abbiamo avuto sviluppando i nostri canali di vendita per il FARO Focus 3D in tutta EMEA. Stiamo assistendo a continui incrementi nelle vendite del Focus 3D e ci aspettiamo che questo continui, così come il maggiore impiego della tecnologia laser scanner al di fuori dei tipici mercati del rilievo. Siamo fiduciosi che il laser scanner FARO Focus3D sia ben posizionato per poter soddisfare sia le esigenze del rilievo tradizionale sia i nuovi mercati in rapida evoluzione." L'accordo di distribuzione ha effetto immediato e il Focus3D FARO è ora disponibile attraverso la rete di distribuzione autorizzata di Topcon Europe Positioning. (Fonte: Topcon Europe Positioning)

Slider con istogramma temporale per ArcGIS La nuova barra di scorrimento temporale (Histogram Time Slider) del tempo a istogramma è stata aggiunta nel rilascio della versione 3.6 della API ArcGIS Javascript, aggiungendo una nuova dimensione per la visualizzazione dei dati temporali in un Feature Layer. Sebbene una cartografia ci consenta di individuare facilmente i modelli e le informazioni dei dati territoriali, tuttavia una visione statica limita la nostra comprensione dell'aspetto temporale dell'evoluzione dei dati. Ciò che distingue questo nuovo widget dagli altri cursori temporali non è solo la capacità di filtrare dinamicamente un livello, ma in combinazione con una visualizzazione non cartografica, può aiutare ad aggiungere una migliore comprensione dei dati che vengono visualizzati sulla mappa. Lo slider con istogramma fornisce un contesto temporale molto simile alla aggregazione spaziale che indica la vicinanza in una cartografia. Utilizzato esclusivamente in snapshot_mode, questo strumento crea nuovi modi per un'ulteriore esplorazione dei dati senza soluzione di continuità all'interno di applicazioni webgis. Per implementare il widget nella vostra prossima applicazione di web mapping, consultate la documentazione API ArcGIS per Javascript per il Histogram Time Slider. https://developers.arcgis.com/en/javascript/jssamples/widget_ histogram_time_slider.html Per alcuni esempi live vedi qui: http://esri.github.io/temporal-maps-js/cicada-tweets.html http://developers.arcgis.com/en/javascript/samples/widget_histogram_time_slider/ (Fonte Esri) 20

GEOmedia n°3-2013


MERCATO Nuovi dati Landasat in download libero da ESA Dopo il lancio di Landsat-8 all'inizio di quest'anno, l'ESA ha iniziato ad acquisire i dati Landsat-8 nella stazione di Neustrelitz in Germania rilasciando ora un nuovo portale che fornisce dati sistematici dalla missione in Europa entro tre ore di acquisizione. Qui il nuovo portale: https://landsat8portal.eo.esa.int/portal/ Circa 150 000 nuovi prodotti dal Landsat-5 in poi sono disponibili gratuitamente per il download diretto. I prodotti di strumento Thematic Mapper del satellite sono stati acquisiti dalla stazione di terra di Kiruna nel nord della Svezia tra il 1983 e il 2011 . ESA inoltre ha recentemente completato la rielaborazione dei dati con una qualità superiore rispetto al passato in quanto i prodotti sono ora allineati con quelli del Landsat-8. La fase successiva dell'elaborazione dei dati i archivio Landsat conterrà anche tutti i dati Thematic Mapper acquisiti dalle stazioni di Matera (Italia) e Maspalomas (Isole Canarie, Spagna). Questi prodotti saranno progressivamente disponibili nel corso del 2014. Almeno mezzo milione di nuovi prodotti e dati di alta qualità sono attesi da questo sforzo globale. Il progetto è stato finanziato dal programma Earthnet dell'ESA, che ha sostenuto l'accesso alle missioni non-ESA per più di 30 anni. Il programma Landsat è gestito congiuntamente dalla NASA e la US Geological Survey (USGS). ESA supporta la serie Landsat come una missione di Terzi, il che significa che utilizza la sua infrastruttura di terra e le competenze per acquisire, elaborare e distribuire dati Landsat per gli utenti. (Fonte: Redazione)

Il ritorno della geografia a scuola Nel pacchetto di misure varato per scuola, università e ricerca che ha appena avuto il via libera in Consiglio dei ministri con il titolo “L'Istruzione riparte” proposto dal ministro dell'Istruzione, dell'Università e della Ricerca, Maria Chiara Carrozza, è presente il ritorno della geografia e dei progetti didattici a scopo culturale nei musei e nei siti storico-archeologici. Salutiamo con piacere l'intervento del governo atto a far ripartire il nostro sistema scolastico ove tra una serie di importanti provvedimenti sono stati destinati: 4 13,2 milioni (3,3 per il 2014 e 9,9 per il 2015) per potenziare l’insegnamento della geografia generale ed economica. Un’ora in più negli istituti tecnici e professionali al biennio iniziale. 4 3 milioni per il 2014 per finanziare progetti didattici nei musei e nei siti di interesse storico, culturale e archeologico e nelle Fondazioni culturali. I bandi sono rivolti alle scuole, ma anche alle Università e alle Accademie delle Belle Arti. Si potranno ottenere anche cofinanziamenti da parte di fondazioni bancarie o enti pubblici/privati o da altri enti che ricevono finanziamenti dal Miur. Era un atto dovuto dopo anni di quello potevamo definire un occultamento di discipline essenziali per la nostra vita. (Fonte MIUR)

XPAD per Android, applicazione professionale per il rilievo topografico XPad è la prima applicazione Android professionale per il rilievo e tracciamento topografico in campo. Può essere collegata a tutti i GPS topografici GeoMax e a tutte le stazioni totali con tecnologia Bluetooth. XPAD for Android è un’app dedicata ai tecnici ed ai professionisti del catasto e del territorio, sviluppata per i tablet e gli smartphone con sistema operativo Android. Continua così il lavoro di ricerca di GeoMax per dare sempre nuove soluzioni: moderne, semplici, innovative e allo stesso tempo complete ed affidabili. E' possibile conoscere tutte le funzionalità di XPAD presso gli stand di GeoMax alle prossime ferie di ottobre: MADE 2013 - Milano Architettura Design Edilizia 6° edizione, dal 2 al 5 ottobre 2013 Fiera Milano, Rho (MI) SAIE 2013 - Fiera di Bologna, dal 16 al 19 ottobre 2013. (Fonte: GeoMax)

visita il sito www.rivistageomedia.it

21


MERCATO Rilievo topografico SCAN & GO SYSTEM Scan&Go è una nuova metodologia per il rilievo topografico del territorio che utilizza strumentazione Laser Scanner abbinata a ricevitori GPS. Il sistema, installato su autoveicolo in modalità “Stop & Go”, è studiato per ottenere una definizione tridimensionale centimetrica di singole scansioni, senza il bisogno di punti di riferimento in comune o zone di sovrapposizione, in un unico sistema di riferimento. L’utilizzo del sistema su qualsiasi autoveicolo garantisce maggior portata di misura, velocità e libertà negli spostamenti tra le diverse scansioni e grazie al nostro Livellatore Automatico (LevelPlane Evo) su cui è montato lo scanner, ne è possibile l’impiego anche su terreni accidentati o con forti pendenze. Sul cofano anteriore è collocato un sistema di “livellamento manuale” (Magnetic Level Bracket), munito di tre magneti, tre barre verticali di regolazione e un “target” di riferimento sormontato da ricevitore GPS. Viene quindi effettuata la definizione delle coordinate tridimensionali del punto di presa della scansione e del punto di orientamento mediante l’utilizzo di ricevitori GPS montati in modo coassiale rispettivamente su laser scanner e target di riferimento. Mentre il sensore laser esegue la scansione, i ricevitori acquisiscono le misure GPS, fornendo coordinate geografiche e locali del sensore laser e del target di orientamento; ciò consente di ottenere un unico sistema di riferimento tridimensionale con precisione centimetrica. Questa metodologia nasce dalla necessità di rendere più produttivo l’utilizzo dei nuovi sistemi laser scanner terrestri nel campo del rilievo tradizionale, per incentivare il passaggio dall’attuale metodo di rilievo puntuale a quello della realtà virtuale tridimensionale, consentendone l’uso quotidiano anche nella Topografia classica. Il Sistema Scan&Go ed i suoi componenti possono essere utilizzati con Laser Scanner 3D e GPS di qualsiasi marca. LEVEL-PLANE EVO Piattaforma per livellamento biassiale automatico, con precisione +/- 3”, per rilevamenti Laser Scanner 3D o con Stazioni Totali robotiche LEVEL-LIFT ROOF mod. 23 & mod.33 Level-lift roof nasce dall’esigenza di sfruttare al meglio il sistema Scan&Go sia per i rilievi topografici classici di terreni e infrastrutture sia per rilievi architettonici e strutturali. Il sistema è composto da un palo pneumatico ripiegabile ed estensibile, compressore integrato, piastra e contro piastra per l’installazione del Level-Plane Evo e telaio di supporto regolabile per l’installazione sulle barre porta tutto di qualsiasi veicolo. Il palo estensibile con sfilo verticale regolabile, 2,30 mt con diametro 90 mm per la versione 23 e 3,30 mt per la versione 33, ha una portata sulla cima di 35 kg. (Fonte: Scan & Go)

22

GEOmedia n°3-2013


MERCATO

visita il sito www.rivistageomedia.it

23


MERCATO Belluzzi Gooble Bike, un bike trainer open source con Google Street View Volete pedalare sulle Alpi, nelle strade di New York o semplicemente tra le dolci colline fuori porta? La Belluzzi Gooble Bike, progettata e realizzata da un gruppo di studenti ed insegnanti dell'Istituto Tecnico Industriale Odone Belluzzi di Bologna, è una cyclette da allenamento, dotata di un display montato sul manubrio sul quale scorrono i panorami di Google Street View che avanzano procedendo secondo il ritmo delle pedalate. Il computer contenuto nel display calcola il percorso e la pendenza modificando la resistenza applicata alle ruote mentre sullo schermo si susseguono le immagini dei luoghi attraversati. Hardware, firmware e software sono distribuiti con licenza Open Source quindi, se avete una già cyclette ed un computer, potete realizzare da soli la vostra Gooble Bike seguendo le indicazioni pubblicate sul sito web del progetto. Il collegamento tra computer e cyclette e realizzato con un microcomputer Arduino che emula il click del mouse su Street View con una frequenza che dipende dalla velocità di pedalata. http://gooblebike.belluzzi.scuole.bo.it/ (Fonte: Belluzzi Gooble Bike)

24

Mobile Alert di Intergraph: una app per il crowdsourcing con le segnalazioni dei cittadini Intergraph ha rilasciato Mobile Alert, una nuova applicazione per il crowdsourcing che semplificherà il modo in cui i cittadini potranno segnalare in prima persona danni e malfunzionamenti alle autorità competenti. Secondo il direttore della linea di prodotti GIS della Intergraph Corp. Vince Smith “Questa nuova offerta è pensata per aumentare, da parte delle amministrazioni locali, il coinvolgimento dei cittadini per far qualcosa di più per la società. Adesso i cittadini non dovranno far altro che scattare una foto di una situazione problematica ed inviarla a un sistema centralizzato dove l’evento potrà essere localizzato e gestito quasi in tempo reale dalle autorità pubbliche”. L’applicazione è disponibile per iOS ed Android ed ha un’interfaccia intuitiva che permette agli utenti di aggiungere anche dei commenti a un report e inviarlo in pochi istanti alle autorità competenti. Le pubbliche amminsitrazioni possono accedere ai servizi Mobile Alert mediante sottoscrizione di un servizio ed i dati raccolti con modalità crowdsourcing sono loro trasmessi attraverso email o web services OGC. L’applicazione, sviluppata in origine in collaborazione con alcune amministrazioni locali in Europa, è stata già scaricata da più di 30.000 utenti in tutto in mondo diventando così l’applicazione al primo posto dell’iTunes danese che fornisce app di servizi. Il lancio della soluzione Mobile Alert si inserisce nella strategia di Intergraph di collocare sul mercato soluzioni per il segmento Mobile/Smartphone quali estensioni dell’offerta complessiva mirate a rendere disponibili “sul campo” dati geospaziali, dati di asset e informazioni su eventi e incidenti per la consultazione e l’aggiornamento degli stessi. Altre offerte Intergraph per il segmento Mobile/Smartphone includono Intergraph Mobile Responder e Intergraph Mobile MapWorks, che rispondono a esigenze specifiche dei settori della pubblica sicurezza, della Pubblica Amministrazione e della gestione delle infrastrutture. (Fonte: Intergraph)

GEOmedia n°3-2013


MERCATO Report dal Living Planet Symposium 2013 sul futuro della EO Il 16 settembre si è conclusa l'intensa settimana di lavori al Living Planet Symposium 2013 dell' ESA, tenutosi ad Edimburgo (UK) dal 9 al 13 Settembre. Il corposo evento scientifico e tecnologico, che ha visto circa 1800 presenze tra scienziati edutilizzatori nei 5 giorni della sua durata, ha costituito ancora una volta un forum di altissimo livello tra gli addetti ai lavori del mondo della Osservazione della Terra con tecnologie satellitari, con riferimento specifico alle missioni del settore della Agenzia Spaziale Europea (ESA). Le ultime due giornate del simposio sono state focalizzate sia sul mondo dei servizi (le potenzialità e prospettive dei prossimi servizi GMES), sia su studi di carattere più prettamente scientifico (Geomagnetismo, ambiente Near-Earth, Oceanografia, Geologia, Atmosfera, Controllo del Territorio), supportati da missioni ESA quali SMOS (Soil Moisture and Ocean Salinity), Earth-CARE (Clouds, Aerosol and Radiation), COSMO-SkyMed, TerraSAR-X e TanDEM-X. Particolare spazio è stato dedicato alla innovativa piattaforma multispettrale Proba V ed ai programmi futuri più avanzati della serie Sentinel (Sentinel-4, Sentinel-5 e Sentinel5P), che seguiranno il lancio imminente di Sentinel-3. L'intero simposio, in cui ha spiccato l'impressionante serie di missioni satellitari europee che sono in corso o in programmazione, ha offerto una vetrina spettacolare del passato, del presente e soprattutto del futuro della Earth Observation satellitare europea. L'intenso dibattito tra centinaia di scienziati che in questi giorni si sono confrontati ad Edimburgo sulle sfide che l 'ESA intende raccogliere in questo ambito fanno capire come probabilmente siamo alle porte di una nuova stagione del mondo del Telerilevamento. Alla base di questa fase ci sono diverse importanti sfide scientifiche, che l' Agenzia intende raccogliere e che possono essere significativamente sintetizzate dal motto della strategia adottata: 'The Changing Earth', formulata nel 2006 e che ha ottenuto dei progressi significativi in questi anni, grazie ai risultati delle missioni ESA. In questo senso è opinione comune tra gli scienziati quanto sia necessario aumentare sempre di più il pragmatico collegamento tra le attività scientifiche di EO e le più pressanti istanze sociali globali,obiettivo reso più complesso ed ambizioso dalla intrinseca interdisciplinarietà delle sfide e dallanecessità irrinunciabile di un solido tessuto di collaborazione internazionale. Le istanze ricavate dal Simposio di Edimburgo saranno patromonio di idee per il Earth Science Advisory Committee (ESAC) dell' ESA, che sarà presto al lavoro per la rifinitura degli obiettivi scientifici da presentare a fine anno al Board for Earth Observation: lo scopo è quello di produrre per la fine del 2014 una revisione di strategia e la nuova agenda scientifica per gli anni a venire. Ad esempio: i primi tre satelliti della famiglia 'Earth Explorers' - CryoSat, GOCE e SMOS - hanno risposto alle sfide scientifiche per le quali erano stati pensati (rispettivamente: criosfera, gravità e umidità del suolo/salinità oceanica), andando anche oltre i risultati attesi. Il lancio del quarto Earth Explorer, Swarm, è in programma per il prossimo 14 Novembre: una mini-costellazione di tre satelliti studierà approfonditamente uno dei caratteri più misteriosi del nostro pianeta: il campo magnetico. Ma anche la futura missione ADM-Eolus affronterà la sfida innovativa di essere la prima missione satellitare destinata alla profilatura dei venti su scala globale, mentre la missione EarthCARE proverà a misurare le relazioni che legano nuvole, aerosol e radiazioni. Biomass, la settima missione Earth Explorer recentemente definita, si occuperà invece di misurare l'ammontare di biomassa e carbonio immagazzinati nelle foreste mondiali, con una accuratezza mai raggiunta prima. L'elenco degli obiettivi che ESA ha deciso di rincorrere nel lungo cammino della EO potrebbe continuare a lungo, nonostante il difficile momento sociale e la complessa congiuntura economica che stiamo vivendo in Europa. Il Living Planet Symposium 2013 ha ricordato quanto alta debba continuare ad essere la nostra attenzione verso la comprensione ed al monitoraggio della 'casa planetaria' che ci ospita. Un auspicio condivisibile, a cui l' Europa e l'ESA daranno sempre più corpo nei prossimi anni con un intenso programma scientifico e tecnologico tutto da seguire. Auguri di buon lavoro, ESA. (Fonte: Redazione)

visita il sito www.rivistageomedia.it

25


REPORTS

Rilievo ed elaborazione di dati laser acquisiti con sistemi MMS in un parco urbano di Gino Dardanelli e Marco Carella

L’utilizzo di sistemi MMS è oggi in rapida diffusione grazie alla loro capacità di acquisire velocemente e a basso costo grandi moli di dati geografici con buone precisioni e questo li rende particolarmente adatti alla produzione cartografica e di Sistemi Informativi Territoriali. I costi di rilievo chilometrici dei Mobile Mapping System sono generalmente più contenuti rispetto a quelli delle tecniche tradizionali aerofotogrammetriche e topografiche. Questi sistemi consentono il rilievo di ampie aree in tempi decisamente ristretti richiedendo comunque, a posteriori, gravose fasi di estrazione, elaborazione ed archiviazione dei dati acquisiti.

I

l lavoro ivi proposto riguarda la verifica dell’attendibilità metrica e qualitativa di rilievi eseguiti per mezzo del sistema mobile IP-S2 di TOPCON nell’ambito degli studi svolti dal Dipartimento di Ingegneria Civile, Ambientale ed Aerospaziale DICAM di Palermo sul parco urbano Ninni Cassarà (Fig. 1). L’utilizzo di sistemi MMS è in rapida e costante diffusione poiché questi sono in grado di acquisire velocemente e a basso costo grandi quantità di dati geografici; la loro capacità di acquisire immagini fotografiche e misure con buone precisioni li rende principalmente idonei alla produzione cartografica a media scala. Questi sistemi mi-

Figura 1 - L’area oggetto di studio

26

surano le superfici visibili e consentono l’acquisizione di ampie aree in tempi decisamente ristretti; è tuttavia da sottolineare come, a posteriori, tali informazioni debbano essere poi estratte, elaborate ed archiviate nel corso di una gravosa fase di postprocessing. Un notevole vantaggio tuttavia è dato dalla possibilità di poter utilizzare i dati archiviati in modi differenti avendo la possibilità di estrarre modelli 3D, sezioni, ortofoto, modelli 3D texturizzati, immagini solide e navigazioni virtuali ricavate grazie all’integrazione della tecnologia laser e di tecniche di fotogrammetria digitale con sistemi di posizionamento GNSS e di determinazione dell’assetto. E’ doveroso comunque sottolineare che questi sistemi risultano ad oggi caratterizzati da un basso livello di affidabilità causato dalla determinazione univoca del posizionamento dei sensori che non permette la verifica di errori ed a causa dei sistematismi di GNSS, INS ed odometri che, come noto, necessitano di ripetute e frequenti calibrazioni. Tuttavia I Mobile Mapping System sono oggi al centro di un intenso dibattito inerente per lo più la loro effettiva capacità di rispondere alle esigenze di accuratezza e dettaglio richieste dal catasto strade italiano (DM 1-6-2001). Il termine Mobile Mapping (MM), nello specifico, indica tecniche di rilevamento che utilizzano sensori a bordo di veicoli in movimento in cui i dati acquisiti vengono georiferiti grazie ad un sistema di posizionamento e orientamento. Si definisce in questo modo, infatti, qualunque piattaforma mobile, provvista di sistemi di misura capaci di definirne la posizione 3D in modo quasi-continuo e, al contempo, in grado di acquisire dati geografici senza l’ausilio di punti di controllo a terra. Oggi si preferisce defiGEOmedia n°3-2013


REPORTS nirli con la dizione POS (Position and Orientation Systems) poiché la problematica principale che li interessa non è il mapping ma la determinazione della posizione e dell’assetto. Le prime sperimentazioni a riguardo risalgono ai primi anni ’90, quando il GPS non era ancora pienamente operativo ed esistevano sistemi terrestri ed aerei integrati con camere digitali per il rilievo con metodi fotogrammetrici. Le prime applicazioni hanno riguardato il settore stradale attraverso le ricerche sviluppate prevalentemente presso l’Università di Calgary in Canada a partire dalla seconda metà degli anni ’80. Gli sviluppi di tali ricerche, maturati nel corso degli anni 90 grazie all’integrazione con il GPS hanno infine portato alla produzione di una serie di prototipi. Dal 2000 in poi si sono sviluppati i sistemi giroscopici a fibre ottiche caratterizzate da precisioni migliori nella misura e da costi relativamente contenuti. In anni recenti, infine, la tecnologia MEMS (Micro Electronic Mechanical System) ha portato alla produzione di accelerometri e giroscopi con buone accuratezze ed a costi contenuti. La ricerca sugli MMS è oggi prevalentemente indirizzata ad incrementarne il campo di applicazioni e le possibilità operative. I principali settori di interesse possono essere sinteticamente riassunti come segue: 4catasto strade (DM 1-6-2001 “modalità di costituzione ed aggiornamento dei catasti stradali”); 4monitoraggio ambientale; 4generazione di database geografici GIS; 4rilievo di infrastrutture e delle loro pertinenze; 4rilievo “as built” delle nuove infrastrutture stradali; 4city modelling ed estrazione di modelli digitali della superficie (DSM) e del terreno (DTM); 4rilevazioni batimetriche fluviali o sotto costa effettuate con profilometri o scanner sonar; Il sistema MMS Normalmente un sistema MMS è costituito da una struttura per l’alloggiamento dei sensori montata sul veicolo, un sensore inerziale IMU/GPS che misura la posizione e l’orientamento della piattaforma mobile, uno o più sensori laser scanner in modalità profilometro, un sistema di fotocamere digitali sincronizzato ed un centro di controllo in grado di correlare le informazioni acquisite, il tutto equipaggiabile su veicoli terrestri, aerei e marini. La loro diffusione è stata favorita dallo sviluppo tecnologico dei dispositivi per l’acquisizione dei dati (camere digitali e laser scanner), della navigazione di precisione attraverso sistemi GNSS, dallo sviluppo di nuovi e più efficienti sistemi inerziali e dalla definizione di algoritmi e modelli matematici capaci di garantire una sempre maggiore precisione e affidabilità delle soluzioni in fasi di post-processing. Perché il veicolo sia operativo è necessario che un sistema di sincronizzazione riporti ad un’unica base temporale i dati acquisiti e che siano stati preliminarmente determinati i bracci di leva e i disallineamenti. Infatti riveste un ruolo di fondamentale importanza la rigorosa sincronizzazione del flusso dati, che richiede una accurata integrazione hardware e software di tutti i processi di misura e la possibilità di ricondurre tutti i dati acquisiti ad un unico sistema di riferimento; a tal proposito sottolineamo l’importanza di un modello di georeferenziazione come ad esempio quello di El Sheimy e Schwarz, algoritmo di riferimento per il preprocessamento di dati MMS.

visita il sito www.rivistageomedia.it

Figura 2 - Modello di georeferenziazione per sistemi MMS

La stabilità meccanica delle posizioni e degli assetti relativi tra i diversi componenti consente di georiferire il dato di ogni sensore all’istante di acquisizione. Interpolata la posizione e l’assetto del sistema veicolo a quell’istante, si ottiene la posizione del sistema sensore. Nel caso specifico si risale alla posizione ed all’assetto, nell’istante di scansione del laser, grazie ad un particolare circuito autonomo che genera un impulso di adeguata ampiezza ad intervalli regolari. Questo, comandato via software dall’inizio della singola scansione, giunge ad una porta di ingresso/uscita che registra l’istante di acquisizione. Il metodo più comunemente utilizzato per la ricerca della soluzione ottimale prevede l’introduzione di un filtro, definibile come un insieme di equazioni che combinano le informazioni provenienti da diversi sensori al fine di fornire una stima della posizione del veicolo. Generalmente il filtro implementa una rappresentazione cinematica del veicolo che, tramite l’informazione fornita dal sistema inerziale all’istante t, stima lo stato del veicolo all’istante t+1. Topcon IP-S2 (Fig. 3) consente di effettuare il rilievo lineare in movimento raggiungendo un alto grado di precisione. Si ottiene il posizionamento preciso ricorrendo a tre tecnologie: 4un ricevitore GNSS (Global Navigation Satellite System) a doppia frequenza stabilisce la posizione nello spazio; 4un sistema di misura inerziale (Inertial Measurement Unit, IMU) fornisce l’assetto del veicolo; 4un collegamento a encoder esterni sulle ruote consente di ottenere informazioni odometriche. L’IMU di cui è dotato IP-S2, fornisce informazioni sull’accelerazione e sulla rotazione ad alta frequenza e, se combinato alle misurazioni GNSS di precisione, permette di calcolare le posizioni anche quando ci si avvicina ad ostacoli come edifici o alberi, o mentre si attraversa un tunnel o un cavalcavia, senza compromettere la precisione (Fig. 4). Il sistema standard IP-S2 comprende tre scanner LiDAR ad alta risoluzione che coprono il percorso del veicolo sia a livello del terreno che sulle aree adiacenti fino a una distanza di 30 metri. La fotocamera digitale ad alta risoluzione fornisce immagini sferiche a 360° con una frequenza di acquisizione di 15 fotogrammi al secondo (Fig. 5).

27


REPORTS

Figura 6 - Panorama sferico estratto durante il rilievo Figura 3 - Topcon IP-S2

Figura 4 - IMU e ricevitore GNSS del TOPCON IP-S2

Gli input che provengono dai sensori vengono registrati ad un intervallo di 15 nanosecondi. Il sistema IP-S2 comprende inoltre un servizio di elaborazione sul web con interfaccia PC desktop. I dati GNSS possono essere successivamente elaborati per ottenere una maggiore affidabilità.

Figura 7 - Copertura satellitare GPS e GLONASS

Figura 8 - Copertura satellitare GPS e GLONASS

Figura 5 - Screenshot durante la navigazione di un panorama sferico

Il software include anche uno strumento di visualizzazione che consente all’utente di controllare e misurare le pointclouds generate dagli scanner. Il file dei dati registrati può essere anche elaborato in post-processing e filtrato off-line al fine di ottenere migliori informazioni sulla posizione dei dati acquisiti. Tra tutte le caratteristiche sintetizzate nella scheda tecnica si vuole mettere in evidenza la precisione dichiarata pari a ± 45 mm. E’ importante comunque sottolineare che il grado di accuratezza è strettamente legato alla velocità di crociera assunta durante l’ acquisizione. Programmazione ed esecuzione dei lavori Lo scopo specifico di questo lavoro, come detto, è la verifica della qualità del dato acquisito mediante gli scanner LIDAR equipaggiati nel sistema TOPCON IP-S2. Al fine di ottenere un riscontro oggettivo sull’accuratezza e qualità del dato, il rilievo è stato eseguito in un parco comunale caratterizzato da una copertura satellitare completa e da un flusso veicolare nullo, condizioni che di fatto hanno consentito lo svolgimento delle operazioni di acquisizione in totale fluidità e sicurezza (Fig. 6, 7). La completa assenza di ostacoli ed ostruzione nell’area test ha consentito di restituire l’intera catena cinematica con una sola inizia-

28

Figura 9 - Andamento del VDOP

Figura 10 - Andamento del HDOP

Figura 11 - Andamento del PDOP

GEOmedia n°3-2013


REPORTS lizzazione statica, determinando le componenti nel sistema di riferimento WGS84. Dai grafici di analisi del posizionamento GNSS si può constatare che per tutta la durata del rilievo i valori del DOP si sono mantenuti accettabili grazie alla buona visibilità; la totalità dei punti ha valori di PDOP inferiori a 3,00, precisamente compresi tra 1,473-3,00 così come per il VDOP. Nei tre grafici è possibile notare un picco isolato dovuto forse ad un improvviso decadimento della visibilità causato probabilmente da ostruzioni come alberi o edifici (Fig. 8,9,10,11). Lo studio, come accennato in precedenza, si colloca nell’ambito delle esperienze svolte dal Dipartimento di Ingegneria Civile, Ambientale ed Aerospaziale DICAM di Palermo in collaborazione con Geotop s.r.l., aventi come oggetto di studio il parco urbano Ninni Cassarà e riguardanti i sistemi integrati di rilevamento basati sul posizionamento GNSS. Le campagne di acquisizione hanno avuto luogo nell’Aprile del 2012 mentre i lavori di processamento e restituzione si sono protratti fino ai primi mesi del 2013. Il parco oggetto di studio si estende lungo una porzione di terreno dell’agro palermitano nella zona a sud-est del nucleo antico della città. Occupa una superficie complessiva di oltre 28 ettari e si sviluppa dalla Fossa della Garofala sino all’attuale circonvallazione interna della città, confinando ad ovest con la via Altofonte ed il Corso Pisani e ad est con l’area occupata dagli edifici dell’Università degli Studi di Palermo. Nel corso degli anni, a causa dei numerosi passaggi di proprietà, l’intera area ha subito numerose trasformazioni fino al completo abbandono. Soltanto tra il 1954 e il 1957 la Regione Siciliana ne ha acquistato la proprietà affidandone la riprogettazione a funzionari tecnici del Settore Urbanistica del Comune di Palermo. Sedici punti di controllo, utili alle verifiche per gli scopi suddetti, sono stati materializzati, monografati e misurati in modalità statica GNSS. La correzione in tempo reale è stata gestita dalla rete di stazioni permanenti dell’Università di Palermo (DICAM). Per ciò che riguarda l’elaborazione dei dati è stato utilizzato il software Meridiana dal quale sono stati estratti report esaustivi per l’analisi dei risultati ed il controllo della qualità delle misure. La morfologia del parco ha portato all’esigenza di suddividere la sua superficie in quattro settori, ognuno dei quali comprendente 4 vertici di controllo disposti in modo più uniforme possibile. Le misure dei vertici di controllo sono state eseguite per mezzo della strumentazione in dotazione al dipartimento. L’utilizzo del IP-S2, come detto, ha riguardato il rilievo dei sentieri e delle zone circostanti. L’elaborazione dei dati La fase di elaborazione ha interessato dapprima lo studio dei dati relativi ai satelliti quali DOP (Diluition Of Precision), SNR (Signal Noise Ratio), errori ionosferici sulle due portanti, errori di multipath. Il processo successivo ha compreso tre fasi distinte: 1) elaborazione dei dati grezzi e nello specifico processazione, sincronizzazione e georeferenziazione dei punti rilevati;

a. fase di processazione dei dati:

durante la fase di acquisizione in sito, il pos registra tutti i dati relativi a posizionamento e assetto del veicolo e i dati relativi alla stazione fissa gps, su supporto flashcard.

visita il sito www.rivistageomedia.it

quelli relativi al laser scanner e le immagini catturate dalle telecamere digitali sono registrati su hard disk. la processazione dei dati avviene tramite il software pospac land, di proprietà e distribuito dalla applanix corporation. per ogni “missione” di rilievo si ha una serie di file che compongono la sequenza pos, la quale elaborata assieme ai dati gnss, restituisce la rotta e l’assetto del veicolo calcolati (a 100 hz) con i soli satelliti. la precisione di determinazione della traiettoria seguita dal veicolo è di 3 -5 metri. due file chiamati event1 ed event2 registrano, rispettivamente, i secondi a cui sono stati scattati i fotogrammi e i secondi a cui sono avvenute le rotazioni dello specchio del laser scanner. per ottenere una accuratezza migliore si elabora la traiettoria con la coordinata della stazione permanente. il risultato di questa operazione, chiamata navigate è una nuova rotta calcolata sempre a 100 hz, ma con la precisione dell’ordine di 20-30 cm. durante l’elaborazione, si può notare la barra colorata per il controllo dell’accuratezza del posizionamento. b. fase di sincronizzazione: e’ la fase in cui si associano i dati di assetto e di posizione del veicolo elaborati con gli istanti in cui le immagini sono state catturate dal le telecamere. si utilizza un altro strumento, sempre compreso nel programma pos pac, chiamato output. il formato di file prodotto è il loader. viene utilizzato il file event1 per leggere il secondo a cui è stata scattata un determinato panorama sferico e a tale istante vengono associate le caratteristiche del veicolo (posizione e assetto). la stessa cosa viene fatta utilizzando il file event2 e quindi verrà creato un file che ad ogni giro dello specchio del laser scanner associa assetto e posizione del veicolo. i file ottenuti con l’output vengono poi integrati col file gamsolution.txt, cioè viene aggiunta l’informazione sul numero dei satelliti visibili ad ogni determinato istante temporale. in fase di rilievo, i dati gams sono registrati una volta per secondo. c. fase di georeferenziazione: e’ la fase in cui i file ottenuti con l’output vengono associati con le immagini registrate dalle telecamere e con i dati laser. il processo, chiamato sync event, lavora in .batch e associa i file dell’output con le immagini. il risultato è un file .pnt delle immagini georiferite e uno stesso file dei punti laser georiferiti. il file .pnt è una tabella database e può già essere incluso in un sistema relazionale. 2) elaborazione dei filmati, distinta in creazione e calibrazione dei filmati;

a. creazione dei filmati: si utilizza il programma arcgis

e alcuni suoi applicativi. i file ottenuti con l’output sono stati salvati in una cartella, che viene chiamata convenzionalmente process. aprendo la cartella process con l’applicativo film maker, si crea automaticamente al suo interno un geodatabase, che contiene due tipi di dati: i punti della sequenza pos e i commenti che l’operatore ha immesso durante il rilievo. b. calibrazione dei filmati: i filmati .mbd sono interrogabili in due modi: per progressiva lineare, che indica la metrica da inizio filmato (metro 0) a fine filmato; per progressiva nominale, che indica la

29


REPORTS metrica riferita ai cippi chilometrici (quindi lo zero non necessariamente coincide con lo zero della progressiva lineare). la calibrazione serve per introdurre nel filmato la progressiva nominale, che non è presente alla fine del processo di creazione del filmato .mbd. la calibrazione viene effettuata usando il roadsit player, un programma che permette di visualizzare i filmati .mbd. prima di calibrare ogni filmato è necessario controllare la calibrazione delle telecamere per avere, in fase di elaborazione delle immagini, una precisa corrispondenza fra stessi punti, ma individuati da diverse telecamere. si può fare questo controllo selezionando un punto riconoscibile nell’immagine di una telecamera e scorrendo i frame del filmato avanti e indietro per vedere se il punto si muove o se rimane fisso. una buona calibrazione della strumentazione prima del rilievo dovrebbe far mantenere fisso il punto. se il punto non corrisponde si agisce sull‟angolazione delle telecamere per portare il punto nella stessa posizione della prima telecamera e poi si ripete l‟operazione di controllo. 3) elaborazione dei dati laser: i dati provenienti dalla scansione laser (40000 punti al secondo) vengono registrati sul master in maniera continua durante tutto il rilievo. i dati grezzi sono suddivisi in pacchetti di circa 50 mb per questione di comodità nella loro gestione. i dati laser sono visualizzabili in due modi: 4 sovrapposti alle immagini utilizzando i programmi roadsit; 4 attraverso un qualsiasi altro programma che supporti le nuvole di punti.

Lo studio ha poi riguardato l’elaborazione dei dati laser scanner acquisiti con l’ausilio del software Rapidform XoR che ha consentito di condurre le operazioni di trattamento e filtraggio dei dati laser scanner (riduzione del rumore, sampling e smooth). La nuvola di punti necessita infatti, come noto, di essere opportunamente trattata allo scopo di migliorarne la qualità: il noise, ad esempio, può dipendere da diversi aspetti: il tipo di laser scanner utilizzato; la divergenza del raggio emesso, l’angolo di incidenza di quest’ ultimo ed il tipo di materiale rilevato. In generale bisogna anche operare uno sfoltimento dei dati acquisiti, per ottenere la più corretta rappresentazione delle superfici interessate, ottenendo anche il vantaggio di ridurre l’ingombro di memoria con files di dimensioni più contenute e più leggeri da gestire in fase di restituzione. La nuvola di punti, attraverso i suddetti strumenti di filtraggio, presenterà inoltre minori problematiche nelle operazioni successive di triangolazione e meshing. Si è poi proceduto analizzando sezioni trasversali di un tratto al fine di testare l’idoneità della strumentazione utilizzata e dedurne il grado di dettaglio estraibile. Dalle sezioni ottenute è stata ipotizzata per interpolazione una “sezione tipo” utile alla realizzazione di un modello 3D ideale per un confronto morfologico coi dati acquisiti e lo studio delle irregolarità del suolo. I dati sono stati gestiti inizialmente tramite il software Spatial Factory (Fig. 13), per mezzo del quale questi sono stati visualizzati e successivamente esportati in formato ASCII. Data la considerevole quantità di punti acquisiti (circa 12.000.000 di punti) il rilievo è stato suddiviso in quattro parti attraverso il software TEXT MAGICIAN per facilitarne la gestione.

Figura 13 - Il software Spatial Factory

Figura 12 - Sovrapposizione cartografica dei rilievi MMS ed NRTK

Come prima elaborazione a verifica dell'accuratezza del mezzo è stata effettuata una sovrapposizione tra i dati estratti ed un nostro precedente rilievo in modalità NRTK del parco (Fig. 12); con questa operazione è stato possibile verificare la perfetta sovrapposizione dei due attestata dal corretto adattamento della semina di punti delle pointclouds all’interno del percorso rilevato in modalità NRTK.

30

I quattro file in formato .txt sono quindi stati importati singolarmente nel software RAPIDFORM XoR che ne ha permesso la gestione e il trattamento. Le singole sezioni individuate sono state esportate in formato ASCII e successivamente importate nel modellatore NURBS Rhinoceros che ha permesso di procedere in maniera più spedita alla loro restituzione grafica. Per questo studio sono state tracciate quattordici sezioni che hanno permesso di ricostruirne il profilo longitudinale e di analizzare la sezione della “sede stradale”. La “sezione tipo” di cui sopra, tramite il modellatore di sweep è stata sviluppata lungo l’asse di percorrenza ed ha consentito di realizzare un modello 3D ideale della geometria del tratto considerato. Sono stati successivamente importati su RAPIDFORM XoR il modello 3D e la nuvola dei punti acquisita, entrambi riferiti allo stesso sistema di riferimento ed è stata il controllo delle distanze reciproche tramite lo strumento di analisi “shell deviation” (Fig.14). Si è osservato che i punti rilevati seguono un andamento “a strisce” condizionato sicuramente dal tipo di scanner equipaggiato che sfrutta una rotazione monoassiale.

GEOmedia n°3-2013


REPORTS Dal confronto morfologico-dimensionale la larghezza media della “sede stradale” è risultata correttamente nell’intorno di 2,5 metri; lo scarto maggiore è risultato in corrispondenza della sezione n. 6 con un valore pari a 0,17 metri, quello minore nella sezione n. 4 con valore di 0,033 metri.

attraverso la verifica che le sezioni tracciate coincidono sempre con scarti accettabili rispetto ad un sistema di misura più accurato come l’ NRTK. Il presente lavoro ha permesso di effettuare uno studio approfondito sui sistemi laser scanner installati su piattaforme di navigazione mobili (dotati di un sistema integrato di navigazione GNSS/INS), di effettuare un’analisi qualitativa del dato laser acquisito ed infine di effettuare la realizzazione di modelli digitali del terreno che hanno permesso di fare considerazioni utili alla valutazione di accuratezza e dettaglio estraibili dal sistema in questione. Ringraziamenti Un doveroso ringraziamento agli ingegneri Francesco Acuto, Noemi Pucci e Antonio Scozzaro, che su queste tematiche hanno discusso brillantemente le loro tesi di laurea in Ingegneria Civile.

Fig.14 Confronto con Shell Deviation su Rapidform XoR

Successivamente è stato eseguito un controllo su supporti bidimensionali confrontando le sezioni trasversali estratte con la sezione tipo (Fig.15); da questo confronto si è potuto osservare che i risultati ottenuti sono di buona qualità in quanto lo scarto maggiore riscontrato ha un valore di 0,20 metri in un caso di dissesto della pavimentazione con una media sui punti analizzati di qualche centimetro. Trattandosi di un percorso ubicato all’interno di un parco si deve tener conto dell’eventuale presenza di irregolarità del terreno ed è per questo che il modello digitale è stato confrontato modificando la risoluzione di campionamento ed i limiti di tolleranza tra i punti del rilievo e la superficie del modello 3D. Le precisioni richieste nel rilievo degli elementi stradali previsti dal Decreto Ministeriale per popolare la base dati del Catasto Strade fanno riferimento al DM 1/6/2001, Allegato A.

Parole chiave Gnss, Rtk, Nrtk, Permanent Stations, Glonass, Mms, Laser Scanner, 3dmodelling

Abstract This article summarizes the experience gained between 2012 and 2013 by the department of "Civil, Environmental, Aerospace and Materials" of the 'University of Palermo on the integrated survey of Park N. Cassara in Palermo and the subsequent testing of methods, tools and techniques based on current research regarding the acquisition and processing of GNSS data and laser-scanner. The work has been addressed in order to select the less expensive and fast techniques to be applied in the acquisition phase. After first monumenting sixteen control points distributed within the site and surveyed by GNSS, then was planned and carried out the survey in NRTK mode of the paths and of the key elements of the park. It was therefore decided to experiment with MMS acquisition of the park through which it was possible to acquire data about the morphology of the terrain, the conditions of the state of footpaths, buildings that laid ahead and distribution of street furniture.

Figura 15 - Controllo delle sezioni estratte per verifica delle irregolarità geometriche

The

point clouds obtained through this technology have been subjected to both automatic and manual procedures to verify that, finally, their actual descriptive possibilities of real forms.

La distribuzione dei punti rispetto al modello ideale è visibile dalla gradazione di colori in funzione delle loro distanze dal modello; dalla tonalità di rosso per i punti più distanti al blu. E’ stato possibile estrarre anche un diagramma correlato che evidenzia la concentrazione dei punti in funzione proprio della loro distanza dal modello ideale. Osservando il texturing a falsi colori si rende evidente l’andamento dei punti a strisce sopra accennato nelle zone di prossimità (in blu) mentre le zone in rosso sono prevalentemente quelle superfici non corrispondenti allo stato reale interpolate dall’algoritmo di triangolazione. In ultima istanza le sezioni ottenute sono state sovrapposte a quelle ottenute dal rilievo in modalità NRTK verificando, come detto in precedenza, la loro buona corrispondenza

visita il sito www.rivistageomedia.it

Autore GinoDardanelli

gino.dardanelli@unipa.it

Marco Carella info@marcocarella.eu Universita di Palermo, Dipartimento di Ingegneria Civile, Ambientale e Aerospaziale, Viale delle Scienze, 90128 Palermo, Italy

31


REPORTS

Non è rimasto nemmeno il nome Heinrich Wild, il grande topografo e costruttore di Attilio Selvini

Chi ha avuto modo di usare gli eccellenti teodoliti T2 senza dubbio ricorderà il nome della famosa fabbrica svizzera, la Wild appunto, fondata da Heinrich Wild, che conserva ancora oggi la sua sede ad Herbrugg ma con la attuale denominazione Leica Geosystem.

U

n volume scritto negli anni Settanta del Novecento, racconta le drammatiche vicende della nota azienda tedesca “Carl Zeiss” dalla fine della seconda guerra mondiale, sino alla sua rinascita in un paesino della Svevia, Oberkochen. Il titolo del libro è il seguente: Nur der Name war geblieben (8), era rimasto solo il nome. In effetti, il materiale aziendale ed il macchinario era stato trasportato dai sovietici in URSS, mentre quasi tutta la documentazione era stata mandata in USA dalle truppe americane e buona parte dei tecnici e degli operai era stata abbandonata dagli stessi vincitori occidentali nel villaggio sopra ricordato. Perché ricordo l’azienda fondata nell’Ottocento dal meccanico dell’Università di Jena Carl Zeiss e dal suo professore, Ernst Abbe? Ma perché è stato proprio in tale azienda che, all’inizio del ventesimo secolo il personaggio di cui mi occupo qui ha realizzato gli strumenti che hanno rivoluzionato per la seconda volta, dopo Ignazio Porro, la misura degli angoli e dei dislivelli. In un paesino della Svizzera interna, Mitlödi, era nato il 15 novembre del 1877 Heinrich Wild, che perse il padre solo tre anni dopo. Madre e figlio vennero accolti dalla nonna materna nel paese di Bilten. Come scolaro, il ragazzino fu precoce: alle elementari saltò addirittura due classi; a quindici anni andò come praticante presso lo studio di ingegneria Linth, a diciotto venne dichiarato in anticipo maggiorenne e si dedicò a rilievi topografici nella zona. Frequentò poi la scuola superiore per geometri di Winterthur, divenendo il primo della sua classe, e si diede per proprio conto allo studio delle matematiche superiori. Licenziato prematuramente dalla scuola, a 22 anni entrò nell’Ufficio Topografico Federale a Berna, divenendo in breve tempo ingegnere di I classe, occupandosi di livellazioni e di rilevamento in diverse zone della Confederazione. Conobbe la sua futura moglie a Goldau, durante il suo lavoro di topografo, e nel 1900 ebbero casa a Berna. La famiglia Wild crebbe nel tempo: nacquero cinque maschi e quattro femmine, e la signora Lilly non solo fu madre esemplare, ma seguì sempre il marito anche nelle campagne di rilevamento. Sia nei lavori in campagna che in quelli di ufficio, Heinrich Wild, in parallelo con il Porro settant’anni prima, ebbe subito le intuizioni necessarie per modificare, semplificare, migliorare strumenti e procedure ormai consolidati dalla tradizione. Dice il figlio Heinrich (junior) in

32

(1): “… espose riflessioni dei più diversi tipi e cercò nuove vie, per migliorare le osservazioni, per raffinare i calcoli e per semplificare i lavori … in particolare divenne noto internazionalmente il metodo degli strati per la misura degli angoli nelle stazioni di ordine superiore, dopo che (tale metodo) venne generalmente introdotto dalla “Landestopographie” svizzera”. Wild si era reso conto che la costruzione degli strumenti avveniva in piccole aziende che non avevano alcuna notizia di quanto di nuovo accadeva nel mondo, e che tali strumenti mantenevano forme vecchie e talvolta molto vecchie, per cui gli operatori dovevano arrangiarsi alla bell’e meglio. In particolare Wild si riferiva al teodolite ripetitore, raccomandando di usare invece teodoliti ad un solo asse, suggerendo anche di migliorare le graduazioni. Nel 1905 concepì una completa innovazione per gli strumenti di misura degli angoli; ancora su di ciò dice il figlio: “… lo strumento doveva essere indicato per triangolazioni del 3° e 4° ordine. Per ciò erano importanti - in particolare per il loro uso in montagna – piccolo peso e rapida capacità di misura, onde risparmiare tempo nella misura stessa. Lo strumento poi doveva mantenere a lungo la sua rettifica; solo così sarebbero stati possibili metodi di misura semplici e modesto tempo di lavoro … La realizzazione di un tale strumento urtò contro gravi difficoltà, dato che le allora più importanti aziende costruttive non mostrarono alcun interesse per le novità, chiuse nel loro comportamento conservatore...”. Come non pensare qui all’analogo comportamento dei soci della prima fabbrica ideata dal Porro a Milano, il Tecnomasio Italiano? (2). Dal 1905 al 1907 Wild fece parte di una commissione federale per l’introduzione dei telemetri nell’esercito svizzero; per tali strumenti ottenne un brevetto dalla Confederazione. Ma la svolta decisiva per la sua vita, incominciò proprio da questa partecipazione. Durante il lavoro, Wild venne in contatto con specialisti della nota azienda Carl Zeiss di Jena, ai quali ebbe modo di comunicare le sue idee in fatto di innovazione degli strumenti topografici. La Zeiss sino ad allora non si era occupata di quel settore: la cosa sembrò interessante, ed in breve venne decisa la collaborazione; Heinrich Wild divenne così direttore di una nuova divisione, la “Geo Carl Zeiss”. Lo svizzero abbandonò la sua carriera federale a Berna e si trasferì, nella primavera del 1908 a Jena con l’intera famiglia, che contava già allora cinque figli.

GEOmedia n°3-2013


REPORTS Figura 1 - Lo schema di Ignazio Porro nel teodolite olometrico, costruito per la “Ecole de Ponts et Chaussées” con cannocchiale da 100 ×, e lettura contemporanea di entrambi i cerchi ai lembi opposti.

Il primo strumento studiato e costruito fu il celebre livello Wild, che rompeva con la tradizione: cannocchiale corto, leggero e stagno con focamento interno e non a lunghezza variabile, livella osservabile attraverso prisma a coincidenza d’immagini, asse cilindrico in acciaio bonificato, nuovo treppiede leggero così come lo strumento. Per le livellazioni di precisione venne introdotto il micrometro a lastra pian parallela con stadia in nastro di invar. I livelli progettati da Wild vennero prodotti in serie di tre tipi in rapporto alla precisione, ed ebbero tutti un immediato successo. Contemporaneamente maturava in Wild l’idea di un nuovo teodolite: fondamentale il principio di rappresentare nel microscopio di lettura, i due lembi diametralmente opposti dei cerchi, così da permettere di ottenere con una sola lettura la media necessaria ad eliminare l’errore di eccentricità. Il primo teodolite di questo tipo ebbe un enorme successo commerciale, dato che ne venne alla Zeiss un importante e sostanzioso ordine dall’estero. Mi sia permesso a questo punto di rivendicare la priorità del Porro sull’idea di leggere in contemporanea i lembi opposti dei cerchi: cito a tale scopo quanto scrive Corrado Mazzon nel 1975 (3): “… realizzò per primo la lettura contemporanea (Figg. 8 ed 8a) dei due lembi opposti di entrambi i cerchi …”; a sostegno riporto qui una immagine analoga contenuta nell’articolo citato in (4); si tratta del “teodolite olometri-

co” costruito in Francia, in cui è chiaramente visibile lo schema del microscopio di lettura dei due lembi dei cerchi graduati. Che Wild fosse a conoscenza dell’idea di Ignazio Porro è però dubbio: e del resto accadde altrettanto su di un altro “trovato”, come si diceva allora, del grande uomo di Pinerolo, quello del fotogoniometro, “riscoperto” da Carl Koppe alcuni decenni dopo; il tutto più tardi venne onestamente poi chiamato in Germania “Principio di Porro – Koppe”. Comunque in figura 2 i disegni allegati al brevetto di Wild. E poi scoppia la “Grande Guerra”, che interrompe l’attività civile della ditta di Jena, dove nel frattempo si era stabilita sin dal 1913 in Sedanstraße Nr. 10, l’intera famiglia Wild, ormai completa dei nove figli. L’inventore, maggiore dell’armata federale, per alcun mesi di ogni anno dovette tornare nella fortezza del San Gottardo per il prescritto servizio militare. Solo nel 1918, in una Germania sconvolta dalla disfatta, Wild riuscì a costruire il suo nuovo teodolite, che venne finito nel 1920 ed ebbe la denominazione di Th I. Lo strumento, di cui si vede in figura 3 il disegno, ebbe anch’esso un enorme successo ed aprì la modernizzazione dei teodoliti al secondo.

Figura 3 - Il teodolite al secondo Th I (poi T2).

Figura 2 - Lo schema di Wild.

visita il sito www.rivistageomedia.it

Wild si dimise dalla dirigenza della Carl Zeiss nel 1919, rimanendovi però come collaboratore sino al 1921. In tale anno, la situazione in Germania divenne insopportabile, con la aperta guerra civile fra le sinistre ed i “Freien Korps” (5), per cui Wild decise di rimpatriare con l’intera famiglia. Nel Cantone di Sankt Gallen, in un paesino alla frontiera con l’Austria, Heerbrugg, Wild fondò, con l’aiuto finanziario di due uomini d’affari, il dottor Helbling ed il colonnello Schmidheiny, quella che sarebbe presto divenuta una delle più famose aziende ottico meccaniche del mondo: la Heinrich Wild, Werkstätten für Feinmechanik und Optik.

33


REPORTS Con il motto “ mai fare due volte la stessa cosa”, in parallelo col Porro Wild dovette costruirsi anche le attrezzature per la produzione dei nuovi strumenti che, con matita e regolo calcolatore, stava traendo dalla sua mente fertile. In fig. 4 i disegni originali della nuova ed allora modesta fabbrica.

Figura 4 - Il progetto originale della fabbrica di Heinrich Wild a Heerbrugg. In basso a destra, le firme del “Bauherr” e del “Bauleiter”, rispettivamente il committente ed il direttore dei lavori.

Qui nacquero i famosi teodoliti T2 (evoluzione del ThI) e T3, che anche chi scrive ebbe la fortuna di usare nel Politecnico di Milano nei begli anni Sessanta e Settanta del secolo ormai scomparso. Con essi vennero costruiti anche i nuovi treppiedi a gambe allungabili e soprattutto i nuovi contenitori metallici, leggeri e stagni al posto delle vecchie, tradizionali e pesanti cassette di legno. In pochi anni la modesta costruzione si ampliò notevolmente, come si vede nella fotografia di Fig. 5. Già nel 1920 ad Jena Wild aveva pensato alla misura sulle immagini, ma allora in Zeiss vi erano altri collaboratori che si erano dedicati a tale compito, fra i quali il triestino Edoardo von Orel, padre dello Stereoautografo, Figura 5 - La fabbrica di Heerbrugg fra le il primo in assoluto due guerre. restitutore analogico (6). Ciononostante in Wild era nata colà l’idea di quello che poi sarà l’Autografo A2, basato sul cosiddetto “principio di Porro - Koppe” sopra ricordato. Lo strumento ebbe un successo notevole e venne venduto in tutto il mondo della fotogrammetria; ancora negli anni Sessanta un esemplare funzionava ottimamente nella milanese “IRTA”, diretta da Ottolenghi e Zabattini (6). Wild naturalmente progettò anche gli strumenti per la presa, dai fototeodoliti alle camere per le riprese aeree, addirittura inventando nuovi metodi di calcolo per le ottiche corrispondenti. Superate molte difficoltà, fra le quali la formazione delle maestranze capaci di lavorare nell’ottica e nella meccanica fine, sempre ben sostenuto dai suoi soci, in occasione del Congresso della Società Internazionale di Fotogrammetria svoltosi a Zurigo nel 1930, Heinrich Wild si vide conferire il dottorato in ingegneria “honoris causa” dal Politecnico Federale di quella città. Intanto anche la numerosa famiglia Wild si era trasferita a Zurigo; alla fine del 1932 quasi improvvisamente il grande costruttore lasciò la sua azienda. Lasciò anche Zurigo e coi suoi andò ad abitare a Römerburg, nel Baden, ove continuò a progettare strumenti ottico - meccanici sia civili che militari, affidandone la costruzione alla

34

vecchia ditta Kern di Aarau, che era stata fondata nel lontano 1818. Ed è proprio in Kern che Heinrich Wild progetta e fa costruire un teodolite a modo suo rivoluzionario; si tratta della serie DKM, con i cosiddetti “doppi cerchi” e senza il caratteristico asse cilindrico, sostituito qui dalla base a sfere che elimina inclinazioni e traslazioni dell’asse principale (7), vedi Fig. 6, non solo: il DK2 ha un cannocchiale catadiottrico corto e stabile, con grande luminosità e privo di aberrazioni cromatiche. Wild trova anche il tempo per progettare un periscopio da trincea e un collimatore a cannocchiale per il fucile d’ordinanza svizzero Schmidt-Rubin. Circa i teodoliti costruiti da Kern, va sottolineata la funzione di prima verticalità dell’asse principale affidata al treppiede ed alla corrispondente basetta, mentre alle viti calanti, di nuova concezione e con asse orizzontale, spetta solo l’affinamento successivo. In Fig. 7 una delle prime immagini del DK2: come si vede la struttura è compatta e non assomiglia a quella dei teodoliti precedenti di Heinrich Wild. Figura 6 - La nuova base dei teodoliti Kern.

Figura 7 - Il DK2 Kern, poi DKM2.

La famiglia Wild, così ben unita, ebbe la sfortuna di perdere tre dei suoi componenti in ancor giovane età. Il grande inventore era intanto invecchiato, per il dolore e per le avversità; negli ultimi anni della sua vita, Heinrich Wild ebbe una serie di disturbi cardiaci, prontamente curati; ma la notte di Santo Stefano del 1951 il suo cuore malato cedette definitivamente.

GEOmedia n°3-2013


REPORTS

Crisi o non crisi, continuiamo a crescere. Ma non è solo questione di fortuna. La crisi colpisce tutti, per carità. Ma la vita va avanti e – soprattutto per chi fa un lavoro molto specializzato, come noi – c’è sempre mercato. A patto di lavorare bene, s’intende. E di aver fatto in passato scelte corrette, sviluppando competenze che con il tempo crescono di valore. Da molti anni, investiamo costantemente in R&D studiando soluzioni innovative per semplificare l’uso delle applicazioni geospatial, creare interfacce sempre più intuitive e integrare in maniera trasparente i dati geo-spaziali nella filiera produttiva, migliorando in modo significativo la performance dei sistemi IT. Parallelamente, abbiamo messo a punto procedure che consentono di raggiungere l’eccellenza di prodotto nel rispetto dei tempi e del budget, con un livello qualitativo sempre certificato. Inoltre, abbiamo percorso prima di altri la strada del software open source, liberando i nostri clienti da molte rigidità tecnologiche e garantendo la massima qualità a costi competitivi Grazie a tutto questo, siamo riusciti a competere con successo in Russia, Kosovo, Romania, Turchia, Siria, Cipro, i Caraibi.

E oggi affrontiamo nuove sfide in un contesto sempre più globale e allargato: attualmente, i nostri programmatori e i nostri tecnici sono attivi in quattro continenti e una parte consistente del nostro fatturato proviene da clienti esteri. Continuiamo a crescere, sia in temini economici, sia in termini dimensionali. I nostri collaboratori aumentano, abbiamo aperto nuove sedi e stiamo entrando in mercati che richiedono applicazioni geospatial sempre più evolute, come i trasporti, le telecomunicazioni, l’ambiente e i beni culturali. Insomma, crisi o non crisi, continuiamo a perseguire il nostro obiettivo di fondo: confermare il trend che negli ultimi anni ci ha permesso di diventare una tra le principali realtà italiane nel settore del GIS. Non solo grazie alla buona sorte.

GESP Srl MILANO - BOLOGNA - TORINO http://w w w.gesp.it - gespsr l@gesp.it

visita il sito www.rivistageomedia.it

35


REPORTS Ed ecco che alla fine del millennio, dopo tanta storia e tanti successi dell’Uomo di Mitlödi, la cosiddetta globalizzazione arriva anche nella tranquilla e pacifica Confederazione Elvetica. Nel 1986 si forma un grosso gruppo internazionale nel nome di un pioniere dell’ottica soprattutto fotografica, Ernst Leitz. Questo industriale tedesco aveva fondato nel 1869 lo “Optisches Institut” a Wetzlar; ne era poi nata la ditta “LEICA”, sigla come forse pochi sanno, derivata dalle tre lettere iniziali del cognome LEItz e dalle altre due del sostantivo “CAmera” (in tedesco, macchina fotografica). E’ inutile soffermarsi su questa sigla, nota in tutto il mondo proprio per la omonima macchina fotografica diffusa ovunque soprattutto fra le due guerre mondiali. Subito la Wild A.G. (Aktien Gesellschaft, Società per Azioni) di Heerbrugg viene fagocitata dal gruppo e perde così la denominazione originaria; pure la filiale italiana diventa di colpo “Leitz”, ed il complesso acquista nel 1988 anche l’altra storica azienda svizzera che vide gli ultimi lavori di Heinrich Wild, la Kern A.G. La quale perde anch’essa da noi , così come altrove, quella filiale, che tanti successi aveva avuto dagli anni Sessanta in poi, sotto la intelligente direzione del triestino Paolo Vitetta. Ma non è finita; due anni dopo si forma un nuovo gruppo nel nome di Leica, costituito dalla fusione di Leitz con Cambridge Inc.; e la filiale Leitz italiana cambia ancora nome. Finisce il Novecento, e precisamente nel 1997 Leica si ripartisce in “Leica Microsystem” e “Leica Geosystem”, presieduta da Hans Hess: questa va nella borsa svizzera esattamente nel 2000. Ed ancora: Leica Geosystem acquista nel 2001 una serie di aziende interessate alla produzione di strumenti per la misura topografica: Caser Alignement Inc, Cyra Technologies, Erdas, LH System, tutti con sede in USA. E qui finisce questa storia. Il mondo del nuovo millennio non vuole più nomi eccelsi, ma solo sigle di enormi multinazionali, soprattutto nel settore della strumentazione di misura. Ben prima della fine del ventesimo secolo erano scomparse in Italia la centenaria Salmoiraghi, così come la Galileo di Firenze e la O.M.I. di Roma legata al nome di Umberto Nistri. Nella Germania unificata scompaiono, almeno per il settore del rilevamento, le due Carl Zeiss, assorbite da Trimble e da Intergraph, colossi di origine USA. Il nome Zeiss resta comunque in scena per altri importanti settori dell’ottica strumentale. Non così quello di Heinrich Wild, destinato all’oblio come quello del suo predecessore Ignazio Porro. Due grandi uomini, due precursori, di cui il secondo assai più fortunato del primo; ma accomunatidal destino di essere dimenticati dal mondo che cambia. Mentre in qualche modo il nome di Zeiss, il meccanico di Jena, resta in vita soprattutto per la parte originaria dei suoi studi, l’ottica microscopica, quello dell’uomo di Mitlödi, quel piccolo paesino dell’Elvezia interna, legato sia alla sua terra che alla sua imponente famiglia, nessuno più lo ricorda. Una curiosità: nei paesi di lingua tedesca, si trovano talvolta sulle strade foranee dei cartelli con la scritta “Wild wechsel !” Nessun ricordo del nostro personaggio, si tratta semplicemente dell’avvertimento che qualche capriolo o daino o magari cervo può all’improvviso attraversare la strada. “Wild” infatti in tedesco significa semplicemente “selvaggina”. In figura 8 una bella immagine di Heinrich Wild in età avanzata.

36

Figura 8 - Il Dr. h.c. Heinrich Wild.

Bibliografia (1)Wild, Heinrich jr. Leben und Wirken Heinrich Wilds. Heinrich Wild, Schweizerischen Geodätischen Kommission. 1952. (2)Selvini, Attilio La carta generale di difesa di Genova. L’Universo, Firenze, n° 3 /2012. (3)Mazzon, Corrado Nel centenario della scomparsa di Ignazio Porro. Istituto Idrografico della Marina, Genova, 1975. (4) Mazzon, Corrado; Selvini, Attilio Considerazioni storiche sulla relazione di Reichenbach e sull’anallatismo del Porro. Rivista del Catasto e dei SS.TT.EE, Roma, n° 1/1981. (5) Selvini, Attilio Pistole automatiche: tecnica, storia e cronache. Ghedini ed., Milano, 1998. (6) Selvini, Attilio Appunti per una storia della topografia in Italia nel XX secolo. Maggioli ed., Rimini, 2013. (7) Selvini, Attilio La meccanica di precisione con particolare riferimento agli strumenti per la misura topografica. Seminario del Politecnico di Milano, 2012. (8) Hermann, Armin Nur der Name war geblieben. Deutsche Verlags-Anstalt,1989.

Abstract Who has had the opportunity to use the famous T2 theodolites will certainly remember the name of the famous factory in Switzerland, the Wild, that still maintains its headquarters in Herbrugg but with the current name Leica Geosystems, founded by Heinrich Wild.

Parole chiave Wild; Leica; tedolite; topografia; livello; Kern; Zeiss

Autore Attilio Selvini attilio.selvini@polimi.it Politecnico di Milano

GEOmedia n°3-2013


REPORTS

La Prima MultiStation al mondo Quando hai solo un istante per prendere la giusta decisione, prestazioni ed affidabilità sono fondamentali. La nostra MultiStation Leica Nova MS50 unisce in un modo unico e nuovo le ultime tecnologie nel campo di misure con Stazione Totale, delle immagini digitali e della scansione laser 3D per creare una soluzione completa in grado di completare l’intero flusso di lavoro, dall’acquisizione alla visualizzazione del dato, dalla fase decisionale a quella di co consegna del lavoro. www.leica-geosystems.it/nova

Leica Geosystems S.p.A. Via Codognino, 10 26854 Cornegliano Laudense (LO) surveying@leica-geosystems.it visita il sito www.rivistageomedia.it

37


REPORTS

Il vero viaggio non consiste nel cercare nuove terre, ma nell’avere nuovi occhi (Marcel Proust) di Erminio Paolo Canevese, Nicola Benedet

I beni culturali costituiscono una risorsa fondamentale per tutti i paesi, considerata la straordinaria capacità di attrazione turistica che sono in grado di esercitare. Ciò vale in particolar modo per l’Italia, paese tra i più ricchi in termini di patrimonio artistico.

S

pesso la “culla” di questo patrimonio artistico è la piazza: luogo di incontro, confronto e discussione in cui arte, storia e cultura creano un perfetto connubio che merita di essere valorizzato. Valorizzare una piazza significa agire su molteplici direzioni ciascuna delle quali rappresenta un impegno rilevante per la comunità scientifica, per i professionisti e per le istituzioni preposte alla loro tutela. Una risposta adeguata, a questa esigenza di valorizzazione, è rappresentata dall’operato delle nuove tecnologie che permettono molteplici ricadute anche a livello di fruizione dei beni culturali. In questa direzione, ormai da molti anni, Virtualgeo promuove la pratica delle nuove tecnologie collegate al mondo dei beni culturali, proprio perché ha fin da subito intuito l’importanza del loro utilizzo. Più che una sfida, quella di Virtualgeo è una rivoluzione che impiega le nuove tecnologie in modo “intelligente” proponendo la cultura come qualcosa da fruire nel quotidiano, consentendo un continuo approfondimento degli studi e della conoscenza non soltanto tra gli specialisti, ma anche per un pubblico più ampio. Questo articolo si propone di esporre e discutere l’utilità e la flessibilità di uso delle tecnologie virtuali attraverso la presentazione di una case history in cui Virtualgeo ha fornito gli strumenti che hanno permesso di sviluppare un ampio ventaglio di scopi eterogenei (quali la pianificazione urbanistica, la comunicazione culturale, la promozione, la fruizione artistica, nonché la divulgazione storica) funzionali al processo di valorizzazione.

38

Il rilievo 3d di piazza del popolo A Sacile, città veneziana per eccellenza definita “Giardino della Serenissima” grazie all’atmosfera veneziana che si respira in molti angoli della città, la piazza ben rappresenta l’unicità del carattere e del patrimonio culturale di questa città. Luogo di incontro, di confronto e discussione, nel quale si creano nuovi rapporti o si rafforzano i rapporti esistenti tra le persone e il luogo stesso, passeggiando tra le sue viuzze ci si perde tra bellissime architetture cinquecentesche e imperdibili opere monumentali che regalano emozioni insolite. Emozioni che tuttavia restano relegate a uno stretto numero di visitatori. Per ovviare a questo inconveniente la professionalità di Virtualgeo ha portato a compimento una delle più sofisticate e avveniristiche rappresentazioni digitali di piazza, coniugando la tecnica avanzata della geomatica e le più innovative tecnologie software sviluppate dal proprio settore di ricerca applicata e sviluppo (GeomaticsCUBE). Ha infatti elaborato un modello digitale 3D, geometricamente rigoroso (LIM®, Lidar Information Model) e fotografico (PDM®, Photo 3D Model, realizzato con tecniche fotogrammetriche), della piazza e dell’intera città: uno strumento importante per comprendere la complessità storica e costruttiva dell’insediamento e aprire nuove ed entusiasmanti scommesse per rendere attiva e partecipe in scala non solo locale ma globale questa realtà. Tale operazione ha richiesto la pianificazione di una complessa campagna di acquisizione (figura 2) caratterizzata

GEOmedia n°3-2013


REPORTS

Figura 2a, 2b - Momenti della campagna di acquisizione dati in Piazza del Popolo

da un elevato numero di scansioni laser e prese fotografiche necessarie a restituire un modello geometrico con accuratezza millimetrica ed elevatissima qualità fotogrammetrica. I tempi brevi e gli obbiettivi da soddisfare hanno determinato la scelta della strumentazione di rilievo: una stazione totale Leica Geosystems TCRA 1201, i laser scanner Leica Geosystems - HDS 7000 e Faro - Photon 120 (Figura 3). Per la piazza sono state eseguite 162 scansioni dettagliate con cui si sono acquisite le coordinate spaziali e cromatiche di oltre undici miliardi di punti. L’intero rilievo è stato appoggiato a poligonali topografiche plano-altimetriche collegate al sistema di riferimento locale utilizzato nel progetto di restauro. Alcune specifiche tecniche relative alla strumentazione e alla fase di rilievo sono riportate in tabella di Figura 3. GeomaticsCUBE ricerca e sviluppo Virtualgeo L’attività di documentazione del patrimonio culturale si avvale ormai di tecniche tridimensionali in grado di memorizzare morfologie complesse ed estensioni ampie sotto forma di modelli 3D dai quali è possibile ricavare rappresentazioni prospettiche e assonometriche e, soprattutto, indagare ogni dettaglio utile alla conoscenza e comprensione del rilevato. Il modello geometrico costruito da Virtualgeo, come naturale sinergia operativa fra l’elaborazione fotogrammetrica e il reverse engineering, assolve proprio a questo, configurandosi come un vero e proprio modello informativo, in cui elevata densità dei punti acquisiti e accuratezza della modellazione sono parametri strettamente correlati.

Figura 3 - Schede degli strumenti e dati di di rilievo

visita il sito www.rivistageomedia.it

Per la gestione informatica di questo genere di dati (miliardi di punti per rilievi architettonici come questo) la procedura risulta spesso molto pesante senza un software che ne semplifica trattamento e fruibilità, mantenendone inalterata la qualità. Nel caso in questione il post-processamento dei dati è stato condotto con CloudCUBE™, software proprietario Virtualgeo. Il software è la soluzione di GeomaticsCUBE, che è la divisione ricerca applicata e sviluppo di Virtualgeo, per generare modelli tridimensionali informativi e fotografici unici nel loro genere perché hanno caratteristiche determinanti per l’ottimizzazione e l’efficienza nelle attività dei progettisti. Progettato secondo una prospettiva scientifica e di ricerca rigorosa, con CloudCUBE™ si generano modelli 3D fotografici (fotogrammetria) fedeli alla realtà, leggeri e segmentati fino a 20.000 layer, che facilitano le indagini e le interrogazioni dimensionali sulle geometrie degli elementi, sugli aspetti materici e sul degrado. CloudCUBE™ rivoluziona completamente il rapporto software/utente con un approccio diverso. È infatti uno strumento di lavoro efficace ed efficiente ad ampio raggio: per la conservazione del patrimonio architettonico e culturale, l’attività di certificazione, la produzione industriale, la realizzazione di infrastrutture, la gestione del territorio etc. La combinazione di cinque elementi rende unici i modelli 3D generati con le tecnologie GeomaticsCUBE: 4 fedeltà al reale: le maglie “intelligenti” che costituiscono il modello seguono perfettamente la morfologia delle nuvole di punti e, dunque, del manufatto; 4 segmentazione degli elementi che costituiscono il modello 3D, in relazione a criteri materici, temporali, termici, di degrado (fino a 20.000 layer); 4 leggerezza dei file generati (dimensioni ridotte in KB); 4 elaborazione di fotopiani ad alta definizione, con tecniche fotogrammetriche per punti omologhi e ortofotopiani dalle nuvole di punti. 4 comunicabilità: i modelli 3d, grazie a EasyCUBE, possono essere fruiti anche da un pubblico non necessariamente del settore. Grazie a CloudCUBE e alla fruizione da parte di un pubblico generico ciò che si è applicato alla piazza di Sacile rappresenta uno dei progetti più significativi di acquisizione digitale geometrica e fotogrammetrica in alta definizione di un bene storico-artistico per finalità di tipo scientifico, didattico e divulgativo.

39


REPORTS Tale esperienza non può sostituirsi al rapporto individuale che ciascuno di noi instaura con i luoghi reali, ma permette di ricreare con essi relazioni diverse, in accordo con i nostri sensi o addirittura potenziandoli, attraverso sensazioni nuove, ma comunque coinvolgenti. Un tale approccio può offrire un elevato contributo divulgativo perché può essere arricchito da numerose informazioni, su più livelli di conoscenza, fruibili mentre camminiamo dentro la piazza ricostruita, proponendo dunque una capacità conoscitiva più intuitiva e diretta. “Il tempo e lo spazio sono solo una metafora conoscitiva con cui l’uomo interpreta le cose” a detta di Nietzsche e allora la tecnologia potrebbe offrire una nuova inferenza analogica e allo stesso tempo logica della rappresentazione della realtà e divenire “specchio” delle cose, interpretazione e significato. Interpretazione e significato sono un binomio talmente forte e radicato da entrare in un linguaggio produttivo ed economico attraverso un brand che si caratterizza ai valori di un luogo rendendolo bene sociale fruibile e di sostegno pubblico. Per questo, da anni, Virtualgeo sfrutta le opportunità offerte dalla geomatica e dalla multimedialità come nuove realtà didattiche che possano indicare un nuovo approccio e metodo potenziando sia le capacità di insegnamento quanto quelle di apprendimento grazie a percorsi aperti e articolati che permettono di avere a disposizione: 4 sistemi interattivi per la conservazione, la valorizzazione e la gestione “creativa” del patrimonio culturale al fine di attuare corretti processi di pianificazione basati su più moderne e idonee politiche per il governo sostenibile del territorio e per il miglioramento dei servizi ai cittadini; 4 strumenti di supporto ai processi decisionali per gli aspetti connessi al monitoraggio dinamico del rischio, alla valutazione della pericolosità a cui i beni culturali sono soggetti, alla gestione delle emergenze e alla conservazione programmata del patrimonio storico-architettonico; 4 strumenti della comunicazione nel settore dei beni culturali e ambientali; 4 prodotti multimediali per percorsi storico-culturali; 4 prodotti per la gestione delle informazioni geografiche in rete e per la diffusione del patrimonio culturale e delle conoscenze nel settore.

Figura 4 e 5 – Il software con il PDM®, Photo 3D Model durante l’analisi metrologica

Il modello 3D fotografico ottenuto si presta, infatti, sia a scopi scientifico-operativi (possibilità di effettuare studi specialistici a distanza, simulazione e valutazione di ipotesi di intervento di recupero etc.), sia divulgativi-didattici (accessibilità “reale” e “virtuale” per il vasto pubblico, valorizzazione e promozione del sito, percorsi di digital storytelling, etc.). La rappresentazione digitale di una piazza obbliga a dematerializzare la realtà operando in una sua traduzione “immateriale” (che si contrappone alla realtà virtuale incrementando al valore estetico anche quello geometrico di estrema importanza per la fase di analisi) che consente di vivere l’esperienza di trovarsi in un luogo pur non essendoci.

40

Piazza del Popolo per tutti in alta definizione I professionisti Virtualgeo ritengono che patrimonio culturale, patrimonio artistico e innovazione tecnologicoscientifica possano rappresentare, per il nostro paese, una straordinaria occasione per generare un nuovo volano economico. Questo dipende tuttavia dalla capacità di guardare nel presente con occhi nuovi “liberandosi dal conosciuto” (come sosteneva Jiddu Krishnamurti) come già stanno facendo altri paesi in primis l’America. “La cultura è la vita di un popolo sotto le direttive dell’arte” a detta di Nietzsche e di tutti quegli uomini saggi del nostro passato e del nostro presente, come Virtualgeo, che si adoperano in nuove strategie di valorizzazione della cultura e di investimento nell’economia della cultura. Proprio per questo il pensiero di Virtualgeo, di proporre la cultura come un bene che entri a far parte del quotidiano di ciascuno, sodale a quello di Elio Vittorini per cui «la cultura non è professione per pochi: è una condizione per tutti, che completa l’esistenza dell’uomo», opera nella direzione di individuare strategie economiche, ma anche culturali, che aprano incredibili prospettive di rilancio, sviluppo e valorizzazione.

GEOmedia n°3-2013


REPORTS

Figura 6, 7, 8 - Alcuni degli elaborati ottenibili dai professionisti

Per concretizzare questo è necessario superare l’ambito limitato dello sperimentalismo andando a configurare una vera e propria modalità operativa e comunicativa condivisa dell’attività culturale e dell’esperienza emozionale e creativa del singolo in particolare. Grazie a questo è possibile indicare nuovi orizzonti per la valorizzazione e l’estensione delle facoltà di lettura ermeneutica dei linguaggi artistici ed espressivi che solleciti la crescita di curiosità e conoscenza. Tutto questo rappresenta senza dubbio uno strumento avvincente di analisi e studio e quindi di grande valore a disposizione di tutti per conoscere, giocare e sviluppare la creatività.

Parole chiave geomatica, comunicazione, multimedia, museo, rilievo 3d, vittorio veneto, easycube, apprendimento

Abstract Cultural assets are a key resource for all countries, given the extraordinary capacity of tourist attractions that are able to exercise. This is true especially for Italy, a country among the richest in terms of artistic heritage.

Autori Erminio Paolo Canevese

erminio.canevese@virtualgeo.it

Nicola Benedet

nicola.benedet@virtualgeo.it

Virtualgeo s.r.l. Viale Trento 105/d Sacile (PN)

visita il sito www.rivistageomedia.it

41


REPORTS

Creare cartografia digitale grazie al GIS e al Remote-Sensing di Federico Foria

Un breve viaggio all’interno delle procedure e dei mezzi che la tecnologia moderna ci mette a disposizione per la produzione di cartografia digitale. Sarà poi analizzato nello specifico il caso di una cartografia che rappresenti la rete stradale e gli edifici di una città, cercando di trasmettere al lettore alcune conoscenze per potersi muovere sul sottile equilibrio tra Open Source e i prodotti commerciali.

O

rmai sono lontani i tempi in cui le tecnologie GIS, assai costose, erano finalizzate a loro stesse e lasciate nelle mani di pochi ricercatori. Al giorno d’oggi il Geographical Information System (Sistema Informativo Geografico) è uno strumento fondamentale che tocca ogni campo, dalla pianificazione urbanistica alla gestione di reti di servizi (le cosiddette networks), d’altronde non potrebbe essere altrimenti per un software che permette di generare, gestire e analizzare dati spaziali o georiferiti (ovvero con un preciso sistema di riferimento) associando loro dati alfanumerici che a loro volta possono essere modificati, richiamati, calcolati e collegati. I dati, inoltre, possono essere predisposti in singoli file o in database relazionali che permettono una perfetta organizzazione e strutturazione degli stessi. Le possibili applicazioni del GIS sono infinite ma di certo una di quelle storiche e tutt’oggi ancora più diffuse è quella della produzione di cartografia digitale. Dire però che il GIS è uno strumento per la produzione di cartografia è quanto mai riduttivo nonostante questa costituisce la base per la quasi totalità del lavori affrontabili. Infatti bisogna sempre avere (o in alternativa costruirci) una cartografia di base che possa essere in grado di rispondere alle nostre successive esigenze, ad esempio se dobbiamo produrre una carta di rischio incendi non ci servirà un meticoloso reticolato stradale o la rappresentazione dei limiti amministrativi dei comuni ma più che altro l’individuazione della vegetazione sul territorio, le reti di servizi e gli edifici a rischio (tipo vecchi cavi elettrici o fonderie) e soprattutto dei record associati al suolo con le indagini storiche sugli incendi dei terreni da noi interessati. Quella presa successivamente in esame è certamente tra le più utili, senza dubbio fondamentale in un comune ai fini della pianificazione urbanistica e della viabilità, ovvero una cartografia digitale che rappresenti la rete stradale e gli edifici della città. Dietro le quinte Per poterne realizzare una i costi variano parecchio a seconda dei tempi a nostra disposizione e della precisione richiesta per il lavoro (conseguentemente all’uso che bisogna farne) e quindi dei mezzi da acquistare per la realizzazione del progetto. Con un po’ di esperienza e co-

42

noscenza è facile poter dilazionare gran parte dei costi grazie alla “marea” Open Source che, anno dopo anno, rosicchia qualche metro al colosso ESRI ancora, però, molto lontano dal farsi affogare dalla rete libera. Di seguito analizziamo i mezzi fondamentali per la realizzazione del nostro progetto. È innanzitutto utile disporre di una base dati di partenza, infatti difficilmente troverete (anche tra le aziende leader del settore) qualcuno con i mezzi economici in termini di strumenti, operatori e tempo che inizi un lavoro del genere a partire da zero. La rete infatti offre servizi come OpenStreetMap che puntano alla creazione di una banca di dati geografici mondiale mettendo a disposizione il lavoro della comunità e degli utenti con dati a licenza gratuita (bisogna limitarsi a citare la fonte). Ovviamente non parliamo di dati dalla grande estensione geografica o dalla precisione millimetrica ma sicuramente rappresentano una base da cui poter cominciare un lavoro. Elemento imprescindibile per la produzione di qualsiasi cartografia sono i supporti per la digitalizzazione. Infatti il nostro dato di partenza (nel caso in cui ne abbiamo uno) è una base molto grezza da cui i nostri dati geografici e alfanumerici andranno affinati, integrati e completati. Per fare ciò abbiamo bisogno di un sfondo per la nostra digitalizzazione che contenga le informazioni che a noi servono, fanno al caso nostro: ■ la CTR (Carta Tecnica Regionale) e la CTC (Carta Tecnica Comunale), usate per la pianificazione e la gestione del territorio regionale/comunale, sono carte a media-grande scala (1:10.000-1:5.000) che forniscono informazioni sia sui particolari naturali e antropici sia informazioni di tipo metrico (distanze e quote). Sono spesso reperibili presso i geoportali della regione e delle provincie, in alternativa possono essere richiesti compilando un apposito form o mettendosi in contatto con il Responsabile dell’Ufficio Tecnico del Comune/Provincia; ■ le Ortofoto, sono foto aeree o satellitari ortorettificate (sottoposte a processo di correzione geometrica tridimensionale) che possono essere usate al pari di una qualsiasi mappa. Le ortofoto sono quasi sempre da comprare attraverso uno dei numerosi cataloghi sa-

GEOmedia n°3-2013


REPORTS tellitari (es. Eros-B) o per scopo puramente consultativo è possibile collegarsi al PCN (Portale Cartografico Nazionale). E’ difficile ma non impossibile che il sito della regione metta qualche pacchetto di ortofoto a disposizione degli utenti; ■ i Fogli IGM o un’altra qualsiasi carta di base, vanno usate per individuare i principali tipi di informazioni territoriali come le città, le strade, i corsi d’acqua e soprattutto i limiti amministrativi per i quali si consiglia di usare uno specifico livello vettoriale, facilmente personalizzabile e di poco impiccio durante il lavoro rispetto ad un invadente file raster. Il caso in esame riguardante la digitalizzazione di una rete stradale e degli edifici non è l’unico in cui si usano ortofoto, aerofotogrammetrie, CTR, etc. anzi è solo uno dei tanti, quindi è bene memorizzare questi elementi (riassunti in figura 1).

Figura 2 – In senso orario dall’immagine in alto a sinistra come si presentano ArcGIS, GRASS, gvSIG e QGIS.

(Keyhole Markup Language) che è quello usato da Google per la gestione di dati georiferiti. Infatti i dati vettoriali usati o creati in un software GIS possono essere esportati in formato kml e visualizzati su Google Earth (vedi figura 3) mentre i poligoni, le polilinee e i segnaposto creati nel medesimo programma possono essere esportati in uno Shape File, direttamente, grazie ad un software GIS o usando uno dei tanti tool di conversione che si trovano online. Questo sistema può essere utile per verificare dati da noi digitalizzati o per aggiungere informazioni (spaziali e alfanumeriche) al nostro lavoro.

Figura 1 – In senso orario dall’immagine in alto a sinistra un esempio di: OpenStreetMap, Ortofoto, CTR e IGM 1:25.000

Tutto quello che abbiamo finora introdotto va inserito in un software che ci permetta di visualizzare, interagire e modificare i dati a nostra disposizione. I software GIS (vedi figura 2) che possono adempiere a questo compito sono tanti ma non tutti consigliabili. Il pacchetto ESRI (ArcView o ArcInfo) e le sue estensioni ci offrono sicuramente un’infrastruttura completa con possibilità infinite ma anche costi fin troppo alti per tanti. La sola licenza del programma si aggira intorno alle poche migliaia di euro, prezzo da moltiplicare a seconda delle estensioni che ci servono per effettuare il lavoro. Le alternative open source ci sono, basta guardare Quantum GIS, gvSIG e GRASS GIS, alcuni di questi progetti sono portati avanti da semplici comunità di utenti, altri, come gvSIG, hanno ricevuto finanziamenti anche dall’Unione Europea. Per un lavoro di digitalizzazione così completo come quello di una rete stradale si può scendere a compromesso sugli strumenti di editor e editor topologico ma è difficile rinunciare ad una gestione delle tabelle come quella di ESRI. Più avanti, a scopo dimostrativo, useremo QGIS 1.5.0 che rappresenta una giusta via di mezzo tra le potenzialità dell’open source e una grafica intuitiva che ricorda a tratti quella del colosso del Redlands. Il lavoro può essere ulteriormente affinato grazie a strumenti di “contorno” o per meglio dire di supporto al software GIS. Negli ultimi anni, ad esempio, ha preso piede un’ottima interscambiabilità di dati tra Google Earth e i software GIS grazie al largo supporto dato al formato KML

visita il sito www.rivistageomedia.it

Figura 3 – Un esempio di un shape convertito in un kml e caricato su Google Earth (in viola)

La fase operativa Se fino ad adesso ci si è limitati ad analizzare la base concettuale del nostro progetto, deve essere ora cura dell’operatore GIS trasformare tutto ciò, prima in un modello logico al fine di combinare i mezzi, le conoscenze e un modus operandi a misura di progetto in un vero e proprio modello fisico dove il nostro lavoro prenda forma. Gli strumenti usati per questo tipo di operazione sono sostanzialmente quasi sempre quelli descritti precedentemente. Il risultato della nostra equazione cambia in base a due variabili: il software e l’operatore. Alcuni programmi agevolano determinati tipi di lavoro o sicuramente hanno una maggiore affidabilità di altri; per esempio nel caso in esame si consiglierebbe sicuramente ArcGIS o sulla sponda open source GRASS (accoppiato con la suite di analisi SEXTANTE) e gvSIG, insomma qualsiasi software che sia dotato anche di un editing topologico che ci permetta di verificare ed eventualmente correggere le relazioni topologiche tra gli elementi.

43


REPORTS Nel caso delle strade ci dobbiamo assicurare che siano tutte realmente connesse tra loro (digitalizzate con lo snap), che ad ogni incrocio corrisponda un vertice della nostra polilinea e che quest’ultima sia correttamente divisa (splittata) in corrispondenza dello stesso. Ovviamente anche l’operatore e soprattutto le sue conoscenze tecniche fanno la differenza, è importante conoscere la procedura e i mezzi standard da usare in questo tipo di lavoro per non incappare in un eccesso di costi, tempi e risorse. A prescindere dalle variabili la nostra equazione ha anche delle costanti, oltre a quelle già citate per quanto riguarda gli strumenti e i mezzi consigliati; c’è anche una certa similarità nella procedura operativa che può essere semplificata in due blocchi: la digitalizzazione (vedi figura 4) del dato geografico e l’aggiornamento del dato alfanumerico (vedi figura 5) associato a quest’ultimo (andando quindi a lavorare sui database associati ai file vettoriali).

Figura 4 - Esempio di digitalizzazione con supporto di ortofoto

di ESRI) che semplificano le nostre operazioni andando ad agire in modo efficace su un numero di celle illimitato. Un esempio può essere l’assegnazione della toponomastica delle strade da noi digitalizzate: una volta creato il nuovo campo di tipo stringa nella tabella degli attributi ci basta selezionare tutte le strade individuate con un determinato nome ed effettuare una operazione di calcolo su quel record (es. nome_strada = “Via Roma”). Questo caso è uno di quelli in cui può venire molto utile il supporto con Google Earth grazie al quale possiamo importare i dati da noi digitalizzati, visualizzarli e, infine, prendere le informazioni (tipo il nome di una strada) da inserire poi successivamente nella tabella. Conclusioni Un lavoro di questo genere richiede tempo, risorse e di certo non poca fatica ma la motivazione che spinge sempre più enti e amministrazioni ad adottare tecnologie GIS e cartografie digitali è l’incredibile quantità di analisi effettuabili. Ad esempio un lungo procedimento per stabilire il sito per la costruzione di una discarica si riduce ad una combinazione di analisi spaziali (essenzialmente query, intersect e buffer); la gestione di una rete di servizi (nel nostro caso la rete stradale) si limita alla consultazione della network digitalizzata sul GIS che ci permetterà sempre un intervento mirato e esaustivo per ogni tipo di inconveniente, per non parlare dell’incredibile mano che viene data nei vari Piani Regolatori, Piano Particolareggiati Esecutivi e un qualsiasi tipo di piani urbanistico. Inoltre possiamo sovrapporre e interfacciare più livelli (che possono corrispondere a più cartografie) e, grazie ai tematismi dei software GIS, avere sempre una visione totale del problema che stiamo affrontando (es. un conto è scegliere il sito per la costruzione di un nuovo fabbricato basandosi solo su una CTR e un’altra cosa basandosi su una sovrapposizione di una CTR con una carta geologica e il supporto di un Digital Elevation Model). Il GIS è un sistema innovativo limitato solo dalla nostra fantasia.

Parole chiave Figura 5 –Aggiornamento del database associato al file vettoriale tramite Quantum GIS 1.5.0

Nel dettaglio, la prima parte consiste in un lavoro di pazienza e precisione in cui si carica il dato di base e si usano i supporti per la digitalizzazione elencati precedentemente per ampliarlo. La digitalizzazione avviene grazie alle funzioni di editing del software GIS sul nostro file vettoriale (polilinea nel caso di una rete stradale e poligono nel caso degli edifici), che possa essere tramite la barra di editor di ArcGIS o con la funzione Avvia modifica di QGIS, non fa molta differenza. Il passo successivo per concludere la prima fase è il controllo topologico dei dati da noi creati che avviene stabilendo delle regole ben precise (es. non ci devono essere sovrapposizioni) in un file di topologia da usare successivamente con un apposito tool nel software. La seconda parte è un lavoro sulla tabella degli attributi del nostro shape, in pratica tramite il software GIS andiamo ad agire sul file dbf (database) associato al vettoriale. Questa operazione viene fatta direttamente attraverso il software GIS che ci mette a disposizione un’insieme di strumenti di gestione e modifica tabellare molto utili (basti pensare ad esempio al Field Calculator

44

gis; telerilevamento; cartografia; arcgis; qgis

Abstract Create

Remote Sensing: a This article will analyze the example of a cartography for the representation of the streets and the buildings of a city. It’ll show clearly digital cartography through

GIS

and

short trip in the procedures and the technological means.

the principal support for the production of a cartography and the different between the software and the services open source and the commercial one. It also contains suggests for all GIS operator that are approaching to this kind of work.

Autori Federico Foria

foria.federico@gmail.com

Dottore in Ingegneria per l’Ambiente e il Territorio

GEOmedia n°3-2013


REPORTS

visita il sito www.rivistageomedia.it

45


REPORTS

Nuove Tecnologie per la divulgazione geologica e geo-turistica di Niccolò Iandelli

L'Information Communication Tecnology (di seguito ICT) è ormai da anni in costante e forte sviluppo e sta contaminando diversi settori scientifico/disciplinari. Recentemente sta prendendo campo anche nel settore della divulgazione della cultura geologica o per applicazioni legate al geo-turismo. Le componenti ICT che hanno maggior impatto su tale tema sono legate a concetti come la “nuova geografia”, la “geo-localizzazione mobile” e “la realtà aumentata”.

Q

uesti nuovi strumenti, caratterizzati dal facile impiego, offrono opportunità di divulgazione legate alla possibilità di ottimizzare processi di apprendimento di contenuti non sempre di facile comprensione. Dopo la nascita, lo sviluppo e la diffusione di “mappe” e globi virtuali, Google Earth in primiis, una delle tendenze più innovative è quella relativa alla creazione e condivisione di contenuti geo-localizzati su dispositivi mobili. Di seguito verranno introdotte e descritte due delle attività che “Il Reggipoggio”, associazione scientifico culturale senza scopo di lucro fondata con lo scopo di divulgare la cultura della geologia, sta realizzando: l’”Occhio di Sputnik” e i “Geositi RdV AR”. I Globi Virtuali Il punto di vista dall’alto rappresenta un “luogo” privilegiato per osservare il nostro pianeta, questa pratica nasce negli anni settanta con il lancio dei primi satelliti per l’osservazione del pianeta, dotati di sensori ottici e non per realizzare delle “fotografie” del globo terrestre. Questa scienza prende il nome di “Telerilevamento” ed è stata (e in alcune parti lo è ancora) prerogativa di Enti di Ricerca e Università. I recenti sviluppi del mondo web hanno di fatto permesso la diffusione di tali tecnologie. Con la nascita dei “globi virtuali” (tra i più noti Google Earth di Google inc., Bing maps di Microsoft, Pagine gialle visual etc...) si hanno rappresentazioni interattive, nelle tre dimensioni, del globo su cui sono riprodotte le immagini satellitari e,

Figura 1 - Google Earth il globo virtuale più diffuso realizzato da Google.

46

in alcuni casi, foto aeree. I globi virtuali offrono quindi la possibilità di “navigare” sul pianeta terra in modo interattivo e multilivello, rendendo disponibile, ad una moltitudine di utenti, il punto di vista privilegiato della visuale dall’alto. Con la nascita e la diffusione gratuita di strumenti software come Google Earth, ogni utente ha la possibilità, aiutato da interfacce semplici e intuitive, di navigare sopra il globo terrestre, cercare e visualizzare luoghi noti o sconosciuti, tutte quello forme, naturali e non, che il nostro pianeta assume o ha “disegnate” sulla sua superficie. Si posso accendere e spegnere livelli con contenuti dedicati e approfondimenti, creare proprio contenuti geografici e condividerli stimolando, in ogni utente, la curiosità dell’esplorazione. Smartphone e Realta’ Aumentata il recente aumento di utenti di informazione geo-localizzata è dovuto alla semplificazione della tecnologia e alla sua integrazione in strumenti di utilizzo comune come l’integrazione di ricevitori GPS all’interno di cellulari o la massiccia diffusione di navigatori portatili per auto. Tutti questi oggetti sono dotati di sensori in grado di fornire informazione legata alla posizione basandosi su tecnologia satellitare (GPS GNSS) e su sistemi di posizionamento basati sulla triangolazione di celle telefoniche posizionamento attraverso IP (Faa- Jeng Lin, 1997), sensori RFID (Philipose et al., 2003). I grandi passi fatti dalla tecnologia in termini di precisione e affidabilità nella misura di posizionamento e di semplificazione nell’impiego di questi dispositivi aprono nuovi scenari legati alla possibilità che un territorio e un ambiente forniscano informazioni e dati, anche in tempo reale, in base alla presenza o meno dell’utente, dotato di smartphone o tablet, in un determinato luogo. Un ulteriore impulso è legato alla diffusione della cosiddetta “Realtà Aumentata”. La realtà aumentata (Augmented Reality, di seguito AR) è la possibilità di sovrapposizione di livelli informativi alla realtà percepita. I contenuti offerti da questa tecnologia possono essere i più vari: dalle informazioni sul territorio (turistiche, geologiche, geomorfologiche) ad applicazioni e informazioni di social network, o ancora giochi che sfruttano gli ambienti reali. Per accedere a questi contenuti è sufficiente utilizzare uno smartphone o un personal computer dotato di webcam,

GEOmedia n°3-2013


REPORTS in casi particolari è possibile utilizzare appositi occhiali e/o guanti per la manipolazione degli oggetti multimediali. Sovrapponendo elementi virtuali e reali si crea una realtà definita “mixed reality” [9 FESTINO]. Gli smartphone di ultima generazione permettono di sfruttare a pieno le funzionalità della realtà aumentata. Il corretto funzionamento è legato a: collegamento web per ricevere e trasmettere dati online, ricevitore GPS o equivalente, bussola e della possibilità di visualizzare un flusso video in tempo reale (fotocamera). Tramite la camera dello smartphone si inquadra la realtà e, per mezzo di un software apposito, trasmettere al server le coordinate della posizione in cui si trova. Una volta ricevuti i dati di localizzazione, il server esegue una ricerca sui punti di interesse presenti nelle vicinanze e restituisce al terminale dei contenuti. Lo smartphone, utilizzando la bussola interna, calcolerà il corretto posizionamento rispetto al punto di vista dell’utente e visualizzerà i contenuti sovrapponendoli all’immagine della realtà inquadrata. In questo modo la realtà viene “aumentata” con nuove informazioni.

l’altro , con un taglio più didattico/scientifico, spiega gli schemi e le “motivazioni” del “perchè” quelle forme si possano realizzare. Si sviluppa così una sorta di dialogo tra l’occhio e la mente: l’uno che si limita a descrivere la forma e l’altro che ne trova le motivazioni, la storia e l’evoluzione. La durata complessiva è di circa due ore e il file contenente tutti i luoghi presentati e commentati durante la serata è reso disponibile sul sito dell’associazione così che il pubblico interessato possa, anche a casa, ripercorrere interamente i luoghi visti e magari andare a vederli e capirne la storia geologica. Geositi AR Con il termine geositi si indicano i beni geologici-geomorfologici, non rinnovabili, di un territorio intesi quali elementi di pregio scientifico e ambientale del patrimonio paesaggistico. Dopo la classificazione e la realizzazione di un catalogo web dei geositi della Regione del Veneto, l’associazione sta realizzando un livello di realtà aumentata con schede e approfondimento per ogni geosito. L’utente dotato di smartphone, che si trova in corrispondenza di un geosito, può visualizzare contenuti estesi testuali e video e modelli 3D. La peculiarità di un geosito richiede spesso la conoscenza approfondita delle caratteristiche uniche del luogo che si sta osservando, conoscenza può derivare anche da concetti molto complessi. La possibilità di avere sul proprio smartphone, in modalità “mobile” informazioni, schemi e dettagli che ricostruiscono la storia geologica o descrivono le particolarità geomorfologiche del sito che si sta visitando permette di migliorare l’esperienza.

Figura 2 – “L’Occhio di Sputnik”, serata geo-culturale presso l’Ecomuseo di Mira, Venezia.

“L’occhio di Sputnik” Utilizzando il più diffuso dei globi virtuali, Google Earth di Google, l’associazione il “Reggipoggio” realizza serate a carattere divulgativo a tema geologico/geomorfologico dedicate all’interpretazione delle forme del terreno visibili dal satellite. Le serate proposte sono strutturate in modo tale da accompagnare il pubblico in un percorso guidato che permette di analizzare l’origine e le cause di alcune forme presenti sul territorio evidenziando i motivi che hanno portato alla formazione delle forme stesse. Durante la serata vengono forniti semplici concetti di geomorfologia e geografia fisica, spiegando all’ascoltatore le dinamiche e i processi che hanno portato alla odierna forma della terra e del territorio a lui noto. Dopo una iniziale introduzione, con piccoli cenni sulla storia del telerilevamento e i principi tecnico/scientifici che permettono di ottenere le immagini dai satelliti, oltre a una piccola introduzione sui software che vengono impiegati, si inizia un percorso attraversando un compendio “naturale” di geomorfolgia: dalle Dolomiti alla Laguna di Venezia, dall’ambiente glaciale, all’ambiente lagunare, dai depositi morenici ai fiumi meandriformi. Descrivendo anche forme tipiche delle vicinanze del territorio del comune che ospita la serata. La serata si svolge con due relatori che hanno due ruoli specifici: uno “legge” il territorio attravesro le immagini da satellite, con un taglio non scientifico simulando l’occhio non esperto chiedendo l’interazione del pubblico;

visita il sito www.rivistageomedia.it

Figura 3 – Esempio di visualizzazione in realtà aumentata di un geosito.

Sono molti ormai i software che offrono questa possibilità (Wikitude, layar, Peak AR etc...), attualmente il livello GEOSITI RdV è in fase di allestimento con l’obiettivo di rilasciarlo prima dell’estate. Conclusioni Le opportunità offerte dalle nuove tecnologie permettono di realizzare dei percorsi divulgativo/conoscitivi nuovi, con una forte componente interattiva volta a coinvolgere maggiormente l’interlocutore e sviluppare processi di apprendimento. In particolare gli incontri realizzati impiegando Google Earth con la presenza di due relatori, uno che svolge il ruolo dell’esperto e l’altro del “curioso” permettono di superare, nell’approccio divulgativo alla materia, scogli linguistici e terminologici. La “forma” che si vede con la foto aerea assume solo successivamente il significato geologico/geomorfologico con la terminologia corretta. Il processo infatti prevede prima di far vedere l’immagine satellitare, ruotare intorno al soggetto inquadrato (ad esempio un ghiacciaio) ed evidenziare certe particolarità definendole con linguaggio

47


REPORTS d’uso comune e solo successivamente si da il nome tecnico a quelle particolarità evidenziate. L’esperienza visiva dell’ascoltatore cerca nella propria esperienza l’elemento individuato e solo successivamente, con degli schemi, disegni si “giustifica” la forma vista con il significato geologico/geomorfologico. Rendendo disponibile poi il file si incentiva la curiosità di andare a ripercorrere quanto visto e magari “esplorare” i territori conosciuti provando da riconoscere forme simili La seconda esperienza, progetto in fase di realizzazione, vuole invece essere di supporto al processo di astrazione, talvolta necessario, che si deve fare in campagna, di fronte ad un affioramento. Questo processo non è semplice e l’idea di porre davanti agli occhi dell’osservatore un filtro tecnologico che fornisce informazioni estese permette di ottenere una quadro più ampio della situazione in situ. La sovrapposizione alla realtà permette di sintetizzare concetti che permettono di comprendere la peculiarità del geosito.

Parole chiave ICT; Google Earth; Realtà aumentata; nuove tecnologie.

Bibliografia • Philipose M., Fishki K et al. (2003) Mapping and Localization with RFID Technology. Intel Research Seattle, 6pp.. Disponibile su: http:// edge.rit.edu • Balakrishnan M., Mohomed I. e Ramasubramanian V. (2009) Where’s that Phone?: Geolocating • IP Addresses on 3G Networks. IMC’09, November 4–6, 2009, Chicago, Illinois, USA • Avery, B., Thomas, B., and Piekarski, W. User (2008) Evaluation of See-Through Vision for Mobile Outdoor Augmented Reality. In 7th Int'l Symposium on Mixed and Augmented Reality. pp 69-72. Cambridge, UK. Sep 2008. • Risorse web • Google Earth: http://earth.google.it • Wikitude: http://www.wikitude.com • Peak AR: http://peakar.salzburgresearch.at • Layar: http://www.layar.com

Abstract The Information Communication Technology (ICT) has been for years in constant strong development and is contaminating various scientific sectors and disciplines. Recently it is also taking the field of the dissemination of culture for applications related to geological or geo-tourism. ICT components that have the greatest impact on this issue are related to concepts such as the "new geography", the "geo-location mobile" and "augmented reality."

Autori Niccolò Iandelli niccogeo@gmail.com Geologo, dottorando in NT&ITA dell’ Università IUAV di Venezia – Santa Croce 191 Tolentini, Venezia. Socio fondatore Ass. Scientifico Culturale Reggipoggio. http://reggipoggio.blogspot.it

Datum

11.34212343 44.34234593

Gauss-Boaga

WGS84 Effemeridi

ED50-UTM32

Cassini-Soldner

ETRS89

Latitudine

Longitudine

UTM50-32N

ELISSOIDE

6378137 635752.314

GEOIDE

GPS GNSS RTK APS-3 Facile,Completo,Preciso Surveysoft - Distributore per l’Italia dei Prodotti Altus-GPS , Microsurvey Software , RUIDE Stazioni Totali 48

www.surveysoft.it GEOmedia n°3-2013


REPORTS

visita il sito www.rivistageomedia.it

49


Smart for City – www.smartforcity.it Information and Communication Technologies for Smart City Il Progetto Smart for City nasce dall'esigenza di creare un sistema di diffusione, condivisione ed approfondimento esauriente delle tante informazioni riguardanti il tema della "città intelligente", la smart city appunto. Questa espressione, recentemente molto utilizzata ma anche troppo spesso abusata, si riferisce a tutto quel complesso di soluzioni - servizi ed infrastrutture - che consentono di creare un ambiente urbano capace di migliorare la qualità della vita dei cittadini. La "città intelligente", dunque, si realizza quando riesce a soddisfare le esigenze dei cittadini, delle imprese e delle istituzioni, grazie soprattutto all'uso diffuso ed innovativo delle tecnologie di comunicazione e informazione (ICT – Information Communication Technologies) applicate alla mobilità, all'ambiente, all'energia, al lavoro, allo svago. Possiamo dire che la città acquisisce intelligenza quando dall'integrazione ed interazione delle tecnologie nasce un unico sistema informativo virtuale che prende il ruolo di cervello del sistema urbano. Per generare un vero sistema informativo intelligente a servizio della città, sono molte le tecnologie che devono essere sviluppate ed integrate. Al primo posto abbiamo le tecnologie per le comunicazioni, che costituiscono il sistema nervoso della città. Ormai siamo tutti dotati di terminali portatili (smartphone, tablet, PC, ecc.) che consentono di comunicare o di interloquire con sistemi informatici. Purtroppo mancano infrastrutture adeguate che consentano di trasmettere e ricevere i dati e le informazioni, cioè reti in fibra ottica o reti wifi potenti, diffuse e disponibili a tutti. Il secondo tipo di tecnologia necessaria è costituita da sensori in grado di acquisire informazioni dall'ambiente urbano. La gamma di sensori esistenti è molto vasta, con molteplici campi applicativi. Abbiamo sensori di luce, suono, temperatura, pressione, posizione, movimento, prossimità, ecc. Gli stessi telefonini sono dei sensori che forniscono la posizione di chi li sta usando. Possono essere considerati sensori anche le telecamere che per motivi di sicurezza o di controllo dei trasporti, popolano le nostre città. Al terzo posto, ma con il massimo grado di importanza, ci sono le tecnologie informatiche utilizzate per gestire e fornire informazioni, dare supporto ai decisori, attivare processi e strumenti, ecc. Il software è la componente tecnologica in grado di rendere intelligente un sistema informatico, perché permette di gestire in modo integrato tutte le informazioni ricevute e consente di metterle in relazione fra di loro. Quando parliamo di software, parliamo anche di applicazioni dedicate ai diversi attori che animano la città: gli abitanti, i turisti, gli operatori, i decisori, ecc. Non è difficile immaginare che sono moltissime le possibili soluzioni per rendere intelligente la città: sistemi di comunicazione (APP, WEB, pannelli, totem, SMS, e-mail, ecc.) che informano sui servizi urbani (trasporti, uffici, emergenze, parcheggi, ecc.) o che sono orientali a supportare la vita sociale dei cittadini (punti di incontro, attività sportive e ricreative, ecc.); sistemi che consentono di studiare e migliorare l'urbanistica e l'edilizia di una città; sistemi che consentono di ottimizzare le risorse energetiche della città controllando, attraverso sensori, i pannelli fotovoltaici, le reti di illuminazione pubblica, i consumi degli uffici e dei cittadini; sistemi di gestione della raccolta differenziata dei rifiuti finalizzati al riciclo ed alla produzione di energia; sistemi che consentono la partecipazione attiva dei cittadini alla gestione della città. Questo mondo di terminali, sensori, dati, sistemi ed applicazioni - governato dall'uomo - ha l'obiettivo di migliorare la qualità della vita della persona offrendo una città interconnessa, pulita, attrattiva, rassicurante, efficiente, aperta, collaborativa, creativa, digitale e green. Per soddisfare le esigenze di conoscenza e informazione su queste complesse tematiche legate alla città intelligente e alle tecnologie di informazione e comunicazione, MediaGEO ha progettato e realizzato il sito SmartforCity.it che rappresenta già un punto di convergenza e confronto tra idee, progetti e realizzazioni della città intelligente.


ASSOCIAZIONI ASITA Sessione speciale IL TRENTINO CHE SI RINNOVA (dall’Atlas Tyrolensis all’Open Data) della Conferenza ASITA. Mercoledì 6 novembre, Sala 300 Nella sessione speciale, a cura della Provincia Autonoma di Trento, saranno presentate le scelte ed evoluzioni tecniche adottate per l’aggiornamento e la diffusione dei dati per il governo del territorio in un ottica di integrazione e condivisione. Programma Intervento di saluto delle istituzioni Introduce e modera: R. Revolti, Dirigente del Servizio Catasto della Provincia Autonoma di Trento Interventi: • Il database Geo-topografico della Provincia Autonoma di Trento D. Ferrari, G. Ucelli, J. Marca – Provincia Autonoma di Trento, Informatica Trentina, Politecnico di Milano • Open Data in Trentino L. Vaccari - Provincia Autonoma di Trento • La gestione integrata dei Piani Urbanistici M. Zambotto C. Furgeri, - Provincia Autonoma di Trento, Informatica Trentina • Il nuovo Piano Straordinario di Telerilevamento Ambientale: esempio di sinergia tra amministrazione centrale e amministrazione locale S. Costabile ( Min. Ambiente e della tutela del territorio e del mare), S. Cocco (Servizio Geologico della Provincia Autonoma di Trento) • Cartografia Catastale: aggiornamento e innovazione D. Buffoni, A. Maglione, R. Revolti - Provincia Autonoma di Trento

AM/FM ISPRS Iniziativa Scientifica E' aperto il bando di partecipazione all'iniziativa scientifica ISPRS con scadenza 25 ottobre 2013. Tutti i membri dei WG ISPRS sono invitati a presentare proposte per un max. di CHF 10.000, - per anno e una durata massima di 24 mesi, per il 2014 e il 2015. Si prega di fare riferimento ai documenti all'Orange Book, disponibile in download alla pagina web: http://www.isprs.org

GFOSS Conferenza GFOSS DAY 2013 a Bologna 10-11 Ottobre 2013 Dal 10 al 11 Ottobre 2013 si terrà a Bologna presso i laboratori della Scuola di Ingegneria e Architettura (V.le del Risorgimento, 2), e le sale conferenze della Regione Emilia-Romagna (V.le della Fiera, 8), la sesta conferenza italiana sul software geografico e sui dati geografici liberi (GFOSS DAY 2013). Lo scopo principale della conferenza è quello di coinvolgere imprese, enti pubblici, scuole, università, centri di ricerca, sviluppatori, cittadini, operatori del settore ed appassionati dei temi del software libero geografico e degli open data. Sarà inoltre possibile seguire in diretta streaming il convegno. La partecipazione alla conferenza è libera e gratuita ma è richiesta una registrazione (meglio anticipata) per consentire una migliore organizzazione dell'evento e garantire la stampa di badge e attestati. L’accesso ai workshop è garantito fino al raggiungimento numero massimo di partecipanti. Per registrarsi ed altre informazioni: http://www.gfoss.it/drupal/gfossday2013 Hashtag: #gfossday13

GFOSS DatiOpen.it compie un anno e festeggia rendendo tutti i suoi dati dei “linked open data”! Un anno fa, a settembre 2012, esordiva DatiOpen.it, il portale italiano che ha due missioni: quella di rendere fruibili gli open data al grande pubblico e quella di fornire uno strumento gratuito agli enti che vogliono pubblicare i loro primi dati aperti. In un anno, la redazione di DatiOpen.it e gli enti che hanno aderito al progetto hanno raccolto e documentato più di 1.300 open data, e grazie a questo lavoro i dati aperti degli enti italiani sono sono stati visualizzati 400.000 volte. Con DatiOpen.it è cresciuta anche la piattaforma open source tutta italiana con la quale il portale è realizzato, ovvero StatPortal Open Data. In particolare, grazie ad i primi risultati del progetto di ricerca ODINet sul web semantico, sono state sviluppate procedure che consentono di analizzare i dati immessi nel sistema alla ricerca di potenziali collegamenti con altri dati e/o ontologie e renderli automaticamente dei linked data. E’ grazie a queste evoluzioni che tutti i dati presenti in DatiOpen.it sono diventati dei Linked Open Data: conformemente alle Linee Guida nazionali per la valorizzazione del patrimonio informativo pubblico, i dati sono esportabili in formato RDF, attestati a livello 5 secondo il modello di rating W3C.


Conoscere prima di visitare. Grazie a Trimble Indoor Mobile Mapping Solution, rilevare ambienti interni è più veloce e più facile che mai. • Rispondere alle minacce terroristiche • Prevenire le calamità naturali • Creare piani di evacuazione dei sistemi di trasporto • Creare piani di gestione delle emergenze

Informazioni precise sul layout delle strutture interne degli edifici e sulle zone circostanti permettono ai servizi di pronto intervento di agire in modo rapido, preciso ed efficace in caso di emergenza. Con Trimble Indoor Mobile Mapping Solution, una semplice passeggiata negli spazi interni è tutto ciò che serve per acquisire i dati spaziali. Mappe e modelli di migliaia di metri quadrati di spazi interni possono essere rilevati in minuti, interi edifici in un solo giorno

Visitate il nostro sito trimble.com/timms Scriveteci a land@applanix.com


AGENDA

2013 1-3 Ottobre 2013 6-th International Conference “Earth from Space - the Most Effective Solutions”
Moscow, Russia http://www.conference. scanex. ru/index.php/en/

15-17 ottobre 2013 9th International Workshop of the EARSeL Special Interest Group (SIG) on Forest Fires Coombe Abbey, Warwickshire, UK. EMAIL: kjt7@le.ac.uk

8-10 ottobre 2013 Intergeo 2013
Conference and Trade Fair for Geodesy, Geoinformation and Land Management
Essen, Germany http://www.intergeo.de

16-18 ottobre 2013 Smart City Exibition
Bologna, Italia http://www. smartcityexhibition.it/

15-16 ottobre 2013 AUVSI’s Unmanned Systems Europe,
 Köln, Germany http:// www.auvsi.org

17-19 ottobre 2013 1st FIG Young Surveyors European Meeting, Lisbon, Portugal. Email: mjoaoh@ gmail.com

17-19 ottobre 2013 ESRI EMEA User Conference 2013. Munich, Germany. http:// emeauc.esri.com/ 5-7 novembre 2013 XVII Conferenza Nazionale ASITA 2013
Riva del Garda, Italy http://www.asita.it/it/ 11-13 novembre 2013 SPAR2013 & ELMF
Passenger Terminal di Amsterdam (Olanda) http://www. sparpointgroup.com/ Europe/

11-17 novembre 2013 ISPRS Workshop Laser Scanning 2013, Antalya, Turkey. Email: francesco.pirotti@unipd.it 20 novembre 2013 GISDAY http://www.gisday. com/


SOLUZIONI INTEGRATE GIS - TELERILEVAMENTO - FOTOGRAMMETRIA Nell’ambito delle strategie del gruppo Hexagon AB, la rete commerciale e i prodotti di ERDAS sono stati incorporati in Intergraph, estendendone l’offerta e la capacità di veicolare i prodotti sul mercato attraverso un referenziato canale di distribuzione, la società Planetek Italia. Il nuovo portafoglio di soluzioni è oggi perfettamente in grado di integrare GIS, Telerilevamento e Fotogrammetria, coprendo l’intero ciclo di vita del dato: Acquisizione, Elaborazione, Gestione e Distribuzione. La nuova offerta di Intergraph fornisce una soluzione globale “GeoSpatial” a 360°: la connessione nativa e l’integrazione di complesse elaborazioni ed analisi (vector, raster e video), permette di trarre il massimo vantaggio dalle molpeplici sorgenti dell’informazione geografica, realizzando così sistemi di “REAL TIME DYNAMIC GIS”.

geospatial.intergraph.com/2013

© 2013 Intergraph Corporation. Intergraph is part of Hexagon. All rights reserved. Intergraph and the Intergraph logo are registered trademarks of Intergraph Corporation or its subsidiaries in the United States and in other countries.


Geomedia 3 2013  

La prima rivista italiana di geomatica e geografia intelligente

Advertisement