Les instituts de recherche HEPIA

La recherche appliquée et le développement (Ra&D) sont réalisés dans le cadre de quatre instituts disposant d’équipements « up-to-date » et de moyens importants en termes de ressources humaines et financières.
Les quatre instituts sont :
inPACT : institut du paysage, de l’architecture, de la construction et du territoire avec pour axes stratégiques de recherche :
• construction et développement durable
• énergie, bâtiment et territoire
• gestion et organisation des projets de construction et d’aménagement
• hydraulique urbaine et territoriale
• paysage, nature et ville
inIT : institut d’ingénierie informatique et des télécommunications avec pour axes stratégiques de recherche :
• embedded & real time systems
• data sciences & computational intelligence
• networking, trust, privacy and security
inSTI : institut des sciences et technologies industrielles avec pour axes stratégiques de recherche :
• bio-ingénierie
• industrie 4.0
• mécanique des fluides et énergie
• matériaux et nanotechnologies
inTNE : institut terre-nature-environnement avec pour axes stratégiques de recherche :
• écologie et gestion des milieux naturels et aménagés
• fonctions environnementales sous pressions anthropiques dans les agroécosystèmes
Cette structure Ra&D mise en place dès 2011 vise non seulement à améliorer notre performance et notre réactivité eu égard aux nombreuses sollicitations de nos partenaires industriels et institutionnels, mais elle permet aussi, grâce à ses axes stratégiques de recherche de profiler l’institution dans le paysage des Hautes Ecoles régionales et suisses. En effet, le fait qu’HEPIA regroupe en son sein tous les pôles du domaine HESSO « ingénierie et architecture » permet d’effectuer naturellement des projets de recherche transdisciplinaires dont les innovations sont transférées à l’externe vers des partenaires via des licences sur brevet ou par la cession de brevets mais aussi par la création d’entreprises.
En outre, c’est également en 2011 qu’est né le Geneva Creativity Center (GCC) dont l’objectif principal est d’amener plus rapidement des innovations élaborées au sein des Hautes écoles genevoises que sont l’Université de Genève et la HES-SO Genève vers la société ainsi que de pouvoir répondre aux problématiques des entreprises et des collectivités. De ce fait, quel que soit le point d’entrée, les entreprises bénéficient de facto d’une offre étendue de compétences de pointe; voir le site internet : http://www.creativitycenter.ch/
De surcroît, fruit d’une étroite collaboration entre l’Université de Genève et la HES-SO Genève, le Laboratoire de Technologie Avancée (LTA) propose aux entreprises une véritable plateforme technologique mettant à disposition des équipements, des infrastructures de pointe communes aux deux institutions ainsi que des conseils d’experts. Site internet : https://www.lta-geneve.ch/
Ainsi, le corps professoral, les assistants et assistantes de recherche, le personnel administratif et technique composant les instituts de la Haute école du paysage, d’ingénierie et d’architecture de Genève, sont en permanence au service de la société et de son environnement.
Gilles Triscone Professeur HES, Responsable de la coordination Ra&D gilles.triscone@hesge.chInstitut du paysage, d’architecture, de la construction et du territoire - inPACT
La convergence des compétences de l’institut inPACT dans les domaines de l’Architecture, de l’Architecture du paysage, du Génie civil et des Techniques du bâtiment est unique en Suisse romande.
La mission d’inPACT est de développer des solutions innovantes pour l’environnement construit de demain. Interlocuteur privilégié, compétent et neutre des acteurs économiques et des collectivités publiques, il est fortement implanté dans le tissu professionnel et économique.
L’ancrage de l’institut au cœur de l’agglomération du Grand Genève, dont les contraintes territoriales sont particulières, le met au défi de concilier une croissance sur un territoire limité tout en conservant une qualité de vie reconnue au niveau mondial.
Les activités de l’institut s’articulent autour des axes stratégiques suivants :
● construction et développement durable
● énergie, bâtiment et territoire
● gestion et organisation des projets de construction et d’aménagement
● hydraulique urbaine et territoriale
● paysage, nature et ville
InPACT valorise la composante paysagère et environnementale comme référent commun et indicateur du projet territorial. Au travers de ses diverses activités de recherche appliquée et de mandats, l’institut intègre les questions spécifiques liées à la durabilité, l’écologie, la performance des structures porteuses, l’économie, les énergies renouvelables, au Smart building et au développement des ouvrages innovants.
Bernd Domer Professeur HES, Responsable institut inPACT bernd.domer@hesge.chLe projet consiste
i) à établir un atlas typologique constructif et architectural du parc de logements collectifs genevois de 1946 à 1990,
ii) à produire pour chaque type une fiche d’orientation proposant deux scénarios détaillés de rénovation énergétique avec estimation du gain énergétique et des coûts d’intervention,
iii) à mettre à disposition un recensement permettant de géolocaliser les immeubles par type, par année de construction et par performance et agent energétiques.
Les fiches et le recensement sont utilisés par des collectivités publiques (communes, SIG, Office cantonal de l’énergie) et des régies immobilières dans une démarche proactive pour
i) identifier les bâtiments prioritaires pour une rénovation énergétique,
ii) informer leurs propriétaires sur le potentiel d’économie énergétique (sauts de classe CECB) et sur des scénarios possibles ou probables de rénovation de leurs immeubles afin de les inciter à entreprendre des travaux de rénovation ambitieux.
La première étape du projet visait à analyser et caractériser le parc de logements collectifs genevois de l’après-guerre à la fin du 20ème siècle, qui représente une grande partie de la surface de référence énergétique du canton candidate à la rénovation. Ce travail a permis de mettre en évidence neuf archétypes constructifs et architecturaux qui prédominent sur le territoire genevois et pour lesquels des stratégies de rénovation différenciées peuvent être élaborées.
Dans une deuxième étape, chaque type a fait l’objet d’une étude de cas permettant de proposer et de chiffrer un ou deux scénarios détaillés de rénovation énergétique globale pour l’enveloppe du bâtiment. Le résultat est explicité via des fiches de bonnes pratiques sous forme de triptyque mises à disposition des collectivités publiques et des régies immobilières. Ces fiches servent à présenter aux propriétaires les différentes options qui s’offrent à eux en fonction du type de bâtiment qu’ils possèdent.
Dans un troisième et dernier temps, un recensement à l’échelle du canton de Genève a été mené afin de rattacher l’ensemble des immeubles de la période concernée à l’un des types préalablement définis. Ces données, combinées à d’autres informations issues du SITG (indice de dépense de chaleur, époque de construction, agent énergétique), sont reprises dans une interface cartographique offrant la possibilité de géolocaliser les immeubles selon leur type ou un filtre combinant les différentes caractéristiques des bâtiments.
Le croisement des données typologiques et énergétiques permet d’identifier les bâtiments prioritaires en matière de rénovation énergétique et d’initier un dialogue proactif avec leurs propriétaires sur la base des fiches de bonnes pratiques avec pour objectif de les inciter à lancer des projets de rénovation ambitieux et respectueux de la substance architecturale des bâtiments.
Légende
1 - Fiche type 6 (exemple), page 1
2 - Fiche type 6 (exemple), page 2
3 - Fiche type 6 (exemple), page 3
Les fiches de bonnes pratiques sont mises à disposition du public sur les sites Internet des partenaires du projet (SIG et Office cantonal de l’énergie). Elles sont utilisées par les collectivités publiques et par les régies immobilières dans leurs démarches auprès des propriétaires. Le recensement géolocalisé doit faire l’objet d’une mise en ligne via une couche du Système d’Information du Territoire à Genève (SITG) accessible au public.
www.hesge.ch/hepia/recherche-developpement/ projets-recherche/solution-renovation
Dans l’objectif de favoriser l’intégration de la nature dans les places de jeux en ville, le groupe de recherche « Technique et Paysage » d’HEPIA a été mandaté conjointement par la Ville et le Canton de Genève pour produire un catalogue d’exemples et une méthode permettant de qualifier une place de jeux dans son rôle pédagogique de sensibilisation à la nature. Cette recherche permettra aux différents acteurs publics et privés de tenir compte des bonnes pratiques dans leurs futurs aménagements d’espaces dédiés aux jeux.
Plusieurs axes constituent la relation « jeu et nature » : la biodiversité, la matérialité, le paysage, les activités et les usages ainsi que la planification et la participation. Dans le catalogue d’exemples, il est intéressant de prendre connaissance de quelques places emblématiques de cette relation au vivant. La méthode d’évaluation quant à elle, basée sur l’étude de deux sites dans un contexte différent (cours d’école et parc de quartier), permet de mesurer la qualité des projets, existants ou futurs, sur leur potentiel de relation à la nature.
Cette étude est le prolongement et le développement de travaux d’étudiant·e·s d’HEPIA en architecture du paysage qui ont réfléchi à la réalisation d’aménagements urbains où la nature au sens large en fait partie intégrante ; en particulier pour les espaces de jeux.
En effet, le fait que les places de jeux ont un impact important sur la vie sociale, il est intelligent de les utiliser pour faire passer des messages de sensibilisation aux problématiques auxquelles la nature doit faire face, comme par exemple la biodiversité.
Les différentes recommandations présentes dans ces fiches offrent un panel non exhaustif de possibilités en expliquant pour chacune les avantages et les inconvénients.
Une typologie des éléments pour apporter la dimension « nature » est développée dans le guide, ce qui permet de définir une liste non exhaustive d’éléments forts, favorables à l’accueil de la biodiversité tout en répondant aux exigences d’usages du lieu, tels que des structures végétales, des revêtements perméables, une matérialité durable, le rapport au paysage, etc.
Un outil sous la forme d’un tableau synthétique offre la possibilité d’évaluer le potentiel d’un ou plusieurs éléments forts, déjà présents ou proposés dans le projet, et vient conclure ce travail qui pose les bases d’une réflexion à poursuivre en relation avec tous les acteurs de l’espace public.
Légendes
1 - Le diagramme, un outil d’évaluation de la qualité du rapport à la nature
2 - Végétal, matérialité et paysage, quand la nature se prête au jeu
visuels :
© HEPIA / Eric Amos et Thibault Brütsch
Le catalogue d’exemples et la méthode d’évaluation des qualités des places de jeux et de leur rapport à la nature sont disponibles sur demande auprès du groupe de recherche « Technique et Paysage » à HEPIA. Une version électronique est librement consultable sur internet.
www.hesge.ch/hepia/recherche-developpement/ projets-recherche/places-jeux-et-nature
À l’image des pratiques ancestrales, l’objet de la recherche est de tester l’opportunité de bâtir en puisant dans les gisements issus de la déconstruction et proposer une forme actualisée de l’utilisation des matériaux disponibles afin de valoriser le travail et l’énergie déployés antérieurement, dans un esprit de frugalité et d’économie de moyens. Autant de solutions vertueuses et reproductibles qui ont été expérimentées avec succès sur deux sites : Lullier et Bernex.
• Inventaire descriptif restreint des murs en pierres sèches du sud du canton de Genève
• Le mur en pierres, un milieu propice et favorable à la présence de biodiversité dans les murs
• Inventaire des sources de matériaux, gravières et carrières du bassin genevois
• Construction de prototypes de murs « composites » selon la technique de pierres sèches
La technique de construction en pierres sèches retrouve toute son actualité au regard des attentes actuelles en termes de biodiversité, économie de moyens et identité régionale. Mais qu’en est-il à Genève, de quel patrimoine parle-t-on et comment concilier pratiques vernaculaires et respectueuses de l’environnement avec les modes de constructions actuels et l’inscription de ces ouvrages dans le paysage ?
Dans le canton de Genève, la recherche de la présence de murs n’a pas permis d’identifier spécifiquement des ouvrages en pierres sèches sur les documents cartographiques ni dans la littérature. Une campagne de repérage basée sur la consultation de partenaires professionnels et un arpentage du territoire du sud du canton de Genève ont permis de confirmer la quasi-absence d’assemblage en pierres sèches.
De nombreux murs patrimoniaux, de soutènement ou de limite, sont observables en milieu rural, mais tous maçonnés avec des degrés variables d’état de dégradation. Plus celle-ci est avancée, plus l’apparence du parement et ses fonctions se rapprochent des murs en pierres sèches sans pour autant en réunir tous les aspects, mais en offrant une réelle opportunité d’accueil pour une certaine forme de biodiversité.
La méthode de construction qui emploie le mortier de chaux ou le mortier bâtard (mélange ciment et chaux) s’explique par le fait que ces ouvrages vernaculaires peu élaborés sont faits de l’appareillage de pierres majoritairement alluvionnaires qui ont pour origine les dépôts laissés par les glaciers en plaine. Leur disponibilité due à l’épierrage des champs, leur proximité des cours d’eau et la facilité d’exploitation sont la meilleure explication à leur utilisation fréquente.
Lorsque l’on s’approche des massifs du Jura et du Salève, l’apparition des pierres calcaires se fait plus fréquente sans que pour autant l’assemblage à sec soit la règle du fait de la forme peu favorable à l’assemblage (polyforme) et requérant un effort élevé pour tailler la pierre.
Légendes
1 - Explorer les carrières et les décharges de matériaux pierreux offre des perspectives de réemploi très importantes.
2 - Exemple de mur en pierres assemblé sans liant, constitué d’une diversité de pierres et de béton issus de la démolition et appareillé selon les principes de la construction en pierres sèches.
3 - Le chantier de démolition, un gisement pour la fourniture de matériaux destinés à la reconstruction d’un mur selon le principe de l’appareillage à sec.
visuels :
© HEPIA / Eric Amos et Alex Verhille
• Un recueil constitué de 10 fiches descriptives et illustrées d’ouvrages géolocalisés sur le territoire, vernaculaires ou actuels, illustre le potentiel de réalisations favorables à l’environnement et dans le respect du cycle vertueux des matériaux.
• Une liste non exhaustive des carrières et gravières où se procurer les matériaux.
Librement consultables en format électronique sur internet :
www.hesge.ch/hepia/recherche-developpement/ projets-recherche/mubersec
La réalisation de tels ouvrages requiert de l’expertise. La formation s’effectue via la participation à des ateliers de construction menés conjointement avec des partenaires spécialistes :
• Formateur / constructeur de murs en pierres sèches (Felsenfalter à Berne)
• Ecologue, Atelier Nature et Paysage (ATNP Sàrl à Genève)
• Technique et Paysage pour le concept et l’intégration au paysage (TEP- institut inPACT, HEPIA, HES-SO Genève)
Le projet centralise la gestion des données liées aux espaces souterrains et les valorise afin d’améliorer leur exploitation, leur visualisation et les processus de prise de décision qui en dépendent. Une fois établie, la caractérisation volumique des objets permet de vérifier si les contraintes spatiales de type distance minimale ou restriction de passage sont bien respectées. Ce projet fera ainsi évoluer les outils de planification urbaine.
• Etablissement d’une ontologie complète des objets souterrains.
• Transfert des objets souterrains issus d’une base de données GIS dans une base de données RDF (triple store).
• Processus automatisé de complétion du positionnement et de l’emprise volumique des objets.
• Analyse et indication d’incertitude sur le positionnement et la géométrie des objets.
• Étude de l’encombrement du sous-sol dans le but d’optimiser son exploitation.
Soutenu par l’agence suisse pour l’encouragement de l’innovation (Innosuisse), le projet « Impulse – SUBSURFACE » ouvre la porte de l’ère digitale aux données numériques nécessaires pour la planification et l’exploitation du sous-sol. Les objets du sous-sol répertoriés incluent les éléments naturels de type racines des arbres. Les objets non naturels regroupent les réseaux utilitaires, les sous-sols planifiés ou existants des bâtiments, les installations géotechniques, les tunnels et les tranchées couvertes. Les restrictions de droit public à la propriété foncière sont également considérées.
Une nouvelle structuration des données permettant l’interopérabilité des données GIS et des données BIM est mise en avant et intègre les processus de correction, de complétion et d’analyse de précision. Un jeu de règles de correction et de complétion vient s’ajouter aux règles de construction définies dans les normes et permet de produire la géométrie de chaque objet.
L’introduction d’un indice de confiance associé à chaque objet modélisé permet de fixer des limites de tolérance relatives à son emplacement. Il est également utilisé pour établir un taux de complétion global des objets dans chaque zone. Basé sur un modèle stochastique, cet indice interprète soit les données numériques présentes soit les informations non numériques de précision. La calibration du modèle a été réalisée grâce à l’apport des données réelles par les Services Industriels de Genève.
Un moteur de validation de règles permet de vérifier si les objets existants respectent les bonnes pratiques énoncées dans les règles de pose et d’optimiser la mise en place des nouveaux objets. Un ensemble de plusieurs centaines de règles officielles a été sélectionné dans les recueils de normes pour les constructions en sous-sol.
Légendes
1 - Vue d’ensemble des objets dans la zone de Cornavin. © MIC (HEPIA)
2 - Représentation des objets physiques avec leur enveloppe. © Topomat technologies SA ; UNIGE ; MIC (HEPIA)
3 - Réseau d’eau potable. © MIC (HEPIA)
4 - Partie en sous-sol des bâtiments. © MIC (HEPIA)
5 - Vue d’ensemble des objets dans la zone de Praille-Acacias-Vernets. © Topomat technologies SA ; UNIGE ; MIC (HEPIA)
6 - Visualisation de l’encombrement avec des cubes de différentes couleurs. © Topomat technologies SA ; UNIGE ; MIC (HEPIA)
Adouane, K. ; Boujon, F. ; Domer, B. Digital Modelling of Underground Volumes, Including the Visualization of Confidence Levels for the Positioning of Subsurface Objects. Appl. Sci. 2021, 11, 3483. https://doi.org/10.3390/app11083483
Adouane, K. ; Boujon, F. ; Domer, B. Qualifying spatial information for underground volumes. EG-ICE 2021, 28th International Workshop on Intelligent Computing in Engineering, Berlin, Germany.
• Partenaire industriel : Topomat technologies SA
• Partenaires académiques : HEPIA et UNIGE
• Partenaires d’implémentation :
- Etat de Genève (Direction de l’Information du Territoire, Office de l’Urbanisme, Office des transports, Office de l’Energie, Office de l’Eau) ;
- Services Industriels de Genève
Avec la végétalisation de sa toiture et de ses façades, le projet d’enveloppe végétale sur le bâtiment GIBOR des HUG s’inscrit dans l’esprit du programme Nature en Ville instauré par l’Etat de Genève. Les effets du réchauffement climatique et les îlots de chaleur sont devenus une réalité. Repenser la ville et notamment la qualité de ses constructions en y intégrant la nature représente une opportunité pour améliorer le cadre de vie et le bien-être des habitants et des usagers, tout en leur offrant tous les services rendus par la biodiversité.
• Diminution de l’accumulation de chaleur par les toitures et les façades.
• Fixation des micro-polluants et diminution de la réverbération.
• Diminution de la température de l’air en journée comme de nuit.
• Effet « éponge » des toitures qui retiennent l’eau des précipitations au service du végétal et de la qualité de l’air tout en limitant la surcharge des réseaux.
• Points relais pour la biodiversité, insectes, abeilles sauvages, oiseaux...
• Création d’un maillon dans la continuité écologique des espaces verts existants.
• Création d’un environnement agréable pour les citoyens.
• Intégration de la construction à son contexte urbain et social.
Ce projet est un exemple de la complémentarité voulue entre pédagogie et recherche appliquée dans les HES. Un projet d’étudiant·e·s a permis dans un premier temps d’explorer différents concepts techniques et végétaux. Ensuite, l’une des propositions retenue par le maître d’ouvrage a été développée par le groupe de recherche Technique et Paysage (TEP). L’enjeu de ce projet consiste à créer un relais de biodiversité sur l’enveloppe d’un bâtiment implanté dans un désert minéral et qui n’a pas été conçu ainsi. Concevoir une construction végétalisée englobant toitures et façades est une performance technologique qui permet de répondre aux enjeux écologiques et climatiques de la ville dense.
Une typologie des différents supports a été développée afin de s’adapter aux performances thermiques des façades tout en les préservant. Le dessin de la structure inspirée de la dendromorphologie constitue à faire un lien entre le sol et la toiture afin de favoriser la biodiversité.
Prendre d’assaut la façade, telle est la vocation des deux espèces végétales choisies : le lierre, garantie d’une force tranquille et persistante et la vigne vierge caduque, qui représente la flamboyance, la fulgurance de la croissance et la renaissance.
Une végétation rudérale prend place au pied des façades en s’installant dans un sol constitué de matériaux graveleux récupérés sur les toitures. Ainsi, leur exportation en décharge ne sera pas nécessaire selon le principe retenu de la valorisation des matériaux sur site.
Un jardin d’ombre dans un renfoncement de toiture vient offrir une chambre végétalisée destinée prioritairement aux occupants des bureaux dont les fenêtres donnent sur les murs borgnes de la nouvelle construction.
La toiture extensive joue son rôle de relais de la biodiversité et offre une capacité de rétention des eaux météoriques qui contribue à la bonne gestion des eaux de pluie et à l’amélioration climatique.
Légendes
Partir à l’assaut de la façade sur un support structuré et structurant :
1 - 1e année
2 - 3e année
3 - 5e année
4 - Faire le lien de la bio-diversité, du sol à la toiture
5 - Micro paysage de fraicheur révélé au personnel hospitalier
6 - Eclairage sculptural, éclairement indirect de l’espace public, préservation de la luminosité pour les parties hautes
De la conception au suivi de la réalisation, ce projet représente non seulement un terrain d’exercices et d’observations emblématique d’une pédagogie innovante et appliquée typiquement HES et d’une recherche fortement ancrée dans des besoins citoyens. La conception de la structure, sa matérialité, son système d’ancrage et d’assemblage feront l’objet d’une présentation dans la cadre de conférences sur les façades végétalisées. Le concept de végétation rudérale expérimentale fera l’objet de suivi comparatif avec un mélange grainier testé sur le site de Lullier.
• Une structure en acier inoxydable de profil standard avec système d’ancrage à articulations et rupture de pont thermique.
• Un système de végétalisation des toitures intensif et extensif, avec natte de rétention d’eau météorique et système d’irrigation automatique.
Paola Tosolini, Denis Clément, Ricardo Lima (HEPIA), Sabine Emad (HEG)
La séparation des fonctions architecturales qui a marqué l’urbanisme et l’architecture du siècle passé, se révèle aujourd’hui inadaptée pour répondre aux défis posés par le développement durable. Via une analyse multidisciplinaire de la notion de « mixité programmatique », ce projet questionne le modèle du bâtiment monofonctionnel. A l’issue du projet, un guide adressé aux maitres d’œuvre et d’ouvrage permettra de les orienter vers des choix programmatiques optimisés.
• Véritable réflexion multidisciplinaire sur l’enjeu de la mixité programmatique dans le bâtiment.
• Inventaire des potentiels générés par les combinaisons des divers programmes des bâtiments.
• Outil concret d’accompagnement pour le maître d’ouvrage dans l’établissement du cahier des charges en vue de réaliser un bâtiment multifonctionnel répondant aux besoins personnels, professionnels ou sociétaux de tous les utilisateurs tout en optimisant son fonctionnement énergétique.
Ce projet de recherche vise à investiguer les potentialités du bâtiment multifonctionnel à Genève comme l’une des réponses possibles aux défis du développement durable en ville.
La notion de mixité programmatique, bien planifiée dès la phase d’avantprojet permet de mutualiser des fonctions de locaux offrant ainsi à chaque programme des espaces et fonctionnalités supplémentaires. L’intégration anticipée de la notion de multifonctionnalité permet non seulement de diminuer les coûts de construction de même que les frais de gestion et d’entretien en optimisant ainsi le rapport qualité/coût du bâti mais contribue également à augmenter de façon significative la qualité des lieux de travail et de vie.
Sur la base de cahiers de charge de concours d’architecture en Suisse ayant des programmes divers (résidentiels, sociaux, administratifs, commerciaux, industriels, hôteliers, touristiques, culturels, etc.) le projet propose à l’aide d’un système de matrices d’inventorier les potentiels générés par les combinaisons d’usages inédits des différentes catégories de bâtiments. Différents paramètres sont pris en compte tels que l’optimisation de la structure porteuse, l’intégration des énergies renouvelables mais aussi la prise en compte de nouveaux modes de gestion mutualisés du bâtiment pour aboutir à de nouveaux types architecturaux innovants. Une analyse de l’adaptabilité des exigences légales relative à la conception multifonctionnelle sera également développée.
Les combinaisons de programmes les plus performantes selon des critères interdisciplinaires seront soumises à un échantillon représentatif des acteurs du bâtiment multifonctionnel. Cette étude de marché permettra de hiérarchiser leurs préférences et de les intégrer dans un guide à l’attention des maîtres d’ouvrage.
Partenaires
FTI (Fondation pour les Terrains Industriels) ; OCEN (Office Cantonal de l’énergie – République et canton de Genève) ; DT (Département du Territoire) ; PPDU (Plateforme de développement urbain de la HES-SO//Genève).
Un guide sur les potentiels de la mixité programmatique pour la ville durable
Le projet Reno-Ve a consisté à développer pour une fondation immobilière de droit public genevoise un outil de pilotage permettant au conseil de fondation de déterminer des priorités d’intervention en matière de rénovation à l’échelle de son parc immobilier. Cet outil innovant se base sur une approche multicritères, incluant divers aspects tels que les questions de vétusté, le social, la consommation d’énergie, le rendement mais aussi le potentiel de rénovation, la densification et la transition énergétique.
Le projet a été développé sur la base du portefeuille de la fondation, composé de 18 bâtiments, caractérisés par une grande hétérogénéité. L’outil de pilotage qui en est issu est simple et totalement transparent. Il permet de poser des bases objectives pour la réflexion que tout propriétaire de parc immobilier ne devrait pas manquer de se poser, dans un souci de bonne gestion, afin d’assurer la pérennité de son portefeuille d’immeubles et leurs transitions vers plus de durabilité.
Lors de la première étape du projet, dix critères d’analyse ont été définis pour être appliqués au parc immobilier, cinq d’entre eux concernant l’état actuel de l’immeuble, et cinq autres relatifs à son potentiel :
Etat actuel
Enveloppe
Structure
Installations techniques
Consommation d’énergie
Rendement économique
Potentiel
Aptitude à la rénovation
Densification
Transition énérgétique Photovoltaïque
Gestion des occupants
Quatre grandes options stratégiques ont été proposées, qui peuvent être combinées et pondérées :
• Énergie (accent sur les économies d’énergie et la transition vers les énergies renouvelables).
• Vétusté (actions en fonction du degré de vétusté).
• Facilité (focus sur les cas où une intervention pose peu de problèmes techniques et humains).
• Optimisation économique (accent sur les bâtiments en fonction de leurs performances économiques).
La deuxième étape a été la collecte de données et les visites techniques des bâtiments de la fondation. Un rapport détaillé a été établi pour chacun d’entre eux, basé sur les critères ci-dessus. Cette étape s’est avérée très utile, car elle offrait ainsi au conseil d’administration une vision complète et synthétique de son portefeuille.
La troisième étape, le développement de l’outil de pilotage multicritères, a permis de fournir un système simple, transparent et utilisable en toute autonomie. Il a été développé comme un simple outil Excel, permettant de fixer les priorités des interventions de rénovation en fonction d’une option stratégique spécifique ou d’une combinaison d’options stratégiques.
L’outil de pilotage ne prétend pas automatiser le processus décisionnel, mais donne des indications objectives au propriétaire pour l’aider à prendre des décisions et à passer d’un processus décisionnel au cas par cas à un processus raisonné, intégrant un maximum de critères.
L’outil de pilotage a été livré à la fondation qui va l’utiliser pour établir ses priorités stratégiques et en termes de rénovation. Il pourra également être proposé à d’autres entités propriétaires de portefeuille immobiliers.
Le projet sera présenté à l’occasion du séminaire sur l’état de la recherche du réseau BRENET (building and renewable energy network) à Aarau en septembre 2020.
Le projet structure les données liées à la représentation numérique d’objets en soussols et teste leur intégration dans des logiciels d’analyse. La première partie est dédiée à la sélection et la description d’éléments physiques ou virtuels qui constituent les soussols du Canton de Genève. La deuxième partie identifie des alternatives logicielles pour permettre l’import et l’analyse de ces données. Le projet se termine par l’établissement de tests de type « intersections géométriques ».
• Élaboration d’une première structuration d’objets souterrains avec leurs attributs, basée sur les résultats d’un workshop interdisciplinaire.
• Définition des orientations de la convergence des systèmes GIS et BIM (GeoBIM, InfraBIM, Geol-IM).
• Expérimentation de l’intégration des objets souterrains dans divers types de logiciels (GIS, DAO+, BIM).
• Développement d’un flux de travail pour l’intégration d’objets souterrains dans un logiciel BIM et détection de conflits spatiaux mutuels.
La densification des villes combinée à la pénurie des espaces constructibles rend les volumes en sous-sols de plus en plus attractifs. Ce développement est freiné par le manque de structuration de données d’objets souterrains ainsi que de leurs qualités. Mandaté par la Direction de l’information du territoire (DIT) du Canton de Genève et par l’Office fédéral de topographie Swisstopo, le projet « Underground » explore les diverses possibilités pour structurer les données existantes et leurs intégrations dans des logiciels d’analyse.
Partant d’un workshop qui a permis d’identifier les cas d’usage, l’étude se base sur le « Système d’Information du Territoire à Genève » (SITG). Le SITG met à disposition un inventaire numérique exhaustif d’objets souterrains. Les éléments du sous-sol qui sont dans un premier temps répertoriés sont les couches géologiques et éléments naturels de type racines d’arbres par exemple (objets naturels). Les objets non naturels (man made objects) sélectionnés, recensent les réseaux utilitaires, les tunnels, les installations géotechniques. Enfin, les restrictions de droit public à la propriété foncière sont intégrées dans le modèle.
Trois possibilités d’importation de données sont identifiées, expérimentées et évaluées :
• Dans un premier temps, les couches numériques du SITG sont explorées puis superposées via un logiciel GIS.
• Une deuxième méthode se réfère à l’exploitation d’un logiciel DAO+, spécialisé en travaux publics.
• Une troisième alternative d’import est proposée au regard de l’utilisation d’une maquette numérique BIM. L’intégration des données dans un logiciel BIM permet par la suite l’utilisation de fonctions pour détecter de potentiels conflits géométriques présents dans les modèles importés.
Légendes
1 - Installations géotechniques, secteur Cornavin ©MIC
2 - Modèle après classification ©MIC
3 - Intégration des bâtiments avec sous-sols ainsi qu’un tunnel ©MIC
4 - Intégration de l’objet tunnel, et son alignement virtuel (RDPPF) ©MIC
5 - Emprise théorique de racines d’arbres, secteur PAV ©MIC
6 - Modélisation géologique, secteur PAV ©MIC
• Du BIM pour le sous-sol ? Domer B. (2019), CadastreRevue spécialisée consacrée au cadastre suisse 31:26-28
• Projet Underground avec des données BIM / géographiques à Genève, Benmansour Y., Domer B., Dubois A., 3DGI - la conférence sur la géoinformation 3D, Muttenz, 29.08.2019
• Digital Construction Permit: A Round Trip Between GIS and IFC, Chognard S., Dubois A., Benmansour Y., Domer B., Advanced Computing Strategies for Engineering, p. 287-306, Proceedings of the 25th EG-ICE Workshop, Lausanne, 10.-13.06.2018
L’étude eRen1 a démontré que des rénovations énergétiques de bâtiments étaient techniquement faisables dans le respect de leur substance architecturale. Le bilan économique de telles opérations, qui a également été évalué, est nettement moins concluant. eRen2, mené conjointement avec la HEIA-FR (Prof. S. Schwab) a pour but d’explorer les synergies qui pourraient naître en cas de combinaison de projets de densification et de rénovation de l’existant, aux niveaux énergétique, d’usage et économique.
Le projet eRen2 se situe à la convergence de politiques publiques : la protection du territoire par la densification de l’habitat existant et la transition énergétique du bâti existant. Mettre en œuvre des projets permettant d’atteindre ces deux objectifs semble une évidence. Pourtant, le nombre de projets de rénovation-densification n’a pas explosé au cours des dernières années. eRen2, basé sur des scénarios développés sur 6 bâtiments réels, a permis d’identifier les contraintes et les moteurs pour réaliser de tels projets.
Le projet eRen2 utilise comme cas d’étude les mêmes immeubles de rendement qu’eRen1, typiques de la construction de logements collectifs de 1945 à 1990. Les questions sont les suivantes :
• Quel est le potentiel de densification des immeubles, au niveau structurel, constructif, spatial et réglementaire ?
• La densification permet-elle de réduire la consommation d’énergie par m2 au-delà d’une rénovation simple ?
• Les revenus supplémentaires générés par la densification permettent-ils d’améliorer le rendement par rapport à une rénovation simple ?
Après avoir défini des scenarios génériques de densification, une combinaison de scenarios a été appliquée à chacun des 6 immeubles, en fonction de critères spatiaux, urbanistiques et constructifs. Finalement, les scénarios ont été développés constructivement et chiffrés (coût et énergie).
La réglementation urbanistique est une barrière majeure à la densification. Sur 6 scenarios, seul 1 pourrait être envisagé sans dérogation importante, et 4 sur 6 bénéficient de droits acquis qu’ils perdraient peut-être en cas de projet de densification-rénovation.
La baisse de la consommation d’énergie par m2 de SRE (surface de référence énergétique) est réelle lors d’une densification-rénovation par rapport à une rénovation d’enveloppe simple. Toutefois, l’écart demeure trop faible pour justifier en soi, d’étendre le projet à une densification. Financièrement, la densification-rénovation est systématiquement perdante lorsque l’on compare les options de statu quo, rénovation simple et rénovation-densification. Cependant, la méthode utilisée (discounted cash flows) est très sensible au taux d’escompte. En extrapolant sur des taux d’escompte plus bas, conformes aux prévisions du marché actuel plutôt qu’aux taux de ces dernières années, la situation change drastiquement.
Le projet eRen2 fait l’objet d’une publication, disponible sur demande. L’étude a été présentée lors des événements suivants :
• Congrès BRENET à l’ETH de Zurich en septembre 2018
• Présentations de projets des programmes thématiques HES-SO à Sion en juin 2019
• Smart living lab lunch à Fribourg en juin 2019
Elle sera également présentée à Bern en octobre 2019 (avec des conclusions étendues) dans le cadre du congrès Advanced Building Skins.
De sorte à favoriser les actions en faveur de l’amélioration du climat urbain, le groupe de recherche « Technique et Paysage » d’HEPIA a été mandaté par la Ville de Sion pour produire un guide sous forme de fiches de recommandations pertinentes pour un retour à une perméabilité des sols et l’amélioration de l’albédo pour lutter contre les ilots de chaleur en ville.
• Améliorer la perméabilité des sols urbains et réduire les îlots de chaleur.
• Garantir que les revêtements et les sols assument un rôle d’« éponge » vis-à-vis des eaux météoriques pour éviter la surcharge des réseaux et des cours d’eau tout en contribuant à alimenter les nappes phréatiques.
• Prendre en compte l’intégration des revêtements dans un cadre historique et paysager.
• Contribuer à la création de milieux adaptés à la biodiversité en ville et favorables à la végétation.
Ce guide a pour ambition d’accompagner la conception ou la réhabilitation d’un espace urbain à l’aide de 9 fiches relatant les avantages et les inconvénients de divers types de revêtements du point de vue du climat urbain.
En fonction des objectifs climatiques et des exigences du lieu, le guide permet, grâce à une typologie développée et détaillée, de fournir une aide permettant de cibler le meilleur choix, voire le meilleur éventail de possibilités de revêtements.
Etant donné l’importance d’une bonne perméabilité des sols, il est nécessaire d’intégrer la réflexion sur la conception des revêtements dès le début du projet. Que le matériau soit du béton, de l’enrobé, du bois ou encore de la pierre naturelle, il est généralement possible de définir une mise en œuvre favorable à l’infiltration des eaux météoriques et l’amélioration de l’albédo. Les différentes recommandations illustrées et décrites dans les fiches présentent un panel non exhaustif de possibilités.
Lorsqu’il n’est pas possible d’utiliser des revêtements perméables et/ou semi-perméables, il existe des alternatives et des mesures de compensations en appliquant, lors de la conception, des propositions selon la formule « Éviter, Réduire, Compenser », qui constitue la doctrine des naturalistes appliquée à l’amélioration du climat urbain.
Légende
1 - « Éviter, Réduire, Compenser », formule appliquée à la gestion des eaux météoriques
visuels :
© HEPIA / Brice Goyard
Ce guide, constitué de 9 fiches de recommandations pour des actions en faveur de la perméabilité des sols en milieu urbain, est destiné à être publié en format papier par la ville de Sion et à être inséré dans le recueil des 16 fiches traitant des aménagements extérieurs de la ville de Sion. Le guide des revêtements perméables de la ville de Sion est disponible en ligne et peut être consulté librement.
www.hesge.ch/hepia/recherche-developpement/ projets-recherche/repersion
La Ville de Sion a proposé aux étudiants en architecture du paysage d’HEPIA de faire des propositions d’aménagements bénéfiques à la qualité de vie en ville. Le groupe de recherche « Technique et paysage » d’HEPIA a ensuite été mandaté pour réaliser un guide sous la forme de 16 fiches de recommandations. L’objectif est de sensibiliser les acteurs privés à l’importance et à la complexité de l’aspect environnemental dans ses interactions avec la ville pour améliorer la qualité du climat urbain.
Trois axes ont été identifiés : le végétal, le sol et l’eau, pour lesquels il est envisageable de mettre en place rapidement des actions locales dans un contexte privé. Seize fiches thématiques développent ces trois axes offrant des principes d’aménagements respectueux de l’environnement et de l’homme, visant à sensibiliser, pas à pas, tous les acteurs aux bienfaits des services écosystémiques apportés par la nature en ville.
La problématique des îlots de chaleur en ville est devenue une préoccupation majeure de même que les principes de développement durable et leurs bienfaits font l’objet d’une demande sociale forte. Aujourd’hui, 80% des habitants suisses sont citadins et les espaces privés en ville représentent avec les espaces publics, de réelles opportunités de porter la nature au cœur de la ville. En effet, le choix des matériaux et leur mise en œuvre, les plantes utilisées et leur mode d’entretien, le respect et la valorisation du sol et de l’eau, sont déterminants pour le développement d’écosystèmes favorables à notre cadre de vie.
L’axe « végétal » aborde la question de la biodiversité en recommandant la composition de haies constituées d’espèces adaptées aux conditions locales et l’installation de plantes couvre-sol ou de pelouses favorables aux pollinisateurs et sans besoin de pesticides. Ainsi, planter des arbres fruitiers, pailler son jardin potager, valoriser ses déchets domestiques par le compostage sont autant de pratiques vertueuses et garantes de qualité. Par ailleurs, la présence des arbres et leur capacité à rafraîchir l’atmosphère par l’ombrage et l’évapotranspiration sont également des vecteurs de bien-être doublés de repères patrimoniaux de première importance. Ils doivent être identifiés, respectés, préservés et renouvelés.
L’axe « sol » traite de la question de la fragilité du sol, en rendant les particuliers attentifs à la nécessité de favoriser sa porosité et à son rôle en tant que réservoir d’eau et de substrat vital pour le développement des végétaux.
L’axe « eau » recommande de composer avec le cycle naturel de l’eau pour la mettre en valeur et profiter de ses bienfaits. Collecter et stocker l’eau de pluie et épurer les eaux grises dans le but de pouvoir arroser son jardin, c’est soulager les réseaux et minimiser les risques d’inondations en aval et faire ainsi également des économies de ressources.
Ce guide destiné à des propriétaires privés sera publié en format papier par la ville de Sion, notamment dans le cas des demandes d’autorisation de construire. Il sera aussi édité sous une forme électronique pour en faciliter la diffusion au plus grand nombre. Une opération d’information auprès des services concernés de la ville est planifiée pour aider les collaborateurs à s’approprier ces nouveaux documents de travail.
L’état de Genève planifie la mise en place d’une politique du numérique en créant une « Administration en Ligne » (AeL) performante. Un élément est l’accélération du traitement des demandes d’autorisation de construire par une dématérialisation de la procédure. La technologie BIM (Building Information Modeling) dispose du potentiel d’optimisation du traitement des demandes définitives. Son format d’échange standard IFC assure l’interopérabilité entre divers types de logiciels.
Le format d’échange est un fichier texte relativement léger, encapsulé de façon à ce que l’ensemble des logiciels BIM puissent le lire et le générer. De plus, la technologie BIM permet de condenser dans ce format les données nécessaires et suffisantes à l’élaboration d’une demande d’autorisation de construire définitive. Enfin, le format IFC prend en charge les problématiques de gestion des différentes versions et de traitement centralisé via des plateformes variables.
Cette étude de faisabilité s’appuie sur la modélisation des données, son transfert et sa capitalisation dans le cadre des demandes d’autorisation de construire définitives. De plus, l’étude prospecte également l’interopérabilité entre des données géographiques issues du Système d’Information du Territoire Genevois (SITG) et des données de constructions issues du BIM.
Les « workpackages » réalisés ont testé la faisabilité d’un passage du tout papier vers un modèle tout numérique dans le but d’optimiser les traitements et les prises de décisions. En effet, contrairement aux logiciels de DAO, le BIM traite des attributs supplémentaires à la géométrie et permet donc de stocker des paramètres alphanumériques essentiels à la formulation d’une demande d’autorisation.
Les paramètres peuvent être requêtés et filtrés. Les requêtes permettent aux différents services intervenant dans le processus d’accéder exclusivement aux données les concernant sans devoir interpréter le modèle dans sa globalité. Ceci implique par contre que les données soient saisies selon des règles fixées à l’aide de gabarits spécifiques aux différents logiciels utilisés pour construire des données BIM. Les données sont extraites selon une grille représentée par un « Model view definition » (MVD). Les MVDs ont été créés individuellement pour les logiciels les plus répandus sur le marché. La faisabilité et la pertinence du circuit des données des logiciels SITG – BIM – SITG ont pu être démontrées.
Étude de faisabilité visant un traitement numérique des informations nécessaires pour la procédure de demande d’autorisation de construire
• Optimisation du temps de traitement
• S’inscrit parfaitement dans les divers projets lancés dans le cadre de la gouvernance BIM
• Traite la thématique de la convergence des systèmes GIS et BIM (dit GeoBIM)
• Création d’un prototype d’enrichissement de données SITG par un intermédiaire BIM
Logiciels utilisés dans le cadre de démonstrateur : Revit 2017, Archicad 2017, model viewer de Solibri
Gestion des données sur BIMserver installé sur un serveur linux Ubuntu équipé de TomCat
Transformation de données : FME
Informations territoriales : SITG
Les processus de serveur ont été initiés sur une machine serveur Ubuntu équipé de TomCat.
Les processus autres ont été initiés sur une Workstation 64 bits sous Windows 7 disposant de plus de 12go de RAM.
Afin d’expérimenter de façon tangible le contenu de l’enseignement en gestion de projet, une solution innovante consiste à l’élaboration d’un scénario transposé en « jeu sérieux » auquel l’étudiant est convié à participer. Il se retrouve alors immergé dans une succession de décisions / répercussions, avec pour objectif de satisfaire le client en menant à bien le projet dans les délais impartis.
Cette simulation, ludique et prenante, offre une première expérience quant aux aléas d’un chantier.
• Nécessite simplement une connexion internet
• Ludique
• Encourage le travail d’équipe
• Oblige les étudiants à prendre des décisions par rapport à leur analyse subjective des situations (sans forcément avoir toutes les clés)
• Offre une première expérience aux étudiants de la diversité des problèmes rencontrés au cours de la réalisation d’un projet
• Permet à l’enseignant de suivre le travail des étudiants, avec divers outils d’évaluation mis à disposition sur la plateforme du Serious Game
Bien que d’une manière générale ce soient les architectes qui sont chargés de gérer la planification d’un projet de construction, il est opportun que les futurs ingénieurs civil soient sensibilisés aux problématiques et enjeux qui en découlent, pour être plus à même de comprendre ce qui se passe à l’échelle de la maîtrise d’ouvrage.
Or, pour des étudiants principalement attirés par des sujets à caractère technique, il peut être intéressant de procéder par une approche différente du cours magistral. C’est ce qui est proposé par le biais du Serious Game : un jeu de simulation de gestion de projet en ligne, ou le participant endosse le rôle du chef de projet, et doit gérer les différentes phases de son avancement.
Le scénario est entièrement pensé et développé par l’enseignant. Il se base sur des données concrètes : on imagine la construction d’un immeuble en région genevoise, l’organisation du projet est cadrée et des plans sont fournis. De nombreuses situations sont imaginées, dans lesquelles plusieurs décisions sont proposées, chaque prise de décision s’accompagnant de répercussions sur les différents indicateurs (satisfaction client et direction, qualité, coûts et délais). Des aléas de chantier sont intégrés, afin de tester la capacité du joueur à réagir face à des difficultés imprévues. Afin de garantir l’exécution dans le budget et les délais impartis, l’étudiant doit ainsi faire preuve d’une bonne maîtrise des notions du cours tout en se montrant perspicace et entreprenant, qualités importantes pour relever les challenges proposées par ce « jeu sérieux ».
Ce support peut ainsi être vu comme un moyen pédagogique innovant, permettant une mise en application concrète du contenu du cours. La première expérimentation auprès des étudiants en 3ème année a abouti à des retours très enthousiastes de leur part.
L’utilisation du Serious Game représente une innovation pédagogique dans l’apprentissage de la gestion des projets de la construction. Les participants doivent prendre des décisions dans un environnement dynamique. Ils sont obligés d’émettre des hypothèses pour justifier leur choix. Le scénario peut s’utiliser pour la formation en management des architectes et ingénieurs.
Pour les joueurs, il suffit de disposer d’un accès internet, de créer un compte sur albasim.ch et de recevoir le code de la partie à jouer par l’administrateur, rôle échu à l’enseignant. Le scénario de la partie peut être édité uniquement si l’enseignant possède les droits de scénariste.
USS se place dans le contexte d’une valorisation intense de l’énergie solaire dans le tissu bâti, non seulement sur les toitures, mais aussi sur les façades, afin de répondre aux objectifs énergétiques et climatiques de la Suisse. Il s’inscrit à la suite du cadastre solaire élaboré sur un plan horizontal (toitures et territoire) à Genève et vise à développer une méthode et un outil pour analyser l’irradiation solaire sur les façades d’immeubles en recourant aux outils de GIS 2.5D et 3D et de modélisation solaire.
• Outil intégré et performant calculant le potentiel solaire sur les toitures, le terrain (toitures/couverts potentiels) et les façades d’immeubles grâce aux outils GIS 2.5D et 3D.
• Approche géomatique innovante pour modéliser en 3D les façades à partir de modèle numérique de surface en 2.5D (approche par hyperpoints).
• Recours au cloud computing permettant une analyse du potentiel solaire sur un large territoire (plusieurs km2).
• Dispositif de visualisation 3D du résultat d’irradiations solaires sur les façades en vue d’une valorisation plus intensive des façades.
Urban Solar Skin (USS) est un projet financé dans le cadre du programme de recherche du domaine Ingénierie & Architecture (HES-SO) et du sousprogramme Energy District 2050, et co-financé par les Services industriels de Genève (SIG) et l’Office cantonal de l’énergie (OCEN). Il s’inscrit dans un partenariat scientifique international : hepia, HES-VS, Ecole polytechnique de Milan, Faculté des sciences de Lisbonne.
USS se place dans le contexte d’une valorisation intense de l’énergie solaire dans le tissu bâti, non seulement sur les toitures, mais aussi sur les façades, afin de répondre aux objectifs énergétiques et climatiques. En effet, les nouvelles technologies solaires PV sont particulièrement compatibles au niveau technique et architectural avec une valorisation active de l’énergie solaire sur les façades (selon le concept de BiPV).
USS fait suite au projet du cadastre solaire élaboré sur un plan horizontal (toitures et territoire) à Genève. Il propose un outil intégré analysant le potentiel solaire non seulement sur les toitures mais aussi sur les façades (Image 1), dans le but de sensibiliser, communiquer et inciter à la valorisation des façades selon différents modes possibles : solaire actif (PV), ou passif tenant compte du micro-climat urbain.
Si le calcul de l’irradiation solaire sur le terrain et les toitures se base sur un modèle numérique de surface (MNS) en 2.5D issu de relevés LiDAR, alors le calcul sur les surfaces doit intégrer la 3D au sens strict afin de modéliser la surface des façades. Cela est effectué en se basant sur le MNS 2.5D et en générant un ensemble de points (appelés ‘hyperpoints’) le long des façades entre le bord des toitures jusqu’au terrain (cf. Image 2). Le calcul d’ombrage et d’irradiation solaire se fait ensuite sur chacun des points des façades.
Légendes
1 - Irradiation solaire annuelle sur les toitures et les façades dans un quartier à Meyrin à Genève
2 - Génération d’hyperpoints le long des façades à partir du MNS 2.5D (bord toitures) et du MNT (terrain)
L’outil USS a fait l’objet d’un test pilote sur un large territoire du Canton de Genève (12 km2). Selon les résultats de cette phase, il sera possible d’élargir l’analyse et de proposer un cadastre solaire des façades sur une grande partie du Canton (zones urbanisées). Dans le cadre de la planification énergétique territoriale, les applications des résultats du cadastre solaire sont multiples :
• identification des façades à haut potentiel, notamment dans les zones d’activités et industrielles,
• implications sur le marché immobilier en redéfinissant la valeur des bâtiments par rapport à leur potentiel énergétique solaire en toiture et sur les façades,
• évaluation de l’apport solaire passif (bilan énergétique),
• leviers d’actions pour les collectivités pour inciter à l’accroissement de l’installation de panneaux solaires à travers différentes mesures et actions.
Les scripts développés Java permettent de calculer l’irradiation horaire à partir de données météorologiques en tenant compte des ombres portées. Les valeurs horaires d’irradiation sur plan horizontal sont issues de Meteonorm (v7) qui établit des valeurs statistiques à partir des données mesurées à Genève-Cointrin sur la période 1985-2005. Les outils de système d’information géographique, tels que ArcGIS, permettent de traiter les données d’altitude issues du LiDAR pour reconstituer le modèle en 2.5D (toitures) et 3D (façades) du territoire. De plus, dans une phase de post-traitement, ces outils permettent aussi de produire les indicateurs utiles pour la communication et l’aide à la décision.
Enfin, dans la perspective des mises à jour régulières du cadastre solaire (selon le développement du bâti), une optimisation informatique des scripts permet de les exécuter sur des plateformes de Cloud computing accélérant ainsi le temps de calcul.
L. Rinquet, G. Rey, R. Camponovo, P. Gallinelli, D. Varesano (HEPIA), S. Schwab (HEIA-FR), S. Citherlet (HEIG-VD), G-A. Morand (HEVS)
Le projet eRen vise à développer des outils d’aide pour proposer différentes solutions de rénovation énergétique pour les enveloppes d’immeubles de logement en Suisse romande. A partir de l’analyse de dix études de cas concrètes représentatives des typologies constructives et architecturales marquantes du 20ème siècle, il tente de favoriser une approche équilibrée prenant en compte considérations énergétiques, patrimoniales et économiques.
• Dresser un inventaire des différentes typologies constructives existantes en Suisse romande.
• Proposer des solutions de rénovation exhaustives, réalistes et chiffrées servant de bases de travail pour les acteurs de la rénovation thermique du bâtiment.
• Porter une réflexion plus large sur le marché de la rénovation thermique en mettant en évidence ses forces et faiblesses.
L’assainissement énergétique des immeubles d’habitation est un enjeu majeur de la stratégie énergétique 2050 de la Confédération suisse. Malgré la volonté politique, le taux de rénovation énergétique reste relativement limité et le rythme ne semble pas s’accélérer. Parmi les obstacles les plus fréquents on peut indiquer le coût des travaux, le faible prix de l’énergie, les difficultés techniques, les questions patrimoniales, la disponibilité de spécialistes qualifiés, ou la pénurie de logements.
Les interventions ponctuelles sans vision d’ensemble sont la norme. Lorsqu’un projet complet est mené à bien, il se résume souvent à une mise à jour des installations techniques, un remplacement des fenêtres et une isolation périphérique. Ces solutions éventuellement valables sur le plan énergétique posent souvent des questions constructives, de respect du patrimoine, de physique du bâtiment ou encore de durabilité.
L’étude eRen part du postulat que le parc bâti de Suisse romande se décline en différentes typologies constructives, témoins d’époques et de modes de construction différents, qui participent à l’identité de la ville et méritent chacune un traitement particulier afin d’en préserver au mieux les qualités. eRen propose donc un travail sur l’enveloppe des bâtiments basé sur une approche globale et interdisciplinaire cherchant le meilleur équilibre entre efficience énergétique, aspects constructifs et de physique du bâtiment, économie, co-bénéfices et co-pertes et valeur patrimoniale.
En développant des outils d’aide et de réflexion pour la rénovation énergétique des principaux types d’immeubles d’habitation en Suisse romande, le projet constitue un cadre de référence accessible aux principaux acteurs pour leur permettre d’agir ensemble avec efficacité dans le cadre d’une rénovation énergétique tout en tenant compte des valeurs d’usage et culturelles du bâtiment à rénover.
Légendes
1 - Façade d’un bâtiment étudié.
© hepia / leea
2 - Rez-de-chausse présentant un fort potentiel d’isolation. © hepia / leea
3 - Thermographie d’une façade-rideau métallique. © hepia / leea
4 - Installation d’un dispositif de mesure de valeur U sur la toiture d’un bâtiment.
© hepia / leea
5 - Stratégie d’intervention à l’échelle d’un bâtiment. © hepia / leea
6 - Stratégie d’intervention à l’échelle d’un détail constructif. © hepia / leea
L’étude, de par son exhaustivité, permet de sensibiliser différents acteurs professionnels actifs en rénovation thermique (propriétaires, régies, services de l’énergie et des constructions, ingénieurs conseils, architectes) aux questions patrimoniales et de préservation du tissus bâti. L’étude est également valorisée dans le cadre de l’enseignement de la construction à l’hepia (haute école du paysage d’ingénierie et d’architecture) et l’heia-fr (haute école d’ingénierie et d’architecture de Fribourg).
• Mesure des valeurs U de différents éléments de construction sur des bâtiments témoins grâce à l’installation de dispositifs de mesure in situ.
• Bilans thermiques des bâtiments sur logiciel.
• Modélisation du comportement thermique de détails de construction sur logiciel.
Lionel Rinquet, Nicolas Brun, Kinn Galeuchet, Théo Mandanis, Giovanni Salvador, Nicolas Simard, Loic Simon
Le projet Tosa 2 s’inscrit dans un projet plus large qui vise à développer l’utilisation de bus électriques à recharge rapide, sur le réseau genevois. Il s’attache au développement du système de recharge « flash » de grande capacité qui doit alimenter en courant les bus électriques lors de leurs arrêts.
• Conception d’un mât métallique pour supporter une station de charge rapide.
• Intégration des équipements électriques dans le paysage urbain.
• Collaboration étroite avec les différents mandataires et initiateurs du projet.
• Collaboration avec un bureau d’ingénieur civil pour le dimensionnement structurel.
Le projet Tosa est né d’un consortium d’entreprises (TPG, OPI, SIG, ABB) ayant pour ambition de développer un bus électrique pour le réseau de transport public genevois. Hepia participe activement au déroulement de ce projet, en particulier dans le domaine de la conception des structures qui doivent prendre place aux différents arrêts pour approvisionner les bus en énergie électrique. Cette collaboration a déjà donné naissance au projet TosaStruct qui consistait en la conception d’un élément préfabriqué en béton fibré ultra performant, remplacé par une structure métallique dans le déploiement du système.
Dans le cadre du projet Tosa 2, des étudiants en architecture, génie civil et en architecture du paysage ont conçu le mât métallique comme support d’un bloc chargeur capable d’alimenter les bus en courant électrique lors de leurs arrêts, ainsi que les armoires d’installations techniques et l’intégration du tout sur les arrêts de la ligne 23 des TPG. Toutes les contraintes permettant à ce projet de s’inscrire dans une certaine réalité ont été considérées : contraintes structurelles, urbanistiques, techniques, esthétiques, etc. Le mât métallique a fait l’objet d’études plus approfondies, entre autres avec un bureau d’ingénieurs civils, pour préciser certains points de sa conception et le rendre réalisable.
Légendes
1 - Montage photo du mât métallique par les étudiants de hepia.
2 - Bus électrique à sa station de recharge. © abb.ch
3 - Coupe sur une station de recharge.
4 - Plans d’exécution du mât métallique.
• Articles de presse.
• Collaboration étroite avec les différents partenaires et initiateurs du projet.
• Collaboration avec un bureau d’ingénieurs civils pour le dimensionnement structurel et l’étude de faisabilité.
• Participation au think tank « Transports en commun » du DETA.
• Pédagogie, ateliers interdisciplinaires CEN.
• Logiciel de simulation des structures SCIA.
Le projet TosaStruct a étudié l’utilisation d’un matériau novateur dans des conditions difficiles. Il s’agit d’un béton fibré ultra performant (dit BFUP). Ce matériau possède plusieurs qualités qui le rend attractif pour une réalisation particulière : une résistance élevée à la compression et à la traction et une excellente qualité de la surface démoulée.
• Tests en laboratoire de la résistance du BFUP à la compression et à la traction.
• Validation de l’utilisation de pigments colorés pour ce matériau.
• Tests de mise en place du BFUP pour des coffrages d’une géométrie complexe.
• Réalisation de deux éléments préfabriqués pour l’utilisation dans le cadre du projet TOSA.
Le consortium TOSA (www.tosa2013.com) développe actuellement la prochaine génération de bus électriques. Au lieu d’être lié à une ligne de contact comme pour le système des trolleybus aujourd’hui en service, le consortium propose des bus avec des batteries très puissantes. Ces batteries sont rechargées aux arrêts de ligne dans un temps record : environ 15 secondes uniquement.
Pour prouver la fiabilité de la technologie, le consortium a projeté une ligne de test entre la gare CFF de l’aéroport et Palexpo. Cette ligne à nécessité deux potences de recharge. L’emplacement d’une de ces potences sur le viaduc de l’aéroport avec une capacité de charge réduite et sans possibilité d’ancrage au sol fut un véritable challenge pour les ingénieurs d’hepia.
L’application d’un matériau novateur, le béton fibré ultra performant (BFUP), était la solution. La résistance élevée de ce matériau à la traction et à la compression a permis de réduire l’épaisseur des parois de la potence par un facteur 3 et en conséquence, dans la même proportion, le poids propre. Aucune armature passive n’était nécessaire pour renforcer la structure. Avant la production des deux potences en éléments préfabriqués, plusieurs tests en laboratoire ont été menés afin de s’assurer des caractéristiques du matériau.
Les deux éléments préfabriqués d’une géométrie complexe et d’une hauteur de plus que 4 m ont été coulés en une seule fois. La conception du coffrage à du tenir compte des pressions importantes du béton frais ainsi que de la rétraction des éléments formant l’évidement pour éviter une fissuration pendant la phase de prise du ciment.
Après la mise en place des potences de recharge, la ligne a pu être inaugurée en présence de la conseillère fédérale Doris Leuthard et plusieurs conseillers d’état le 26.05.2013.
Légendes
1 - Ajout des fibres métalliques à la masse cémenteuse du béton.
2 - Coffrage pour le test de fluidité du matériau et des différents aspects de surface.
3 - Essai de la résistance à la flexion.
4 - Coffrage de l’élément pendant la préfabrication.
5 - Arrêt « Palexpo » avec potence de recharge et abri.
6 - Arrêt « gare CFF aéroport » lors de l’inauguration le 26.05.2013 en présence de Doris Leuthard, conseillère fédérale.
Publications
• UHPFRC 2013, Proceedings of the RILEM-fib-AFGG International Symposium on Ultra High Performance Fibre-Reinforced Concrete, Marseille, 2013, « Construction of two precast power units in UGPFRC »
• Dimension 2/2013, magazine pour la clientèle de l’entreprise Holcim
• hepianews 8/2013
• Présentation à la journée de la recherche hepia 2013
• Les équipements de test du LEMS (laboratoire des essais des matériaux et des structures, voir fiche séparé).
• Logiciel de simulation des structures.
Lionel Rinquet, Reto Camponovo, Peter Gallinelli, Miguel Sanchez, Damien Varesano, Eric Vittecoq, Martina Zsely Schaffter
Le projet H-CEVA a testé en grandeur nature le comportement des éléments vitrés en double peau compacte respirante imaginés pour les façades des gares du CEVA par le groupement des ateliers Jean Nouvel. hepia, mandatée par l’entreprise Hevron SA a mené, en collaboration avec Beaud Ingénierie Sàrl, l’analyse de l’atmosphère interne des éléments (l’évaluation des risques de condensation et d’encrassement et la rédaction de consignes d’entretien pour l’exploitant). Les partenaires ont ainsi contribué à perfectionner le prototype en vue de la production en série.
• Implication sur un projet phare de l’agglomération genevoise.
• Elaboration d’un protocole d’essai, essais et mesures de comportement sur un système de façade novateur (double peau compact en régime 100% extérieur).
• Test sur les filtres à poussières contenues dans les éléments de façade par exposition in situ et analyse en laboratoire.
Le consortium SHZ, piloté par Hevron SA, réalise les façades qui habilleront les cinq gares du CEVA. Au cœur du projet architectural, ces façades sont composées d’éléments de double peau compacte respirante intégrant plusieurs couches de verres qui réagissent aux conditions météorologiques de manière complexe.
Deux campagnes d’essais se sont déroulées conjointement.
La première a consisté à mesurer durant quatre mois les paramètres physiques de trois prototypes à l’échelle 1:1 installés sur le site de la future gare des Eaux-Vives à Genève. Le monitoring du renouvellement d’air, des températures et de l’humidité à l’intérieur et l’extérieur des éléments a permis de vérifier leur comportement dans des conditions météorologiques variées, d’analyser les risques de formation de condensation et de salissures sur la surface intérieure des verres et d’affiner le système en vue de la production en série.
La deuxième a étudié l’efficacité des filtres anti-poussières assurant la « respiration » des éléments. Un caisson métallique muni de verres et de filtres installé dans la gare de l’aéroport de Cointrin a permis de reproduire par circulation d’air de manière accélérée l’encrassement des filtres et le dépôt des suies ferroviaires sur les verres. Ces suies ont été récoltées sur les verres et ont fait l’objet d’analyses par le service analytique du département TIN (technologies industrielles) d’hepia pour les quantifier et les qualifier.
La synthèse des essais a permis d’évaluer objectivement les risques d’encrassement des éléments de façade et de proposer des prescriptions de maintenance à l’usage de l’exploitant, le but étant de minimiser les coûts d’entretien en cycle de vie.
Légendes
1 - Montage des sondes dans les éléments en atelier chez Hevron SA. © hepia / leea
2 - Condensation intérieure résultant de l’ombre portée de la croix de Saint-André.
© hepia / leea
3 - Grandeurs physiques mesurées.
© hepia / leea
4 - Caisson de test installé à Genève Cointrin.
© hepia / leea
5 - Verres intégrés au caisson de test.
© hepia / leea
6 - Filtre testé en accéléré. © hepia / leea
Les essais ont permis d’appréhender par le biais d’une analyse des grandeurs physiques le comportement d’éléments respirants de double peau compacte en milieu 100% extérieur ce qui constitue une nouveauté dans le domaine de la façade et contribue à réduire significativement les coûts en cycle de vie de l’ouvrage. L’expertise et l’expérience acquise par l’équipe d’hepia durant ce projet ont été valorisées auprès des entreprises du consortium de constructeurs et serviront également au titre de la pédagogie.
• Sondes de température et d’humidité.
• Sondes de mesure de concentration de CO2.
• Caisson étanche en aluminium avec ventilateur pour recréer des conditions d’encrassement accélérées des filtres à poussières.
• Spectrométrie de fluorescence X et spectrométrie infrarouge (TIN).
Le projet INTERREG IVAsQUAD s’inscrit dans un contexte de multiplication des projets transfrontaliers d’aménagement qui font face à des méthodes, des pratiques et des législations différentes. Il a pour finalité de stimuler les réseaux d’acteurs suisses et français autour d’une réflexion sur les projets d’urbanisme durable et de créer avec leur collaboration des centres de compétences au niveau des territoires transfrontaliers, permettant un suivi et le pilotage sur le long terme des quartiers durables.
• Déployer et enrichir l’observatoire transfrontalier Eco-Obs des écoquartiers.
• Formaliser et valider des lignes directrices pour soutenir activement les opérateurs dans la planification et la réalisation de quartiers durables / « écoquartiers ».
• Organiser des formations afin de renforcer les compétences des professionnels.
• Structurer et pérenniser des centres de compétences régionaux.
Si les porteurs politico-administratifs des projets urbains sont en majorité sensibilisés aujourd’hui aux enjeux du développement urbain durable, ils se sentent souvent démunis pour les intégrer de façon cohérente dans les projets d’aménagement aux différents stades (appel à projets pour les plans de quartier, concours, mandats d’étude parallèle, etc.). Des outils, des labels, des référentiels existent, qui permettent d’évaluer de façon factuelle les projets de quartiers durables, mais ne suffisent pas en eux-mêmes à soutenir le processus de planification. En effet, ce processus requiert un outil de pilotage intégrant les diverses étapes de développement du projet ainsi que l’implication des différentes parties prenantes. Ces besoins ont été notamment mis en évidence dans les contextes transfrontaliers suisses et français lors du projet Interreg IVA « Eco-Obs: observatoire transfrontalier des écoquartiers », mené entre 2009 et 2012. De tels besoins ont motivé le montage d’un nouveau projet Interreg IVA
- sQUAD, piloté par la HES-GE / hepia (CH) et INES-Plateforme évaluation et formation (F) qui associe des partenaires académiques, privés, et du monde associatif. Il a démarré en janvier 2014 et s’achèvera durant l’été 2015.
Le projet sQUAD a pour finalité de stimuler les réseaux d’acteurs suisses et français autour d’une réflexion sur les projets d’urbanisme durable et de créer avec leur collaboration des centres de compétences au niveau des territoires transfrontaliers, permettant un suivi et le pilotage sur le long terme des quartiers durables.
Cela implique:
• de déployer l’observatoire Eco-Obs et de capitaliser du savoir sur les processus en cours de construction de quartiers durables sur des territoires transfrontaliers (le Grand Genève, l’Arc Jurassien, le Valais et le Chablais, la région de Chambéry et celle de Grenoble);
• de formaliser sur cette base des lignes directrices pour l’accompagnement d’opérateurs urbains dans le processus de planification de quartiers (assistance à maîtrise d’ouvrage ou AMO en France);
• de favoriser des échanges d’expériences et de savoir-faire entre les acteurs techniques et politiques;
• d’organiser des formations visant à mettre sur pied des démarches de co-apprentissage à partir de cas pratiques et de références théoriques reconnues.
En résumé, le projet proposé vise à répondre effectivement et de manière opérationnelle aux besoins des collectivités et des acteurs privés. Il ne se limite pas au déploiement d’un simple outil d’observation, mais contribue au développement d’un réseau de compétences et de savoir-faire au service des maîtres d’ouvrage.
Légendes
1 - Ecoquartier « Eikenott » réalisé à Gland (VD).
2 - Ecoquartier d’ « Ecovela » à Viry - France.
3 - Image de synthèse du futur écoquartier des Vergers à Meyrin.
4 - Territoires sQUAD.
Treize quartiers pilotes ont été analysés par le biais des outils proposés par l’observatoire (grilles d’évaluation selon Quartier durables/Sméo en Suisse, Label Ecoquartier en France, dispositif d’analyse des processus de planification sous l’angle du pilotage et de la gouvernance). Les retours d’expériences de ces analyses ont permis d’identifier les critères incontournables communs entre la France et la Suisse dans la perspective d’un pilotage stratégique, et de développer les lignes directrices guidant le processus de planification et la composition des quartiers durables.
Trois chercheurs d’institutions académiques différentes ont développé un outil « SIG-solaire » qui a été mis à disposition de la présente étude sur le canton de Genève. Il permet d’évaluer de façon systématique l’irradiation solaire accessible sur le territoire et particulièrement le potentiel de production énergétique sur les toits et les façades des bâtiments. Il se base sur les données météorologiques locales ainsi que sur les données géographiques facilement disponibles, par exemple au travers du Système d’information du territoire genevois (SITG).
• Cartographie du potentiel solaire de façon systématique et automatique sur un large territoire, en s’appuyant sur les données 3D des bâtiments.
• Communication au public sur le potentiel solaire des toitures.
• Gain de temps dans les avant-projets d’installation de panneaux solaires (nombreux déplacements in situ évités).
• Découverte du potentiel solaire sur d’autres objets que les faces de toits (sur le terrain par exemple abris/car-ports, parkings, etc.).
L’outil proposé est issu d’un travail interdisciplinaire mettant en synergie un certain nombre de compétences et de techniques dans les domaines de la télédétection, des systèmes d’information géographique (SIG) 2D et 3D, de l’analyse d’images, et des indicateurs environnementaux. Il permet d’évaluer l’irradiation solaire sur le territoire à différentes échelles temporelles avec une précision et une fiabilité tout à fait satisfaisantes pour les besoins énoncés par les mandants; ceci grâce à la reconstitution précise du territoire en 3D au travers des données aéroportées LiDAR et à une intégration des différentes sources d’ombrage.
L’ombrage sur la composante directe de l’irradiation est évalué à chaque heure d’une journée type à partir d’un voisinage proche (bâti, arbres), ou lointain (relief). Le facteur d’ombrage sur la composante diffuse peut être approché par le Sky view factor, qui analyse le degré de visibilité ou la non-obstruction dans le demi-hémisphère centré sur un point donné, selon le principe du « Fisheye ».
Les résultats bruts d’irradiation sont ensuite traités, dans une phase de post-traitement, dans des outils SIG pour produire des indicateurs utiles pour la communication et l’aide à la planification et à la décision : statistiques d’irradiation par toiture, ratios d’ombrage, parties des toitures productives, potentiels de production énergétique thermique et électrique sur les toitures et les façades.
Légendes
1 - Ecoquartier « Eikenott » réalisé à Gland (VD).
2 - Ecoquartier d’ « Ecovela » à Viry - France.
3 - Image de synthèse du futur écoquartier des Vergers à Meyrin.
4 - Territoires sQUAD.
L’outil SIG-solaire a pu être mis en œuvre afin d’élaborer le cadastre solaire sur tout le canton de Genève, sous mandat de l’Office cantonal de l’énergie (OCEN) et des Services Industriels de Genève (SIG), notamment grâce aux puissances de calcul et au traitement spatial systématique et automatisé propre aux SIG, tout en gardant une grande précision d’analyse (pixel de 0.5 m) nécessaire à une analyse fine de l’irradiation solaire sur les toitures. Dans le cadre de la planification énergétique territoriale, les applications des résultats du cadastre solaire sont multiples :
• implications sur le marché immobilier en redéfinissant la valeur des bâtiments par rapport à leur potentiel énergétique solaire en toiture et sur les façades,
• évaluation de l’apport solaire passif (bilan énergétique),
• leviers d’actions pour les collectivités pour inciter à l’accroissement de l’installation de panneaux solaires à travers différentes mesures et actions.
Les scripts développés Java permettent de calculer l’irradiation horaire à partir de données météorologiques en tenant compte des ombres portées.
Les valeurs horaires d’irradiation sur plan horizontal sont issues de Meteonorm (v6.1) qui établit des valeurs statistiques à partir des données mesurées à GenèveCointrin sur la période 1980-2000.
Les outils de système d’information géographique, tels que ArcGIS, permettent de traiter les données d’altitude issues du LiDAR pour reconstituer le modèle en 2.5D (toitures) et 3D (façades) du territoire. De plus, dans une phase de post-traitement, ces outils permettent aussi de produire les indicateurs utiles pour la communication et l’aide à la décision.
Enfin, dans la perspective des mises à jour régulières du cadastre solaire (selon le développement du bâti), une optimisation informatique des scripts permettra de les exécuter sur des plateformes de Cloud computing accélérant ainsi le temps de calcul.
Suite à une décision du Canton de Genève de requalifier le réseau des transports en commun horizon 2012, il nous a été demandé d’évaluer la capacité des aménagements de certaines interfaces de transport à absorber le flux d’usagers (en situation de transbordement) et d’évaluer les risques sécuritaires liés à la future mise en service.
• Visualiser les tables de matrices en 3D.
• Identifier les zones accidentogènes.
• Tester les propositions de mobilité.
• Disposer d’un référentiel.
• Bénéficier d’outils de vulgarisation et d’aide à la décision.
La simulation de foule en situation de mobilité intermodale combine les données d’ingénieurs de différents services de la ville et du canton pour être représentées en 3D. Une partie importante des données provient du Système d’Information du Territoire Genevois (SITG) et des experts en transport. Concrètement, il s’agit de mettre en place un simulateur permettant l’observation des comportements piétons, du trafic urbain et l’analyse itérative de divers scénarios de déplacement au cœur d’une interface de transport multimodal.
La représentation de mouvements de foules est un exercice très complexe. Le phénomène étant très aléatoire, il doit néanmoins s’adapter à certaines règles de régulation du trafic. Il implique par conséquent la gestion d’une multitude d’éléments en interaction permanente dans un espace-temps bien défini.
La simulation en cours est un projet pilote car il confronte pour la première fois les études réalisées par différents groupes d’ingénieurs.
La simulation proposée ne peut en aucun cas prétendre fournir des réponses clé en main, ni reproduire le phénomène avec exactitude. Elle permet néanmoins de proposer un outil d’aide à la décision très performant car dynamique et itératif. Il offre la possibilité d’observer des mouvements de foule en interaction directe avec les réseaux des transports en commun et les réseaux mécaniques. http://mip.hesge.ch
Légendes
1 - Le réseau de tramway genevois (DGM).
2 - Matrice de calculs d’ingénieurs mobilité (CITEC et TPG).
3 - Matrice de feu de signalisation (Service de la voierie, ville de Genève).
4 - Visualisation sur la raquette de Plainpalais.
5 - Visualisation sur la station Plainpalais.
6 - Visualisation sur la station Bel-Air.
• Présentation aux élus du canton de Genève
• Présentation au salon Imagina 2010 Monaco
• Présentation au salon Telecom 2011 Palexpo Genève
• Présentation au salon SIG Versailles 2010
• Présentation au salon Geosummit à Bern 2011
• Présentation au salon IFLA à Zurich 2010
• Logiciel de modélisation 3D et de SIG.
Actuellement, le canton de Genève planifie dix «Grands Projets» de développement urbain pour répondre aux besoins de logements des habitants, construire des espaces de qualité, réduire les mouvements pendulaires... Le début de chantier étant agendé dès 2015-2018, le groupe mip a été sollicité pour développer des solutions de représentations du territoire et des projets par l’utilisation des maquettes numériques.
• Répondre aux besoins des décideurs et des mandataires.
• Insertion des projets d’urbanisme dans une maquette numérique du territoire existant.
• Précision et rigueur des données SIG utilisées.
• Rapidité de mise à jour.
• Réel outil de communication et de concertation.
• Impression du modèle 3D via une imprimante 3D.
• Insertion de l’impression 3D dans une maquette physique.
Les SIG (Systèmes d’information géographique) et la 3D sont devenus des outils indispensables pour la visualisation de données et l’élaboration de projets. Dans le but de répondre aux besoins des décideurs, chefs de projets, et parties prenantes, le groupe mip a développé un modèle de données et des routines d’exécution pour générer les socles de base du territoire en trois dimensions et insérer des projets d’urbanisme et de développement.
Les solutions développées permettent une mise à jour rapide des projets dans le temps pour assurer un suivi à court, moyen et long terme. Au final, la visualisation des projets dans la maquette numérique du territoire sert tant le projet que les décideurs et les habitants, car plus qu’une simple image, la visualisation numérique devient un outil de communication, de concertation et d’aide à la décision dans le cycle de vie du projet.
Plus d’informations sur les «Grands Projets»: http://ge.ch/amenagement/grands-projets
http://mip.hesge.ch
Légendes
1 - Processus de fabrication de la maquette numérique via un logiciel 3D (Cinema 4D).
2 - Maquette blanche du territoire avec courbes topographiques et bâtiments.
3 - Maquette blanche du territoire avec courbes topographiques, bâtiments, arbres et forêts.
4 - Maquette du territoire avec orthophoto en texture.
5 - Maquette du territoire avec plan guide cantonal en texture.
Publications
• Exposition lors de la Quinzaine de l’Urbanisme en septembre 2014
• Utilisation lors de tables rondes pour les Grands Projets
• hepianews 02/2014 sous «Cités numériques»
• Logiciel de modélisation 3D, de SIG, et vectoriel.
Groupe mip / Olivier Donzé, Alain Dubois, Nedjma Cadi, Damien Dumusque
Le projet se fixe l’objectif d’élaborer une méthode pour la création de maquettes virtuelles 3D historiques du territoire suisse. Cet outil interactif d’analyse et de visualisation permettra entre autres à tous les acteurs de l’aménagement de comprendre très rapidement l’évolution d’un territoire et, ainsi, d’améliorer leurs interventions. Ce sera également un formidable outil de pédagogie pour les étudiants des professions liées à l’aménagement du territoire.
• Evolution chronologique du territoire.
• Outils pour la gestion des parcs et espaces plantés.
• Visualisation des étapes de construction et de modification du territoire.
• Rapidité de mise à jour.
• Précision et rigueur des données SIG utilisées.
• Outil de communication.
Il s’agit de développer une méthode pour recréer le paysage depuis 1789 à nos jours. C’est en effet pendant cette période que l’urbanisation en Europe a subi les plus profonds bouleversements. De plus, les données à disposition permettent de recréer fidèlement le paysage en s’appuyant entre autres sur des photos aériennes et des cartes précises.
L’objectif de la recherche est double: trouver la méthode la plus rationnelle possible pour arriver à cette modélisation et stocker les géodonnées obtenues en cohérence avec les sytèmes d’informations du territoire actuels. Pour expérimenter la méthode, le choix de l’aire d’étude s’est porté sur le périmètre du PAV (Praille, Acacias, Vernets) à Genève, ainsi que sur les sites des parcs des Eaux-Vives, de La Grange et de Beaulieu.
http://mip.hesge.ch
Légendes
• Conférences
• Site web
• Présentation journée Ra&D 2014
• Logiciel de modélisation 3D, de SIG, documentation historique (plans, textes, ...)
Dans le cadre de la recherche menée par le groupe MIP sur «les grands projets» d’aménagement du territoire du canton de Genève, en parallèle du travail de production de maquettes 3D, le groupe a mis en place un système mettant en relation des maquettes physiques du territoire et des données 2D des différentes couches du SITG.
• Visualisation à grande échelle des planifications urbaines.
• Intéraction avec le visiteur.
• Animation des projets d’urbanisme et de mobilité sur la maquette du territoire existant.
• Rapidité de mise à jour.
• Précision et rigueur des données SIG utilisées.
• Outil de communication et de concertation.
• Projection de n’importe quelle donnée géoréférencée.
• Evolution chronologique du territoire.
Dans le cadre des Grands Projets, le canton de Genève dispose de maquettes physiques du territoire existant à l’échelle 1:1’000, avec la possibilité d’insérer des maquettes des projets à venir sous forme de pièces emboîtables. Les maquettes deviennent alors support de communication, et les nouvelles technologies permettent de projeter et d’animer des données directement sur la maquette physique.
La maquette s’anime par la projection numérique et prend vie. Les différentes couches se calent parfaitement sur le relief et font découvrir de manière dynamique les usages et occupations du territoire passé, présent et à venir. Ce sont les prémisses d’une réelle intéractivité avec le visiteur.
http://mip.hesge.ch
Légendes
1 - Vidéoprojection sur la maquette de Chêne-Bourg / Chêne-Bougeries.
2 - Utilisation lors de l’évènement annuel de l’Office de l’Urbanisme de Genève.
3 - Impression 3D insérée dans la maquette physique.
• Exposition lors de la Quinzaine de l’Urbanisme en septembre 2014
• Utilisation lors des tables rondes pour les Grands Projets
• Utilisation lors des portes ouvertes d’hepia en 2014
• Logiciel de modélisation 3D, de SIG et vectoriel, beamers
Le projet Eco-OBS a débuté en 2009 et s’inscrit dans le cadre du programme européen INTERREG IVA. Ce projet fédérateur entre la France et la Suisse est motivé par la multiplication des projets transfrontaliers d’aménagement qui font face à des méthodes, des pratiques et des législations bien différentes. Il est issu du partenariat entre hepia et le Centre National de la Recherche Scientifique (CNRS) en France.
Eco-OBS a pour objectif d’aider à l’élaboration de projets urbains durables en fournissant à leurs porteurs les différents objectifs, enjeux et critères de durabilité à prendre en compte, pour situer leur projet par rapport à d’autres et renforcer leurs compétences à travers une formation adaptée.
Le principe premier de l’observatoire transfrontalier des écoquartiers est de mettre à disposition des porteurs de projets de nouveaux quartiers, ou de quartiers existants en Suisse ou en France, des outils et des éléments pour observer et évaluer leurs quartiers selon une grille d’analyse commune. Il s’agit d’une démarche d’auto-évaluation.
Le projet s’appuie sur une plate-forme Internet (www.eco-obs.org) qui propose :
Plusieurs outils pour évaluer les quartiers, qui permettent de guider les personnes dans la planification de leur projet de quartier :
• outil SMEO : pour l’analyse d’un quartier selon une grille multicritères commune pour la Suisse et pour la France ;
• outil Ulysse : pour l’analyse de la complexité urbaine à travers la causalité entre les critères ;
• outil benchmarking : pour comparer un quartier avec d’autres.
Un centre de ressources qui rassemble des supports utiles pour la planification et l’évaluation de quartiers. Il dispose d’un référentiel des écoquartiers sur le territoire transfrontalier et d’une interface « Wiki » interactive proposant par critère des définitions, méthodes d’évaluation, dispositifs légaux, méthodes et techniques.
Eco-OBS a également pour objectif de définir les besoins en formation sur le thème des écoquartiers pour les professionnels de la planification urbaine afin de mettre en place des modules de formation.
Légendes
1 - Bannière internet Eco-OBS
2 - MICA Mon-Idee-Communaux-d’Ambilly ©Bonnet Architectes
3 - Image de synthèse du site des Vergers, Commune de Meyrin. ©Archigraphie.ch
4 - Vue d’un écoquartier. ©Patriarche & Co
Les outils proposés par Eco-OBS sont dans un premier temps testés sur des quartiers pilotes. Par la suite, les porteurs de projets d’autres quartiers pourront saisir les informations selon le principe d’autoévaluation.
Plusieurs publications « cahiers Eco-OBS » ainsi que des articles scientifiques ont servi à la valorisation du projet. Le projet a également été présenté durant des séminaires transfrontaliers et lors de conférences ayant trait à l’urbanisme durable en Suisse et en France.
EnerCAD est un environnement interactif de conception et d’optimisation thermique destiné aux architectes, ingénieurs thermiciens et maîtres d’ouvrage. Ce programme permet aux usagers d’établir un bilan thermique pour un bâtiment dès les premières phases d’un projet conformément à la norme SIA 380 / 1 : 2009. Les résultats peuvent être imprimés sous forme de formulaires officiels et admis pour les autorisations de construire, avec différents graphiques ou rapports.
Formulaires de justification par performances globales et ponctuelles.
• Outil de calcul des valeurs U stationnaires et des valeurs U dynamiques.
• Calcul de composants homogènes et in-homogènes avec évaluation du risque de condensation.
• Ponts thermiques avec prise en compte détaillé du milieu voisin.
• Diffusion de vapeur : calcul des pressions partielles, de saturation et zone de condensation.
• Résultat en temps réel.
• Multi-plate-forme MAC-OS, Windows et Linux / Unix.
• Multilingue : français, allemand, italien.
Le programme EnerCAD est un ensemble d’outils de calcul et de simulation en rapport avec l’énergie dans le bâtiment. Il permet une saisie du projet aisée et rapide grâce à son interface graphique et conviviale. De nombreux utilitaires et bibliothèques, intégrés dans le programme (matériaux, composants), facilitent le travail.
Un des atouts principaux du logiciel est l’approche énergétique réalisée qui fait partie intégrante du projet bâtiment dès ses premières heures. Le logiciel n’est pas juste un outil à produire des formulaires de justification pour le permis de construire.
Les résultats sont présentés sous forme de graphiques et de tableaux permettant une compréhension rapide. Le programme offre également la possibilité d’évaluer le potentiel solaire actif (chauffage, production d’eau chaude sanitaire et photovoltaïque) du bâtiment étudié.
EnerCAD est homologué depuis début 2002 pour le calcul de la demande de chaleur de chauffage lors des autorisations de construire.
Un effort particulier a été porté sur l’aide au développement d’un projet. Outre un retour d’information immédiat suite à la modification d’un paramètre constructif par une actualisation du calcul en temps réel, EnerCAD intègre une évaluation de la conformité de l’efficacité énergétique pendant la saisie des éléments d’enveloppe.
Ce logiciel s’adresse particulièrement aux architectes mais aussi aux ingénieurs et bureaux d’études souhaitant intégrer l’optimisation énergétique des bâtiments dans leur domaine de compétences.
Légendes
1 - Outil valeur U : calcul de la valeur U statique et dynamique. © leea/hepia
2 - Catalogue des matériaux : gestionnaire des propres matériaux et des matériaux de fabricants. © leea/hepia
Des licences professionnelles qui sont vendues aux spécialistes des métiers du bâtiment sont accompagnées d’un helpdesk. Cette aide en ligne va bien plus loin qu’une aide informatique et traite également des questions liées aux normes en vigueur et prodigue des conseils sommaires. Le logiciel est également utilisé à des fins didactiques dans les écoles d’ingénieurs, les universités et pour des cours de formation continue.
• Ecobilan : EnerCAD propose l’évaluation de la masse [kg/m²] et des trois principaux indicateurs écologiques selon le KBOB / eco-bau : - la part d’énergie grise non renouvelable en MJ NRE, - la contribution à l’émission de gaz à effet de serre en kgEqCO2 et - les écopoints UBP (Umwelt-Belastungs-Punkte).
• CEB : Certificat énergétique du bâtiment selon cahier technique SIA 2031 (SN EN 15217 et SN EN 15603).
• Gestionnaire des matériaux : En offrant un gestionnaire de matériaux avec un accès en ligne aux catalogues de fabricants, EnerCAD est mieux que jamais armé pour optimiser votre projet sous son aspect thermique, qu’il s’agisse de constructions neuves, de rénovations ou encore de réalisations à hautes performances énergétiques (Minergie, Minergie-p, Passif).
Le projet Egg-to-Fry (ETF) consiste à développer une méthode de mesure permet tant d’évaluer la qualité des rivières à travers les premiers stades de vie des salmonidés. Durant la phase de l’œuf à l’émergence (Egg-to-Fry), les jeunes alevins dépendent directement de la qualité de l’eau interstitielle (circulant dans le gravier). De ce fait, connaî tre le taux de survie des premiers stades de développement des salmonidés permet de démontrer la qualité des rivières et de leurs bassins versants.
Le but de ce projet est de fournir aux gestionnaires des cours d’eau un outil d’aide à la décision. Le kit n’améliore pas directement la qualité de nos rivières mais constitue une aide à la gestion. En effet, il propose un diagnostic représentatif de l’état écologique ainsi que de la qualité piscicole des rivières et de leurs bassins versants. Cette méthode permet également de cibler dans le temps et dans l’espace des problèmes particuliers, comme des sources de pollutions épisodiques ou des rejets illégaux.
Les truites, comme les autres salmonidés, sont très sensibles à la qualité de leur habitat, aux variations de la température ainsi qu’à la qualité de l’eau. L’état des populations témoigne donc de la bonne santé des écosystèmes aquatiques. Les jeunes salmonidés sont particulièrement exigeants en ce qui concerne les propriétés de l’eau et, de ce fait, à l’état de l’ensemble du bassin versant. En somme, l’étude des premiers stades de vie nous permet de cerner les problèmes d’une rivière à différentes échelles grâce à l’exigence et à la sensibilité des salmonidés aux différents facteurs biotiques et abiotiques.
De nos jours, les personnes en charge des cours d’eau et de la faune piscicole disposent de trois options de gestion des rivières. Le problème fondamental est de savoir laquelle choisir en fonction des impératifs écologiques, administratifs, sociaux et financiers que ce choix va engendrer.
• Option 1) La non-intervention.
Lorsque la reproduction naturelle fonctionne et que la population piscicole est stable.
• Option 2) Le repeuplement
Cette technique consiste à élever des poissons en pisciculture, puis à les réintroduire dans le milieu naturel.
• Option 3) La renaturation.
Cette voie consiste à étudier la population piscicole et le milieu dans lequel elle vit, afin d’identifier les causes de diminution des effectifs et / ou les facteurs limitants des populations.
ETF-Kit est une méthode ayant pour but d’aider les gestionnaires dans ces choix. En estimant la réussite de la reproduction et en la corrélant aux paramètres physico- chimiques de l’eau, il est possible de mettre en évidence les dysfonctionnements des écosystèmes aquatiques.
Légendes
1 - Œufs de truites dans le gravier.
2 - Alevins venant d’éclore de l’œuf.
3 - Alevins émergés dans l’Aubonne.
4 - Boîtes dans une frayère artificielle.
5 - Extraction des boîtes.
6 - Zone naturelle où les truites viennent se reproduire. © Damien Robert-Charrue
Actuellement, le projet ETF-Kit collecte des données pour étalonner la méthode. Plusieurs rivières sont échantillonnées en Suisse Romande et les résultats ont déjà permis d’affiner la méthode et les outils. La méthode fera l’objet de différentes publications pour informer des résultats obtenus. De plus, un brevet concernant les outils devrait être déposé.
Le projet prévoit de mettre à disposition des gestionnaires un kit de mesure composé de deux outils principaux :
• Des boîtes de développement permettent aux œufs de salmonidés de se développer de manière naturelle. Celles-ci sont insérées dans les rivières à étudier, puis sont relevées aux stades clés du développement des espèces. La conception de ces boîtes permet également de réaliser des prélèvements de l’eau s’écoulant sous le gravier et donc de mesurer la qualité de l’eau interstitielle de manière simple et rapide.
• Une sonde multiparamètres de terrain permet de mesurer, de manière sporadique et selon les besoins, les variables principales limitant le développement des premiers stades de vie des salmonidés. Cet outil permet de réaliser en quelques minutes une série d’analyses in situ.
Gilles Desthieux (hepia), Claudio Carneiro (EPFL), Eugenio Morello (Politecnico di Milano)
Trois chercheurs d’institutions académiques différentes ont développé un outil « SIG-solaire » qui a été mis à disposition de la présente étude sur le canton de Genève. Il permet d’évaluer de façon systématique l’irradiation solaire accessible sur le territoire et particulièrement sur les toits des bâtiments. Il se base sur les données météorologiques locales ainsi que sur les données géographiques facilement disponibles, par exemple au travers du Système d’information du territoire genevois (SITG).
• Cartographie du potentiel solaire de façon systématique et automatique sur un large territoire, en s’appuyant sur les données 3D des bâtiments.
• Communication au public sur le potentiel solaire des toitures.
• Gain de temps dans les avant-projets d’installation de collecteurs solaires (nombreux déplacements in situ évités).
• Découverte du potentiel solaire sur d’autres objets que les faces de toits (sur le terrain par exemple abris, parkings, etc.).
L’outil proposé est issu d’un travail interdisciplinaire mettant en synergie un certain nombre de compétences et de techniques dans les domaines de la télédétection, des systèmes d’information géographique (SIG) 2D et 3D, de l’analyse d’images, et des indicateurs environnementaux. Il permet d’évaluer l’irradiation solaire sur le territoire à différentes échelles temporelles avec une précision et une fiabilité tout à fait satisfaisantes pour les besoins énoncés par les mandants ; ceci grâce à la reconstitution précise du territoire en 3D au travers des données aéroportées LiDAR et à une intégration des différentes sources d’ombrage.
L’ombrage sur la composante directe de l’irradiation est évalué à chaque heure d’une journée type à partir d’un voisinage proche (bâti, arbres), ou lointain (relief). Le facteur d’ombrage sur la composante diffuse peut être approché par le Sky view factor, qui analyse le degré de visibilité ou la non-obstruction dans le demi-hémisphère centré sur un point donné, selon le principe du « Fisheye ».
Les résultats bruts d’irradiation sont ensuite traités, dans une phase de posttraitement, dans des outils SIG pour produire des indicateurs utiles pour la communication et l’aide à la planification et à la décision. Dans le cas de la présente étude, il s’agit de statistiques d’irradiation (moyenne, médiane, minimum, maximum, écart type) calculées sur les vecteurs des toitures à partir des résultats en mode raster.
Cependant, d’autres indicateurs utiles, tels que le facteur d’ombrage, les parties de toiture utiles et en définitive les potentiels thermiques ou photovoltaïques pourront être calculés sur la base de ces résultats.
L’outil SIG-solaire a pu être mis en œuvre afin d’élaborer le cadastre solaire sur tout le canton de Genève, sous mandat du Service cantonal de l’énergie (ScanE) et des Services Industriels de Genève (SIG), notamment grâce aux puissances de calcul et au traitement spatial systématique et automatisé propre aux SIG, tout en gardant une grande précision d’analyse (pixel de 0.5 m) nécessaire à une analyse fine de l’irradiation solaire sur les toitures. Les applications des résultats du cadastre solaire sont multiples dans le cadre de la planification énergétique territoriale : implications sur le marché immobilier en redéfinissant la valeur des bâtiments par rapport à leur potentiel énergétique solaire en toiture, leviers d’actions pour les collectivités pour inciter à l’accroissement de l’installation de panneaux solaires à travers différentes mesures et actions.
Les scripts développés dans le logiciel MatLab permettent de calculer l’irradiation horaire à partir de données météorologiques et tenant compte des ombres portées.
Les valeurs horaires d’irradiation sur plan horizontal sont issues de Meteonorm (v6.1) qui établit des valeurs statistiques à partir des données mesurées à Genève-Cointrin sur la période 1980-2000.
Les outils de système d’information géographique, tels que ArcGIS, permettent de traiter les données d’altitude issues du LiDAR pour reconstituer le modèle en 3D du territoire, sur lequel est calculé le potentiel d’irradiation solaire, et, dans une phase de post-traitement, de produire les indicateurs utiles pour la communication et l’aide à la décision.
g-box est un calorimètre solaire qui mesure les flux thermiques au travers des « systèmes de façade translucides ». L’appareil est composé de deux enceintes isolées placées derrière deux fenêtres à mesurer, dont l’une peut servir de référentiel. L’enceinte est maintenue à température constante moyennant un groupe de froid / chaud. La chaleur évacuée / apportée est mesurée par le débit du liquide caloporteur et la différence de température entre entrée et sortie de l’échangeur de chaleur dans l’enceinte.
L’architecturale contemporaine se caractérise par la transparence qui se traduit par une forte utilisation du verre dans la construction. Amplifiée par la perspective d’étés plus longs et plus chauds ainsi que par le phénomène de l’apparition d’îlot de chaleur urbain, qui est le corollaire d’une urbanisation galopante, la surchauffe estivale des bâtiments est un sujet d’actualité qui peut déboucher sur de l’inconfort et donc provoquer un recours accru au froid artificiel engendrant une surconsommation énergétique.
Malgré le perfectionnement des systèmes de façade, la problématique persiste car les performances théoriques établies sur papier ou en laboratoire se retrouvent difficilement dans la réalité construite. Ceci, du fait que, d’une part, la réalité construite est souvent bien plus complexe à cerner qu’un environnement de laboratoire, et que, d’autre part, les systèmes de façades se caractérisent par une multitude d’interactions complexe entre leurs constituants : ouvertures, verres, protections solaires intérieures et extérieures, comportement des occupants, climat réel…
Si l’édition 2007 de la norme SIA 382/1 « Installations de ventilation et de climatisation – Bases générales et performances requises » donne un cadre aux coefficients de transmission d’énergie solaire des fenêtres (valeurs g) à atteindre par la combinaison du verre et des protections solaires, il n’est pas aisé de parvenir aux valeurs exigées, en particulier dans le cas de bâtiments fortement vitrés. Selon le contexte bâti et le choix des verres, des teintes, de la disposition et du mode opératoire, la valeur g réelle peut aisément dépasser de plusieurs pource nts l’objectif théorique. Il peut en résulter une surchauffe estivale des bâtiments nécessitant le recours aux systèmes de refroidissement actifs, par définition énergétivores.
Si certains laboratoires de recherche sont dotés de calorimètres (LBNL Berkley, EMPA...), ces derniers sont stationnaires en raison de leur grande taille ; g-box est transportable et ouvre ainsi la possibilité de mesurer in situ les propriétés de façade de bâtiments en exploitation et d’approcher ce type d’instrumentation de clients potentiels.
Il n’existe pas d’appareil transportable qui permette de mesurer et d’expertiser le comportement réel des façades construites. Le projet g-box consiste dans le développement d’un calorimètre transportable perfectionné qui, contrairement aux bancs de mesure fixes en laboratoire, peut être mis en œuvre sur les façades de bâtiments existants ou sur des échantillons de façades représentatives pour en qualifier le fonctionnement thermique (simple peau, double peau) en conditions d’exploitation réelles. A ce titre, l’appareil trouve également son utilité dans le cadre d’expertises.
L’exploitation du g-box permet d’accéder à la mesure, l’expertise et la documentation d’un large éventail de systèmes réels, qui peut à son tour constituer un référentiel très utile aux constructeurs (architectes, ingénieurs).
Légendes
1 - g-box duo en exploitation (hepia).
© Peter Gallinelli
2 - g-box duo (SUPSI). © Peter Gallinelli
3 - Fabrication du caisson de l’enceinte.
Les données récoltées et les connaissances acquises sont directement utiles aux professionnels. Elles sont en effet immédiatement exploitables. Par ailleurs, ces connaissances peuvent en outre être parfaitement intégrées à la formation des constructeurs (architectes, façadiers, etc.), notamment dans le contexte de cours ad-hoc (Bachelor, Master, Formation continue) et dans le cadre de la formation de base. La création d’un portail Internet spécifique à cette problématique d’actualité est prévue.
Le développement de la g-box se base sur un prototype développé dans le contexte de l’expertise d’une verrière de centre commercial à Genève ayant permis de tester l’effet de films antisolaires. g-box fait appel aux derniers capteurs et dispositifs de régulation utilisés dans le domaine des processus industriels ; d’autres éléments sont issus du domaine de l’industrie chimique et de la mécanique. La prise de mesures est basée sur les acquisiteurs et capteurs couramment utilisés au LEEA pour la mesure en thermique du bâtiment.
g-box est un exemple de la convergence de compétences complémentaires au sein d’hepia et de la collaboration avec d’autres institutions (SUPSI).
Les essais de matériaux et structures sont incontournables dans le secteur privé et représentent également un apport concret dans l’enseignement de la connaissance des matériaux utilisés dans la construction.
A cet effet, le LEMS (laboratoire d’essais des matériaux et des structures) effectue de nombreuses expertises pour le compte du DCTI (département des constructions et des technologies de l’information), de bureaux d’études ou d’entreprises de la construction, notamment des essais pour définir les qualités des matériaux utilisés dans la réalisation de nouveaux ouvrages ou la rénovation d’ouvrages existants. Les essais effectués sont conformes aux normes en vigueur.
Les ressources, l’expérience et les réseaux relationnels du LEMS au sein d’hepia permettent de traiter de manière pluridisciplinaire les projets et mandats
Ra&D qui lui sont confiés, en recherchant et en privilégiant le dialogue avec le mandant. A cette fin, et en partenariat avec le mandant, le projet est décomposé en ses volets théoriques, numériques et expérimentaux pour disposer d’une analyse complète des projets traités.
Domaines privilégiés de compétences
Le LEMS dispose de compétences en recherche appliquée et développement (Ra&D) dans les domaines des matériaux de construction :
• essais sur les matériaux
• analyse des structures
• essais sur des éléments de structure
• contrôle et essais in situ
Activités principales (liste non exhaustive)
Essais pour le compte de bureaux d’études ou d’entreprises de la construction, notamment des essais de résistance du béton à la compression ou d’armatures de béton à la traction.
Essais d’éléments de structures réalisés également dans les domaines de l’acier, de l’aluminium, du bois ou du béton ainsi que des expertises de structures existantes :
• essais de comportement et de résistance des structures en vraie grandeur ;
• essais de compression, traction et / ou flexion ;
• mesures des déformations des structures au moyen de capteurs inductifs et/ou de jauges de déformation.
Participation à l’enseignement de la connaissance des matériaux utilisés dans la construction. Conception, réalisation et essais de structures en vraie grandeur afin de compléter l’enseignement de la mécanique des structures en acier, en bois et en béton.
Légendes
1 - Développement d’une suspente sur une pièce de bois.
2 - Développement d’ancrage de garde-corps de ponts.
3 - Analyse pour le CICR de béton en provenance du Kenya.
4 - Développement de tables de coffrage pour HK Service SA.
5 - Armoire climatique pour essais Gel-sel.
6 - Développement d’un appui à bascule pour platelage mobile (HK Service SA).
Description de mandats réalisés par le LEMS :
• Calculs, dimensionnement et essais de nouveaux types de coffrages pour les dalles, pour la société HK Services SA afin de mettre sur le marché des plateaux de coffrages composés de poutrelles et de tubes en aluminium.
• Analyse et relevés de la poussée du béton sur les coffrages.
• Essais de fixations par ventouse.
• Essais de liaisons bois-béton.
• Essais d’allongement de peinture à basse température.
• Analyse de marches d’escalier en béton préfabriqués.
• Presse pour essais de compression et détermination du module d’élasticité des matériaux (Fmax 5000 kN, hauteur 0.60 m).
• Presse pour essais de compression (Fmax 2000 kN, hauteur 2.70 m).
• Presse polyvalente pour essais de compression, traction, flexion (Fmax 200 kN).
• Portique d’essai de flexion (Fmax = 2 x 60 kN, 2 x 120 kN ou 2 x 300 kN ; hauteur 2.60 m, largeur 2.00 m, longueur de la base d’essai 9.00 m).
• Armoire climatique pour essais de –27° à +180° et essais gel-sel sur béton
• Equipement pour essais sur béton frais.
• Appareil de mesure FCT 101 pour déterminer la consistance et le rapport e / c du béton frais.
• Equipement pour les essais granulométriques ; bétonnière pour la fabrication du béton ; moules pour éprouvettes de mortier et béton ; ponceuse pour cubes en béton.
Zsolt Vecsernyés
Etude du comportement hydrologique des bassins versants et des réseaux hydrauliques urbains, en vue d’évaluer les débits et les charges des eaux pluviales, eaux usées, eaux mélangées à évacuer, par temps sec et par temps de pluie.
• Etude de l’interaction entre l’hydrologie et l’hydraulique des réseaux d’assainissement urbains.
• Interprétation des réserves de capacité hydraulique face aux développements futurs.
• Evaluation de l’impact sur les milieux récepteurs naturels des charges hydrauliques et des flux de polluants rejetés par le système d’assainissement.
• Analyse du fonctionnement des futurs ouvrages pour une gestion durable des eaux.
Au-delà des modifications climatiques qui influencent les précipitations et l’écoulement au sein des bassins versants, le développement urbain altère la dynamique du transfert des eaux vers les milieux récepteurs. L’étude de l’empreinte de l’urbanisation sur les processus hydrologiques et hydrauliques permet de proposer des stratégies en vue d’une gestion durable de nos ressources en eaux.
Des simulations numériques hydrologiques et hydrauliques ont été menées, en intégrant le modèle numérique des bassins versants et des réseaux d’évacuation des eaux. Une analyse de sensibilité a été effectuée à partir des précipitations historiques en vue d’identifier les événements les plus représentatifs. De plus, des mesures de débits de longue durée ont permis de valider les méthodes et les résultats de simulations. Grâce à toutes ces données, une analyse comparative a été conduite pour mettre à l’épreuve différentes techniques de gestion des eaux et les mesures envisageables.
L’analyse par modélisation du comportement hydrologique et hydraulique du complexe bassin versant – réseaux a permis de :
• mettre en évidence le degré de contribution des sous-bassins, en fonction de la variabilité des événements pluvieux ;
• identifier les tronçons du réseau d’évacuation ayant un manque de capacité hydraulique ;
• suggérer la mise en séparatif d’une partie du réseau ;
• proposer des ouvrages futurs pour une meilleure gestion des eaux ;
• mettre en place des mesures de gestion des eaux, pour ralentir l’écoulement sur le bassin versant, limiter les pointes de crue dans les cours d’eau, lutter contre les inondations et élargir le cycle de l’eau.
Légendes
1 - Hydrogrammes calculés avec la pluie décennale. Débit d’une STEP limitée grâce au déversoir d’orage. © Zsolt Vecsernyés
2 - Mise en charge de la canalisation due à la pluie décennale, démontrée par simulation hydraulique. © Zsolt Vecsernyés
3 - Construction d’une nouvelle canalisation d’eaux usées. © Zsolt Vecsernyés
4 - Campagne d’étalonnage d’un déversoir de STEP, au Laboratoire d’Hydraulique Appliquée. © Michel Enggist
5 - Installation de l’appareillage de mesure de débit, sur le réseau d’eaux usées. © Zsolt Vecsernyés
6 - Dimensionnement d’un répartiteur de débit, composé d’un déversoir complexe et d’une vanne. © Zsolt Vecsernyés
Publication des résultats de l’étude. Réalisation progressive des mesures proposées par l’étude. Transfert de compétences dans les formations bachelor et master, en particulier dans le domaine de l’hydraulique.
• Laboratoire d’Hydraulique Appliquée d’hepia.
• Canal expérimental, équipé pour l’étalonnage d’un déversoir : sonde ultrasonique, dispositif d’acquisition de données numériques, limnimètre gradué, canal d’approche créé à l’atelier central d’hepia, déversoir d’une STEP, chronomètre, auget calibré.
• Logiciels de modélisation numérique et de simulation hydraulique.
Les activités de recherche de l’institut Terre-Nature-Environnement sont développées dans les domaines de l’agronomie (Terre) et de la gestion de la nature (Nature). L’Environnement intègre ces deux domaines et symbolise la transversalité et la multidisciplinarité des recherches, notamment en relation avec la gestion, la conservation et la valorisation durable des écosystèmes et de leurs ressources, ainsi qu’avec une meilleure production des agrosystèmes, protégeant les eaux, le sol et la vie.
Deux axes stratégiques caractérisent la recherche d’inTNE :
• écologie et gestion des milieux naturels et aménagés (axe 1) ;
• fonctions environnementales sous pressions anthropiques dans les agroécosystèmes (axe 2).
Les principaux objectifs de recherche de notre institut (inTNE) sont :
• développer et promouvoir les outils technologiques, les bases méthodologiques et les prestations pour une gestion des ressources naturelles adaptée aux sociétés et aux collectivités ;
• contribuer, sur la base d’échanges entre les gestionnaires et les chercheurs, à la mise en place des outils, des méthodes ou des systèmes de gestion durable des ressources et des espaces naturels (axes 1 et 2) ;
• développer des stratégies, des outils et des méthodes de conservation et de gestion de la biodiversité, des écosystèmes et du paysage en intégrant conjointement les aspects socioculturels et économiques (axe 1) ;
• promouvoir la connaissance, la compréhension et la valorisation des milieux naturels par le développement d’outils pédagogiques ou la réalisation d’aménagements (documents, supports informatiques, aménagements in situ…) (axe 1) ;
• développer les productions respectueuses de l’environnement (axe 2) ;
• développer les techniques pour la végétalisation urbaine multifonctions (axe 2) ;
• développer les outils de protection des eaux, des sols et des végétaux (axe 2).
Beat Oertli Professeur HES, Responsable institut inTNE beat.oertli@hesge.chLa génomique est l’étude par séquençage du génome entier d’un organisme, la transcriptomique étudie l’expression de ce génome et les interactions avec son environnement. La métagénomique permet l’étude de tous les génomes d’une communauté de microorganismes procaryotes et eucaryotes dans un environnement donné. Le metabarcoding se caractérise par une préamplification de barcodes (fragments d’ADN) avant l’étape de séquençage afin d’identifier les espèces recherchées d’un environnement.
La métagénomique, basée sur l’ADN total, permet l’analyse de la composition et du potentiel métabolique d’une population microbienne complexe. La métatranscriptomique, qui cible l’ARN total fournit une image réelle des gènes exprimés à un instant « t », donc des fonctions actives et de leur niveau d’expression dans des conditions données. Appliqué à l’écologie, le metabarcoding cible des barcodes de l’ADN total. On parle alors d’eDNA ou d’ADNa pour l’analyse de l’ADN environnemental ou d’un régime alimentaire (ADN alimentaire).
Les premiers travaux de métagénomique du microbiote intestinal humain ont mis en lumière une diversité bactérienne d’une richesse jusqu’alors inconnue. Dorénavant, la complexité des interactions découvertes permet également l’étude par métagénomique et métatranscriptomique de la charge virale et fongique de notre microbiote ; microbiote, étroitement lié à notre bonne santé ou au contraire, à des problèmes tels que l’obésité, la dépression, certaines formes d’autisme, etc.
Utilisée dans divers secteurs tels que l’agroalimentaire, l’agriculture et l’environnement, la métagénomique permet de comprendre les microbiotes associés notamment aux sols cultivés ou aux plantes. Ces connaissances contribuent à identifier et à prévenir les maladies dans les cultures et les élevages ainsi qu’à détecter les pathogènes potentiellement présents dans les produits alimentaires. Une nouvelle agriculture favorisant des microbiotes avantageux pour les plantes et les animaux est ainsi en gestation. En biotechnologie, elle permet le développement de nouveaux produits alimentaires, pharmaceutiques et industriels. Ces connaissances améliorent la sécurité alimentaire, le contrôle qualité, les processus de fabrication et la conservation des aliments.
Tous les organismes des milieux naturels peuvent être détectés et identifiés via leur présence directe mais aussi via les traces laissées dans leurs environnements (ADN libre, débris cellulaires, bave, mucus, selles, mues, etc.). Le métabarcoding de cet ADNe représente donc un outil majeur de la génétique des paysages et de l’environnement.
La métagénomique et le métabarcoding offrent rapidité et réduction des coûts en temps de travail, en énergie et en consommables. En outre, ils sont significativement pertinents en termes de durabilité comparativement aux méthodes conventionnelles culture-dépendantes, qui requièrent l’isolement des microorganismes ou l’observation sous microscope avec clé de détermination.
Légendes
1 - Analyse de régime alimentaire à partir d’ADN de selles par métabarcoding (Projet Cistude / J-F. Rubin).
2 - Analyse du microbiote des produits de la ruche et de fleurs par métagénomique (Projet NewNordic / F. Lefort).
3 - Analyse et suivi du microbiote des sols par métatranscriptomique (Projet Stop aux invasives / P. Prunier).
visuels : © HEPIA / Charlotte Ducotterd et Julien Crovadore
Les applications proposées et menées à HEPIA relèvent du domaine de l’environnement, de l’écologie ou de l’agronomie. Les entreprises peuvent donc bénéficier d’un champ très étendu de prestations, comme par exemple : analyse du microbiote des produits de la ruche (gelée royale, miel, pain d’abeille, pollen), de la sève de bouleau fraîche et fermentée, du microbiote des intestins humains artificiels, du microbiote des sols après traitement à la vapeur de haute intensité, monitoring de la macrofaune ou suivi de certaines espèces dans des étangs d’altitudes, ou encore analyse du régime alimentaire d’espèces vertébrées.
L’institut Terre Nature Environnement (inTNE) d’HEPIA dispose d’équipements sophistiqués, en l’occurrence des séquenceurs d’ADN de 3e génération permettant d’effectuer des travaux de séquençage et de méta-séquençage de l’ADN dans une multitude de domaines thématiques. HEPIA dispose donc d’une plate-forme de métagénomique et métatranscriptomique appliquée, constituée d’un nanoséquenceur Minion MK1b (Oxford Nanopore Technologies) et d’un séquenceur de masse parallèle MiniSeq (Illumina), localisés dans les laboratoires du groupe Plantes et Pathogènes.
Les dégâts annuellement provoqués sur les cultures mondiales par les Thysanoptères sont de l’ordre de plusieurs milliards de francs. Frankliniella occidentalis est l’espèce la plus nuisible : en effet, elle cause des dommages directs en se nourrissant sur les plantes et des dommages indirects plus importants via la transmission de virus. De plus, ce thrips développe rapidement des tolérances aux produits phytosanitaires. L’objectif de ce travail vise la création d’un dispositif de lutte biologique contre F. occidentalis par auto-inoculation de souches fongiques entomopathogènes.
Le but du projet consiste en l’élaboration d’un piège d’auto-inoculation combinant un attractant de F. occidentalis et un champignon entomopathogène. Un insecte, attiré dans le piège en ressortira chargé de spores et les disséminera auprès de ses congénères. Ainsi, toute la population d’insectes sera infestée via ses contacts sociaux. De ce fait, comparativement aux méthodes classiques de lutte, on attend potentiellement une amélioration de 90% de l’efficacité et une réduction de 40% des coûts d’application actuels.
L’ordre des Thysanoptères est constitué de plus de 6’077 espèces de thrips dont environ 2% sont des prédateurs de grandes cultures, de la sylviculture, des cultures vivrières et ornementales. Les espèces les plus nuisibles à l’échelle mondiale semblent être Thrips tabaci et Frankliniella occidentalis. Cette dernière est effectivement présente sur plus de 250 espèces végétales réparties dans 60 familles cultivées. Leur caractère piqueur-broyeur transmet des virus aux végétaux, notamment 8 espèces de Tospovirus. Ces maladies virales engendrent des pertes économiques conséquentes ; pas moins de 100 millions d’USD dans le monde pour la transmission par T. tabaci du Iris yellow spot virus sur la culture d’Iris. De plus, les thrips peuvent produire plusieurs générations annuelles, dont le nombre pourrait encore augmenter du fait du réchauffement climatique. Cette caractéristique, couplée à une capacité de détoxification enzymatique développée favorise le développement rapide de tolérances aux produits phytosanitaires.
Par conséquent, l’innovation proposée constitue en un dispositif d’autoinoculation sur des individus adultes de F. occidentalis d’une souche fongique, qui sera propagée lors de contacts entre congénères, notamment lors du processus d’accouplement. L’attraction dans le piège sera réalisée à l’aide d’une phéromone synthétisée par Charles Chappuis, Professeur HES à CHANGINS, ou d’une kairomone. Le champignon à large spectre fera de ce piège une conception modulable pour d’autres nuisibles. Une amélioration de 90% de l’efficacité du biopesticide et une économie de 40% des coûts d’application est attendue par rapport aux méthodes classiques de pulvérisation, tout en préservant l’entomofaune utile.
Légendes
1 - Dispositif d’élevage de masse de Frankliniella occidentalis
2 - Dispositif d’élevage de collection de Frankliniella occidentalis
3 - Taux moyen de mortalité observé sur Frankliniella occidentalis 7 jours après les traitements fongiques
visuels : © HEPIA / Corentin Descombes
La recherche sera valorisée au travers de publications scientifiques, de présentations lors de conférences et via la formation d’étudiants. Sans équivalent actuel sur le marché, un biopesticide à base d’organismes fongiques accompagné d’un dispositif d’auto-inoculation ultra-spécifique sera proposé à la profession. Plus simple et économique, cette solution sans résidu sera synonyme de gains pour les producteurs. En outre, 9 souches supplémentaires de champignons entomophages de la collection HEPIA seront caractérisées pour leur capacité à infecter cette espèce de thrips.
Les laboratoires de biologie moléculaire ont été mobilisés pour la culture in vitro des champignons entomopathogènes. L’identification des insectes a été réalisée par amplification PCR et séquençage. Les élevages de thrips et les tests d’efficacité in vitro des champignons entomopathogènes ont été réalisés en chambres climatiques. Des olfactomètres ont été construits pour les tests d’attraction. Finalement, l’étroite collaboration avec le professeur Charles Chappuis de CHANGINS pour la synthèse de la phéromone d’agrégation, la construction des olfactomètres et les tests de cinétique de relargage des composés attractifs, a été indispensable.
Les levures sauvages non Saccharomyces ont longtemps été considérées comme responsables de la détérioration du vin, mais on sait aujourd’hui qu’une utilisation contrôlée de ces levures durant le processus de fermentation peut permettre d’améliorer et de diversifier les productions. L’objectif de ce projet est d’isoler et identifier génétiquement des levures sauvages provenant d’échantillons prélevés sur des parcelles viticoles et d’évaluer leur potentiel pour la production de boissons fermentées.
Ce projet a permis de mettre en évidence la biodiversité de levures sauvages présentes dans différentes parcelles viticoles en Suisse (GE, VD, VS, NE). Une collection d’environ 290 isolats de levures réparties dans une quinzaine de genres différents a été établie au cours de l’année 2021. Les levures sont conservées en laboratoire pour de futurs travaux en lien avec les boissons fermentées (bières, kéfirs, kombuchas), avec la start-up Bioprospect de l’incubateur HES Pulse, mais également pour d’autres applications biotechnologiques comme les biostimulants et les applications phytosanitaires en biocontrôle des pathogènes des plantes.
L’environnement de la vigne est constitué d’un microbiote hétérogène composé de différents micro-organismes qui vont jouer un rôle essentiel dans la qualité du produit final. Parmi ces micro-organismes, les levures ont un rôle prédominant, car elles participent à la fermentation alcoolique, processus biochimique durant lequel les sucres sont transformés en éthanol, en dioxyde de carbone et en de nombreux sous-produits aromatiques. Au cours de la vinification dite « moderne », la fermentation alcoolique est généralement réalisée à l’aide de levures sèches actives (LSA) de souches sélectionnées de Saccharomyces cerevisiae. Cette pratique est cependant remise en question aujourd’hui, car les vins produits uniquement avec des LSA commerciales de S. cerevisiae manquent souvent de complexité et de certains traits œnologiques. La vinification dite « traditionnelle » relève pour sa part d’une fermentation spontanée du moût de raisin grâce à l’action de différents types de levures sauvages naturellement présentes sur la parcelle, dans le raisin ainsi que dans l’environnement de la cave et du chai. Cette méthode de vinification est peu pratiquée car elle comporte plusieurs risques, comme un arrêt précoce de la fermentation et/ou la production de métabolites indésirables rendant le produit final impropre à la vente et à la consommation. Cependant, lorsqu’elles sont utilisées de manière maitrisée, ces levures sauvages peuvent présenter de réelles propriétés innovantes et peuvent apporter de la diversité ainsi que de la complexité aux boissons fermentées. L’objectif de ce projet est donc de caractériser ces levures sauvages et de produire avec ces levures des levains sur-mesure, qui serviront à ensemencer les boissons des différents producteurs ce qui sécurisera ainsi également le processus de production.
Une sélection de ces levures est par ailleurs en voie d’expérimentation en 2022 pour la protection de fruits à pépins en conservation contre les champignons agents de pourriture post-récolte.
Légendes
1 - Prélèvement de levures présentes sur les parois et le matériel d’une cave viticole
2 - Échantillon d’écorce de vigne
3 - Culture purifiée de levure, colonies homogènes
4 - Culture liquide; sédimentation de la levure au fond du tube (biomasse blanche)
visuels : © HEPIA / Yannick Barth
Les résultats de bioprospection permettront également d’augmenter la connaissance relative à l’impact des modes de conduites agricoles (conventionnelle, raisonnée, biologique) sur la biodiversité. Des essais de micro-vinification et des analyses chimiques conduits à CHANGINS, en collaboration avec le Prof. Dr. Benoît Bach permettent de qualifier les profils métaboliques de ces levures. Il en est espéré un choix élargi de nouvelles souches de levures conférant des goûts et des arômes originaux pour les viticulteurs romands. La méthodologie expérimentée dans ce projet pourrait permettre le développement de prestations auprès des différents opérateurs, et l’assurance pour les producteurs de disposer d’un assortiment de levures spécifiques à leurs terroirs. À l’issue du projet, un débouché commercial pour une sélection de levures considérées comme d’intérêt est envisageable.
Ce projet a requis l’utilisation d’équipements scientifiques de niveau de sécurité 2 afin d’isoler et cultiver les levures dans un environnement stérile ainsi qu’un équipement d’analyse génétique afin de pouvoir déterminer l’identité des souches de levures isolées.
Le déclin des colonies d’Apis mellifera entre 1970 et 2010 causant 60% de perte du cheptel en Europe et aux USA est décrit comme syndrome appelé Syndrome d’effondrement des colonies (SEC). Celui-ci serait lié à de multiples facteurs synergiques, dont l’acarien parasite Varroa destructor. De plus, les traitements actuels peuvent entraîner la contamination chimique de produits de la ruche et le développement de résistances chez l’acarien. L’objectif de ce travail est de développer la lutte contre le Varroa destructor à l’aide de souches de champignons acaricides.
L’objectif du projet est de développer un traitement durable, biologique et peu coûteux contre le Varroa destructor à l’aide de champignons acaricides. Les champignons entomopathogènes présentent un risque réduit d’apparition de résistance chez les ravageurs et un risque de toxicité réduit envers les abeilles, l’apiculteur et le consommateur. Ils constituent donc de bonnes alternatives aux produits actuels à base de molécules organiques ou de synthèse.
Entre 1995 et 2010, la production de miel en Europe a diminué de moitié; cette réduction étant corrélée aux baisses d’effectifs d’Apis mellifera durant la même période. Le déclin des colonies entre 1970 et 2000 a principalement été attribué au Varroa destructor, qui affaiblit les colonies et les rend plus sensibles à d’autres facteurs comme les pesticides. En effet, depuis son apparition en Europe, la survie d’une colonie sans traitement est estimée à trois ans. A partir de 1990, l’apparition du Syndrome d’effondrement des colonies (SEC) a engendré un second déclin principalement lié aux pesticides, aux pathogènes et aux parasites. Le parasite est donc une cause majeure responsable de la disparition de l’abeille mellifère. De plus, les traitements pratiqués dans les colonies peuvent entraîner le développement de résistances chez le varroa et contaminer les différents milieux rencontrés dans la ruche (cire, miel, pollen, gelée royale, propolis).
Afin d’obtenir une souche de champignon entomopathogène permettant de réduire la population de V. destructor de 80% à 85% sans effets secondaires, des souches de champignons ont été sélectionnées dans la collection d’HEPIA et d’autres ont été recherchées par bioprospection sur des cadavres de varroas prélevés dans plusieurs ruchers genevois.
Ces souches de champignon ont ensuite été caractérisées en fonction de leur capacité de croissance en conditions apicoles. Puis, elles ont été appliquées sur des varroas femelles adultes et sur des abeilles au stade L1 et adultes ce qui a permis de déterminer leur pathogénie envers les varroas et leur innocuité vis-à-vis de l’abeille. Trois meilleures souches candidates ont été sélectionnées à ce jour pour être testées en condition semi contrôlée dans des colonies in situ avec l’objectif de bientôt pouvoir proposer un traitement contre le varroa qui soit fiable, biologique et facile d’application.
Légendes
1 - Maintien in vitro de Varroa destructor pour application des souches fongiques.
2 - Maintien in vitro d’abeilles adultes pour application des souches fongiques
3 - Taux moyen de mortalité observé sur Varroa destructor 7 jours après traitement
visuels : © HEPIA / Corentin Descombes
Ce projet innove fortement par l’intégration d’un micro-organisme dans une colonie d’Apis mellifera et par les opportunités dégagées. La recherche continuera via des publications scientifiques et présentations lors de congrès de même que via la formation d’étudiants. Finalement, un produit commercial sera proposé à la profession, en collaboration avec une entreprise européenne du secteur.
Menés depuis 2019, ces travaux successifs ont nécessité la mise à disposition de 50 colonies d’Apis mellifera et de tout l’équipement nécessaire à la culture in vitro de micro-organismes, à l’isolement et à la culture en condition stérile de micro-organismes issus de l’environnement. L’identification des micro-organismes isolés a été réalisée par amplification PCR et séquençage. Finalement, les tests in vitro de pathogénie sur V. destructor et sur les différents stades de développement d’A. mellifera ont été réalisés en chambres climatiques.
Dans le cadre de divers partenariats, le groupe Plante et Pathogènes développe plusieurs programmes de culture in vitro pour différentes espèces végétales. Récemment, un protocole fut développé en vue de la production et la commercialisation de deux nouveaux cultivars suisses de lys d’un jour (hémérocalle, Hemerocallis sp.), par organogenèse directe à partir d’explants de hampes florales. Le succès de ce protocole assure un taux de multiplication élevé et une conservation à long terme de ces nouveaux hybrides.
Le processus de multiplication développé permet d’augmenter considérablement le taux de multiplication de ces nouveaux cultivars. En effet, une plante cultivée en terre donne moins d’une dizaine de rejets par an, alors qu’en utilisant le processus de culture in vitro nouvellement développé, il est possible de produire entre 10 et 50 jeunes plantes après 2 à 3 mois de culture à partir d’une seule plante.
Le lys d’un jour, Hemerocallis sp. est une espèce originaire d’Asie de l’est, très connue comme plante ornementale. La diversité de couleurs et de formes des fleurs, la longue période de floraison, mais également la tolérance aux différentes conditions pédoclimatiques en font une plante de choix pour l’élaboration de massifs fleuris.
La multiplication commerciale de cette espèce se heurte cependant à un taux de multiplication faible (division de touffes) nécessitant de nombreuses années avant de produire un stock suffisant de plantes. Face à cette problématique, de nombreux sélectionneurs utilisent la culture in vitro pour multiplier et distribuer leurs variétés.
Notre groupe a développé un processus de culture in vitro dédié à la conservation et à la multiplication de deux nouveaux hybrides d’hémérocalle, créés en Suisse romande par l’hybrideur Jean-Paul Chanel : le cultivar Gilbert Albert, en référence au célèbre joaillier genevois du même nom et le cultivar Gloire de Lullier, en hommage au Centre de Lullier, héritier de l’école d’horticulture de Châtelaine.
Cette méthode permet selon un protocole en quatre phases de régénérer des plantes à partir de hampes florales. Une fois désinfectés, les explants sont successivement transférés sur deux milieux de culture permettant de redifférencier les bourgeons floraux en bourgeons végétatifs qui formeront de nouvelles plantules. Ces dernières seront alors transférées sur un troisième milieu de culture, induisant l’apparition de cals de cellules indifférenciées à la base des explants sur lesquels de nouveaux bourgeons végétatifs se formeront par un processus appelé organogenèse directe. Les jeunes plantules régénérées et suffisamment développées seront alors excisées de l’explant mère puis à nouveau transférées sur un milieu de culture favorisant la rhizogenèse. Une fois enracinées, les plantules seront alors transférées sur un substrat de culture et acclimatées en serre.
Légendes
1 - Plantes mères des cultivars d’hémérocalle
2 - Explants de hampe florale utilisés pour la mise en culture in vitro
3 - Plantule enracinée issue de culture in vitro et prête à être acclimatée
4 - Clones d’hémérocalle acclimatés en pot
5 - Cultures in vitro d’hémérocalles en chambre climatique
6 - Mise en culture des nouvelles plantes issues d’organogenèse in vitro
visuels : © HEPIA / Bastien Cochard
Le développement de ce protocole de culture in vitro vise à produire de nombreux clones des cultivars d’hémérocalle Gilbert Albert et Gloire de Lullier afin d’en faciliter la diffusion et la commercialisation dans un délai court tandis qu’il faudrait de nombreuses années par division classique des rejets latéraux afin de disposer d’un stock de plantes suffisant, permettant d’assurer in fine sa commercialisation.
Le groupe Plantes & Pathogènes dispose des équipements nécessaires à la culture in vitro végétale,
• Laboratoire spécifiquement dédié à la culture in vitro
• Autoclaves de haute capacité
• Hottes à flux laminaire horizontale
• Matériels spécifiques pour la culture in vitro de plantes
• Parc de chambres climatiques modernes
• Serres pour la phase d’acclimatation
L’installation d’un couvert végétal dans les vignes et les vergers présente des avantages importants pour le sol et la biodiversité. Ces couvertures peuvent cependant générer une compétition pour les besoins en eau et en azote, avec des effets négatifs sur la culture. L’objectif de cette recherche appliquée est de cibler un ensemble d’espèces végétales qui permet de conserver les avantages d’un couvert tout en minimisant les possibles inconvénients. A cette fin, des mélanges pilotes ont été élaborés et testés dans un réseau de parcelles.
Différents mélanges peuvent aujourd’hui être recommandés aux arboriculteurs et aux viticulteurs, en fonction de leurs objectifs prioritaires et des conditions pédoclimatiques de leurs parcelles. Ces mélanges permettent l’expression de la biodiversité requise et ne nécessite qu’un entretien limité : comparativement aux mélanges viticoles standards, nous estimons une réduction d’au moins 30% du nombre de coupes nécessaires à l’entretien du couvert.
Les caractéristiques principales du mélange végétal élaboré en vue d’un enherbement optimal des cultures spéciales au cours de ce travail sont :
• d’une part, les espèces qui le composent doivent être peu vigoureuses, pour limiter le nombre de fauches nécessaires, minimiser les interférences avec la culture et permettre l’expression d’une flore diversifiée ; • d’autre part, elles se doivent d’être pérennes, et capables de limiter le développement des adventices indésirables.
A cette fin, un premier mélange pilote, composé de 14 espèces, a été élaboré et testé durant la période 2017-2019, dans un réseau de parcelles. Parallèlement, des essais ciblés ont été effectués pour vérifier le potentiel d’espèces particulièrement prometteuses. Concernant la biodiversité, le niveau de qualité I a été garanti sur l’ensemble des parcelles du réseau, certaines ont même atteint le niveau de qualité II. Comparé aux mélanges viticoles standards, nous estimons que le nombre de coupes nécessaires à l’entretien du couvert sera réduit d’au moins 30%.
Plusieurs espèces se sont avérées particulièrement intéressantes pour un enherbement optimal des inter-rangs : Achillea millefolium, Bromus tectorum, Clinopodium vulgare, Lotus corniculatus, Medicago lupulina, Poa compressa, Prunella vulgaris. Certaines d’entre elles, et plus particulièrement certains de leurs écotypes, présentent des caractéristiques (habitus nanisant ou traçant) permettant d’envisager leur utilisation pour la couverture sur le rang de culture (cavaillon). Aujourd’hui, outre des conseils documentés sur l’installation et la gestion de ces couverts, nous proposons 4 mélanges de base (de compositions et de proportions variables) à utiliser de manière différenciée en fonction des conditions pédoclimatiques (sec ou humide) et des priorités du producteur (agronomie et/ou biodiversité).
Terres Vivantes (2019-2026) vise à développer la capacité de 90 agriculteurs volontaires (3000 ha de terres arables, JU et BE) à améliorer la qualité de leurs sols par une approche associant autodiagnostic, partage d’expériences et soutien de la recherche. Ce projet cherche ainsi à répondre aux deux premiers défis pour l’avenir posés par l’OFAG (Office Fédéral de l’Agriculture) : conserver la qualité des terres agricoles et développer une agriculture efficiente adaptée au lieu de production.
Les agriculteurs participent à la réalisation d’un diagnostic collectif de la qualité des sols et de ses facteurs explicatifs (pratiques agricoles et facteurs édaphiques). S’appuyant sur cette information et en collaboration avec les structures de conseil et la recherche, ils définissent leur propre projet d’amélioration de leurs sols. Pendant 6 ans, ils autoévalueront la qualité de leurs sols et donc l’efficacité de leurs choix, soutenus par la recherche. La recherche quantifiera et valorisera les transformations ainsi observées.
La baisse constante de la teneur en matière organique des sols et la qualité médiocre de la structure influencent négativement les rendements. Les sols sont par ailleurs de moins en moins capables de tamponner les conditions climatiques extrêmes.
L’objectif de Terres Vivantes est d’améliorer la qualité structurale et de diminuer la vulnérabilité des parcelles agricoles dans un processus participatif adapté à chaque exploitation. Les participants acquièrent des méthodes simples d’évaluation du sol et participent à l’évaluation scientifique de celui-ci tout en enregistrant leurs pratiques agricoles dans un carnet des champs électronique. Les risques et les investissements sont couverts financièrement par le projet ce qui permet aux agriculteurs de tester des combinaisons de mesures améliorantes pour le sol. D’un point de vue scientifique, l’objectif principal de cette étude interdisciplinaire est de déterminer in situ les effets à long terme des pratiques agricoles sur la qualité des sols, et de comprendre leurs déterminants.
L’appui et le suivi par la recherche sont assurés par les partenaires scientifiques suivants : HEPIA (Groupe Sols & Substrats, P. Boivin) et Agroscope Reckenholz (Groupe fertilité et protection des sols, P. Weisskopf) pour la qualité structurale ; l’Université de Neuchâtel et EnviBioSoil pour la biologie des sols ; HAFL et UniNe Ethno pour les aspects sociologiques et organisationnels. Ce projet Terres Vivantes est soutenu par l’OFAG (Programme de protection des ressources LAgr Art. 77a & b) et par les cantons du Jura et de Berne et est mis en œuvre par la Fondation Rurale Interjurassienne (FRI).
Légendes
1 - Prélèvements HEPIA sur une parcelle de monitoring Terres Vivantes
2 - Démonstration d’un prélèvement d’échantillon de sol non remanié avec un préleveur HEPIA
3 - Analyse en laboratoire à Lullier des échantillons de sol non remaniés
4 - Réalisation d’un test bêche (VESS) par
B. Wüthrich, agriculteur participant à Terres vivantes et conseiller FRI.
Ce projet innove fortement car il vise à faire progresser les approches par accompagnement des agriculteurs pionniers (lighthouse farmers) et identifier ainsi les SICS (Soil improving cropping systems). La recherche sera valorisée sur l’ensemble de la chaîne de valeur : formations (agriculteurs, décideurs), publications scientifiques des connaissances acquises et de la méthodologie de recherche. Projet pour la Fondation Rurale Interjurassienne (FRI) : www.frij.ch/ PROJETS/Production-vegetale-et-environnement/Terres-vivantes
Deux parcelles dites de monitoring ont été sélectionnées en 2019 dans chacune des exploitations. Le test bêche (VESS) est utilisé pour évaluer la qualité structurale du sol. Le ratio matière organique sur argile est utilisé comme indicateur de vulnérabilité. Enfin, la teneur en air et en eau à -100 hPa ont été déterminées sur des échantillons de sol non remaniés pour déterminer l’indice de qualité de la structure. Les pratiques agricoles des dix dernières années ont été organisées selon 3 piliers : intensité végétale, organique et mécanique. L’imagerie drone encadrée par A. Dubois (Géomatique HEPIA) sert à mesurer l’intensité des couverts. Une analyse croisée de ces données permet d’identifier et de discuter les combinaisons de pratiques agricoles améliorantes.
Beat Oertli, Zsolt Vecsernyés, Reto Camponovo, Jean-Pascal Bourgeois, David Consuegra, Peter Gallinelli, Victor Guillot, Eliane Demierre, Samuel Roth, Marine Decrey, Ulysse Beytrison
L’objectif du projet CONFORTO est de définir les caractéristiques d’un plan d’eau urbain « idéal », qui serait multi-usages et qui contribuerait au bien-être de la population. Pour atteindre cet objectif, une sélection de services écosystémiques seront quantifiés dans 10 étangs (Genève et Yverdon). Ces études de cas, associées aux informations déjà réunies dans d’autres villes permettront ainsi de pouvoir adapter des plans d’eau urbains déjà existants ou d’en créer de nouveaux, optimisés.
Les services écosystémiques offerts par les plans d’eau urbains peuvent apporter une contribution particulièrement utile. Déclin de la biodiversité, pollution de l’eau, émissions de carbone, inondations et îlots de chaleur urbains sont autant de défis auxquels les villes doivent faire face aujourd’hui. Un étang urbain multi-usages constitue un outil d’avenir parfaitement innovant pour l’adaptation de la ville du futur à l’urbanisation et aux changements climatiques.
Les étangs urbains : un potentiel inexploité Les plans d’eau urbains sont souvent créés avec une motivation esthétique (parcs et jardins) ou fonctionnelle (rétention des eaux). Ils offrent toutefois potentiellement bien d’autres services. Un potentiel énorme est alors inexploité.
Cinq services écosystémiques ciblés Parmi les nombreux services écosystémiques qu’un étang peut offrir, le projet CONFORTO en a ciblé 5 particulièrement importants dans le contexte urbain :
1. La rétention des eaux et ainsi la diminution du risque d’inondation.
2. L’épuration des eaux de ruissellement via la sédimentation ou les processus chimiques et biologiques.
3. Le piégeage du carbone atmosphérique via la production végétale.
4. L’apport de fraicheur afin de diminuer l’effet d’îlot de chaleur urbain.
5. Des habitats pour la biodiversité contribuant à l’infrastructure écologique. Ces cinq services écosystémiques seront quantifiés sur chacun des 10 étangs de l’étude. Les variables déterminantes permettant leur optimisation seront identifiées.
Les « désagréments » pouvant découler des étangs urbains (sécurité, moustiques, nuisances sonores liées aux grenouilles rieuses, plantes invasives) seront aussi abordés dans ce projet afin de pouvoir les minimiser.
Des étangs optimisés pour le confort de vie en milieu urbain Suite aux études de cas, un modèle de plan d’eau « optimal » sera proposé. Celui-ci sera adaptable en fonction des besoins et contraintes exprimés par les différents gestionnaires.
De plus, des mesures de gestion permettant d’optimiser des plans d’eau déjà existants seront développées. Ces plans d’eau urbains pourraient en effet facilement être améliorés par la mise en place de mesures appropriées, souvent peu coûteuses.
Légendes
1 - Etang d’une entreprise privée à Genève (la Pallanterie)
2 - Etang public de l’Avenue des Sciences à Yverdon
3 - Les cinq services écosystémiques
4 - Mesure du microclimat tel que ressenti par un sujet humain
5 - Echantillonnage de macro-invertébrés, indicateurs de la qualité écologique d’un étang
6 - Mesure des paramètres physicochimiques de l’eau
Les résultats du projet CONFORTO visent à la sensibilisation des professionnels (architectes, urbanistes, ingénieurs, employés communaux et cantonaux) ainsi que de la population aux avantages des étangs urbains via :
• Un site internet et un flyer.
• Un outil d’aide à la décision.
• Une journée de sensibilisation.
• La création d’un étang pilote optimisé dans une ville de Suisse romande.
• Participation au projet européen H2020 « PONDERFUL » avec 16 équipes internationales incluant le développement d’un étang pilote « clima-pond » optimisé pour la mitigation et l’adaptation aux changements climatiques.
• Haute École d’Ingénierie et de Gestion du Canton de Vaud (HEIG-VD)
• Haute École d’Ingénierie et d’Architecture de Fribourg (HEIA-FR)
• Office cantonal de l’eau de Genève (OCEau)
L’objectif de ce projet est de faire découvrir les libellules au grand public. Nous avons développé une application smartphone gratuite permettant de découvrir et d’identifier les espèces principales de libellules de Suisse romande. Grâce à cette application, le public peut disposer en permanence d’un outil d’identification simple et ludique et peut agrémenter ses promenades à l’aide d’informations sur les libellules.
Ce projet a permis de développer une application smartphone ludique et gratuite. Depuis leur téléphone, les utilisateurs peuvent ainsi :
• Identifier les espèces de libellules les plus communes en Suisse romande,
• Localiser des libellules au cours de 17 promenades en Suisse romande,
• En apprendre davantage sur la biologie et l’écologie de ces insectes,
• Transmettre leurs observations aux services et scientifiques gestionnaires de la nature.
Pourquoi les libellules ?
Les libellules constituent, avec les plantes et les amphibiens, un groupe emblématique des milieux aquatiques et particulièrement fascinant pour le grand public. Elles sont aux zones humides ce que sont les papillons aux prairies. De par leur capital sympathie pour le grand public, elles sont un moyen de sensibiliser la population à la beauté, mais également à la fragilité de la nature et de la biodiversité.
Les avantages d’une application
Les trois avantages principaux d’une application smartphone, par rapport à un support papier, sont :
- En lieu et place de cartes et de livres volumineux, l’utilisateur peut disposer de toutes les informations nécessaires sur son téléphone (en un espace réduit).
- La technologie informatique permet une grande convivialité et rend l’identification ludique.
- Grâce au support informatique, un nombre élevé de photos est mis à disposition de l’utilisateur.
Une application unique et innovante
Il existe de nombreuses applications permettant d’identifier la faune ou la flore ou proposant des itinéraires de promenade. L’application Libellul’ID est unique car elle comporte à la fois un outil d’identification et des itinéraires de promenade interactifs. De plus, l’application Libellul’ID innove en proposant du contenu adapté à la position géographique de l’utilisateur ainsi qu’à la date à laquelle l’utilisateur observe une libellule. Téléchargez l’application sur : campus.hesge.ch/ibem/eisa/Libellulid/
Légendes
1 - Aperçu de l’outil d’identification
2 - Exemple d’une promenade
3 - Exemple d’une proposition d’observation de libellules dans une promenade
visuels : © hepia / Véronique Rosset
Ce projet vise à faire redécouvrir au grand public les milieux naturels et la biodiversité qu’ils abritent. La promotion de l’application visera principalement les amateurs de nature, les promeneurs ainsi que les ONG traitant de l’environnement au moyen de :
• La réalisation d’un flyer et d’une affiche,
• L’organisation d’un événement grand public en 2018,
• L’organisation d’une exposition sur le thème des libellules en 2018,
• La réalisation d’une page Internet présentant l’application et proposant son téléchargement.
• Maison de la Rivière
• Direction générale de l’agriculture et de la nature du Canton de Genève
• Programme G’innove de la Ville de Genève
• Loterie romande
La génomique est l’étude du génome entier d’un organisme. La transcriptomique étudie l’expression de ce génome dans différentes conditions physiologiques ou environnementales et les interactions entre ce génome et son environnement.
La métagénomique transcende les génomes individuels et permet l’étude de tous les génomes d’une communauté de microorganismes procaryotes et eucaryotes dans un environnement donné, c’est-à-dire l’étude de tous les membres d’un microbiote de n’importe quel microbiome.
La métagénomique permet d’allouer une identité génétique ou fonctionnelle à des fragments d’ADN d’origine inconnue. Si la métagénomique donne une image du potentiel métabolique d’une population microbienne complexe, la métatrancriptomique, elle, donne une image réelle des gènes exprimés, donc des fonctions actives et de leur niveau d’expression, dans des conditions données. Appliquée à l’environnement, la métagénomique peut détecter les ADNs de tous les organismes présents dans un échantillon environnemental, ce qui en fait l’outil le plus puissant désormais de l’écologie, sous le nom d’e-DNA
Si les premiers travaux de métagénomique (écologie microbienne intestinale) ont décrit une diversité bactérienne d’une richesse jusqu’alors inconnue, d’autres applications doivent maintenant être explorées en particulier dans l’agroalimentaire, l’agriculture et l’environnement. Dans ces domaines, la métagénomique permet de comprendre les microbiotes associés aux sols cultivés, aux plantes et animaux domestiques. Ces connaissances permettront d’aider à la détection et à la prévention des maladies dans les cultures, les élevages et même de détecter les pathogènes dans les produits alimentaires. Cela permettra de développer de nouvelles pratiques agricoles utilisant les avantages de microbiotes favorables associés aux plantes et aux animaux. En biotechnologie, on peut en attendre le développement de nouveaux produits alimentaires, pharmaceutiques et industriels. Ces connaissances impacteront la sécurité alimentaire, le contrôle de qualité, l’amélioration des processus de fabrication et de conservation des aliments.
Les microbiotes des milieux naturels, des plantes et animaux sauvages peuvent aussi être analysés de même que les macroorganismes par les traces laissées dans l’environnement. La métagénomique sera donc, grâce à l’analyse de l’ADN environnemental, un outil majeur de la génétique des paysages et de l’environnement.
En génie environnemental, la compréhension de ces microbiotes et de leur évolution permettra d’améliorer les processus de traitement biologique des eaux usées, soutenir les nouvelles pratiques de bioremédiation des sols par les champignons et les bactéries, permettant de remédier aux dommages à l’environnement causés par les fuites d’hydrocarbures, à la pollution des eaux souterraines et des eaux usées.
Les applications sont aussi très larges en médecine (nouveaux diagnostics et nouveaux traitements pour soigner les maladies), en sciences de la vie (biologie, écologie et évolution des microbes, des plantes et des animaux), en sciences de la terre, où la compréhension des microbiotes affectant les équilibres atmosphériques pourrait permettre de prédire et influencer les changements climatiques. Enfin la compréhension de ces microbiotes devrait permettre l’émergence de nouvelles sources de bioénergies renouvelables.
La métagénomique offre rapidité et réduction des coûts en temps de travail, en énergie et en consommables, par rapport aux méthodes conventionnelles culture-dépendantes, nécessitant l’isolement des microorganismes, ou culture-indépendantes (PCR, qPCR, etc.) et satisfait donc au critère de durabilité.
Cette plateforme de métagénomique et métatranscriptomique appliquées permet d’offrir ces technologies aux équipes HES-SO du domaine ingénierie et architecture, en particulier en biotechnologie, en bioingénierie, en agroalimentaire, en génie de l’environnement, en écologie et en agronomie, domaines dans lesquels ces technologies deviennent incontournables.
Actinobacteria
Bacteria
Bateroidetes
Eukaryota
Firmicutes
Proteobacteria
Tenericutes
Viruses
Cellular organisms
Unclassified bacteria (miscellaneous)
Les applications menées à hepia relèvent de l’environnement, de l’écologie ou de l’agronomie pour des entreprises qui recherchent ces compétences : analyse de produits biostimulants commerciaux, évaluation de l’impact de biostimulants commerciaux en cultures d’asperges, qualification de produits alimentaires à haute valeur ajoutée ou validation d’un concept industriel d’élimination de l’azote des eaux usées. Des travaux de transcriptomique sont également menés avec l’Institut inSTI.
L’Institut Terre Nature Environnement (inTNE) d’hepia s’est doté d’équipements sophistiqués, en l’occurrence des séquenceurs d’ADN de 3ème génération permettant d’effectuer des travaux de séquençage et de métaséquençage de l’ADN, dans une très grande diversité de thématiques. Ces équipements matérialisent une plate-forme de métagénomique et métatranscriptomique appliquée à hepia, localisée dans les laboratoires du groupe Plantes et Pathogènes. Il s’agit d’un nanoséquenceur Minion MK1b (Oxford Nanopore Technologies) et d’un séquenceur parallèle de masse MiniSeq (Illumina).
De nombreuses régions en Suisse et en Europe sont soumises à un fort développement urbanistique. Par ailleurs, en parallèle la sensibilité du public pour un environnement sain et diversifié n’a jamais été aussi marquée. Le projet UrbEco vise à concilier ces défis en proposant un outil d’aide à la décision pour les élus, les gestionnaires et les aménagistes afin de garantir un développement urbanistique qui prend en compte les dimensions économiques, sociales et environnementales aux échelles locale et régionale.
Depuis 2009, des cerfs ont été équipés de colliers GPS afin de définir leurs voies de déplacement. Ces suivis ont permis de valider l’existence et d’évaluer la fonctionnalité des corridors et zones de conflits existant dans le nord du bassin genevois. Fort de ces enseignements, il est possible de hiérarchiser et de caractériser précisément ces zones et ainsi de préciser les besoins de la faune, ou plus précisément du cerf qui représente une espèce « parapluie » de par l’ampleur de ses déplacements.
Le développement du tissu urbain et des voies de communication qui relient les centres urbains représente une réalité qui touche l’ensemble du Plateau suisse. Ce développement indispensable à la prospérité du pays conduit pourtant à un morcellement des milieux naturels qui menace non seulement la biodiversité, mais entraîne également une diminution de la qualité de vie du public, en particulier des citadins. Face à cette réalité, la confédération a édité sa « Stratégie Biodiversité Suisse » qui a pour but la conservation et le développement des services écosystémiques et ceci jusque dans l’espace urbain.
Dans ce contexte, le projet transfrontalier du « Grand Genève », qui vise au développement socio-économique durable du bassin genevois, tout en maintenant une bonne qualité de vie pour les citoyens et une diversité élevée, est précurseur. Le développement de l’agglomération est ainsi considéré comme une nécessité, mais également la conservation de la biodiversité, qui dépend de la qualité des habitats et de la présence de corridors biologiques.
L’enjeu est ainsi de concilier le développement du tissu urbain et des voies de communication, avec le maintien de corridors biologiques fonctionnels. Chacune de ces entités – voies de communication et corridors biologiques – revêt un rôle similaire, mais pour différents acteurs du paysage. Elles représentent des réseaux de structures linéaires qui relient des réservoirs de type urbain comme « des agglomérations » d’une part et réservoirs de biodiversité d’autre part. En outre, elles représentent également des axes préférentiels pour l’expansion respective des agglomérations ou des milieux naturels. Ces réseaux se chevauchent en grande partie et des zones de conflits apparaissent sur certaines de leurs intersections. Pour maintenir des échanges fluides entre les différents réservoirs, il convient de prendre en compte la fonctionnalité de chacun des deux réseaux.
Un outil de communication et d’aide à la décision pour un aménagement du territoire conciliantDéplacements des cerfs mâles dans le bassin genevois. Chaque couleur correspond à un individu.
Légendes
1 - Cerf équipé d’un collier GPS
2 - Redimensionnement d’une zone de conflit sur la base des données cerfs. Rouge : passage théorique; orange : passage observé
3 - Redimensionnement d’un corridor selon données actuelles. Orange : secteur fonctionnel; brun : peu fonctionnel
4 - Modèle 3D : dimensionnement et aménagement d’un corridor
Le but du projet UrbEco est de réaliser un cahier technique à destination des aménagistes, urbanistes, gestionnaires et élus. Ce document doit préciser la structuration et le dimensionnement nécessaire pour garantir la fonctionnalité de corridors de déplacement de la faune. Il sera illustré par des images provenant de modèles 3D indiquant les structures types et les aménagements pour conserver des corridors fonctionnels, ainsi que par des cartes de perméabilité indiquant les contraintes de déplacements des ongulés.
Le projet UrbEco est caractérisé par une combinaison de moyens modernes de suivi de la faune et de modélisation cartographique. Les cerfs sont suivis grâce à des colliers GPS/GSM offrant la possibilité de les localiser avec une grande précision. Les données issues de ces suivis sont combinées aux paramètres décrivant les corridors et les zones de conflits, ainsi qu’aux contraintes urbanistiques. Ces différentes données sont ensuite traduites sur des cartes de perméabilité, puis retranscrites à une échelle plus réduite par des modèles d’habitats 3D. Cette combinaison d’approches provenant de diverses disciplines (biologie, urbanisme, architecture du paysage, sociologie) permet de proposer des solutions intégrées. Les captures sont réalisées par les gardes de l’environnement, DGAN.
En milieu urbain, le phénomène d’îlots de chaleur et l’accroissement du nombre d’évènements climatiques extrêmes inquiètent les urbanistes. Les toitures végétalisées (TV) permettraient d’atténuer ces phénomènes climatiques et de favoriser la biodiversité. Ce projet vise à élaborer des outils décisionnels et de planification tenant compte de l’interaction entre les différents facteurs, climatiques, thermiques et écologiques afin de garantir une meilleure implantation et assurer une efficacité optimale des toitures végétalisées.
Ce projet est l’un des rares qui permettra d’élaborer des outils décisionnels et de planification tenant compte de l’interaction entre les différents facteurs climatiques, thermiques et écologiques de différents types et âges de toitures végétalisées. L’aspect innovant du projet réside dans l’aspect pluridisciplinaire de son équipe ainsi que dans l’analyse de données d’une trentaine de toitures du canton de Genève.
D’ici 2020, la Suisse comptera 8.7 millions d’habitants dont plus de 75% des personnes vivant en milieu urbain. Au 21eme siècle, l’un des principaux défis des villes des pays occidentaux sera de planifier le développement urbain tout en préservant la qualité de vie de leurs habitants. Au cours des dernières années, les toitures végétalisées ont attiré l’attention des écologistes, des architectes et des agronomes car celles-ci constituent des atouts non négligeables en matière écologique et économique pour les villes d’aujourd’hui et de demain. Toutefois, très souvent, les études sur les toitures végétalisées ciblent un seul de ces bénéfices sans porter attention à l’interaction entre les divers paramètres climatiques, thermiques et écologiques. Il est donc essentiel d’identifier ces interactions et ainsi permettre une meilleure intégration des ces infrastructures vertes au niveau territorial.
Dans le cadre de ce projet, nous souhaitons, dans un premier temps, disposer d’un état des lieux à partir d’un échantillon d’une trentaine de toitures végétalisées localisées sur le canton de Genève. Les toitures sélectionnées représentent les principaux types de toitures végétalisées retrouvés dans nos villes soit des toitures dites extensives et intensives. Nous avons également sélectionné des toitures de différentes anciennetés (<10 ans et >10 ans) afin d’évaluer l’effet du temps sur les paramètres mesurés. Ainsi, pendant deux années consécutives, des mesures sur la biodiversité (floristique et entomofaune), sur la capacité de rétention en eau ainsi que sur l’aspect thermique des ces toitures sont réalisées. Ceci permettra d’élaborer des outils d’aide à la décision et des recommandations. Ce projet permettra aussi de sensibiliser les différents acteurs et la population de l’importance des toitures végétalisées en ville afin d’atténuer les extrêmes climatiques et améliorer la qualité de vie des habitants.
Légendes
1 - Station de mesure des températures sur la toiture de la HEAD.
2 -Sonde de mesure de la température de surface sur la HEAD.
3 - Station météorologique permettant de mesurer l’évapotranspiration potentielle.
4 - Déversoir rectangulaire.
5 - Déversoir cylindrique.
6 - Evaluation de la diversité floristique sur les toitures.
Des outils techniques et pratiques tels que manuels et feuillets techniques mais également guide d’aide à la décision seront élaborés et destinés aux différents acteurs concernés. Un feuillet vulgarisé sera également réalisé afin de sensibiliser les citoyens et propriétaires à l’importance des toitures végétalisées dans un contexte de changement climatique. Ce projet permettra également d’informer les entrepreneurs sur l’entretien à apporter à ces toitures afin qu’elles puissent remplir leurs rôles écologiques et environnementaux à long terme.
Pour les volets thermique et climatique, des capteurs mesurant la densité du flux thermique et la température ambiante et de surface, à la fois intérieure et extérieure, seront déployés sur les toitures. Le MoodMotionDau (station climatique mobile géo-référencée), qui enregistre les données de température et d’humidité est également utilisé. Cet appareil permettra de réaliser des profils climatiques horizontaux. Pour les profils verticaux, un ballon captif rempli d’hélium permettra d’enregistrer la température, l’humidité et la vitesse et la direction du vent à différentes altitudes au-dessus de la TV.
Pour le volet hydrologie, des déversoirs rectangulaires et cylindriques sont utilisés pour mesurer les débits tandis que des sondes Watermark® permettront de déterminer le potentiel matriciel.
Christiane Ilg1, Pierre-André Frossard1, Rafael Matos-Wasem2 , Roland Schegg2, Andréa Finger-Stich1, Beat Oertli1
1 hepia, Haute école du paysage, d’ingénierie et d’architecture de Genève
2 Institut de tourisme, HES-SO Valais-Wallis
Le but de ce projet est de favoriser la biodiversité aquatique alpine, particulièrement menacée par le réchauffement climatique. Ce projet s’inscrit dans le Programme pilote « Adaptation aux changements climatiques » de la Confédération. Un diagnostic des actions de création et restauration de plans d’eau d’altitude permettra d’identifier les bonnes pratiques, qui seront appliquées dans la création d’un étang pilote servant à l’observation et à la sensibilisation aux impacts du changement climatique.
Ce projet se base sur des connaissances récentes concernant les domaines de la conservation des espèces, et se situe dans l’une des tendances actuelles de ce domaine (restauration de milieux, atténuation des impacts). Il permet de démontrer la faisabilité de telles actions et encourage à la conduite de projets similaires dans d’autres régions alpines. L’intégration des sciences sociales et naturelles ainsi que l’implication des acteurs du territoire permettront d’assurer la durabilité du projet.
La biodiversité alpine et plus particulièrement les espèces liées au froid sont menacées par le réchauffement climatique, qui provoque leurs déplacements vers des altitudes plus élevées où elles doivent trouver de nouveaux habitats. La création ou la restauration de milieux aquatiques en altitude permet d’assister les espèces aquatiques potentiellement menacées dans leur migration et dans leur recherche de nouveaux habitats. Dans ce contexte, les objectifs du projet « Acclamé » (Adaptation aux Changements Climatiques dans les Alpes : Action pilote de restauration de la biodiversité des Mares et des Étangs dans le canton du Valais) sont :
Inventaire et bonnes pratiques
• Inventaire et diagnostic de la biodiversité des actions de création et restauration de petits plans d’eau entreprises au cours des 20 dernières années dans les Alpes valaisannes ;
• Evaluation de la valeur socio-économique de ces nouveaux milieux aquatiques et durabilité des projets réalisés ;
• Analyse des éléments écologiques et sociaux conduisant au succès ou à l’échec des actions entreprises et production d’un cahier de bonnes pratiques pour la promotion de projets futurs.
La création d’un site pilote
• Création d’un étang pilote, avec suivi écologique et social sur la commune d’Isérables, Valais (site sélectionné par un précédent programme HES-SO « RestorAlps ») ;
• valorisation du site pour des usages touristiques, agropastoraux, ainsi que pour la gestion de l’eau ;
• création d’un observatoire de l’impact des changements climatiques sur la biodiversité, relié virtuellement aux autres sites restaurés dans les Alpes valaisannes. Mise en place d’outils de pédagogie interactive pour la sensibilisation et la participation de divers publics.
Légendes
1 - Site pilote du Plan du Fou (commune d’Isérables VS)
2 - Aeshna juncea, une espèce de libellule liée au froid
3 - Etude de la qualité de l’eau des mares restaurées : prélèvement hivernal
4 - Plan de l’étang pilote au Plan du Fou Commune d’Isérables VS
5 - Visite de terrain sur le site d’Essertse VS
6 - Expérience sur la colonisation potentielle d’insectes aquatiques liés au froid sur le site du futur étang pilote
Ce projet vise à sensibiliser les acteurs du territoire et la population aux impacts du réchauffement climatique, ainsi qu’à leur faciliter l’appropriation du projet pour une efficacité durable des mesures proposées. La valorisation des actions entreprises dans ce programme comprend :
• la réalisation d’un flyer diffusé auprès des acteurs du territoire ;
• l’organisation d’une manifestation en 2016 auprès de l’étang nouvellement creusé ;
• la réalisation d’un site internet interactif pour la sensibilisation du public.
Partenaire scientifique :
• Institut de tourisme, HES-SO Valais-Wallis
Autres partenaires :
• Office fédéral de l’environnement (OFEV)
• Canton du Valais (Département des transports, de l’équipement et de l’environnement ; Service des forêts et du paysage)
• Commune d’Isérables (Valais)
• HES-SO Haute Ecole Spécialisée de Suisse occidentale
Les parfums sont le plus souvent d’origine végétale et sont déterminés par des milliers de molécules aliphatiques, cycliques et aromatiques, dont les plus importantes sont les terpènes. Ce projet particulier doit permettre d’identifier les gènes codant pour les enzymes, qui synthétisent les molécules parfumées du bois d’aloès, en réponse à une infection fongique. Ce projet s’inscrit dans la recherche de solutions alternatives pour la production de molécules constitutives des parfums.
Ce projet a permis de découvrir les aptitudes culturales de l’espèce Aquilaria, en hydroponie en particulier pour une croissance accélérée, de sélectionner des clones intéressants pour leur croissance rapide, de déterminer les conditions optimales pour la production de plantes par micropropagation, de définir les conditions pour la croissance de tissus indifférenciés en culture in vitro sur milieux solides et liquides et finalement d’identifier des champignons pathogènes inducteurs du métabolisme des terpènes.
En général, les molécules de parfum sont produites par extraction de plantes cultivées ou sauvages, dont la cueillette représente une activité économique importante dans certaines régions. La synthèse chimique a permis de résoudre le problème de rareté donc de cherté de certains parfums. Mais, certains parfums, reposant sur des sesquiterpènes complexes, ne sont pas accessibles à la synthèse chimique à des rendements et à des coûts raisonnables. Ils ne sont pas fournis en suffisance par les cultures de plantes ou la cueillette, soit parce que la culture est difficile, soit parce que la plante est rare. Il faut alors rechercher une solution biotechnologique : la biotechnologie va donc en effet se substituer à une production naturelle, indisponible, car devenue rare en raison d’une trop grande exploitation. Certaines ressources végétales sont des plantes ou des arbres rares, en voie de disparition pour certaines espèces, comme le santal, ou Aquilaria spp., donc protégées et inscrites sur la liste rouge de l’UICN, d’autres croissent lentement comme les conifères ou sont sujets à des aléas climatiques ou géopolitiques comme le patchouli. Cette rareté confronte l’industrie des parfums à un véritable défi : s’assurer de l’approvisionnement en ces molécules alors que les ressources cultivées ou naturelles s’amenuisent. La biotechnologie peut aider à répondre à ce défi à l’aide de ce type de projet, qui comprend l’établissement de cultures de plantes en enceintes climatiques, et de cultures in vitro de différentes espèces végétales, sources de parfum en milieux solides ou liquides, pour ensuite rechercher les conditions de culture et de traitements induisant l’expression de gènes impliqués dans la synthèse de ces molécules. L’objectif est d’identifier ces gènes et de les isoler pour ensuite envisager des productions biotechnologiques en fermenteurs.
Légendes
1 - Cultures de plantes à partir d’explants.
2 - Croissance de bourgeons sur un explant.
3 - Croissance d’un explant sans racine.
4 - Plantes d’un an en cultures hydroponiques.
5 - Tissu indifférencié vert.
6 - Germination in vitro.
© Julien Crovadore et François Lefort
Ces travaux sont primordiaux pour identifier des gènes codant pour des enzymes synthétisant des terpènes particuliers. La valorisation doit suivre un chemin de validation industrielle de plusieurs années. Les conséquences espérées sont un approvisionnement stable du marché dans les quantités désirées de ces molécules, et, par conséquent, une pression moindre sur les espèces végétales protégées à partir desquelles sont extraites ces molécules, donc in fine une contribution à la protection de la biodiversité.
Des chambres climatiques pour les cultures in vitro et les cultures in vivo sont requises ainsi que des installations et équipements scientifiques de niveau de sécurité 2 permettant les cultures in vitro en conditions stériles et les cultures de micro-organismes nécessaires aux infections inductrices ou à la production d’extraits fongiques inducteurs. Les analyses de contenu en terpènes sont effectuées par chromatographie en phase gazeuse combinée à la spectrométrie de masse (GC-MS). Les molécules sont identifiées en comparant leurs spectrogrammes à ceux des banques de données internationales. Hormis le fait de disposer d’équipements spécifiques, un savoir-faire particulier est déterminant pour identifier les conditions de culture et d’induction adaptées à des espèces végétales physiologiquement peu connues.
Le sanglier est étroitement lié aux activités humaines en tant qu’espèce de gibier appréciée des chasseurs, mais également de par les dégâts agricoles qu’il provoque. Ces dégâts sont en forte progression. Les besoins de gérer cette espèce se font donc de plus en plus pressants. Le problème pour réaliser une gestion mesurée réside dans la grande difficulté à évaluer la taille et la distribution des populations. Nous proposons une nouvelle méthode d’évaluation des effectifs. Cette méthode doit être calibrée, de façon à évaluer son adéquation.
L’innovation est d’offrir aux acteurs (gestionnaires, agriculteurs, chasseurs) un outil de comptage des populations de sangliers suffisamment précis pour réaliser une gestion mesurée et durable de cette espèce. Pour atteindre cet objectif, un calibrage de la méthode est indispensable. Les gains attendus pour les utilisateurs sont les suivants :
• une méthode fonctionnelle (précision des résultats) ;
• un protocole simple à mettre en œuvre (coût faible) ;
• une réduction des dégâts grâce à des plans de tirs basés sur des données représentatives.
L’impact économique du sanglier sur les cultures et les prairies peut être très important. En 2011, le total des indemnisations de dégâts versées aux agriculteurs a atteint la somme de CHF 230’000.- dans le canton de Neuchâtel, soit plus du double de l’enveloppe budgétaire prévue à cet effet. Le phénomène n’est pas isolé : la tendance montre un accroissement régulier et marqué des dommages aux cultures et aux herbages dans les cantons concernés. En principe, outre la pose de clôtures électriques, les tirs de régulation devraient permettre de minimiser l’importance des dégâts. On remarque toutefois que l’efficacité de ces mesures reste temporaire, notamment car les prélèvements s’effectuent sans pouvoir s’appuyer sur un plan de tir prédéfini.
Cette problématique des dégâts dus aux sangliers, liée à la difficulté d’évaluer correctement les effectifs de cette espèce est au centre des préoccupations des gestionnaires et des biologistes de la faune dans de nombreuses régions en Suisse et à l’étranger. Dans tous les pays peuplés de sangliers, les spécialistes cherchent à mettre au point des méthodes de comptage efficaces, pour pouvoir pratiquer une gestion raisonnée. Ces efforts n’ont jusqu’ici donné aucun résultat probant, les seules méthodes a priori efficaces présentent un coût financier beaucoup trop élevé pour être utilisées en routine par des gestionnaires.
Dans le cadre de ce projet, nous souhaitons optimiser une méthode particulière de capture-marquage-recapture (CMR) particulière, dont les 3 phases de déroulement ne nécessitent aucune intervention humaine. Ces phases sont passives, ce qui permet de réduire les coûts liés à la main-d’œuvre à un minimum et d’éviter des manipulations stressantes pour les animaux. L’optimisation de la méthode requiert toutefois de réaliser un calibrage initial à l’aide de moyens plus lourds.
Légendes
1 - Dégâts dans une prairie.
2 - Un agriculteur rebouchant des boutis de sangliers.
3 - Enceinte de capture pour sangliers.
4 - Marquage d’un marcassin avec un transpondeur.
Ce projet permet notamment de mettre au point un système d’agrainage qui servira au marquage passif des sangliers. En outre, ce système doit pouvoir être facilement et régulièrement utilisable par les gestionnaires. Ce produit pourra également être présenté en dehors de la zone investiguée. De plus, les résultats obtenus lors de l’étude permettront d’approfondir les connaissances sur l’écologie de l’espèce, en particulier l’utilisation de l’espace, et pourront être présentés dans des publications scientifiques et lors de congrès internationaux.
Le concept et les matériaux utilisés pour l’agrainoire constituent des éléments fondamentaux, au cœur du projet. Un modèle en métal et un modèle en bois sont prévus pour passer les premiers tests. Le système est complété par des pièges-photos placés sur les sites d’agrainages. Ils sont sensés photographier les animaux avec leur marquage, provenant de l’agrainoire. Le calibrage de la méthode nécessite de capturer une série de sangliers afin de les équiper d’émetteurs pour radio-pistage et de transpondeurs passifs. Le radio-pistage permettra de définir si les agrainoires sont attractifs, et si leur distribution sur le terrain permet d’échantillonner une portion représentative d’une population. Les transpondeurs permettront d’identifier si les marquages réalisés au niveau des agrainoires permettent une reconnaissance individuelle des sangliers marqués.
Le réchauffement climatique est une réalité qui s’observe parfaitement dans les rivières de Suisse. Les périodes de sécheresse extrême, enregistrées ces dernières années, entraînent des conditions défavorables pour la faune aquatique en général et les poissons en particulier. Clim-arbres propose une démarche pragmatique cherchant à lutter, non pas contre le réchauffement climatique en soi, mais contre ses effets en proposant la plantation d’arbres au bord des cours d’eau.
Clim-arbres est un projet pluridisciplinaire issu de la volonté de l’OFEV (Office fédéral de l’environnement) de mettre en place une nouvelle politique, visant à proposer des campagnes de plantations en bordure des cours d’eau exposés. Où, comment, combien, pour quel montant, sont quelques-unes des questions auxquelles ce projet répond. Clim-arbres est donc un projet concret de biologie appliquée cherchant à trouver des solutions pratiques, directement applicables à un problème général. En ce sens, il entre exactement dans la démarche des HES (Hautes écoles spécialisées suisses) qui vise à apporter des réponses concrètes en liaison avec l’économie, la société et l’environnement.
Cette recherche est le fruit du travail d’une équipe pluridisciplinaire comprenant des spécialistes et des étudiants d’hepia (haute-école du paysage d’ingénierie et d’architecture), du WSL (institut fédéral de recherches sur la forêt, la neige et le paysage), de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) et des Universités de Lausanne (Unil) et Genève (Unige). Clim-arbres propose une démarche pragmatique, réaliste et relativement facile à mettre en œuvre localement. Ce sont ces caractéristiques qui constituent son caractère innovant. L’objectif poursuivi consiste à tester la possibilité de produire massivement de l’ombre sur les cours d’eau afin de diminuer le réchauffement des eaux. Une élévation moindre de la température de l’eau à certains moments pourrait s’avérer cruciale pour le maintien de certaines espèces sensibles. Clim-arbres répond à 3 questions principales :
• Quels sont les facteurs principaux déterminant la température de l’eau d’une rivière ? Diverses expériences et monitoring ont été mis en place sur le terrain afin de déterminer le régime thermique de diverses rivières. Un modèle thermique est décrit et validé sur la base des données recueillies.
• Où sont les rivières les plus menacées par le réchauffement ? En appliquant le modèle thermique à l’échelle d’une région en fonction de divers scénarios climatiques, on parvient à localiser les rivières susceptibles de souffrir en premier du réchauffement, donc celles sur lesquelles des mesures doivent être prises en priorité.
• Comment protéger ces rivières ? Grâce à diverses expériences en laboratoire et en nature, il s’agit de déterminer quelles sont les essences les mieux à même d’influencer le microclimat des cours d’eau. En fonction des caractéristiques de chaque essence, et de chaque type de site à reboiser, on peut alors établir des fiches techniques donnant toutes les consignes pour effectuer des plantations dans les meilleures conditions.
Légendes
1 - Exemple de rivière sans ombrage.
© Pierre-André Frossard
2 - Pose d’enregistreur de température dans l’Hongrin. © Jean-François Rubin
3 - Pose d’une fibre optique dans le Boiron de Morges par l’EPFL. © Jean-François Rubin
4 - Expérience sur le choix des végétaux en chambre de culture. © Ismael Zouaoui
5 - Expérience de choix des végétaux à Lullier.
© Jean-François Rubin
6 - Rivière en cours de revitalisation par plantation d’arbres. © Pierre-André Frossard
Ce travail a permis de mettre en évidence que les paramètres les plus importants influençant la température d’une rivière, étaient, outre la température de l’air, la distance à la source, la présence d’une forêt en bordure du cours d’eau et l’écomorphologie de la rivière. C’est ainsi que les rivières du Plateau, souvent sans ombrage et canalisées, apparaissent comme celles qui ont le plus à craindre des effets du réchauffement climatique. C’est donc là que devraient se concentrer les efforts de renaturation ces prochaines années.
Aujourd’hui, le vaste réseau d’enregistreurs de température de l’eau des rivières a été repris par les instances cantonales et équipé de plusieurs stations. Ceci représente aujourd’hui plus de 90 points de mesures, qui sont disposés sur tout le territoire vaudois. Ces stations de mesure devraient permettre le développement de nombreuses autres recherches, notamment celles liées à la gestion piscicole.
Geni’Alp vise à promouvoir les techniques de génie végétal au sein d’une réflexion globale de restauration des cours d’eau de montagne en conciliant « sécurité des biens et des personnes » et « préservation des enjeux environnementaux ». Ce projet s’inscrit dans le programme INTERREG IVA, où hepia endosse le rôle de chef de file suisse, au côté de la Région Rhône-Alpes, chef de file français.
Geni’Alp aboutit à des résultats concrets, directement utiles aux gestionnaires, à commencer par 6 chantiers pilotes à vocation démonstrative, réalisés sur des cours d’eau où les techniques de génie végétal et techniques mixtes ont été poussées à leurs limites d’utilisation. Un guide développant des éléments d’expertise technique, comprenant également 50 fiches descriptives d’espèces végétales utilisables sur les cours d’eau de montagne ainsi qu’une clé de détermination des saules en repos végétatif a également été réalisé. Enfin, un suivi de la biodiversité sur 60 aménagements existants fournit des résultats inédits.
A mi-chemin entre l’ingénierie et la biologie appliquée, le génie végétal offre aux gestionnaires de cours d’eau des solutions efficaces pour résoudre des problèmes de protection des sols et de protection contre les crues, en s’inspirant de modèles naturels de végétation. En Suisse et en France, les applications se sont multipliées sur de nombreux territoires, dans des contextes variés, nécessitant des adaptations techniques constantes de la part des ingénieurs-biologistes. Toutefois, les gestionnaires des cours d’eau de montagne ont pour l’instant très peu recours au génie végétal, se privant ainsi d’un outil de protection contre les crues particulièrement avantageux pour la protection de l’environnement et du paysage. Sont en cause les contraintes topographiques, climatiques et hydrauliques parfois extrêmes, mais surtout un déficit de connaissances, de références, de vulgarisation et de promotion. Pour combler ce déficit, Geni’Alp a mis sur pied les actions suivantes :
• réalisation de 6 chantiers pilotes (3 sur territoire suisse et 3 sur territoire français) à caractère expérimental et démonstratif ;
• campagne de suivi de la biodiversité sur 60 aménagements anciens (végétation, entomofaune et macrofaune benthique) ;
• réalisation d’un guide comprenant des éléments de conception et de dimensionnement ;
• élaboration de fiches descriptives d’espèces ligneuses et herbacées présentant un potentiel d’utilisation intéressant, accompagnées d’une clé de détermination des saules en bourgeons, le genre le plus utilisé en génie végétal ;
• organisation de journées techniques d’information et d’échanges, destinées aux ingénieurs, entreprises et services publics concernés ;
• réalisation de maquettes pédagogiques décrivant les principales techniques utilisables en montagne ;
• mise en place d’une plate-forme d’informations : www.geni-alp.org
Légendes
1 - Journée technique d’information et d’échanges.
2 - Résistance des végétaux aux contraintes physiques.
3 - Phénomène d’érosion en berge de cours d’eau de montagne.
4 - Plantes herbacées présentant un potentiel d’utilisation dans l’aménagement.
5 - Modèle naturel de végétation en berge de cours d’eau de montagne.
6 - Technique de génie végétal en cours de réalisation.
3 thèses de Bachelor ont été réalisées sur la thématique Geni’Alp. Les expériences et données acquises sont transférées et enrichissent l’enseignement :
• cours de génie biologique, botanique et connaissance des milieux au niveau Bachelor, en filière GN (Gestion de la Nature) ;
• cours d’aménagements hydrauliques au niveau du master MIT (Master en Ingénierie du Territoire).
Un certain nombre d’articles sont prévus :
• revue suisse pour le génie biologique ;
• différentes autres publications prévues. Le guide élaboré dans le cadre du projet (gestion, technique et végétation) sera utilisé dans le cadre de l’enseignement. Une plate-forme Internet d’informations subsistera et continuera d’être alimentée suite au projet.
Partenaire suisses :
• Communes d’Ollon, de Bex et de Gryon.
• Canton de Vaud.
Partenaires français :
• IRSTEA, Institut national de recherche en sciences et technologies pour l’environnement et l’agriculture.
• ARRA, Association Rivière Rhône Alpes.
• ONF, Office National des Forêts.
• SYMASOL, Syndicat mixte des affluents du sud-ouest lémanique.
• SM3A, Syndicat mixte d’aménagement de l’Arve et de ses abords.
Cofinancement pour les partenaires suisses :
• Confédération helvétique (Interreg Fédéral).
• Canton de Genève.
• Canton de Vaud.
Cofinancement pour les partenaires français :
• FEDER, Fonds Européen de Développement Régional (Programme Interreg IVA France-Suisse).
• Agence de l’eau Rhône-Méditerranée & Corse.
• Conseil Général de la Haute-Savoie.
Ce projet propose une nouvelle technologie de traitement biologique pour les effluents contenant des pesticides agricoles (insecticides, herbicides et fongicides). Il vise, à partir d’une invention hepia (VG-Biobed®, brevet Env VEG - N/Réf. : 2078CH00/530-2) à élaborer un prototype commercialisable. Les hautes écoles : hepia-Genève et EIA-Fribourg, ainsi que le CFPne-Lullier et l’entreprise Ecavert ont participé à ce projet. Le prototype a été mis en service sur l’espace pédagogique biobeds du Centre de formation professionnelle nature et environnement du domaine de Lullier, espace opérationnel depuis le 13 juin 2011.
Les produits phytosanitaires (insecticides, herbicides, fongicides) utilisés pour protéger les productions végétales se retrouvent en quantité croissante dans les eaux de toute la planète. Les études montrent qu’ils sont nocifs pour l’environnement comme pour la santé. Ces pesticides ne proviennent généralement pas du traitement des végétaux mais des fuites qui se produisent lors des opérations de préparation et de lavage des appareils, sur l’exploitation agricole, le jardin familial ou le service d’espaces verts. On estime jusqu’à 95 % la contribution de ces sources ponctuelles à la contamination de l’environnement. D’où la nécessité de solutions efficaces, c’est-à-dire performantes, peu coûteuses, flexibles, fiables, simples de réalisation et d’entretien.
Le Biobed est né en toute fin de XXè siècle en Europe du nord et s’impose peu à peu. Il s’agit d’une simple fosse remplie de terre mélangée de paille ou de compost. Sur cette fosse sont préparés les traitements et les appareils sont lavés. Les effluents qui traversent le substrat sont débarrassés des pesticides par le sol : en effet, le sol les retient et ses microorganismes les dégradent.
Les Biobeds se sont progressivement et empiriquement améliorés. La filière Agronomie hepia, en partenariat avec le Centre de formation professionnelle nature et environnement (CFPne) pour la formation, et avec l’Ecole d’Ingénieurs de Changins (EIC) pour la recherche, se sont saisis du problème. La législation suisse impose des précautions particulières, et l’homologation de systèmes Biobeds modernes reste à faire. Une analyse scientifique doit succéder à l’empirisme, car des limitations ou des risques ont été identifiés. En outre, il faut aussi former les élèves, et les milieux professionnels. L’enjeu financier, sanitaire et environnemental est considérable et les producteurs qui demandent à s’équiper, l’ont bien compris.
C’est de cette analyse qu’est né, avec le soutien de l’Office fédéral de l’environnement et du réseau RealTech de la HES-SO, l’espace Biobeds de Lullier. Le service de l’écologie de l’eau à Genève a accompagné ce projet pilote qui présente plusieurs types de Biobeds, dont le Biobed Vertical végétalisé ou VG-Biobed, breveté par hepia et qui se distingue par son faible encombrement, son esthétique et ses performances accrues.
Ces Biobeds sont utilisés pour les 40 hectares de production du domaine de Lullier, qui ne rejettent plus aucun pesticide dans l’environnement depuis 2011. Le contenu de la formation continue, tant celle des apprentis du CFPne que celle des élèves ingénieurs hepia a pu également bénéficier de cet apport.
La recherche continue avec l’objectif d’éliminer les rejets dans les eaux suisses, de fiabiliser les systèmes, de les rendre plus économiques et de réduire l’entretien. Cet objectif est atteignable à des coûts modérés et largement compensés par les économies réalisées en aval.
Un biobed vertical et optimisé pour l’épuration des effluents phytosanitaires.
Ce projet concerne la mise au point et la réalisation d’un prototype commercialisable de biobed vertical végétalisé pour le traitement des résidus de pesticides contenus dans les eaux de lavage des outils de traitement d’une exploitation agricole. Les objectifs de ce projet sont : • de réaliser la mise au point d’une structure permettant d’empiler des biobeds de façon souple et fonctionnelle, • de tester la mise en œuvre de différents types de végétalisation, afin de limiter au maximum l’entretien du mur, • et de passer à la phase de commercialisation.
Le système proposé ne laisse aucun résidu. Il est conçu pour transpirer l’eau de l’effluent tout en retenant les pesticides dans le substrat et, contrairement aux Biobeds classiques, ne nécessite a priori pas de renouvellement du substrat. Son efficacité est décuplée par rapport aux Biobeds conventionnels. Il est donc beaucoup moins encombrant et moins cher.
• La principale valorisation est la diffusion de cette invention par la startup Agronomie Ecavert.
• Le VG-Biobed s’est vu décerner le Prix du développement durable (Genève 2010) et de la Foire de Bâle en 2012.
• Cette invention est invitée au salon OEGA 2012. Plusieurs séquences radio lui ont été consacrées (RTS).
Institut des sciences et technologies industrielles - inSTI inSTI est l’institut de recherche du département des technologies industrielles d’hepia. Il se veut un partenaire de choix en matière de recherche et développement pour le tissu industriel local et régional mais aussi pour les collectivités.
inSTI développe des compétences dans les domaines suivants :
bio-ingénierie : génie tissulaire, bio-interface et biocompatibilité, instrumentation biomédicale et microtechnique, microfluidique et printing, chimie analytique et organique;
industrie 4.0 : électronique, conception mécanique et modélisation numérique, optique et traitement d’image, automatique et robotique, advanced manufacturing;
mécanique des fluides et énergie : simulation d’écoulements de type CFD, aérodynamique, essai en soufflerie, aérodynamique des drones et méthodes de mesure avancées, énergie électrique appliquée;
matériaux et nanotechnologies : micro-nanotechnologie, matériaux et tribologie développement d’instrumentation nanotechnologique (en particulier microscopie), développement de couches minces fonctionnelles, nanostructures, nanotribo corrosion, essais mécaniques non usuels, simulation multiphysique.
inSTI valorise ses activités de Ra&D par des transferts de technologies vers l’économie (projets CTI, projets EU, mandats…) d’une part, et par des publications scientifiques et des participations à des conférences d’autre part. De plus, inSTI attache une valeur particulière à établir des collaborations fortes avec ses partenaires, qu’ils soient industriels, étatiques, semi-étatiques, ou académiques. inSTI est en contact étroit avec le LTA, «Laboratoire de Technologies Avancées» permettant aux industriels de s’adresser de manière unifiée à la fois à HEPIA et à l’Université de Genève pour formuler un besoin en terme de mandats ou de recherche. L’ensembles des compétences et de l’instrumentation disponible via le LTA se trouve sur https://www.lta-geneve.ch/.
Marc Jobin Professeur HES, Responsable institut inSTI marc.jobin@hesge.chCe projet, proposé par l’entreprise GF Machining solutions, a pour objectif de détecter et corriger en temps réel des défauts aléatoires pouvant apparaître lors d’un usinage par texturation laser. Aujourd’hui, la vérifi cation de la qualité de l’usinage avec un microscope s’eff ectue à posteriori et de façon manuelle. Il s’agit de rendre automatique cette analyse, en couplant un système de mesure optique à la tête d’usinage laser, permettant de mesurer la pièce in-situ puis de corriger l’usinage en transmettant les mesures eff ectuées à la machine.
• Dispositif intégré à la machine permettant la mesure en temps réel de la profondeur d’usinage.
• Possibilité de corriger les défauts du processus par l’application d’une boucle de contre-réaction intégrée: réelle innovation.
• Gain de temps et de productivité, génération de données relatives à l’assurance qualité.
• Utilisation de la technique de tomographie par cohérence optique (OCT): source de mesure de même longueur d’onde que celle de l’usinage.
• Résolution de 3 µm.
Schéma de principe: phase d’usinage et phase de mesure
Lors d’un usinage de pièces par texturation laser, chaque passe élimine approximativement 100 à 200 nm de matière pour une profondeur maximale de 150 µm. Durant cette étape, des défauts peuvent apparaître découlant de l’instabilité de la source laser ainsi que de perturbations environnementales ou de précisions de la machine, diffi cilement maîtrisables à l’échelle de dizaines de micromètres.
Le projet Textulaser a pour but d’ajouter un système de mesure à la machine afi n de détecter et mesurer, en temps réel, ces défauts aléatoires pouvant apparaître lors de l’usinage. En couplant un système de mesure optique à la tête d’usinage laser, on pourra mesurer la pièce après un certain nombre de passes et, dans un second temps, tenir compte des possibles défauts détectés en transmettant à la machine des actions correctives. Elle sera ainsi capable de produire des pièces précises, sans intervention externe et sans mesure complémentaire, ce qui apportera fi abilité et gain de productivité.
Le système optique développé par HEPIA est une tomographie par cohérence optique (OCT). L’intérêt est son encombrement réduit et sa relative facilité d’intégration aux éléments existants utilisés pour l’usinage par texturation. Une résolution ciblée de 3 µm a d’ores-et-déjà été atteinte.
Notre système et principe de mesure utilisés diffèrent des systèmes mentionnés dans la littérature par l’utilisation d’une source de mesure dont la longueur d’onde est identique à celle de la source d’usinage, ce qui en fait son originalité. Les avantages sont la réduction des aberrations de mesures (on vient mesurer exactement là où le laser d’usinage a frappé) et l’aff ranchissement du miroir dichroïque. Un spectromètre avec une caméra InGaAs intégrée a été mis en œuvre. L’analyse et le traitement des images sont réalisés par MATLAB.
Légendes
1 - Banc de test permettant la mesure par OCT. © HEPIA
2 - Profil scanné d’une marche de 5 µm de l’échantillon, les lignes rouges indiquent la différence de niveau. © HEPIA
3 - Exemple de textures effectuées par laser. © HEPIA
Écriture d’un article et présentation du concept lors de la prochaine conférence ISEM qui se tiendra à Zürich en 2022. Si l’article est accepté, il sera publié dans la revue Procedia CIRP, éditée par Elsevier. Contacts avec GF Machining solutions pour une demande de projet Innosuisse. L’objectif sera d’intégrer ce système à la machine, en vue d’une solution proche d’une version industrielle.
• Spectromètre Wasatch Photonics, modèle Cobra 1300, longueurs d’ondes 950–1450 nm, caméra intégrée Sensors Unltd, GL2048R
• Carte d’acquisition National Instruments, modèle PCIe-1433
• Lentille F-Thêta de Thorlabs, modèle LSM02-BB
• Convertisseur numérique-analogique DAC8803EVM de Texas Instruments
• Galvos GVS002 et driver GPS011-EC de Thorlabs
TEEROC (for TEER-On-Chip) is a full spectrum impedance device composed of two printed circuit boards (PCB). The first one contains the intelligence and measurement electronics, based respectively on a STM32 microcontroller and the Analog Devices’ spectrum analyzer AD5933. The second one called “Lid” is the interface between the electronics and the biologist well plate. Using multiplexers, we can perform a sequential acquisition of TEER on 12 wells mimicking the dynamics of the in vitro lung.
The choice of designing the device in separate blocks allows the measuring PCB to be used for other geometries such as well plates. This provides the user with a flexible measuring system that can be adapted to standard biological equipment. In addition, the choice of integrating the AD5933 chip from Analog Devices allows a considerable reduction in the price of this technology, making TEEROC a cost-effective in-house device. For communication, we used USB-C or Bluetooth. The energy is provided by a battery.
Bio-impedance measurement is a technique used to evaluate the integrity of a single layer of epithelial cells. As the cells are immerged in a conductive growing medium, the measurement can be done by applying an alternative voltage through the barrier, thus observing the induced current and deducing the electrical impedance of the cell monolayer. Such non-invasive method is used to study the impact of drugs on the single-layer characteristics by evaluating its integrity.
This study is the result of a collaboration between HEPIA’s Tissue Engineering Lab and the Bern-based start-up AlveoliX. Both laboratories share the same interest in TEER device development and the design of a robust, reliable home-made instrumentation.
The developed system is a full spectrum impedance measurement device based on the system-on-chip AD5933 by Analog Devices. The ability of the AD5933 to generate peak-to-peak excitation voltage to a maximum of 100 kHz, thus measuring an impedance range from 1 Ω to 10 MΩ makes it a perfect fit for our application. Two boards have been redesigned during the project: the first one contains the electronics for the measurement, control, communication and powering, as opposed to the second one, which only acts as the interface between the electronics and the wells containing the cells. The measurement is achieved with a pressfit two-point electrode system designed in a previous project.
Project partner: Janick Stucki, AlveoliX AG, Bern
Printed circuit boards used to measure in vitro bio-impedance. © HEPIALegend
1 - Stainless steel electrodes submerged in the cell-culture medium. © HEPIA
2 - Visual indicators of the cell-culture wells under measurement. © HEPIA
3 - Application of the system on Lung-OnChip well plate (AlveoliX AG). © HEPIA
4 - Printed circuit board rendering of the TEEROC system. © HEPIA
This jointly developed in vitro bio-impedance measurement device will be valorised by HEPIA and AlveoliX.
Alveolix will use this technology for its specific in vitro lung model and HEPIA will continue to work on the technology for other cellular barrier models.
In this project, HEPIA used interdisciplinary expertise such as electronics and biology (in vitro cellular models).
New possibilities offered by high-speed connectivity, machine learning and neuronal powerful chips with tremendous processing capability make it possible to consider new industrial control systems to meet specific requirements such as those of the aerospace or medical markets, which have high quality and traceability needs.
Key challenges in aerospace and medical component manufacturing are : the lead-time for setting up machining strategies and the high costs of quality controls required for delivering parts avoiding failure during operation. Such challenges relate to the fact that extensive manual operations and human expertise are actually required for tuning optimum settings. In addition, the machining park cannot be monitored with static strategies for preventing their drift towards states where anomalies happen.
This project addresses such challenges by setting up a new real time process control system based on fast neuromorphic chipsets at the EDGE, enabling real time recognition of defects with artificial intelligence algorithms and closed-loop to machine controllers.
Contrary to current adaptive ones, such a system allows the automated build-up of knowledge from historical databases and the set-up of optimum control in complex, non-linear operation domains, integrating multiple variables. Moreover, it also provides means for preventing defects in real time and incorporating new information from changing conditions.
The research will focus on two key technologies of GF Machining Solutions : the electro-erosion (EDM) and the high-speed Milling. In this project, we will analyze key process variables and design adapted “machine learning” algorithms for implementation in a neuromorphic chipset, integrated in an EDGE board with a real time link to the machine controllers. For EDM, we will exploit existing high frequency sensors that record discharge features and environment parameters, whereas Milling will use a highly sensitive vibration sensor. The data will be sent wirelessly through a high capacity prototype and a low latency 5G system.
Design of a neuromorphic boardThe current generation of intracortical microelectrode arrays presents reliability issues after implantation, resulting in degradation of performance. In this project, we have developed a novel glass-based intracortical electrode array named Geneva Electrode Array (GEA) for longterm implantation. It is the result of the combination of recent 3-D glass printing microsystem technologies and an electrical functionalization by inserting and sealing conductive metal wires within its hollow tips.
Intracortical probes :
• Based on glass substrates presenting good long-term stability within biological environment.
• Platinum/Iridium electrodes allow excellent brain activity monitoring characteristics.
• First probe insertion tests showed implantation capabilities without any probe damage.
Probes characterization
platform :
• In vitro electrophysiology platform using 3-D neuronal tissues derived from human induced pluripotent stem cells (hiPSC) to check for neural activity recording capabilities.
Nowadays, human grade intracortical microelectrode arrays such as the Utah Array (current gold standard) present reliability issues during shortterm implantation.
The developed glass probes are made of an array of hollow glass shanks (capillaries) that were designed and commercially manufactured (FEMTOprint SA, Switzerland). Different shapes at the end of the glass shanks have been realised. To be able to use the probes as an electrode array, the glass shanks need to be filled with Pt/Ir metal wires.
The obtained probes have been tested in vitro for their functionality using human stem cells derived 3-D neuronal tissues. Results were compared to Utah Arrays showing that the electrode noise level and the obtained signal to noise ratio are in the same range.
To investigate the probes implantability capabilities, insertion tests into agarose samples have been carried out using a push/pull test equipment. The Utah Array shanks being very sharp and smaller in diameter, the resulting measured insertion force necessary to penetrate the agarose samples on its full length was the smallest of all tests. GEA glass probes with bevelled glass shanks presented the best GEA results due to their sharp shape at their extremities.
Novel glass-based intracortical probes have been electrically functionalized and successfully connected to a data acquisition system. Its electrophysiological measurement characteristics are similar to currently commercially available intracortical probes. Nevertheless, the required force for insertion of the glass-based probes are higher due to the large shank diameter, making it a little bit more difficult to implant. Despite these encouraging results, further characterisation about probes aging behaviour as well as further technical improvements still need to be achieved.
Legends
1 - Three GEA shank shapes compared to a Utah-Array probe (4x4 layout with intershank pitch of 400µm)
2 - Insertion test curves (1) of the chamfered GEA glass probe (3) in 5% agarose fantom (2)
3 - View of in vitro microelectrode array testing platform for tissue assessment used to test the GEA probes (1)
4 - GEA insertion test into Human 3D neuronal tissues (2) on MEA testing platform (1). The penetration pattern of the 4x4 probe remains visible in the tissue (3)
5 - Example of a neuronal signal recorded with the GEA probe functionalized with Pt/ It wires
6 - GEA assembly : 1. connector 2. adapter printed circuit board, 3 flexible polyimide cable, 4. GEA probe
This work has resulted in a filed PCT patent : PCT/IB2020/050543, Tissue Access Device, 23 Jan 2020.
The authors wish to thank Jorge Herrera Morales and Alain Woodtli from the Wyss Center, Geneva, Switzerland for their technical and project managerial contributions to our work. The authors thank the Wyss Center, Geneva, Switzerland for funding this project.
• An in vitro electrophysiology data acquisition platform, a homemade system developed by HEPIA.
• A push/pull test equipment from ZwickRoell, Ulm, Germany.
• A welding laser setup available at Wyss Center, Geneva, Switzerland.
How did HEPIA reply to the HUG request to produce an Emergency Ventilator in an extremely short delivery time ? By gathering the necessary multidisciplinary engineering expertise to automate a manual ventilator, commonly used by emergency services to transform it into an autonomous ventilation system.
The COVID-19 epidemic is spreading at an alarming rate, with the risk of specific medical material shortage. This is especially the case for the invasive ventilators used to help sedated patients to breath. In order to respond to the extreme urgency of local needs, HEPIA studied and developed in less than 3 weeks a simple and reliable invasive ventilator for respiratory assistance of intubated patients.
HEPIA set up a team of professors and research assistants in the fields of design, mechanics, automation, electronics, IT... but also integrated into this team the start-up ANGARA Technology; specialized in measurement, control and automation. For reliability and timing reasons, the team decided to start from industrial equipment, rapidly available, and above all extremely reliable in terms of operation and lifespan. Under time constraints, the team studied various technical possibilities and the one that quickly emerged was: the automatization of AmbuBag manual fans.
The system is managed by an Arduino-type microcontroller, with 3 useradjustable parameters as input: the number of breaths per minute BPM, the volume of air VT (in liters) and the IE inspirations / expirations ratio. These parameters are adjustable thanks to physical potentiometers. In addition, the pressure measurement is monitored as close as possible to the patient. At all times, the setup of the operating diagnostic signals and other parameters are measured, to check if everything is working correctly. If a fault is detected, an alarm is triggered and a command to the motor is sent in order to release the AmbuBag. After that it can be activated manually. A small display is used to indicate the parameters set up driven by the potentiometers and the measured pressure. The system also displays the «plateau pressure» between inspiration and expiration, necessary for diagnosis.
An informatic communication through a USB connector allows a graphical interface on a computer. This interface developed in LabVIEW environment allows the visualization of different parameters such as the instantaneous pressure, the plateau pressure, the motor position,… as well as the graph pressure. Note that this interface is optional and that stopping or starting can be done at any time without interfering with the operation of the system.
Project leader : Prof. Nicola Giandomenico. Have made an exceptional contribution to the project : Harley Stoeckli (HEPIA), Bassem Sudki (HEPIA), Antoine Benoit (Angara), Ralf Rossel (Angara). HEPIA : Prof. Stéphane Bourquin, Florian Chays, Prof. Michel Lauria, Prof. Gilles Triscone.
GEVE prototype overall systemThis development was made at the preliminary request of the HUG (Hôpitaux universitaires de Genève), in the case of an urgent need, but the device was not used.
• ICT journal, 16.04.2020 : www.ictjournal.ch/articles/2020-04-16/ageneve-professeurs-et-assistants-creent-des-respirateurs-de-fortune-en
• Link HEPIA : www.hesge.ch/hepia/recherche-developpement/projetsrecherche/en-cours/ventilateur-durgence-lutter-contre-covid-19
Partenaires :
• Hôpitaux universitaires de Genève (HUG) : Dr Georg Ehret
• ANGARA Technology : Antoine Benoit, Gary Boorman, Adriaan Rijllart, Ralf Rossel
• Société SMC for the linear motor and the driver : Pierre-André Borne, Joël Faivre
• 3D parts printing : Michael Jaussi
Eskenazi SA is a Geneva-based company specialized in the manufacture of cutting tools for precision mechanics. In collaboration with HEPIA and with the help of Innosuisse funding we have developed a highperformance hard metal microendmill with central cooling. A pico-second laser type drilling was used to produce a precise hole and to avoid weakening the base material by thermal impacts. Cutting performance and tool life are significantly increased by this central lubrication compared to conventional external flushing.
A new production method has been developed to manufacture hard metal cutting tools with a diameter of the order of millimeters with a central hole for lubrication and cooling. Three lateral exhaust channels with diameters of the order of hundred micrometres are produced using a pico-second laser. The entire geometrical design of the tool is based on a complete CFD (Computational Fluid Dynamics) study. Thanks to this intrinsic cooling and production method, the tool lifetime is increased by a factor of 4 and the quality of the machining surface is improved compared to « conventional » tools.
The cutting tools are the key element in any milling process ; they determinate the process performance and the quality of the machined pieces. From environmental point of view and manufacturing cost, dry machining is better, but some mechanical pieces cannot be actually produced without lubrication fluid. In fact, the machining process needs to inject the cutting fluids as close as possible to the machining area between the tool and the work piece for chip evacuation, lubrication and cooling. Usually it is the case for small precise metallic pieces with high surface quality.
Today, the fluid is usually injected by adjustable nozzles, but new developments inject the fluid through the spindle, tool holder and finally through a central hole in the cutting tool. But this approach is limited to large diameter tools (> 6 mm). In addition, there is no individual lubrication of cutting edges of the tool, which would require several holes (or a central hole with several “outlets”).
For small diameter tools (< 3 mm) no solution is available to lubricate the cutting edges individually. The best technology uses intrinsic channels end at cone of the shank, well before the active cutting part. Here, lateral holes of a diameter of about 0.1-0.3 mm are required. Position, diameter, shape etc. of such holes need to be optimized by CFD and results to be validated by experimental tests.
Drilling such tiny holes at precise locations with well-defined directions represents several challenges. Due to its hardness it is difficult to machine the cutting tools by conventional methods. Electro-Discharge Machining (EDM) or conventional LASER could make the job, but thermal input may create micro cracks. These cracks will reduce the tool lifetime due to the forces created at high rotation speed of about 20’000 rpm and fluid pressure higher than 120 bars. To avoid these micro cracks, an ultrashort pulse LASER system was implemented which allows cold ablation and excellent surface finishing.
Project output :
• A publication “Laser drilling of micro-holes in cutting tools” was accepted and will be presented at the 20th CIRP conference on Electro Physical and Chemical Machining, ISEM 2020 in Zürich
• EU-Patent request No. 19175938.9 submitted on Mai 22, 2019
• Currently Eskenazi SA evaluates different commercial laser systems and plans to present the new products on tradeshows and will soon propose the new product range.
CT-Scan of a laser drilled hole in a ø 1.0 mm hard metal milling cutter Fluid simulation: cutting liquid at the cutting edge of fast turning milling toolRomain Boulandet, Axel Baxarias, Gilles Triscone Avec la collaboration de Lucas Martinez et Alain Dubois
Le but du projet NuiSoCERN est de développer une méthodologie globale pour une gestion optimisée des émissions sonores des installations techniques nécessaires au programme expérimental du CERN.
La démarche mise en œuvre, combinant mesures in situ et simulations numériques permet d’une part une surveillance dans le temps de l’exposition au bruit en limite de propriété et, d’autre part d’établir des recommandations acoustiques sur l’aménagement de nouvelles installations.
• modèles numériques calibrés à partir de mesures pour prévoir l’impact acoustique de nouveaux équipements sur le voisinage,
• niveaux sonores géo-référencés dans une base de données détaillée (conditions atmosphériques, état de fonctionnement des équipements) et actualisée annuellement,
• utilisation d’un SIG (système d’information géographique) pour une restitution cartographique fine des nuisances sonores.
Le bruit représente une source de nuisances pour une majorité d’individus qu’ils résident en zone urbaine ou rurale. Les personnes exposées quotidiennement au bruit incriminent principalement la circulation routière et le voisinage, mais aussi le trafic aérien et ferroviaire, les chantiers de construction et les activités industrielles. De simple désagrément, le bruit peut devenir une réelle source de stress, perturber l’organisme et entraver la communication, constituant alors un problème de santé portant atteinte à la qualité de vie.
L’urbanisation croissante de la région de Meyrin et du Pays de Gex fait que des zones nouvellement urbanisées se rapprochent inévitablement des sites du CERN. En prévision de nouveaux aménagements et dans un souci de préserver la tranquillité du voisinage, une collaboration a été engagée entre l’unité « Health & Safety and Environmental protection » du CERN et HEPIA afin de mieux contrôler les émissions sonores. Cette collaboration a abouti à la mise en œuvre d’une méthodologie de suivi à long terme de l’exposition au bruit liée aux chantiers et autres activités des différents sites, intégrant notamment :
• la surveillance annuelle des niveaux sonores collectés en limite de propriété sur des périodes réglementaires (jour et nuit),
• la cartographie sonore de chaque site pour localiser et hiérarchiser les sources de bruit par bandes de fréquences,
• la caractérisation in situ par intensimétrie des niveaux de puissance acoustique des principales sources de bruit,
• le relevé systématique du régime de fonctionnement (puissance, charge) des équipements (compresseurs frigorifiques, ventilateurs, transformateurs, data centers) et des conditions météorologiques lors des campagnes de mesure,
• des calculs de prédiction acoustique à partir de modèles numériques intégrant les caractéristiques des bâtiments et les puissances des sources.
Cartographie sonore calculéeLégendes
1 - Cartographie sonore mesurée.
2 - Vélo instrumenté pour cartographie sonore géo-référencée.
3 - Mesure de puissance acoustique autour d’un transformateur électrique.
4 - Intensimétrie sur une tour aéroréfrigérante.
La méthodologie développée sur un site référence est actuellement en phase de déploiement sur d’autres sites du CERN.
• Sonde intensimétrique Bruël&Kjaër Type 3654 avec paire de microphones ½ � Bruël&Kjaër Type 4197,
• Analyseur multivoie Bruël&Kjaër LAN-XI Type 3160 et logiciel Pulse,
• Sonomètre Fusion 01dB,
• Logiciel de prévision acoustique en extérieur 01dB CadnaA,
• Collecteur SIG Leica Zeno 20 et logiciel ArcGIS collector.
Adrien Roux (HEPIA), Loris Gomez Baisac (HEPIA), Olivier Cuisenaire (HEIG-VD), Laura Raileanu (HEIG-VD)
The objective of this project is to design a portable low-cost device, usable outside the conditions of laboratory, allowing essential measurements of concentration and mobility of human and animal sperm. The technology developed must guarantee a standardized, reliable and rapid analysis, meeting the standards in force.
• Measurement of concentration and mobility
• Compatible with commercial sperm counting slides (Leja®)
• Compatible with human or animal samples
• Portable point-of-care device (handheld)
• Stand alone system (battery or USB powered)
• Display compatible with Laptop or Tablet screens
• Low-cost
• For laboratory and external use (sturdy)
• Computer-Assisted Sperm Analysis (CASA) software
Human male infertility has increased alarmingly on one hand, and on the other hand, artificial insemination in farm animals has become prevalent. In this context, the PACMAN project’s objective is to design a portable lowcost device, usable outside laboratory conditions and making it possible to carry out essential measurements like the concentration and mobility of spermatozoids. The developed technology must guarantee a standardized, reliable and rapid analysis that meets the standards in force. Obviously, medical and veterinary practices will be interested in this type of equipment.
To guarantee minimum cost and maximum accessibility, the device will only include the necessary optical, mechanical and electronic parts. It will be accompanied by a mobile application, on which the pre-processing and analysis of the images will be carried out. It will also allow the user to control the device and be guided through the image acquisition process.
To achieve this result, we offer the following innovations:
• use of lighting based on colored LEDs to allow sufficient contrast and to be able to skip or limit the stages of sample preparation;
• use of pre-processing algorithms to improve the acquired images in order to guarantee a sufficient quality, enabling the analysis to determine the relevant parameters (concentration and mobility);
• adaptation of existing analysis techniques and algorithms to allow operation with images acquired under the conditions of the device, in a remote location on a smartphone.
The proposed solution clearly differs from similar devices existing on the market because they only allow to measure the concentration and are not certified for use in diagnostic purposes.
Overview of the system prototypeVarious applications are expected to benefit from the PACMAN project: the company AKYmed, leader in CASA software in Switzerland, will test and validate the system. The device could also be used for cell counting purposes in cell culture.
Electronic, microtechnical and mechanical equipment Data acquisition, data transmission and data analysis
Le but du projet est de réaliser un démonstrateur de conversion d’énergies électriquepneumatique et pneumatiqueélectrique destiné au stockage d’énergie sous la forme d’air comprimé dans des réservoirs hydrostatiques sous-lacustres ou sous-marins. Pour être efficace, il est indispensable que la compression et l’expansion du gaz approchent le plus possible un cycle isotherme, ce qui représente un fort challenge d’ingénierie. Sur la base d’une turbine co-rotative, nous avons développé une technologie qui permettra d’effectuer ces transformations isothermes ou quasiisothermes.
Pour nous affranchir des énergies fossiles et recourir aux renouvelables, il est indispensable de pouvoir disposer de solutions de stockage énergétiques durables à grande échelle. A cet égard, le stockage d’air comprimé dans des réservoirs hydrostatiques sousmarins présente l’avantage d’un bilan environnemental très favorable. Dans un Etat comme la Suisse qui compte de nombreux lacs, cela représente une capacité de stockage gigantesque et répartie dans tout le pays. La technologie de compression/expansion quasi-isotherme devrait être une innovation majeure pour réaliser ce type de stockage.
Dans cette recherche appliquée, nous allons optimiser le moteur/compresseur quasi-isotherme scroll co-rotatif développé par Enairys en partenariat avec l’EPFL avec pour objectif de proposer une solution industrialisable et techniquement adaptée au stockage d’énergie par air comprimé. Le travail a été décomposé en différentes tâches que sont :
• l’étude et la simulation de l’injection d’eau dans la turbine scroll co-rotative ;
• l’optimisation de la turbine scroll co-rotative existante constituant le 1er étage du système (1-4 bars) et la conception d’un système d’injection optimisé ;
• la validation et l’expérimentation du 1er étage (1-4 bars) ;
• la conception et la fabrication du 2ème étage (4-16 bars) ;
• la validation et la mesure des performances du système complet.
Banc d’essai du moteur/compresseur quasi-isotherme : 1er étage © JR/HEPIADéveloppement et réalisation d’un moteur/compresseur quasiisotherme pour le stockage lacustre d’énergie par air comprimé
Légendes
Principe de compression de poches de gaz dans une turbine scroll co-rotative :
1 - Nombre de tours : 0
2 - Nombre de tours : 1
3 - Nombre de tours : 2
4 - Nombre de tours : 2.5
5 - Nombre de tours : 3
6 - Nombre de tours : 3.25
Le financement du projet est assuré par un chèque Innosuisse, une subvention SIG (Fonds Vitale Innovation), la participation d’Enairys, et des fonds propres d’HEPIA. Les résultats du projet permettront d’élaborer véritablement une installation industrielle pilote de stockage d’énergie dans les fonds du Léman. Les résultats feront également l’objet de publications scientifiques (telles que conférences IRES 2021 Düsseldorf et ICBEST 2021 Rome). Cette recherche appliquée est également l’un des projets emblématiques du Fonds Vitale Innovation des SIG et à ce titre fait partie intégrante de leur communication.
Le Banc d’essai est installé au sous-sol du laboratoire d’hydraulique d’HEPIA ; à cet effet, des travaux sur le réseau d’air comprimé et électrique du laboratoire ont été nécessaires.
HEPIA a développé un simulateur de vent et de météo afin de tester des drones dans des conditions atmosphériques réelles, variées et contrôlables. Cette soufflerie, composée d’un grand nombre de générateurs de vents (pixels), permet de moduler finement la vitesse et la direction du vent ainsi que le niveau de turbulence. Son architecture ouverte facilite l’intégration de phénomènes météorologiques comme la température, la grêle, la pluie, la neige et les tempêtes de sable.
La technologie est complètement modulaire et permet d’assembler des souffleries de morphologie et de taille arbitraire, tout en maintenant un faible encombrement (comme un écran plat de télévision). Elle permet de générer des rafales et des profils de vent arbitraires, dans toutes les directions. Le drone évolue librement comme il le ferait dans son état naturel, et se trouve toujours à proximité de l’observateur. La position et le comportement du drone sont mesurés avec une haute précision.
Il est fort probable que les drones peupleront bientôt notre écosystème aérien pour des services dans le domaine de l’imagerie, la livraison de colis et le transport de passagers. Ils devront opérer 24h/24 dans des conditions atmosphériques quelconques, en particulier lors de situations d’urgence.
Aujourd’hui, les techniques traditionnelles d’essai de drones sont peu fiables. Les drones sont soit testés à l’extérieur et assez éloignés de l’observateur, dans des conditions météorologiques mal documentées, incontrôlées et imprévisibles, soit bien rigidement fixés sur un support dans une soufflerie conventionnelle. Ces souffleries ont été inventées il y a plus d’un siècle par Gustave Eiffel en 1908 et Prandtl en 1909 pour accompagner et stimuler le développement de l’industrie aéronautique. Ces installations étaient destinées aux avions, qui volent dans des conditions atmosphériques relativement calmes ou sont si grands et lourds qu’ils ne sont pratiquement pas affectés par des échelles de turbulence relativement petites.
Ces souffleries ne conviennent pas aux drones. Les drones sont beaucoup plus petits que les avions conventionnels et sont donc plus sensibles aux conditions météorologiques. Les vents laminaires, à faible turbulence, stables et à profil plat ne sont pas représentatifs des conditions atmosphériques rencontrées par des petits véhicules volants.
Afin de résoudre les problèmes liés aux souffleries traditionnelles ou aux protocoles d’essais en extérieur, un simulateur de météo réelle a été développé par HEPIA pour tester des véhicules volant dans des conditions atmosphériques contrôlables et diverses. Ces tests peuvent évaluer et certifier la capacité d’un drone à maintenir une attitude de vol appropriée et à lutter contre les perturbations atmosphériques dans un environnement urbain ou rural.
Première soufflerie digitale, inaugurée au célèbre California Institute of Technology en 2017.Légendes
1 - Les surfaces digitales de vent peuvent présenter une morphologie quelconque.
2 - Un drone vole (1) et est suivi avec précision (2) dans le vent d’une soufflerie digitale (3).
3 - Les modules peuvent être assemblés comme des briques de construction.
4 - La météo est facilement intégrable grâce à l’architecture ouverte de nos souffleries.
La soufflerie est actuellement commercialisée par une startup d’HEPIA, WindShape, fondée et gérée par d’anciens étudiants HES, dont Guillaume Catry (CEO), Luca Bardazzi, Sergio Márquez, Nicolas Bosson et Albéric Gros.
Noca F. & Catry G. 2016. Wind Generation Means and Wind Test Facility Comprising the Same, Patent Pending PCT/EP2017/064451.
Noca, F., Catry G., Bosson N., Bardazzi L., Márquez S., Gros A. 2019. Wind and Weather Facility for Testing Free-Flying Drones, AIAA Aviation and Aeronautics Forum and Exposition, Dallas (Texas), 17-18.06.2019.
La technologie d’une soufflerie digitale repose sur un grand nombre de ventilateurs (environ 150 ventilateurs par mètre carré) empilés de manière arbitraire. Chaque ventilateur peut être contrôlé indépendamment et peut donc être assimilé à un pixel de vent. Cette fonctionnalité permet de contrôler avec précision les propriétés du vent généré. Le produit repose sur ce que nous appelons un module de vent — une unité composée de neuf petits ventilateurs, agissant comme une brique de construction ou un bloc Lego™. Ces modules sont conçus pour être assemblés et former des surfaces quelconques (planes ou courbes) de ventilateurs.
This project has been developed around the idea to manipulate biological tissues. Biologists can use the developed system through a user-friendly graphical user interface (GUI). It enables them not only to visualize biological tissues but also to identify them, manipulate them and place them accurately. This multidisciplinary project involving optical microscopy, fluidics, image processing and programming allows a wide range of applications in the world of bioengineering.
• User-friendly graphical user interface (GUI)
• Usable in laminar flow hood
• Normalized well-plates compatible
• Image processing
• Pattern recognition
• High precision positioning
• Sorting by size
• Design of different shapes
• 4 times faster than manually
• Versatile system for bioprinting (2D and 3D structures)
The cell culture technique is used worldwide in biological research. Laboratories cultivate different cell types for different applications that require tissue manipulation. Handling tissues is usually performed under a biological hood to ensure the sterility of the environment. Nevertheless, biological hoods do not mimic the cellular environment in terms of temperature, humidity and CO2. It is also difficult to place a tissue accurately under the hood, which usually requires microscopic verification. To overcome these issues, a system for automatic manipulation of biological tissues has been built.
The system uses a customized 3D printer combined with a camera and a light source for vision, a Hamilton syringe for aspiration whereas imageprocessing algorithms allow automatic detection of different biological tissue sizes. Moreover, the whole system can operate with a user-friendly graphical user interface (GUI). Image processing algorithms employ the OpenCV library and are mainly based on boundary detection with the application of several specific filters. A calibration phase is used to detect the well-plate with its wells while a manual mode exists, if needed. Bioprinting of different shapes made of biological tissues is also possible.
There are multiple applications of the system, such as dispensing and manipulation of biological tissues, bioprinting of complex 2D and 3D structures as well as sorting by size.
Legend
1 - Preparation of the small patches of membrane.
2 - Example of different sizes of 3D neurospheres in a well, filled with culture medium.
3 - Illustration of the detection of 5 small patches of membrane and its center placed in a well.
4 - Printshot of the software.
HEPIA presented its automated manipulation system in Geneva, at the occasion of HEPIA’s Open Days 2019 and the high precision trade show EPHJ 2019.
It is also used daily in HEPIA’s laboratory to place 3D neurospheres into small patches of membrane for electrophysiology applications.
The automated manipulation system requires a laptop with multiple USB ports to work properly. The plate holder is compatible with all normalized well-plates (6, 12, 24, 48 and 96).
Loris Gomez Baisac, Jeremy Laedermann, Flavio Mor, Adrien Roux, Marc Heuschkel, Luc Stoppini
HEPIA’s automated microscopy system allows biologists to visualize easily cells or tissue cultures placed within an incubator. Its development combines multiple technologies such as optics, mechanics, electronics and programming.
Examples of applications :
• Video capture of the cilia beating frequency of lung epithelial cells.
• Multiple measurements in wound healing assays to study proliferation rate of the cells.
• Remotely controlled system
• 100% humidity and 37°C resistance
• Emergency battery for safe shutdown
• Raspberry Pi controlled
• Wi-Fi, Ethernet or local usage
• Photo or video captures
• Normalized well-plates compatible
• Visualization of organoid or 2D cell culture
• Several applications for biologists :
o Cells counting, proliferation measurements, sustainability viewing and movement tracing
o Organoid electrophysiology compatible
Cell culture technic is used worldwide in biological research. Biologists employ microscopy to observe either 2D cell cultures or organoids. However, removing cultures from their incubator to look at them under a microscope, induces stress and can therefore hinder their use by the biologists. To tackle this problem, we have developed an automated microscopy system.
The system uses a motorized XY stage to control the position of the culture plate and a motorized Z axis microscope for the semi-automatic focus adjustment. The main controller is a Raspberry Pi using an extension board located in an enclosed box, resistant to the harsh environment imposed by incubators. The electronics are powered by a line power, while an emergency battery allows a safe power down of the micro-computer to prevent any sudden shutdowns. The software allows the user to control the system either manually, for setup and live monitoring, or automatically for scheduled and extended monitoring. Pictures and videos can be captured by the system and saved either on a USB flash drive or directly transferred through internet for further analysis. The user has the possibility to either remove or replace the diffusing part of the light source in order to improve the image quality of the subject.
The applications of this system are numerous. It can be used simultaneously with other readouts such as measuring electrical activity of neurons (electrophysiology) without adding important electrical noise. The video capture is able to take up to 90 frames per second, allowing for example the measurement of the cilia beating frequency of lung epithelial cells. Measuring the proliferation in wound regeneration assays, cells counting or movement tracing are made possible thanks to the scheduled monitoring (time-lapse).
View of the system monitoring neurospheres, remotely controlled via a laptop.Legend
1 - Close-up of the optical system, based on transformed webcam, and the light source.
2 - Adapter placed on the platform allows the positioning of a 24 culture wells plate.
3 - Picture of a neurosphere on a microelectrode array during an electrophysiology measurement.
4 - Video capture of lung epithelial cells to measure the cilia beating frequency from 2Hz to 15Hz.
5 - Photomontage of two pictures representing a time course of neurons during 48 hours.
HEPIA’s automated microscope for cell and tissue cultures was presented in a showroom and has led to initiate a new project in collaboration with a private company.
It has been implemented within the BrainOnChip platform developed with the support of the Wyss Center.
The system can be controlled either locally with a screen and a keyboard mouse combo, or remotely via TeamViewer with an internet connection (Wi-Fi or Ethernet).
The plate holder is compatible with all normalized well-plates.
The main objective of this project was to develop an innovative “one step” in vitro assay technology for assessing human Blood Brain Barrier (BBB) integrity and effects on human neural tissues. This model is adapted to assess not only acute exposures to compounds but also repeated exposures (mimicking chronic treatment) to compounds, since most of central nervous system treatments require the latter type of exposures to be efficient or to show neurotoxicity.
The innovative solution was to combine in a standalone device a system to measure the impedance of the barrier integrity to obtain the Trans Endothelial Electrical Resistance (TEER) and to record simultaneously in vitro the neuronal activity of neurons with a Micro-Electrode Array (MEA) unit. The novelty of this device is to combine two non-invasive measurements of the neurovascular unit, but each part of the device (MEA and TEER) can also be used independently, increasing the potential use.
As the world’s population is aging, diseases of the central nervous system (CNS) become an increasing threat for global health as the total annual cost resulting from CNS diseases is quickly escalating. The development of drugs against CNS has one of the highest failure rates and longest development times. One reason for this poor success is that CNS drugs have to cross the blood brain barrier (BBB) before reaching the neural tissue. This complexity is worsened by the fact that there is currently no in vitro system to simultaneously test whether a substance can cross the human BBB and adequately affect the adjacent human neural tissue.
The project MEAZURE addresses this problem. We have developed a device allowing the tissue engineering of an artificial human neurovascular unit (NVU), i.e. an in vitro model comprising both the neural tissue and the BBB. This device allows the simultaneous monitoring of the two components of the model and their pharmacological testing. This innovative solution aims at increasing the success rate of CNS drug development by facilitating and speeding up the drug discovery process and screening potential neurotoxic molecules present in our environment.
This device combines a system to simultaneously record neuronal activity with a system to measure the blood-brain barrier permeability. A MicroElectrode Array (MEA) unit allows the electrophysiological recording of neural cultures sitting at the bottom of a standard 24-well plate and a Trans Endothelial Electrical Resistance (TEER) unit allowing the recording of the electrical impedance of a cultured BBB positioned just above.
The device is a unique standalone system able to work autonomously in an incubator, data being transmitted wirelessly or stored locally within the device. The device is also versatile and amenable for MEA recording, TEER recording or both simultaneously.
Our innovative integrated in vitro system has been presented in several international conferences. An invention announcement has been filed at Unitec (Technology transfer structure from HEPIA) and a process for the commercialization of the TEER device has started.
This works also led to several new projects such as a collaboration with private companies (Vivent), a public institution (Agroscope), a not for profit organization (Wyss Center) and a HES-SO project (Spike on Chip).
The electronic Xilinx Zynq-7000 has been developed by EIA-FR and the know-how based on Zync architecture with this system could be implemented in other projects.
The TEER device is compatible with other in vitro biological barriers such as the intestinal barrier or the respiratory epithelium.
In this project, we have developed an innovative drug and toxicology screening/testing platform based on the electrophysiological monitoring of 3D neural tissues, also called “mini-brains”, derived from human induced pluripotent stem cells (iPSC) at air-liquid interface. This development has been made by the combination of in-house technologies and competences such as the culture of human brain tissues, microfabrication of Micro-Electrode Array (MEA) devices, and high-level data analysis.
MEA based platform :
• Allows non-invasive measurement of the electrical activity from the mini-brain
• Allows long-term recording to study chronicle toxicity
• Is standalone and wireless to avoid electrical noise
Mini-brain :
• Is a human in vitro biological model derived from induced pluripotent stem cells
• Mimics the brain parenchyma with the presence of a mix of neuronal cells and glial cells
• Can be easily generated in high quantities for highthroughput experimentation
As the world’s population is aging, diseases of the central nervous system (CNS) become an increasing threat for global health as the total annual cost resulting from CNS diseases is quickly escalating. The development of drugs against CNS has one of the highest failure rates and longest development times. One reason for this poor success is the complexity of the brain. In order to help overcoming this drawback, compounds are tested on simpler preparations in vitro, still allowing to provide and predict information about compounds effects in human.
Electrical monitoring of the tissues is achieved using Micro-Electrode Arrays (MEA) based on thin porous polyimide membranes incorporating an array of 8 recording sites per well (thin film platinum electrodes of ø30µm and spacing of 200µm) that are assembled onto a printed circuit board allowing connection to signal amplification electronics.
The MEA devices are adapted to commercially available signal amplification and data acquisition systems for measurement of electrophysiological data. A user-interface has been developed for the biologist in order to have a visualization of the key electrophysiological parameters.
Legend
1 - Picture of resulting microelectrode array device composed of 4 independent recording sites with 8 recording electrodes in each. A fluidic channel is built below the electrode array.
2 - Recording area of a device having a porosity of 10%.
3- Bottom view of a bio-engineered tissue lying on an electrode array.
4 - Example of waveforms recorded during electrophysiology experiment on Human in vitro neurons.
Our innovative in vitro electrophysiology platform for drug and toxicology screening applications has been presented in several international conferences.
This development has led to several new projects such as a collaboration with private companies, a not for profit organization (Wyss Center) and HES-SO projects (Spike on Chip, Micro-Perf).
The MEA platform is compatible with commercially available WiFi data acquisition systems from MultiChannelSystems MCS GmbH, Germany and Deuteron, Israel.
Our lab is currently developing an in vitro perfusion used to change the medium of in vitro neuronal culture and to inject drug. This perfusion system will be compatible with the electrophysiological recording of neurons. It is composed of five parts :
• Micro-electrode Array device (to measure neuronal activity).
• 4 independent peristatic pumps.
• Electronic board to control the pumps by Bluetooth.
• Silicone tubing and tanks of liquid for culture medium, tested drugs or waste.
• User friendly software.
Our technology will :
• Perfuse automatically the culture with fresh medium for 5 days on battery or even longer on electric current
• Be controlled by a wireless technology (Bluetooth) to change the parameters.
• Reduce the manipulation by biologists and therefore limit the tissue stress due to temperature change and contamination risk.
• Work in a hostile environment for motor and electronic devices (37°C, 100% humidity and 5% CO2).
• Be compatible with other evolutions and options (drug injection, medium sampling).
There is a growing need for volume control and liquid distribution by means of micro-pumps and/or micro-valves in the medical market and in particular in the fields of continuous drug dispensing and blood volume control during a diagnosis.
Moreover, there has still been little advancement as regards one aspect of microfluidics : the creation of dynamic or stable controllable flows. These flows are however necessary for all processes involving the infusion or injection of a liquid into a system or an organism.
The Micro-Perf project aims to find innovative solutions in the field of flow control, especially for applications involving microfluidics. This is particularly relevant for in vitro cells cultures which are traditionally statically realized in multi-well plates. Continuous infusion of tissue will place cultures in more physiological conditions. An integrated perfusion system will allow biologists to better control not only the quantity but also the characteristics of the culture medium that will perfuse the cells / tissues. This will allow a finer control of the cellular microenvironment.
Various applications are expected to benefit from the Micro-Perf project : not only the substances perfusion into a cell culture system, as described above, but also in vivo perfusion.
In addition, sampling of biological fluids for chronic or periodic analyzes is also one of the many applications benefiting from these developments. On the other hand, this project could be useful for the screening of toxic molecules, new drugs and/or nanoparticles on different types of cells.
• Board MEA
HEPIA a développé un simulateur de vent et de météo afin de tester des drones dans des conditions atmosphériques réelles, variées et contrôlables. Cette soufflerie, composée d’un grand nombre de générateurs de vents (pixels), permet de moduler finement la vitesse et la direction du vent ainsi que le niveau de turbulence. Son architecture ouverte facilite l’intégration de phénomènes météorologiques comme la température, la grêle, la pluie, la neige et les tempêtes de sable.
La technologie est complètement modulaire et permet d’assembler des souffleries de morphologie et de taille arbitraire, tout en maintenant un faible encombrement (comme un écran plat de télévision). Elle permet de générer des rafales et des profils de vent arbitraires, dans toutes les directions. Le drone évolue librement comme il le ferait dans son état naturel, et se trouve toujours à proximité de l’observateur. La position et le comportement du drone sont mesurés avec une haute précision.
Il est fort probable que les drones peupleront bientôt notre écosystème aérien pour des services dans le domaine de l’imagerie, la livraison de colis et le transport de passagers. Ils devront opérer 24h/24 dans des conditions atmosphériques quelconques, en particulier lors de situations d’urgence.
Aujourd’hui, les techniques traditionnelles d’essai de drones sont peu fiables. Les drones sont soit testés à l’extérieur et assez éloignés de l’observateur, dans des conditions météorologiques mal documentées, incontrôlées et imprévisibles, soit bien rigidement fixés sur un support dans une soufflerie conventionnelle. Ces souffleries ont été inventées il y a plus d’un siècle par Gustave Eiffel en 1908 et Prandtl en 1909 pour accompagner et stimuler le développement de l’industrie aéronautique. Ces installations étaient destinées aux avions, qui volent dans des conditions atmosphériques relativement calmes ou sont si grands et lourds qu’ils ne sont pratiquement pas affectés par des échelles de turbulence relativement petites.
Ces souffleries ne conviennent pas aux drones. Les drones sont beaucoup plus petits que les avions conventionnels et sont donc plus sensibles aux conditions météorologiques. Les vents laminaires, à faible turbulence, stables et à profil plat ne sont pas représentatifs des conditions atmosphériques rencontrées par des petits véhicules volants.
Afin de résoudre les problèmes liés aux souffleries traditionnelles ou aux protocoles d’essais en extérieur, un simulateur de météo réelle a été développé par HEPIA pour tester des véhicules volant dans des conditions atmosphériques contrôlables et diverses. Ces tests peuvent évaluer et certifier la capacité d’un drone à maintenir une attitude de vol appropriée et à lutter contre les perturbations atmosphériques dans un environnement urbain ou rural.
Première soufflerie digitale, inaugurée au célèbre California Institute of Technology en 2017.Légendes
1 - Les surfaces digitales de vent peuvent présenter une morphologie quelconque.
2 - Un drone vole (1) et est suivi avec précision (2) dans le vent d’une soufflerie digitale (3).
3 - Les modules peuvent être assemblés comme des briques de construction.
4 - La météo est facilement intégrable grâce à l’architecture ouverte de nos souffleries.
La soufflerie est actuellement commercialisée par une startup d’HEPIA, WindShape, fondée et gérée par d’anciens étudiants HES, dont Guillaume Catry (CEO), Luca Bardazzi, Sergio Márquez, Nicolas Bosson et Albéric Gros.
Noca F. & Catry G. 2016. Wind Generation Means and Wind Test Facility Comprising the Same, Patent Pending PCT/EP2017/064451.
Noca, F., Catry G., Bosson N., Bardazzi L., Márquez S., Gros A. 2019. Wind and Weather Facility for Testing Free-Flying Drones, AIAA Aviation and Aeronautics Forum and Exposition, Dallas (Texas), 17-18.06.2019.
La technologie d’une soufflerie digitale repose sur un grand nombre de ventilateurs (environ 150 ventilateurs par mètre carré) empilés de manière arbitraire. Chaque ventilateur peut être contrôlé indépendamment et peut donc être assimilé à un pixel de vent. Cette fonctionnalité permet de contrôler avec précision les propriétés du vent généré. Le produit repose sur ce que nous appelons un module de vent — une unité composée de neuf petits ventilateurs, agissant comme une brique de construction ou un bloc Lego™. Ces modules sont conçus pour être assemblés et former des surfaces quelconques (planes ou courbes) de ventilateurs.
Avec la diminution de la taille des pièces mécaniques, les problèmes liés aux états de surface gagnent en importance par simple rapport géométrique. De ce fait, les problèmes de durée de vie deviennent de plus en plus critiques et des solutions en termes d’état de surface doivent être trouvées. Le projet AZAT a prouvé qu’il était possible d’ôter la « Zone Affectée Thermiquement » (ZAT) par un usinage EDM à l’aide d’un LASER à impulsions courtes.
Dans ce projet de recherche appliquée, nous avons démontré qu’un « usinage » par LASER picoseconde permet d’enlever de la matière sans créer une zone thermiquement affectée : l’ablation froide. Ainsi, il est possible d’améliorer considérablement les états de surface d’une pièce usinée par exemple par EDM à l’aide de cette technologie. Des tests mécaniques et de fatigue ont révélé que la durée de vie des pièces était fortement augmentée.
Les coupes métallurgiques des échantillons en acier W300 trempé et usinés par EDM enfonçage (une matière typiquement utilisée pour les outils de moulage) montrent bien des zones affectées thermiquement (ZAT), connues comme couche blanche. Dans ce projet, nous avons développé une technologie d’ablation par LASER picoseconde qui permet d’ôter cette zone indésirable. Nous avons démontré qu’un LASER picoseconde permet l’ablation froide en enlevant de la matière sans création d’une ZAT.
Pour mettre en évidence l’amélioration de l’état de surface, la technologie développée a été appliquée sur des éprouvettes usinées par EDM en vue de réaliser des tests de fatigue par pliage. Les résultats sont très encourageants ! Nous avons en effet obtenu une augmentation significative de la durée de vie en termes de nombre de cycles ; jusqu’à 40% de plus par rapport à des éprouvettes identiques sans traitement.
• Présentation des résultats du projet AZAT à la conférence internationale sur l’usinage non conventionnel « 18Th CIRP Conference on Electro Physical and Chemical Machining (ISEM XVIII) », Tokyo, 18-22.04.2016
• Publication : Wälder G., Richard J., Removal of the Heat Affected Zone created by EDM with pico-second LASER machining, Procedia CIRP 42 (2016), p. 475-480 (https://doi.org/10.1016/j.procir.2016.02.235)
• Projet CTI en préparation avec GF-MS concernant l’influence de l’usinage LASER sur la qualité de surface
• Usinage d’échantillons pour la société Dupond SA
• Réalisation d’un travail de bachelor
Laser picoseconde : Ekspla Atlantic : max. 500 kHz, 10 ps, M2 <1.5, 8W @ 532nm, 16W @ 1064 nm
Scanner : Scanlab inteliScan14i et SAM light control software
The generator is said to be « smart » because in addition to the generation of the sparks for the EDM machining, it possesses the sparks analysis, the state machine and the process control algorithm : sparks analysis stands for counting the sparks and listing them in different categories while the principle of the process control is to vary the spark frequency, depending on the machining conditions, with a constant axis speed. This principle radically changes the way to regulate EDM machining.
The generator has been developed for two purposes :
• the need to produce a growing number of pieces made with materials having low electrical conductivity (for example ceramics) for markets like aerospace, medical, electronics, automotive and ICT;
• the Micro-EDM-milling process which has a strong innovation potential because there is no machining technology that can perform accurate and fine detailed cavities with such a high aspect ratio.
The generator has the functions of current and high voltage generation, process measurements, spark analysis and process control. It can count and classify the sparks and control the electro-erosion process. With traditional EDM systems, these tasks are achieved on multiples cards. In our case, all these functionalities are integrated in a single system. An innovative and flexible solution has been found for the current generation, using standard and low cost components called « Constant current regulator ».
The process control novelty is to vary the spark frequency according to the machining conditions while maintaining a constant axis speed. This is radically changing the way to regulate EDM : one sets the speed and the generator varies the sparks’ frequency according to the machining conditions. The axis control is simplified and the link between the CNC and the EDM process control becomes less constraining from the point of view of real time.
The machining works as follows : during the machining at constant axis speed, sparks are generated at a certain frequency and as soon as the electrode encounters a front of matter, two cases can occur :
• the material front is too far, in which case the generator will lower the sparking frequency and the front of material will be closer to the electrode
• on the contrary, if the material front is too close, the generator will increase the sparking frequency
The frequency control is based on a real-time calculation of the time corresponding to the sparks occurring after applying the voltage.
All the sparks are counted and classified in 4 different types. By knowing the number of sparks and their nature, one can calculate the electrode wear’s rate.
The statistical distribution of the sparks and other parameters can be acquired and visualized by a Numerical Control via a direct Ethernet link.
This development has received financial support from the Commission of Technology and Innovation (CTI 15976.1, PoliHVGEN project) and the University of Applied Sciences and Arts Western Switzerland (HES-SO, LEMM project).
It has been presented during the CTI Micro-Nano Event in Fribourg in June 2017 and an article has been written for the Conference on Electro Physical and Chemical Machining (ISEM 2018) in Bilbao.
Development of a multi-sensor probe able to measure 6 different parameters (turbidity, residual chlorine, temperature, conductivity, water velocity and pressure) for continuous monitoring of the quality of drinking water in a distribution network with insertion of the probe directly into the pipe without interrupting the water supply. The measured data are transferred using a low power IoT network. It has an integrated battery for a running time of at least 6 months without maintenance.
Up to now, commercialized probes did not match the selection criteria of the SIG (Geneva water, gaz and electricity supplier) due to an incomplete list of measured parameters (high cost and energy consumption and inexistent wireless data transmission).
Therefore, low cost and energy consumption, easy installation, reduced maintenance and wireless communication, combined with the ability to measure multi-parameters in the specified range, represent strategic components of this innovative system.
Drinking water resource is vital for the health and well-being of human beings. Significant cases of contamination are attributable to problems in the distribution systems and are due to a rather long time between two cycles of sampling and measurement by conventional laboratory methods of control.
Many parameters are continuously measured in production plants and reservoirs. But once the water leaves these facilities, its quality is only occasionally monitored by sampling and laboratory analyses.
Several experimental studies indicate the need for an on-line monitoring to regularly survey the water quality.
Consequently, the main challenge was to develop a multi-parameter measurement system, which has to be accurate, self-powered, installed in pipes, targeting a material cost of US$1’500, with reduced energy consumption and maintenance, installable and removable anywhere on the network without any risk of inducing pollution.
The probe includes all the essential sensors, correctly calibrated, selfpowered by an integrated battery. The dispatching center receives via a wireless network (Lora) the values of water quality within the required ranges, with a high degree of precision (and alarms if the measured values are out-of-range) and for a variable acquisition data frequency.
Three partners are involved in this innovative project : SIG represents the end user, the University of Applied Sciences and Arts Western Switzerland (hepia) oversees the probe development, including the sensors and the conditioning electronics and the mechanical design whereas the company OrbiWise is in charge of the development of the bi-directional wireless data transmission via the low-power wide-area network and the user interface.
This project has received financial support from the Swiss Federal Institute for Gas and Water Industry (FOWA) and the Federal Office for Food Safety and Veterinary Affairs (OSAV).
Other Swiss water authorities and international institutions have already shown their interest. The project has been selected and presented at the International Water Congress in Brisbane in October 2016, at the Protocol for Water and Health (UN session) in November 2016 and during the IoT Week 2017 in Geneva.
En collaboration avec l’entreprise française MAVIC, un fabricant de roues de vélos de haute performance destinées aux Jeux Olympiques et aux équipes du circuit professionnel comme le Tour de France (équipe AG2R en 2017), hepia est active depuis de nombreuses années sur l’aérodynamique de pointe en cyclisme. Aujourd’hui, grâce à cette collaboration, la roue de vélo la plus aérodynamique est sur le marché, et de nombreuses entreprises concurrentes se sont inspirées du principe.
En conditions de vent latéral, la roue de vélo subit un effet de « voile », permettant à la roue de bénéficier de la force du vent (comme un voilier) pour subir une force dans le sens de déplacement du cycliste et réduisant ainsi la résistance au vent.
Pendant longtemps, il a été communément pensé que la roue de vélo la plus aérodynamique serait une roue présentant un pneu parfaitement lisse, comme utilisée sur piste. En effet, une minimisation de la rugosité du pneu permet en principe de réduire le frottement de l’air sur la roue.
En 2012 dans le cadre d’un projet de recherche entre MAVIC et hepia, il est clairement démontré qu’une forme présentant des rugosités peut s’avérer un atout dans le comportement aérodynamique d’une roue de vélo en cas de vent latéral.
En effet, la roue de vélo, étant profilée comme une aile d’avion, agit sur la résultante du vent (la somme vectorielle du vent latéral et du vent apparent dû au déplacement du cycliste) en créant une force perpendiculaire à ce vent, que l’on dénomme communément portance en langage aéronautique. La projection de cette force dans le sens du déplacement du cycliste peut, dans certains cas, générer une traction : le vent agit alors comme sur une voile de bateau, en aidant la roue à se propulser vers l’avant.
Ce phénomène est bien connu dans le cas de roues de vélo « pleines » utilisées en particulier sur piste et en absence de vent. Les roues pleines sont d’ailleurs interdites sur route à cause du danger potentiel pour le cycliste en cas de vent latéral trop fort.
Au bout de quelques mois de recherche, MAVIC et hepia ont réalisé qu’une manipulation judicieuse de la rugosité du pneu sur une roue normale (à rayons) permettait d’atteindre un effet de « voile » aussi prononcé que sur une roue pleine. Les roues les plus aérodynamiques du marché, la CXR80 et la CXR60 de MAVIC, étaient nées.
Légendes
1 - Banc d’essai pour mesures « aérodynamiques » de roues de vélo dans l’eau.
2 - Banc d’essai vélo dans la soufflerie d’hepia.
3 - Romain Bardet, 2ème au Tour de France 2016, à hepia le 17 novembre 2016.
4 - Banc d’essai pour mesures aérodynamiques de roues de vélo.
• Flavio Noca, professeur à hepia, a révélé le fonctionnement étonnant de la roue MAVIC dans le supplément Science & Médecine du journal français Le Monde (22 juin 2016) suite à une conférence sur le sport organisée par l’Ecole Polytechnique (X) à Paris.
• La roue a été filmée en action dans la soufflerie et a été le sujet d’un documentaire sur Discovery Channel (2015).
• Lors du lancement de la roue de MAVIC, les journalistes des revues cyclistes du monde entier se sont réunis lors d’une conférence de presse à la soufflerie d’hepia et ont transmis la nouvelle au monde du cyclisme.
Un banc d’essai vélo a été mis au point par MAVIC avec les conseils d’hepia. Ce banc d’essai est unique au monde et permet des mesures de précision inégalée sur des roues seules ou sur des vélos entiers avec cycliste. Un banc d’essai pour des mesures dans l’eau (pour une meilleure visualisation) a été mis au point par hepia.
In collaboration with Prof Harry James Whitlow from the Ionlab-Arc and the clinician Dr. Pierre-Yves Dietrich from the Geneva University Hospitals (HUG), we have developed an in-vitro microfluidic perfusion cell for radiopharmacological testing with human neural tissue cultures that allows protonirradiation under conditions representative of the site of tumour eradication deep inside the patient’s body. This new in vitro model will be an important tool for the development of drug used in cancer therapy.
The main novelties is to use ”small” MeV accelerator for 3 MeV protons instead of large 250 MeV clinical accelerator facility in order to irradiate human tissue samples in a microfluidic cell needed to speed-up the drug development in the oncotherapy field.
Main innovations :
• to perform drug development without the need for Ion Beam Cancer Therapy facility.
• in-situ real-time studies now possible.
• capability to directly study pharmaceutical effects.
• no need to use human or animal models.
• low-cost technologies.
In vitro model of brain tumours : Luc Stoppini has demonstrated that neural progenitors derived from induced pluripotent stem cells grown at air-liquid interface on porous membrane can generate 3D brain tissue-like structure. He also showed that those 3D neural tissues were functional by recording electrophysiological activities. A new in vitro approach to reproduce features of the brain tumour disease, in particular by using glioblastoma cells which is an aggressive brain tumour characterized by its high propensity for local invasion, formation of secondary foci within the brain, as well as areas of necrosis.
This engineered 3D in vitro approach, will provide a relevant model to study the disease and will allow us to study the effect of proton and carbon ions irradiations to specifically induce a selective destruction of cancer cells in combination with radiosensitisers and sparing the normal brain tissue surrounding the tumour.
Ion irradiation research and technology The Ionlab-Arc group focuses on work around the 1.7 MV Tandetron accelerator. The proton generated by the ionbeam will damage the DNA which in turn leads to eradication of tumours. Ionlab-Arc have developed a technical know-how on ultra-thin Si3N4 windows partly supplemented by high-resolution gas ionisation detectors.
The tissue growth cassette has been designed and prototypes have been tested. We are now in the phase of the irradiation of healthy neuronal cells. The glioblastoma cells and the healthy neuronal cells have been co-cultured with success. Irradiation of this brain glioblastoma tumour in vitro model will be tested with radioprotector and radiosensitiser.
1 - Protons distribution into human skeletal muscle to select the Bragg peak in the 2D ionization matrix.
© H. J. Whitlow and J.F. Zeigler
2 - Adaptor and tissue growth cassette with microfluidic.
3 - Left panel : Schematic view of the cassette Right panel : brain tumor model.
© Z. Nayernia
Tools and method developed will drastically reduce the need for animal model testing in radiopharmaceutical drug development. Provide tools for developing tests for “after the disaster” biological dosimetry.
In collaboration with clinicians like Dr. Pierre-Yves Dietrich from the Geneva University Hospitals (HUG), we will evaluate the potential cost-reduction for Ion Beam Cancer Therapy treatment by allowing lower doses and fewer fractions.
Publications : Norarat R., Guibert E., Jeanneret P., Dellea M., Jenni J., Roux A., Stoppini L., Whitlow H. J. A gas ionisation direct-STIM detector for MeV ion microscopy. Nuclear Instruments and Methods in Physics Research B 348 (2015) 58–61
The RadioBeam project use 1.7 MV Tandetron accelerator for the formation of ion beam. This accelerator from the HE-Arc is run by the Ionlab-Arc group, directed by H. J. Whitlow.
La fabrication de circuits imprimés nécessite traditionnellement des supports rigides plans ou flexibles spéciaux, ce qui limite leur utilisation notamment pour les objets connectés. Parmi les alternatives en développement, la tampotronique ou fabrication de circuits imprimés par procédé d’impression par tamponnage utilisant des encres spéciales est une solution prometteuse. En tant que procédé additif, la fabrication de circuits directement sur la surface des matériaux d’un objet devient possible (p.ex. bois, métal, polymère, papier, pierre, cuir,…).
• Rapidité : procédé industriel rapide et éprouvé dans d’autres applications.
• Résolution : selon les matériaux, largeurs de pistes / interpistes <50µm.
• Montage composants : report des composants directement sur les encres conductrices.
• Forme : surface non plane aussi possible.
• Impact sur l’environnement : nettement plus faible que l’industrie des circuits imprimés.
• Autres fonctions réalisables : multicouche, capteurs et actionneurs.
La tampotronique est un nouveau procédé de microfabrication par impression qui utilise un tampon comme vecteur de transport d’encre. Cette technique permet la fabrication de circuits imprimés, de capteurs et d’actionneurs par impression séquentielle de couches d’encres fonctionnelles, dont notamment des encres conductrices, diélectriques, magnétiques ou décoratives.
Grâce à l’élasticité du tampon qui épouse la forme d’objets complexes, l’impression est possible sur des surfaces non planes.
De plus, le faible coût engendré par le système de production offre une mise en œuvre rapide et agile des prototypes, ce qui permet d’accélérer le passage entre idées innovantes et produits finaux réussis.
En outre, le bon rendement en matière et le bilan écologique en font une technique compétitive dans le cadre industriel en particulier dans le secteur des produits consommables et « low-cost ».
Enfin, cette approche est très prometteuse en particulier dans les domaines de l’identification, du « track and trace », etc. grâce au faible coût de fabrication et une utilisation minime d’énergie pour la fabrication, notamment d’antennes sur des supports non conventionnels en termes de matériaux et de formes, permettant ainsi l’intégration de la fonction « connectée » sur l’objet fini.
Légendes
1 - Impression d’antennes RFID sur substrat en bois.
2 - Circuit double couche imprimé sur membrane flexible (Kapton 25 µm).
3- Impression multicouche de « microelectrode array » (MEA) sur membrane poreuse.
4 - Montage en surface d’un composant.
5 - Circuit électronique à but pédagogique imprimé sur un substrat en papier avec divers composants montés en surface.
6 - Vue de détail des couches transparentes de la figure 3.
• Des partenaires industriels sont recherchés pour la valorisation de ce nouveau procédé.
• Collaborations possibles avec l’Institut des Sciences et Technologies Industrielles à hepia (Genève) pour des mandats de recherche et développement pour votre application, prestations de service, prototypage, production de petite série, et assistance à la mise en place de la chaîne de production.
Les gestionnaires du réseau de distribution (GRD) suivent de près la croissance du nombre d’installations photovoltaïques au réseau de basse tension (BT) craignant l’apparition de problèmes fonctionnels et de grands coûts de renforcement. Le réseau de BT n’a pas de monitoring et de contrôle en temps réel de la part du GRD. Le déploiement des nouvelles énergies renouvelables, avec un fort caractère intermittent au niveau BT, exige que le GRD puisse connaître ce qui se passe au niveau des postes de transformation MT/BT et au-dessous.
• Réseau de mesures nécessaires et suffisantes sur le réseau basse tension (BT)
• Base de données dans le poste de quartier.
• Algorithmes locaux de maintien des paramètres prescrits sur le réseau BT.
• Possibilité de transfert des données vers le centre de conduite et de mises à jour depuis ce dernier.
Le coeur du projet repose sur un ordinateur industriel dans le poste de quartier et un réseau de mesures sur le niveau BT. Le projet a permis de vérifier, en simulation – informatique puis dans un laboratoire électrique – que la connaissance des grandeurs physiques dans le réseau BT permettait de garantir le respect des paramètres du réseau en cas de forte pénétration de production photovoltaïque, sans nécessiter d’intervention depuis le centre de conduite.
Le projet a permis d’analyser les actions par transformateur à gradin variable sous charge (OLTC), par compensateur électronique de tension en série sur une ligne (EVC) et par variation du facteur de puissance (cosPhi) au niveau de l’onduleur du producteur photovoltaïque. C’est cette dernière méthode qui présente le meilleur potentiel : on opère une correction centrée sur la ou les lignes critiques ; de plus ses coûts sont bien inférieurs à ceux des autres méthodes, et a fortiori moins coûteuse que la pose de nouveaux câbles. Par son action ciblée où la source du problème devient solution, on optimise le système (Fig. 2). Comme on fait circuler du courant réactif dans la ligne pour limiter la croissance de la tension, on veillera à produire cette puissance réactive par d’autres installations sises à proximité du poste. Avec la méthode OLTC, on agit sur tout le poste, ce qui peut pénaliser d’autres lignes.
Pour le dialogue entre l’ordinateur et les onduleurs raccordés on doit utiliser le canal de communication le plus optimal en fonction de la configuration locale.
Les simulations en laboratoire ont été menées à la HES-SO de Sion et les calculs de coûts à celle de Fribourg.
Légendes
1 - Poste de quartier
2 - Evolution des tensions dans 5 lignes un jour de fort rayonnement solaire. Avec réglage cosPhi
Publications et présentations :
J.-M. Allenbach, J. Antezana : Conception d’un poste MT/BT intelligent en presence d’installations de production distribuées, Confrège, 4e conférence internationale (27-29 juin 2016) (Présentation à hepia, Genève).
On a utilisé un ordinateur industriel avec un système d’exploitation Linux. Pour les acquisitions de mesure, on a privilégié des IED qui communiquent par Ethernet. Les algorithmes de régulation ont été programmés en Python.
Ce projet développe un système de relevé de la consommation énergétique effective d’un tramway exploité par les Transports Publics Genevois (TPG). Les données seront archivées et analysées :
1. Répartition de la consommation entre traction, auxiliaires et installation de confort.
2. Energie consommée annuellement, mensuellement, …
3. Variation de la puissance appelée en fonction du parcours sur une ligne et des commandes par le wattman.
4. Etude des différences de consommations selon le pilotage du wattman.
5. Identification des économies énergétiques potentielles.
• Serveur embarqué pour agréger les mesures.
• Systèmes de mesure des courants, tensions, accélérations et manœuvres.
• Géolocalisation du tram.
• Transfert des données à un serveur distant pour traitement des données.
• Analyses mathématiques et modélisation énergétique du véhicule.
Comme beaucoup d’entreprises de transports, les TPG sont soucieux de l’impact de la circulation des véhicules sur l’environnement. Ils recherchent les pistes pour réduire les consommations énergétiques. Le but du projet, commencé en mars 2016 est de mesurer de façon précises les puissances nécessaires aux mouvements, aux services auxiliaires et aux services de Chauffage, Ventilation et Climatisation (CVC). Avec les données qui seront recueillies, on peut connaître les consommations détaillées de chaque équipement et dégager des pistes d’économies d’énergie selon le comportement des wattmen ou la pertinence des directives. On recherchera ainsi quelles sont les consommations excessives de chaque élément du tramways et on pourra suggérer des recommandations techniques ou de pilotage dont l’impact est le plus pertinent.
Le système géo-localise le tram, identifie ses accélérations et mesure les tensions et courants en divers points. On distingue la puissance de traction, de freinage à récupération et de freinage rhéostatique. On identifie les puissances des auxiliaires et celles nécessaire au confort des usagers. Si on associe ces variations à la position du véhicule et à sa dynamique, on pourra comprendre les raisons des variations de consommation. Les données sont récoltées par un ordinateur à distance et sont exploitées pour révéler de manière graphique les impacts de tel comportement ou de telle directive.
L’innovation majeure de ce projet est de proposer aux TPG une compréhension détaillée du comportement d’un tramway selon la localisation sur le réseau et également d’avoir des informations énergétiques permettant de réaliser des comparaisons à différentes époques, charges de passagers et également selon le comportement du wattman.
Ce système est modulaire et évolutif, il permettra de s’adapter à de nouveaux besoins.
Finalement, ces mesures écologiques auront aussi un impact économique favorable à l’entreprise : l’énergie qu’on évite de consommer sans diminuer la qualité de la prestation est une dépense de moins.
Nous développons une activité de Ra&D dans le domaine du photovoltaïque organique. Nous recherchons surtout à intégrer des matériaux nanostructurés tels que les points quantiques pour augmenter le rendement de conversion énergétique, ou des couches sol-gel, dont les coûts de fabrication sont très bas.
• Installation d’une double boîte à gants avec évaporateur thermique intégré.
• Fabrication de cellules solaires organiques P3HT/ PCBM, avec ou sans « quantum dots ».
• Développement d’un système original de mesure d’efficacité quantique de conversion photo-électrique.
• Utilisation de nanocristaux « upconverter » pour augmenter l’efficacité dans l’infra-rouge.
La technologie OPV (organic photovoltaic), très récente, est prometteuse en termes de coût de fabrication et sera probablement la technologie de choix pour certaines applications telles que les vitres photovoltaïques. De gros efforts sont déployés de par le monde afin d’augmenter le rendement et la durée de vie de ces cellules.
Les matériaux de l’OPV ne supportent pas le contact avec de l’eau ou de l’oxygène, ce qui nécessite de les manipuler dans une boîte à gants remplis d’azote : la concentration d’H2O et de O2 est alors < 0.1ppm. Dans ces conditions, les différentes couches organiques de la cellule peuvent être déposées par « spin-coating » et traitées thermiquement. L’épaisseur des couches, typiquement de 100nm ou moins, doit être très constante sur toute la surface de la cellule, qui peut atteindre quelques dizaines de cm2
Nous avons pu optimiser les traitements thermiques des couches et montrer l’influence de la succession des traitements sur le rendement final. Dans un deuxième temps, nous avons également du développer notre propre système de mesure d’efficacité quantique, c’est-à-dire un système qui permet de connaître l’efficacité de conversion pour chaque longueur d’onde solaire (entre 300nm et 1200nm)
Nous avons également utilisé des nanoparticules pour améliorer le rendement de cellules photovoltaïques organiques, rendements démontrés pour les trois cas suivants :
• ajout de points quantiques (quantum dots QD) CdSe
• ajout de couche de cristaux à effet « up-conversion » de NaYF4:Er,Yb
• remplacement de la couche de transporteur de trou PEDOT:PSS couramment utilisée par une couche d’oxyde de métaux de transition (MoO3) obtenue par synthèse sol-gel.
Légendes
1 - La boîte à gants constitue l’environnement sec nécessaire à la fabrication de cellules solaires organiques.
2 - Le simulateur solaire permet de reproduire fidèlement la radiation solaire afin de tester de façon réaliste les performances des cellules solaires.
3 - Les nanocristaux permettant de convertir la lumière infrarouge en lumière verte (visible sur la photo) sont analysés dans un cryostat optique.
4 - Spectre de photoluminescence des nanocristaux upconverter, à température ambiante (300K) et à la température de l’azote liquide (77K).
Publications et présentations
S. Jotterand, M. Jobin, « Characterization of P3HT:PCBM:CdSe hybrid solar cells », Energy Procedia, 31, 117 (Présentation à E-MRS, Nice), 2012.
M. Jobin, C. Pellodi « Organic Solar Cells improvement with quantum dots, up-converters and MoO3 hole transport layers » Proc. SPIE 9140, 914008-2. (Présentation à SPIE Photonics Europe, Bruxelles), 2016.
Sur la base d’une plateforme de type hexa-coptère produite par la société fly-n-sense, hepia développe un drone de mesure de la pollution urbaine. Il s’agit d’un aéronef capable de se stabiliser de manière précise en un point de la ville et de mesurer les niveaux de pollution.
• Le drone hepia est un système capable de réaliser une trajectoire programmée avec une précision inférieure au mètre. Il est muni de capteurs de particules fines PM10, d’ozone et de NO2.
• Il complétera les mesures réalisées actuellement au sol par les spécialistes des organes de l’Etat. De plus, sa capacité à effectuer des mesures à des altitudes allant jusqu’à 200 mètres permet d’offrir une meilleure compréhension des phénomènes physiques liés au climat urbain.
La problématique des études de diffusion de polluants en milieu urbain se heurte difficulté de pouvoir mesurer à l’aide de techniques connues et fiables, la teneur en particules fines PM10, ozone et NO2 de l’air que nous respirons. A cet effet, hepia a instrumenté un drone commercial qui permet de réaliser des cartes géographiques de la concentration des polluants mais aussi des profils de température, de pressions atmosphériques, de vents, etc. Elles permettront de comprendre la diffusion des polluants non seulement proche du sol, mais également à faible altitude.
Le système est utilisé pour réaliser des mesures dans des quartiers de la ville. Il permet également dans le cadre d’études par simulations numériques de renseigner et préciser les paramètres physiques qu’il faut imposer aux frontières (conditions-limites).
Les spécialistes de la mesure des polluants utilisent depuis de nombreuses années des appareils qui ont fait leurs preuves et mis au point des procédures d’échantillonnage. Ces méthodes ne peuvent par contre pas être utilisées telles quelles car les masses des systèmes de mesure utilisées ne sont pas compatibles avec les charges utiles d’un drone. L’équipe de recherche a donc du revenir sur les choix faits il y a quelques années et valider d’autres instruments de mesure. Des méthodes par absorption optique, ainsi qu’un système de mesure des particules fines fonctionnant par réfraction et développé par le CNRS, ont été mis au point. Ces systèmes ont nécessité une validation longue et minutieuse. Aujourd’hui, hepia possède un aéronef capable de mesurer ces grandeurs et a débuté une campagne de mesure extensive des polluants dans le quartier des Pâquis à Genève. Ce quartier a été choisi comme étant représentatif d’une problématique urbaine typique.
Légendes
1 - Le drone hexacoptère hepia muni de la nacelle de mesure des particules fines PM10 développée par le CNRS.
2 - Etude aérodynamique dans la grande soufflerie hepia-cmefe.
3 - Vol avec une nacelle de mesure.
4 - Etude aérodynamique par simulation CFD, hepia-cmefe.
5 - Mesures de PM10 dans un quartier de la ville de Genève.
• Le drone est actuellement en cours d’utilisation dans des quartiers de la ville de Genève. Il réalise des analyses permettant la réalisation de conditions aux limites pour un projet de simulation de la diffusion de polluants en milieu urbain.
• Les développements de ce projet ont été présentés à la conférence Applied Aerodynamics Conference de l’American Institute of Aeronautics and Astronautics (AIAA) à Atlanta en juin 2014.
• Une thèse de Master de l’Université de Bologne, de l’UPMC (Paris 6), ainsi que deux travaux de Bachelor hepia ont été réalisés sur cette thématique.
Aéronef
Six rotors contrarotatifs 3 par 3
Charge utile 1.2 Kg
Masse totale max. 3.5 Kg
Système de mesures PM1 LOAC
O3
Absorption à 254 nm
NO2, NO, NOx Absorption à 405 nm des NO2
Les fractures du fémur proximal (plus communément appelées du col du fémur) se traitent à l’aide d’une prothèse (remplacement de l’os) ou d’un implant (conservation du capital osseux). Ces derniers sont les plus utilisés dans les cas d’urgence, mais posent de nombreux problèmes en particulier chez les personnes âgées (fracture secondaire, défaillance de l’implant, mauvaise stabilisation de la fracture). Le but de ce projet est de concevoir un implant original, minimisant ces problèmes.
En comparaison avec les implants actuels, CLOVIS offre :
• une sollicitation plus faible de l’implant, d’où un moindre risque de défaillance.
• une meilleure sollicitation de l’os et du foyer de fracture
• une meilleure stabilisation de la fracture.
• un réglage continu de l’angle céphalo-diaphysaire et de la longueur de la vis céphalique.
• une plus faible invasivité (deux incisions de moins de 5 cm).
• une plus grande liberté pour le chirurgien (réglage peropératoire).
• un plus faible nombre de références (4 contre plusieurs dizaines).
Le projet CLOVIS a débuté en 2010, à l’aide d’un financement InterReg. Il associe deux partenaires universitaires (l’université de Savoie pour la France et hepia, HES-SO pour la Suisse) et deux partenaires industriels (Tural pour la France et Chirmat pour la Suisse). Le but de ce projet est de proposer un nouvel implant pour le traitement des fractures dites « du col du fémur », adapté aux os ostéoporotiques. Actuellement, le traitement en urgence de ce type de fracture se fait quasi exclusivement en utilisant une vis traversant le col (dite vis céphalique) associée soit à un clou centromédulaire, soit à une plaque externe. Dans les deux cas, un grand nombre de taille et d’angle cervico-diaphysaire (angle entre la vis et l’axe du fémur) doit être disponible en stock dans chaque hôpital pour s’adapter au patient.
L’idée de base du projet était de concevoir un implant modulaire, utilisable aussi bien en configuration intra qu’en configuration extramédulaire, et dont l’angle cervico-diaphysaire serait réglable, ce qui permettrait de passer de plusieurs dizaines de références à quelques-unes. Une étude numérique (à l’aide du logiciel ABAQUS) et expérimentale (os cadavérique sur banc d’essai spécifique) des deux types d’implants actuellement les plus utilisés (clou Gamma et plaque DHS) a soulevé un certain nombre de faiblesses au niveau de la tenue mécanique, faiblesses d’autant plus importantes que l’os est de mauvaise qualité. Un implant polyvalent n’ayant que très peu de chance de pouvoir faire mieux que des implants spécifiques développés depuis de nombreuses années, le projet a très vite été réorienté vers un implant à la fois intra et extramédulaire, en conservant l’idée d’un angle cervico-diaphysaire réglable. L’implant est constitué de deux pièces principales, une vis céphalique (expansible dans la dernière version) et une pièce dont une partie, rigide, pénètre dans le canal diaphysaire, et dont l’autre, elle aussi rigide, constitue une plaque externe. Ces deux parties sont reliées entre elles par une lame déformable, ce qui permet de régler leur position relative et donc l’angle cervico-diaphysaire. Cet implant a été baptisé CLOVIS. Différentes versions ont été conçues, étudiées numériquement et expérimentalement sur os synthétique puis cadavérique. Ces résultats ont confirmé que les sollicitations aussi bien de l’implant que de l’os fracturé étaient meilleures que celles obtenues avec les implants actuels.
Un matériel ancillaire spécifique a été développé, et la technique opératoire validée. Elle est comparable en terme d’invasivité, de complexité et de durée d’opération à celle mise en œuvre pour les implants actuels, et offre plus de liberté au chirurgien, qui peut régler l’implant en continu (angle cervico-diaphysaire et longueur de vis céphalique), éventuellement en peropératoire.
Une analyse de risque va maintenant être entreprise, pour permettre d’aborder la phase des essais in-vivo, et si elle est concluante, celle du marquage CE.
Légendes
1 - Différents prototypes réalisés.
2 - Description des différentes parties de CLOVIS.
3 - Positionnement de CLOVIS dans le fémur.
4 - Outillage « ancillaire » nécessaire à l’implantation.
5 - Implantation de CLOVIS en laboratoire d’anatomie.
6 - Radio de contrôle post implantation.
• Brevet Suisse (2012CH-00725), Européen (EP 2 644 142 A1) et USA (US 201 302 61 622).
• 1 thèse soutenue (Rémi Billard, février 2014).
• 5 conférences internationales (ICSM2012, Euromech534, Photomechanics 2013, SSOT 2013 et 2014).
• 10 conférences invitées.
• Un banc d’essai de compression portable de capacité 5’000 N
• 2 caméras rapides (100’000 images/seconde)
Nous avons développé un microscope interférométrique (IOM) versatile permettant de répondre à de nombreux besoins de caractérisation de surfaces. Plusieurs fonctionnalités y ont été ajoutées au fil des projets, permettant par exemple de réaliser des films démontrant l’évolution de la topographie d’une surface à l’échelle nanométrique, ou de mesurer la déformation de membranes sous contraintes mécaniques. Le microscope est aussi beaucoup sollicité pour des projets impliquant des phénomènes de frottement (tribologie).
• Résolution verticale inférieure à 1 nm.
• Intégration à un microscope à force atomique.
• Intégration à un nano-indenteur.
• Mesure en temps réel (vidéo).
• Mesure en milieu liquide.
Dans un microscope interférométrique (IOM), l’objectif est équipé d’un interféromètre et l’échantillon est posé sur un translateur piézoélectrique extrêmement précis (meilleur que le nanomètre). Cet instrument est très utilisé dans tous les domaines industriels où il faut observer des états de surface très fins, comme par exemple les dépôts de couches minces, les techniques de polissage électrochimique ou les structurations par photolithographie.
La photo ci-dessus représente un microscope interférométrique développé à hepia que nous utilisons dans toutes nos activités de recherche impliquant l’observation de topographies de surface. Les figures 1 et 2 sont des exemples de mesures pour les deux modes couramment utilisés : le mode en lumière blanche (figure 1) qui permet l’observation de corrugation jusqu’à plusieurs dizaines de microns et le mode en lumière monochromatique permettant des résolutions inférieures au nanomètre. Sur la figure 2, on voit des marches associées aux plans atomiques de carbone d’un échantillon de graphite.
L’intérêt d’avoir pu développer nous-mêmes le système de mesure interérométrique est de disposer d’un instrument très versatile, tant au niveau du matériel que du logiciel. Nous avons par exemple combiné l’IOM avec un microscope à force atomique AFM (figure 3) ce qui permet d’exploiter simultanément la résolution latérale de l’AFM et la résolution verticale de l’IOM sur de grandes surfaces d’observation. De même, nous avons intégré l’IOM avec un nano-indenteur (NIND) de façon à pouvoir observer les nanodéformations de microsystèmes (MEMS/NEMS) lorsqu’on leur applique des forces mécaniques très bien contrôlées. La figure 4 montre l’intégration IOM/NIND ; l’encart montre un résultat sur une nanomembrane (épaisseur 500 nm) déformée par une application en son centre d’une force de 70 um.
Légendes
1 - Mode lumière blanche (basse cohérence) : image de gravure SiO2 /Si.
2 - Mode lumière monochromatique : image de marche atomique de graphite.
3 - Intégration avec un microscope à force atomique.
4 - Intégration avec un nano-indenteur : insert : image d’une nanomembrane sous pression.
Publications :
• M. Jobin, R. Foschia « Improving the resolution of interference microscopes », Measurement, 41, 896 (2008).
• M. Jobin, R. Foschia, « Real-Time Interferometric Microscopy in Liquids, » in Biomedical Optics, OSA Technical Digest (CD) (Optical Society of America, 2010), paper JMA37.
Utilisation dans des projets :
• Projet « PRODIM », CTI no 9252.
• Projet « RC 2 », FP6 (programme européen) no 31236.
Une équipe d’étudiants a été choisie pour lancer une expérience de microgravité sur la fusée REXUS (Rocket EXperiment for University Students) dans le cadre d’un projet didactique de l’Agence spatiale européenne (ESA). Les étudiants, soutenus par des professeurs de l’école et dirigés par un comité d’experts d’ESA, devront conduire l’expérience à travers toutes les phases d’un projet spatial : de l’acceptation au lancement.
Le projet vise à intégrer des étudiants motivés au sein d’un axe de recherche du laboratoire de mécanique des fluides de l’école. De par sa grande complexité et son envergure, ce projet stimule les étudiants en les motivant pour atteindre un objectif ambitieux. Par ailleurs, ce projet renforce les liens personnels au sein du groupe et contribue à la mise en valeur de leurs compétences propres afin d’atteindre un objectif scientifique commun. Scientifiquement, le projet vise à récolter des données expérimentales impossibles à obtenir en environnement gravitationnel.
Le projet, inscrit dans un programme de recherche d’hepia sur les écoulements capillaires en microgravité, s’intéresse au comportement des liquides en apesanteur en présence d’un dispositif capillaire qui se nomme «éponge» dans la littérature dédiée.
Le programme de recherche vise à comparer des résultats numériques et théoriques avec des données expérimentales obtenues au moyen d’essais différents. Ainsi, dans le cadre de ce projet, on s’intéressera en particulier à l’annulation de la force de gravité par la flottaison des liquides, par la lévitation magnétique et par le vol parabolique d’une fusée sonde.
En ce qui concerne la flottaison des liquides, un banc de tests a été développé au sein de l’école afin de pouvoir obtenir des résultats «in situ». En parallèle, une collaboration avec le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) est prévue pour effectuer le test de lévitation magnétique. Enfin, pour compléter la base de données expérimentales présentée ci-dessus, l’équipe CAESAR (Capillarity based Experiment for Spatial Advanced Research) participera à la campagne d’essais REXUS rendue disponible aux étudiants par l’Agence spatiale européenne (ESA) avec, pour but, de reproduire en vraie apesanteur le comportement simulé en laboratoire.
Légendes
1 - Cellule de test pour l’expérience de lévitation magnétique.
2 - Cellule de test pour l’expérience de flottaison.
3 - Expérience de flottaison.
4 - Une étudiante prépare un essai de flottaison.
5 - Cellule de test pour une expérience numérique.
6 - Le CAESAR Team présente l’expérience devant les experts de l’agence spatiale.
Un programme de valorisation du projet est prévu : il sera présenté au grand-public dans la presse, puis lors des portes ouvertes de l’école, et également dans le cadre de présentations qui seront organisées pour les étudiants des écoles secondaires afin de les intéresser aux techniques de l’ingénieur. En parallèle, l’équipe de recherche s’engage sur le plan scientifique à rédiger des communications scientifiques, afin d’officialiser les informations qui seront acquises à l’issue de ce projet.
Le programme REXUS/BEXUS met à disposition de l’équipe un moyen d’essai exceptionnel, une fusée sonde.
Il est réalisé dans le cadre d’un accord bilatéral entre le Centre Aérospatial Allemand (DLR) et le Comité National Suédois de l’Espace (SNSB). L’accès à la partie suédoise de la charge payante a été rendue accessible aux étudiants d’autres pays européens au travers d’une collaboration avec l’Agence spatiale européenne (ESA).
EuroLaunch, organe issu d’une coopération entre le Centre Spatial d’Esrange de la Corporation Spatiale Suédoise (SSC) et la Base de Fusée Mobile (MORABA) du DLR, est responsable de la gestion de la campagne et de l’exploitation des lanceurs. Des experts de l’ESA, de la SSC et du DLR fournissent un support technique aux équipes d’étudiants tout au long du projet.
Le système microtechnique développé met en œuvre des chambres de culture de tissus in vitro disposant d’un capteur intégré dans un environnement contrôlé, combiné à un système de caméras performantes. Le logiciel développé facilite l’acquisition et l’enregistrement de données et d’images, et permet un premier traitement d’images en temps réel, simultanément avec la mesure de la conductance électrique du tissu. L’œil de l’expert est ainsi remplacé, et même dépassé. Le système permet, par exemple, d’accéder à des cellules d’épithélium pulmonaire, invisibles à l’œil, à la vitesse de battement des cils.
Un effet toxique peut ainsi être identifié et observé dès les premiers signes de souffrance du tissu, rendant cette nouvelle méthode particulièrement sensible et efficace. Des observations de longue durée sont possibles facilitant les études sur les effets de faibles doses de produits sur le long terme.
Dans le cadre d’un projet CALL HES-SO et de travaux successifs, hepia et Epithelix collaborent depuis 5 ans au développement d’une plate-forme innovante d’instruments pour le diagnostic in vitro de toxicité à faibles doses et sur le long terme.
En effet, l’inquiétude quant aux réels effets à long terme des produits chimiques, molécules diverses et nanoparticules sur la santé humaine est aujourd’hui partagée par un nombre croissant de personnes et d’entreprises. Un très grand nombre de nouveaux tests devraient pouvoir être menés. Toutefois, pour des raisons éthiques, les expérimentations animales sont de plus en plus limitées. Une alternative, ne nécessitant que très peu voire aucune vie animale, est basée sur le développement des tests in vitro Néanmoins, il n’existe aucune méthode standard de détermination de la toxicité établie et universelle. De plus, pour mener des études de qualité sur le long terme, l’intervention de l’œil expert est indispensable à ce jour. Il s’agit d’une tâche chronophage et contraignante. La plate-forme d’instruments développée lors de ce projet démontre le potentiel des technologies modernes de miniaturisation pour répondre de manière originale et prometteuse à cette problématique.
Légendes
1 - Schéma de la fonction d’ensemble du système de monitorage développé.
2 - Photographie de l’intérieur de la plateforme où le tissu biologique est introduit pour être observé et testé.
3-4 - Photographies de la chambre de culture pour le tissu biologique avec vue détaillée des électrodes de mesure d’impédance déposées sur la membrane poreuse. Le tissu est placé sur cette membrane à l’interface « milieu de perfusion » - « air ambiant ».
5 - Vue d’un des panneaux du logiciel développé pour commander le système et acquérir les images et signaux. Sur cette vue, l’image de la face supérieure du tissu d’épithélium pulmonaire est affichée ainsi que le spectre en fréquence du battement ciliaire pour une zone choisie du tissu (avec un pic ici à 10.4 Hz).
6 - Résultats expérimentaux de l’influence de l’application d’une molécule toxique (méthyle de mercure) sur l’impédance électrique après 24 heures. Le module de l’impédance décroît à basse fréquence lorsque la concentration de la molécule testée augmente, reflétant le nombre croissant de cellules mortes à plus haute dose.
Actuellement, ce projet fait l’objet d’un premier transfert de technologies chez le partenaire industriel Epithelix Sàrl. Quant aux travaux futurs, ils se concentreront sur la parallèlisation et l’automatisation visant les tests à haut débit. Ce développement en ingénierie appliquée aux sciences du vivant (bio-ingénierie) va permettre à l’une de nos plus prometteuses sociétés Genevoises issue de l’incubateur Eclosion et lauréate du Prix de la Jeune Industrie de Genève 2010 de se développer en proposant des prestations de services à hautes valeurs ajoutées.
Le micro-EDM-milling permet de réaliser de petites cavités profondes comportant des détails fins ; ceci dans des matériaux même extrêmement durs. Actuellement, aucune autre technique n’est capable de réaliser de telles performances. En effet, les outils du microEDM-milling sont de petites électrodes en rotation à l’extrémité desquelles les étincelles permettent d’éroder la matière, à l’image d’une fraise de coupe, mais sans les efforts qui menacent de briser l’outil. Ainsi, le micro-EDM-milling trouvera de nombreuses applications dans les domaines de la micromécanique.
Mini-cavité.
Le micro-EDM-milling est une nouvelle technologie d’usinage par électroérosion, capable de réaliser des petites cavités profondes comportant des détails fins, dans des matériaux même extrêmement durs, et ce, sans avoir à fabriquer au préalable des électrodes de forme bien définie (comme c’est le cas dans l’enfonçage).
Un premier projet CTI a permis d’établir les bases physiques et de prouver la faisabilité de cette nouvelle technologie d’usinage – il fallait notamment démontrer qu’une électrode pourtant fine et flexible pouvait être stabilisée par sa rotation, de façon à rendre possible un usinage précis.
Le second projet CTI vise à permettre l’industrialisation du procédé : système de préhension de l’électrode, générateur d’étincelle dédié et gestion de l’usure de l’électrode au niveau de la machine sont les principaux défis à relever pour y parvenir (partenaire : +GF+ AgieCharmilles SA).
Légendes
1 - Micro-fraisage EDM, Extrait d’une vidéo, René Demellayer.
2 - Fraisage EDM, © Hervé Sthioul.
3 - Schéma de principe du micro-fraisage EDM, la contrainte due à la fabrication d’une électrode complexe est remplacée par le mouvement d’une électrode de forme standardisée.
Ce projet a nécessité l’acquisition par hepia d’une machine à mesurer de haute précision ( WERTH videocheck équipée d’un palpeur fibre) de façon à disposer de moyens de mesure appropriés pour caractériser dimensionnellement les performances du micro-EDM-milling.
En collaboration avec la société AgieCharmilles SA, hepia est active depuis de nombreuses années dans le domaine des procédés d’usinage de type électro-érosion par enfonçage. Ces procédés, qui permettent la mise en forme de matériaux de dureté très élevée, génèrent des particules ou des débris qui doivent être évacués. Aujourd’hui, la partie électrique du procédé est bien maîtrisée car elle fait l’objet de développements continus depuis plusieurs années. Par contre, la technique d’élimination des débris en cours d’usinage constitue un élément, qui influe très nettement sur la vitesse d’usinage.
Une approche multidisciplinaire comprenant 3 chapitres est choisie. Le premier chapitre est expérimental en conditions de similitude, le second est numérique de type simulation CFD et le troisième est in situ Chaque approche présente des avantages, et réunies, elles permettent de réaliser une étude crédible et efficace. L’approche expérimentale est réalisée en conditions de similitude à l’échelle 50:1. Les trajectoires des particules lors des mouvements de nettoyage sont analysées par traitement d’images ; des grandeurs physiques, telles que la pression sont mesurées en continu.
Lors de l’usinage par électro-érosion, une différence de potentiel est établie entre la pièce et une électrode. Lorsque la valeur de celle-ci est suffisante, une étincelle est générée à l’endroit où la résistance est la plus faible. Il s’agit en principe de l’endroit où la distance entre les deux pièces est la plus petite. Un canal ionique est créé au-travers de cette étincelle. Le générateur d’étincelles stabilise le courant pendant une durée déterminée (régime d’usinage). Les températures augmentent et un plasma est créé. Après ce temps, l’étincelle est interrompue. Le plasma disparaît et le fluide est à nouveau condensé. Ce phénomène crée localement un abaissement rapide de la pression. La matière de la pièce à usiner, liquide ou gazeuse, se solidifie rapidement sous forme de particules sphériques (voir les photos). A ce stade, le processus a terminé un cycle et le système est prêt pour générer une nouvelle étincelle, qui ne se produira pas au même endroit car la distance entre les deux pièces a été augmentée. On « usine » l’endroit où la distance est la plus courte. L’électrode peut alors pénétrer dans la pièce à usiner sans qu’aucun contact physique n’existe. Toutefois, et c’est là que l’hydrodynamique intervient, il est nécessaire d’évacuer les débris, faute de quoi l’étincelle peut se reproduire au même endroit. Ceci provient du fait que les débris sont des corps conducteurs qui ont tendance à diminuer la résistance électrique du lieu où ils se trouvent. La vitesse d’usinage est donc gouvernée par notre capacité à évacuer les débris.
L’ensemble du système est immergé dans un fluide diélectrique, généralement de l’huile. L’évacuation des débris en usinage par enfonçage consiste à réaliser, après un temps d’usinage donné, des mouvements de va-et-vient de l’électrode de manière à générer un écoulement du fluide diélectrique dans les fentes autour de l’électrode et de la cavité. Ce mouvement doit permettre le brassage des débris, puis leur évacuation par les fentes latérales. La question qui nous importe est d’optimiser cette évacuation en jouant sur les paramètres tels que la fréquence des « sauts », leurs amplitudes ainsi que d’autres facteurs physiques.
Légendes
1 - Banc d’essais en similitude à l’échelle 50:1.
2 - Particules de débris formées par les étincelles.
3 - Cratère après formation d’une étincelle.
4 - Maillage de simulation CFD.
5 - Structure de l’écoulement généré dans la première phase du retrait de l’électrode.
© hepia – AgieCharmilles SA
Ce projet permet d’augmenter la vitesse d’usinage en optimisant le temps d’évacuation des débris. Ainsi, le partenaire industriel du projet pourra offrir à la vente des machines d’usinage plus productives. Une partie des résultats de ce projet seront présentés au 17e International Symposium on Electromachining ISEM 2013 à Leuven (Belgique) en mars 2013.
hepia a développé et mis en service un banc d’essais à l’échelle 50 : 1. Elle utilise des caméras et des logiciels d’analyse d’images. Pour la partie simulation CFD, elle utilise le code Fluent en situation instationnaire et maillage dynamique. Les ordinateurs utilisés sont des serveurs SUN puissants et des stations de travail de type HP Z800 (96 Go RAM et 12 cores à 3 Ghz).
Pour relever le défi de développer une approche de fabrication plus simple, plusieurs méthodes d’impression ont été étudiées et testées. La technique de tampographie s’est révélée la plus prometteuse pour la fabrication de pistes conductrices et isolantes sur membranes poreuses. La tampographie est en général utilisée pour l’impression de cadrans de montres, de textes ou de motifs sur divers supports (balles de golf, dispositifs médicaux). Elle a aussi été utilisée pour imprimer à l’aide d’encre conductrice des antennes RF pour téléphones mobiles. L’alignement de multiples étapes d’impression permet d’imprimer des motifs complexes. Ainsi, cette technique a permis le développement d’un nouveau procédé de fabrication compatible aux membranes polymères poreuses. Des biopuces MEAs ont été ainsi fabriquées avec succès sur des membranes poreuses en PET. Des pistes conductrices de largeur de 50 µm ou plus ont été imprimées et des résistivités de 0.4 Ω / ont été obtenues. La biocompatibilité des MEAs produites a été démontrée. Des signaux bioélectriques provenant de tissus nerveux et cardiaques ont pu être enregistrés à l’aide de tels dispositifs.
Ainsi, malgré une résolution encore limitée, les MEAs imprimées à l’aide de cette nouvelle technique sont fabriquées beaucoup plus rapidement et avec un effort sensiblement réduit. La tampographie est une technique prometteuse et adaptée pour la production de biopuces MEAs à faible coût.
Dans le cadre du programme européen, FP7 Capacities, divers partenaires industriels et équipes de recherches anglaises, françaises et suisses ont joint leurs efforts ces 3 dernières années pour développer une nouvelle plate-forme de tests bioélectriques multicanaux (256 à 1024 canaux) pour tissus nerveux et cardiaques.
En effet, les biopuces à réseaux de microélectrodes (MEAs pour « MicroElectrodes Arrays ») sont utilisées en biologie et en recherche médicale pour la stimulation et l’enregistrement de signaux bioélectriques à partir de cultures de tissus ou de cellules excitables. Ces tests in vitro représentent une alternative prometteuse, particulièrement pour remplacer les expériences qui cherchent à déterminer la toxicité d’une molécule en utilisant des animaux. Les techniques de criblage à haut débit de molécules permettent d’accroître la productivité de ce type de tests. Pour ceci, un nombre croissant de dispositifs à faible coût et à usage unique sont demandés. Généralement, les MEAs sont fabriquées par lots en utilisant plusieurs étapes de photolithographie. Toutefois, pour des raisons pratiques dépendant de l’application, la miniaturisation des MEAs n’est pas possible. Ainsi, l’avantage de la fabrication par lots est limité et l’effort global de fabrication est considérable.
Par contre, les membranes poreuses en polymère représentent un substrat prometteur pour les nouvelles générations de MEAs, car elles donnent au biologiste une flexibilité accrue dans ses cultures et protocoles d’expériences. Toutefois, ces membranes poreuses rendent les étapes de microfabrication conventionnelles bien plus complexes du fait de la présence de pores : soit le rajout de multiples étapes est nécessaire pour produire des pores, soit un polymère poreux doit être utilisé comme substrat avec des limitations spécifiques (p.ex. température maximale limitée, incompatibilité avec des étapes bouchant ou détruisant les pores).
de dispositifs de tests in vitro à faible coût pour une nouvelle plate-forme de criblage de molécules à haut débit dans le cadre d’un projet européenSchéma de principe du procédé de tampographie. Le motif à imprimer est gravé sur le cliché. Une encre est appliquée sur le cliché à l’aide d’un encrier-racloir. Un tampon prélève l’encre du cliché pour l’imprimer sur la membrane. Le motif imprimé sur la membrane est fidèle au motif du cliché. Un cycle d’impression est relativement rapide (<10 secondes).
Légendes
1 - Photographie d’un réseau de 40 bioélectrodes pour tests in vitro de cellules excitables (stimulation et enregistrement de signaux bio-électriques). En gris : les pointes des électrodes faites d’encre conductrice. En noir : la protection des pistes conductrices à l’aide d’une couche d’encre isolante.
2 - Photographie d’une plaque de test in vitro faite de 32 puits de 8 bio-électrodes utile en tant que consommable pour systèmes de tests in vitro à grande échelle et à haute productivité.
3 - Photographie d’une partie de la membrane poreuse de cette plaque obtenue par tampographie multicouche (la couche isolante est ici transparente).
4 - Photographie au moyen d’un microscope à balayage électronique montrant le détail d’une impression par tampographie. La résolution d’impression est moyenne à bonne. Son grand avantage par rapport aux autres techniques de microfabrication : les pores ne sont pas bouchés ; le procédé est rapide et ne demande que peu d’énergie.
Développement de dispositifs de tests in vitro à faible coût pour une nouvelle plate-forme de criblage de molécules à haut débit dans le cadre d’un projet européen.
We have developed a smallvolume in vitro system in which intestine-like cells, hepatocyte cells and 3D micro-organs derived from embryonic stem cells (cardiomyocytes and neural cells) were cultivated in 4 separate porous membrane micro-chambers connected by micro-channels with the presence of biosensors at different levels. A dedicated perfusion system based on air pressure was used to allow the circulation of the culture medium to the different micro-organs through a microfluidic system.
Our technology will :
• Accelerate the evolution of the toxicity risks and hence dramatically shorten research cycles for the pharmaceutical and other industries.
• Improve the performance of toxicity testing systems and make a major contribution to safety pharmacology.
• Bring the potential of major time- and cost-saving factors for drug and chemical compound screening due to the automatic perfusion and sampling platform that allow testing several biochips in parallel, and hence increasing the testing throughput.
In vitro cell-based assays are often of limited predictive relevancy because they do not mimic with sufficient realism the complex environment to which a drug candidate is subjected within a living organism. Recent studies had showed that cell toxicity assays, and assay endpoints are useful for high-throughput cytotoxicity analysis in microfluidic devices, and had also concluded that 3D cell cultures that mimic the in vivo tissue are essential for obtaining results comparable to the in vivo response.
Based on these results, we have fabricated a small-volume in vitro system in which 3D micro-organs derived from embryonic stem cells or human cell line cells are cultivated in separate porous membrane microchambers connected by microchannels with the presence of biosensors at different levels. By selecting appropriate bio-mimic different human tissues in 3D we are reproducing in vitro some aspects of complex interactions occurring in vivo. While conventional culture plate models only measure the response of a single cell type, our “Multiorgans-on-a-Chip” system will allow us to capture the reactions of organ system as a whole (“ organ interactions on-a-chip ” concept). For example, metabolites resulting from a drug’s influence on one organ can reach other organs and exert their positive or negative effect. These biochips will provide insight into interorgan interactions resulting from exposure to pharmacological compounds, a capability which has not been previously demonstrated using in vitro systems. Therefore, we hope that this system will be a more predictive tool in experimental pharmaceutical screening for efficacy and toxicity.
Finally, in order to increase the throughput we are developing a semiautomatic platform which will allow us to screen molecules on up to 12 biochips in parallel.
Légendes
1 - Visualization of the microfluidic system as well as the different biosensors integrated to the biochip.
2 - A semi-automatic system was developed where molecules to be tested are placed within standard microplates.
• The development of our “MultiOrgans-on-a-Chip” will significantly contribute to the reduction and replacement (3R’s) of animal experiments.
• The proliferation and the cell growth in three-dimensional structures will give us unique opportunities to observe selected cell behavior under normal or pathological conditions. This knowledge will likely enable meaningful advances in tissue engineering to design functional bionic systems that will be used in regenerative medicine.
• There is clearly a need for more predictive in vitro systems for the pharmacy industry (to decrease the attrition rate of new drugs), toxicology, and food companies. We have already received positive feed-back from our industrial partners to accept this kind of new technologies.
• In collaboration with Prof. KH Krause, we have created a start-up company Neurix S.A (a spin-out of the University of Geneva and hepia) that will offer services to pharmaceutical or food companies to assess the beneficial and detrimental effects of novel drugs or natural products (mandates).
• We have recently received a funding from the CTI to develop a specific assay that will open up new avenues for applied research as well as for the commercialization of this technology.
L’institut d’ingénierie Informatique et des Télécommunications (inIT) regroupe des chercheur-e-s d’hepia opérant dans les domaines de l’informatique et des télécommunications. Ses activités s’articulent autour de l’informatique dite à grande échelle. En effet, qu’elle soit visible ou intégrée dans un processus industriel, l’informatique se trouve distribuée par nature. Ainsi, les systèmes informatiques sont de nos jours souvent composés de plusieurs « sites » (processeurs, capteurs, ordinateurs, émetteurs, etc.) reliés en réseaux, caractérisés par une distribution géographique étendue, une disponibilité partielle, une hétérogénéité et mobilité des composants.
L’une des particularités des systèmes informatiques à grande échelle est la quantité considérable d’informations stockées, échangées et traitées. Dans ce contexte, trois mots-clés sont à retenir : fiabilité, sécurité et performance.
Cette vision globale des systèmes informatiques à grande échelle est le fil conducteur des projets proposés et menés par inIT.
Plus spécifiquement, inIT regroupe également des compétences en :
• systèmes embarqués et temps réel ;
• systèmes distribués à grande échelle ;
• interaction société-machine.
Les Technologies de l’Information et de la Communication (TIC) sont au service des autres sciences et domaines. inIT attache un intérêt particulier au développement de collaborations avec des partenaires académiques et industriels opérant dans des secteurs autres que les TIC. Dans ce contexte, inIT peut vous aider dans l’intégration de la composante TIC dans votre projet en faisant appel, si besoin est, à d’autres compétences HES-SO ou autres.
Nabil Abdennadher Professeur HES, Responsable institut inIT nabil.abdennadher@hesge.ch
ACTIDOTE is an ongoing multidisciplinary project funded by the University of Applied Sciences Western Switzerland (HES-SO)*.
It gathers together data scientists, embedded systems designers, biomechanics experts and human motricity experts, with the objective of exploiting on-body and wheelchair-mounted wireless sensors (e.g., inertial measurement units and strain gauges ; see figure opposite) to come up with a physical activity measurement system for disabled people using wheelchairs.
• A prototype of the system integrating wearable and wheelchair-attached sensors.
• A tablet application for feedback visualization.
Physical inactivity has been identified as a major contributor to the exacerbation of physical illnesses. The World Health Organization identified it as the fourth leading risk factor of global mortality after high blood pressure, tobacco use and high blood glucose. Therefore, in recent years, many actions against inactivity have come to the fore. For instance, diverse pedometer devices have been developed to help people reach certain physical activity goals, like walking 30 minutes per day. However, an equivalent clear recommendation for disabled people using wheelchairs is missing and the few studies that have dealt with this issue concluded that current commercial physical activity measurement devices are not appropriate for them.
ACTIDOTE is based on a « divide and conquer » approach, which consists on assessing energy expenditure following physical activity type classification. Activity type recognition contributes to the automatic segmentation of the day into light, moderate and vigorous-intensity activities, which can be used by caregivers to monitor the evolution of mobility during rehabilitation, or by the person herself, as a feedback. The system will also allow the integration of further sensors to monitor hear rate, skin conductance, etc.
* Team : University of Applied Sciences Western Switzerland (HES-SO) : Vaud (HEIG-VD), Geneva (hepia) and Lausanne (HESAV) sites. Project coordinator : Prof. A. Perez-Uribe (http://ape.iict.ch), from the Institute for Information and Communication Technologies (http://iict.heig-vd.ch), HEIG-VD.
Embedded systems are generally small systems with wireless communication. One of the main challenges of these stand-alone devices is to ensure effective communication despite their small size and very low power requirements. To meet the growing needs of outdoor embedded systems, we have developed an antenna specially adapted to this environment and therefore to the materials present in it.
In the case of a connected watch, we had to solve two important problems. The first was the weight and thickness constraints imposed by the manufacturer to install a high-performance antenna, the second was related to the time needed for the watch to be synchronized with the GPS signal.
To solve that, we decided to design a specific methodology and used microwave solution. This is why 3D MID (Molded Interconnect Devices) techniques were implemented to fulfill the weight and thickness constraints for this round watch.
While designing the new antenna we decided to take into account watch materials and shape. We opted also for monopole antenna on 3D polymer substrate which matches with a round watch.
• The first important step is to know precisely the dielectric constants of all materials around the antenna at the frequency of use, in this case GPS.
• The second step is to design an antenna (Picture 1) in the available space and evaluate its performance by simulation. Then it must be physically realized, and its characteristics experimentally verified.
As our simulation software was initially limited, we chose to focus on the importance of electronic details. In particular we focused on the vias of the electronic board to optimize the number of meshes and simulation times. Thus, we evaluated that taking into account the vias had no impact on the results by more than 1% due to the distance with the antenna. The same is true if the signal tracks are replaced by a solid conductive plate.
As the 3D plastic substrate is round, we bent the monopoly on it. Its largest dimension is 20 mm. We then folded the antenna to obtain a frequency of 1.575GHz and adapted it so that at least 2/3 of the energy is transmitted (reflection coefficient threshold at -10dB).
Electrical length of conductive part is 39.38 mm which could be too short to get an efficient antenna, but we used astuteness to lengthen electrical dimension. Antenna resonant frequency is centered at 1.575 GHz and impedance matched at 50Ω with -18dB reflection coefficient; its bandwidth at -10dB from 1.5648 to 1.5828 GHz. Radiation pattern (Picture 2) looked like a monopole one; gain and efficiency are still acceptable, even if antenna is miniaturized: respectively -0.27dB and 67%.
We finally realized it in LDS (Laser Design Structuring) (Picture 3) and measured different versions of it in an anechoic chamber (Picture 4). The experimental results confirmed simulation ones.
Legends
1 - Environment taken into account (watch)
2 - Simulated gain in close environment
3 - Different designs of realized antennas
4 - Antenna’s measurements in anechoic chamber
5 - Mechanical impact
©Delphine Bechevet
We solved mechanical problems with EM solution. Indeed, first watch version was too thick and heavy because of ceramic shape and weight. By evaluating antenna close environment, we managed to build a dedicated 3D, small and light antenna. We validated this methodology (Picture 5). More than that, this antenna is more efficient than the first one.
We used CST Microwave Studio for 3D design and electromagnetic simulations.
We also used an anechoic chamber to measure antenna’s parameters.
Scientific studies on infants show a strong improvement in pronunciation and speech when speech practice begins as early as possible. Unfortunately, hard of hearing newborns cannot undergo cochlear implant surgery until six months after birth. Therefore, we have developed the Ra&D project FunSpeech, a serious game that aims to help young implanted children to improve their speech production abilities through frequent practice. FunSpeech has been carried out with good preliminary results in a control population of normal hearing children, indicating that it has the potential to successfully fill the gap in applications targeting speech production skills in young children with hearing implants.
• FunSpeech provides a fun and engaging experience that motivates children to practice their speech independently and as often as possible.
• No other serious game addresses the issue of promoting speech production in young children with hearing disabilities.
• The game is adapted to cognitive abilities of very young children.
• FunSpeech presents an innovative educational approach since each voice activity is directly translated into visual responses in games, so that the child receives an immediate and direct visual feedback.
The cochlear implant (CI) is a device that restores hearing by electrically stimulating the auditory nerve. Successful rehabilitation with a CI requires acoustic stimulation and training, especially for young children. Therefore, children should attend an intensive speech therapy after implantation.
FunSpeech is a serious game aimed at the unaddressed population of very young implanted children (2-4 years old). It intends to motivate these children to practice their speech production skills as often as possible.
Five mini-games working on different parameters necessary for accurate voice production have been created. They are designed to address the sound parameters required for the controlled production of speech: intensity, rhythm, pitch and phoneme construction. Dedicated signal processing and algorithms have been developed to:
• detect the presence of a meaningful sound of a given duration;
• classify the volume and frequency of a sound;
• identify phonemes.
It is interesting to note that the algorithm used for phoneme recognition mimics sound processing strategies commonly used in CI. To study and analyze the children’s progression, clinical data are automatically extracted and collected.
The use of educational games has proven to be an effective treatment strategy in populations with disabilities. Indeed, clinicians and manufacturers of cochlear implants have begun to develop mobile game-based applications to support patients achieving optimal outcomes. However, speech production and very young children have received very little attention from the field. Promising preliminary results show that FunSpeech has the potential to successfully fill this gap. In addition, the strategy used in this innovative solution could potentially be extended to other areas, such as the promotion of communication skills in various syndromes.
Glück, Sébastien Chassot, Steven Liatti, Maëlys Le Magadou, Gregory Valentini, Marielle Deriaz, Mireille Bétrancourt, Angelica Perez
Florent Glück, Laurent Gantel, Fabien Vannel, Andres Upegui, Alexandre Duc, Lucie Steiner
HERVA is a FPGA-based hardware platform to validate and post-process multiple true random number generators sources. We devised a hardware implementation of a provably secure postprocessing algorithm which improves random number quality while maintaining high data throughput. A platform providing hardware acceleration was implemented to validate the generated numbers through statistical tests and to improve randomness. The platform is modular and targets both IoT devices and back-end servers.
• The FPGA-based hardware platform can validate an entropy source (generated numbers) through x2 and SP800-90B online statistical tests.
• The platform is able to improve the entropy source’s randomness by using AIS-31 or SPRG post-processing hardware cores.
• Any entropy source can be added to the post-processing and validation platform.
• The platform is modular and can be adapted to both IoT edge devices and back-end servers.
HERVA is a fully functional and configurable, FPGA-based, validation platform for true random number generators. This hardware platform offers both online tests to validate random numbers on-the-fly, and post-processing cores to enhance the entropy of the final output.
Moreover, a novel hardware implementation of SPRG, an efficient and proven safe post-processing algorithm is implemented. This hardware module has the benefit of improving the output randomness while providing high throughput. The use of a seed ensures higher security for the generated numbers and the throughput of the module allows to regularly renew this seed to keep high quality numbers.
We tested our platform using the Dieharder software suite which offers a wide range of statistical tests. We showed that after performing the SPRG post-processing on the IDQ Quantis source, the generated bits successfully pass most Dieharder statistical tests.
The proposed platform allows users to continuously test the entropy source’s generated bits and remove the bias to improve their quality. In addition, the modularity of the architecture eases the process of tailoring the hardware to system constraints and desired entropy. Consequently, it allows designers to find the best trade-off between available resources and random numbers quality.
Andres Upegui, Fabien Vannel, Diego Barrientos, Joachim Schmidt, Quentin Berthet, Christian Abegg
SOMA est un projet de collaboration entre HEPIA, les Universités de Nice et Lorraine et l’INRIA-Bordeaux qui vise à développer une machine de calcul avec des propriétés d’auto-organisation en s’inspirant du fonctionnement du cerveau. La plateforme SCALP, un ensemble de FPGAs et processeurs avec une topologie en 3D, a été conçue dans le but d’évaluer des mécanismes d’auto-organisation sur des machines cellulaires. Des algorithmes basés sur des cartes auto-organisatrices cellulaires sont à la base des propriétés d’auto-adaptation.
Projet de recherche novateur, qui vise à construire une machine de calcul sans précédents.
Avec des capacités de calcul distribué et possédant des liens de communication dédiés à très haute vitesse, la plateforme SCALP s’inspire de la nature dans sa topologie cellulaire, mais aussi dans le type de calcul effectué qui se base sur des réseaux de neurones artificiels.
L’augmentation de l’intégration des transistors au cours des dernières années a atteint les limites des architectures classiques de Von Neuman. En changeant de paradigme, en passant à un modèle parallèle, ces technologies ont permis une large adoption d’architectures massivement parallèles dans de nombreux domaines applicatifs. Néanmoins, l’un des grands problèmes de ces processeurs parallèles est la conception et le déploiement d’applications qui ne permettent pas une utilisation optimale du matériel disponible. Cette limite est encore plus aiguë lorsque l’on considère les domaines d’application où le système évolue dans des conditions inconnues et incertaines telles que la robotique mobile, l’IoT, les véhicules autonomes ou encore les drones. Dans ces cas de figure, il est impossible de prévoir l’ensemble des contextes possibles auxquels le système sera confronté pendant sa durée de vie, rendant ainsi impossible l’identification d’un substrat matériel optimal à utiliser.
Le premier défi consiste à étendre les mécanismes habituels d’autoorganisation aux niveaux des calculs et des communications dans une architecture matérielle neuromorphique. Le deuxième défi consiste à prouver la faisabilité d’une auto-organisation structurelle matérielle. Le troisième défi consiste à coupler ce nouveau paradigme de calcul à une architecture parallèle conventionnelle.
Cette architecture se concrétise sous la forme de la plateforme SCALP. Entièrement conçue à HEPIA, SCALP est une structure scalable en 3D composée de plusieurs FPGAs Zynq contenant chacune 2 cœurs ARM A9. Une topologie de connexion cellulaire en utilisant des liens sériels jusqu’à 6.25 Gbps permet de garantir des débits de transmission très élevés et complètement scalables lorsqu’il s’agit de l’utiliser pour le calcul d’algorithmes également de nature cellulaire.
Benoît Miramond (U. Nice), Bernard Girau (U. Lorraine) et Nicolas Rougier (INRIA-Bordeaux).
WEAZARD is a WEArable system to overcome potential haZARDs while going out with children. It is based on wearable devices and a smartphone as the master device. The smartphone collects information from surrounding children via Bluetooth LE and generates alarms when a child is out of reach. Moreover, devices can relay information from remote nodes to other wristbands and to the smartphone. Childminders can thus track and visualize the group of children on the move.
• Design and development of compact and low power sensing and communicating systems.
• Design and deployment of distributed and efficient relative localization algorithms.
• Bluetooth LE stack and protocol implementation.
• Android application visually representing children relative location as a graph or a tree.
We developed a set of wearable wristbands endowed with BLE communication, motion sensors, stress sensor (GSR), and providing the possibility of recharging batteries through a Qi wireless charging system. In contrast to existing systems, WEAZARD allows for relative positioning in indoor environments where GPS is not available. Sensor data allow to detect anomalous behavior in children, while the BLE communication in the form of a beacon permits to detect the absence of a child. Moreover, each beacon embeds information about remote nodes in order to describe a view of all the nodes in the network in the form of a graph.
We proposed and deployed two algorithms to properly deal with this information with the objective of estimating the relative localization of nodes and the proximity of out-of-sight users to other users. These algorithms are : DiscoveryTree [1] and a gossip protocol based on a principle called « rumor mongering ». Such a system can be used by childminders or families while going out in the city (e.g., taking the subway, visiting a museum, a mall, etc) or attending a large public event (e.g., Comptoir Suisse). Other applications that can easily take advantage of this service are : points of interest location, entertainment (based on local interactions, dating, friend finding), indoor object localisation, etc.
The WEAZARD system is compatible with estimote beacons. These are small low power devices which can broadcast information for several months without changing their battery. The beacon technology opens the door to new applications in the domain of indoor localization and it is expected to gain a lot of interest in the following years. As an example, the Gatwick Airport has recently been equiped with more that 2000 beacons.
Non-IT SMEs often stay away from public clouds because they cannot quantify the financial gain of using these new technologies. The PAChA project has two goals :
1. to develop a new type of private cloud appliance (portable, inexpensive, selfmanaging and secure) and monitor the resources used by various applications running on it;
2. to develop tools to estimate the potential savings (based on a pricing model) when deploying applications on our private cloud, public or hybrid cloud.
The key strengths of this project are threefold.
First, we diversify our (HES-SO, hepia) portfolio of applied research activities by exploring areas more directly connected to the Swiss economy (i.e. the start-up SixSq).
Second, we provide Swiss SMEs with an easy and inexpensive way of using cloud computing technologies, thereby addressing one of their main concerns in IT.
Third, we solve a real-life problem by cooperating with a local startup.
Cloud computing is gradually becoming the de facto standard for doing IT. Its key benefits are the reduction of IT infrastructure costs and improved agility. Many non-IT Small and Midsized Enterprises (SMEs), however, have been left out of this evolution, primarily due to cost and privacy concerns. The goal of the PAChA project is to address this technological gap, especially for Swiss non-IT SMEs. From a business point of view, the key benefits of this project are twofold :
1. Provide non-IT SMEs with an easy and inexpensive way of using a private cloud.
2. Help them leverage the advantages of a hybrid cloud by assessing how much they would save by migrating some of their applications to a given public cloud (e.g., exoscale in Switzerland or Amazon Web Services in the U.S.).
From a scientific/technical point of view, the key innovation of this project is to design and develop a portable cloud appliance with the following characteristics:
1. It is self-managing (autonomic system) and can therefore work in turn-key mode, without any system administrator.
2. It is secure (embedded firewall).
3. It monitors the activities of all the applications running on it.
4. It assesses the cost of running each application on different public clouds.
5. It provides customers with a dashboard showing which applications would cost less if they were migrated to a public cloud (based on a pricing model), and what financial gain could be expected by doing so.
A decision support system (DSS) has been developed in the PAChA project. This DSS is based on a cost-optimised cloud application placement tool and a Resource Consumption Model (RCM) that were designed within the PAChA project. The ultimate goal of this DSS is to optimize the placement of an application based on price. The DSS is available on this URL: http://lsds.hesge.ch/coca.
Two types of validation experiments were conducted to validate the PAChA project :
1. Calculators : Some cloud providers have pricing calculators to assess the cost of launching services on their cloud (i.e. Amazon, Google, Microsoft). We can then compare this assessment with the cost provided by COCA-PT. This experiment is straight-forward, it has the advantage of estimating the costs before any deployment. However, it has three main disadvantages : (1) most providers do not offer a pricing calculator, (2) calculators only offer estimations, and (3) this approach is theoretical as it does not use real data.
2. Usage Bills : The idea is to deploy an application within a certain context on a particular cloud infrastructure. Then, compare the cost provided by COCA-PT with the amount of the cloud provider’s bill. In this context, two cloud providers have been used as a target platforms : Amazon AWS and Exoscale.
The goal of iCeBOUND is to design and develop a Decision Support System (DSS) that leverages 3D digital urban data to facilitate environmental analyses in cities. iCeBOUND aims at providing :
1. innovative tools for analysing fine-grained satellite images, and
2. decision-makers with relevant indicators for city planning and energy management.
Two use cases are considered in the scope of this project : solar energy potential and Global Navigation Satellite System visibility.
iCeBOUND is a research project funded by the Swiss Commission for Technology and Innovation (CTI).
It involves several partners :
1. University of Applied Sciences and Arts, Western Switzerland (HES-SO), hepia
2. European Centre for Nuclear Research (CERN)
3. Water and electric power provider of Geneva (SIG)
4. Geneva Canton
5. Arxt-IT
The “diversity” of partners shows the importance of the project and its multi-disciplinary aspect.
Cities of developed countries are nowadays increasingly digitized as 3D urban numerical models. However, the use of these models as a technological support for different applications related to the fields of environment, energy and urban planning, remains underused. The assessment of solar potential (solar mapping) and the estimation of satellite visibility, underlined here as solar energy potential and Global Navigation Satellite System (GNSS) visibility respectively, are two types of applications based on the computation of 3D urban numerical models. The main goal is to use each of these applications for different stakeholders, such as :
1. Local authorities, considering their distinct needs and purposes;
2. Industrial and energy companies doing business at a local level;
3. Surveying companies that use GNSS for topographical measurements in densely populated urban areas.
The extraction of three-dimensional spatial indicators adjusted to both applications represents a great research challenge. This research has been conducted using different methods of data aggregation. Indeed, the use of these particular spatial indicators allows a more refined analysis of the urban fabric and guarantees that output results are adjusted to end-user needs.
The goal of the “Cloud Based Design Support System for Urban Numeric Data” (iCeBOUND) project is to design and develop a Decision Support System (DSS) that leverages 3D digital urban data to facilitate environmental analyses in cities. iCeBOUND aims at providing decision-makers with relevant indicators for city planning and energy management.
Although both applications (solar energy potential and GNSS) are very different in terms of functionality and targeted market, the algorithm they use is the same : the Shading Algorithm (see Figure). This algorithm is memory and CPU time consuming.
1 -Solar energy potential of roofs and facades
2 -The Shading Algorithm
Cities play an increasingly important role regarding energy transition. The main goal is to reach international and national (Swiss) targets related to energy efficiency and CO2 emission reduction. As a contribution to these global challenges, during the last 6 years, the State of Geneva has produced a detailed solar cadaster. The iCeBOUND project has been launched in order to facilitate periodical updates of this solar cadaster.
The computing resources used to experiment iCeBOUND are based on cloud infrastructures : Amazon Web Services (AWS), SWITCHEngines and Amazon Elastic MapReduce (EMR). These infrastructures are chosen according to :
1. The ease of availability in the case of AWS;
2. The possibility to obtain a customised “configuration” in the case of SWITCHengines.
This CTI-project consists in developing a prototype of a digital environment to offer different interactive scenarios for museum guests. It means a way to play with events that will initiate interaction through actuators. A number of nodes will generate events under the upper level view of SHARED VARIABLES. Those shared variables simply mean a value corresponding to a stimulus from a sensor, an answer analysis of many sensors, delayed acquisition, filtering or whatever could be useful for a scenario to be played.
A node can have 3 different hardware architectures, all of them running Linux. They can be a Raspberry Pi, an FPGA based on Cyclone V with hardcore processors or a small PC. The FPGA allows to design almost every hardware control system that we could imagine.
With this node architecture it is easy to develop new extensions for specific needs of data manipulations.
Nodes can be uniquely identified.
Based on developed scenario designs, some specific boards have been realized.
Many different players were involved in the analysis and development of the system :
• Three museums, Swiss Open Air Museum Ballenberg, Roman City of Augusta Raurica, Museum der Kulturen Basel took part in the project. They proposed the scenarios. The partners adapted the implementation to the museum’s specific needs.
• The development partners, Atracsys, Fabritastika, Projektil, formed a joint venture : they implemented scenarios from ideas in collaboration with the museums. They have knowledge in programming and competences for the system design and extension. They sell the system’s hardware and low level software.
• In the conception and development phase of the product, two Universities of Applied Sciences, HES-SO / Haute école du paysage, d’ingénierie et d’architecture (hepia), and FHNW-HGK / Institute of Experimental Design and Media Cultures (IXDM) were responsible for the full development of the architecture and design development for scenarios, hardware and software.
One of the main needs was to get a distributed system. It could be the size of a small area or of an entire building. Thus, it has to be scalable. The system has to be easily built, maintained, extended and programmed. The global architecture is composed of :
• A Content Management System (CMS) on a server anywhere in the world, accessible through Internet. It contains the data base for the software version of all the nodes, the scripts and the specific hardware configuration.
• The nodes are the units where the sensors and actuators are connected. They have to be interconnected on the same Local Area Network (LAN) by wire cable Ethernet (recommended). WiFi connection could be used but need broadcast of data transmission. The number of nodes is limited to the number of elements that the Ethernet network can support in a single branch.
The prototype of the full system has been developed with FPGA (Field Programmable Gate Array) boards based on ARM SOC-FPGA CycloneV and specific designed extension boards depending on the different scenarios needed. Many tests with the partner’s museum have been carried out. Both, the analysis of the public reactions and the way the system was installed, help to specify the new architecture. This work was conducted in collaboration with the main partner Atracsys for the hardware and the infrastructure design.
To set up the whole system, it is necessary to use a PC acting as a content management system. It needs to be powerful enough to contain all the data bases and scenarios with fast response time. For each group of sensor-actuator, a universal board based on an FPGA or a Raspberry Pi or a small PC is necessary. Those units are connected through a local Ethernet network with the highest bandwidth available. All the messages are broadcasted on this network. The next level is the implementation of the requested sensor as infra-red camera, presence detection, light measurement, sound detection or actuators as display, DMX512 projectors, sound generation, video generation, etc.
Ce projet d’étude sur l’écoconduite a été réalisé en collaboration avec les Transports Publics Fribourgeois (TPF). Les campagnes d’essais menées sur un véhicule diesel EURO 6 ont permis de valider l’impact de la conduite du conducteur sur la consommation de carburant et d’étudier les différents paramètres permettant l’identification de la qualité d’une conduite telles que les bonnes et mauvaises conduites.
• Système embarqué pour l’acquisition des paramètres de conduite et de confort.
• Géolocalisation et corrélations avec les données de charges passagers, retard et profil du parcours.
• Modélisation du véhicules et analyses mathématiques comparatives.
• Identification des paramètres de l’éco-conduite à respecter par le conducteur selon sa position sur le parcours.
• Estimation du potentiel d’économie global de carburant
La pré-étude réalisée s’inscrit dans un projet de développement d’un système embarqué innovant permettant la mesure dans des bus thermiques de différents paramètres relatifs à l’évaluation de la conduite. L’objectif est de permettre d’une part aux conducteurs des véhicules d’obtenir une évaluation de leur style de conduite en termes d’écoconduite et d’autre part à l’exploitant espérer réduire la consommation de carburant et augmenter la durée de vie des consommables, tels que les plaquettes de freins.
Le projet se décompose ainsi :
• Installation dans un véhicule d’un système embarqué de mesure et d’acquisition intégrant la localisation du véhicule par GPS, la mesure des paramètres de conduite provenant du bus FMS, les données de confort provenant d’une plate-forme inertielle.
• Réalisation de plusieurs expériences de conduite et analyse des données afin de déterminer les situations « non éco-drive ». Identification des évènements tels que : accélérations rapides ; freinages brusques ; freinages dans les virages ; rapport utilisé en fonction de la vitesse ; utilisation du ralentisseur et mise en relation avec la mesure de la déclivité.
• Réalisation d’une étude comparative à bord d’un véhicule d’exploitation utilisé par différents conducteurs tenant comptes des paramètres, tels que charge de passagers, circulation, retard, conditions météorologiques.
Cette étude a permis de démontrer une différence de comportement de conduite entre plusieurs conducteurs réalisant le même parcours dans des conditions similaires de l’ordre de plusieurs dizaines de pourcents de consommation de carburant dues au style de conduite des conducteurs.
L’adoption d’une culture d’entreprise autour de l’éco-conduite pourrait vraisemblablement diminuer les consommations de carburants et augmenter le confort de conduite des usagers tout en garantissant l’horaire.
Légendes
1 - Séparation de la consommation selon un seuil de vitesse fixé à 15 km/h.
2 - Mise en évidence de la tendance de consommation pour une conduite éco-drive (21:25).
3 - Tendance de consommation pour une conduite peu recommandable selon les standards éco-drive (6:23).
4 - Comparaison des consommations pour les conduites réalisées par deux conducteurs dans des conditions similaires.
ACTIDOTE is an ongoing multidisciplinary project funded by the University of Applied Sciences Western Switzerland (HES-SO)*.
It gathers together data scientists, embedded systems designers, biomechanics experts and human motricity experts, with the objective of exploiting on-body and wheelchair-mounted wireless sensors (e.g., inertial measurement units and strain gauges; see figure opposite) to come up with a physical activity measurement system for disabled people using wheelchairs.
• A prototype of the system integrating wearable and wheelchair-attached sensors.
• A tablet application for feedback visualization.
Physical inactivity has been identified as a major contributor to the exacerbation of physical illnesses. The World Health Organization identified it as the fourth leading risk factor of global mortality after high blood pressure, tobacco use and high blood glucose. Therefore, in recent years, many actions against inactivity have come to the fore. For instance, diverse pedometer devices have been developed to help people reach certain physical activity goals, like walking 30 minutes per day. However, an equivalent clear recommendation for disabled people using wheelchairs is missing and the few studies that have dealt with this issue concluded that current commercial physical activity measurement devices are not appropriate for them.
ACTIDOTE is based on a « divide and conquer » approach, which consists on assessing energy expenditure following physical activity type classification. Activity type recognition contributes to the automatic segmentation of the day into light, moderate and vigorous-intensity activities, which can be used by caregivers to monitor the evolution of mobility during rehabilitation, or by the person herself, as a feedback. The system will also allow the integration of further sensors to monitor hear rate, skin conductance, etc.
* Team : University of Applied Sciences Western Switzerland (HES-SO) : Vaud (HEIG-VD), Geneva (hepia) and Lausanne (HESAV) sites. Project coordinator : Prof. A. Perez-Uribe (http://ape.iict.ch), from the Institute for Information and Communication Technologies (http://iict.heig-vd.ch), HEIG-VD.
La détection d’évènements s’effectue à l’aide de capteurs associés à leur électronique de traitement. On parle alors d’objet intelligent communicant sans-fil. Dans un souci de portabilité, il est plus aisé que la communication s’effectue de manière sans-fil.
La RFID permet l’identification sans-fil et de manière unique de l’objet qui porte une étiquette (tag) RFID. Nous proposons d’exploiter les caractéristiques de l’antenne du tag RFID.
• Léger
• Eco-conçu, sans batterie
• Performances de l’antenne
• Miniaturisation
• Intégration de QR-code
Nous avons utilisé la technologie RFID passive sans batterie. Dans ce cadre, nous avons volontairement conçu une antenne UHF pour tag RFID présentant un diagramme de rayonnement spécifique : lorsque l’antenne est horizontale, le tag est lu tandis que lorsque l’antenne est verticale, le tag n’est plus lu.
Nous avons opté pour une application de détection d’ouverture de bouteille. Pour ce faire, nous avons donc miniaturisé l’antenne aux dimensions 19x19 mm2 et l’avons intégrée dans un polymère dès la conception.
Petit clin d’œil à la traçabilité : nous avons modélisé l’antenne sous forme de codes-barres 2D.
Légendes
1 - Fractalisation d’antennes de détection et son bouchon.
Image © C. Catusse et D. Bechevet.
2 - Antennes de détection réalisée et leurs bouchons.
Image © D. Bechevet et D. Shatri.
3 - Principe de fonctionnement : bouchon fermé, tag lu-bouchon ouvert, tag non lu. Image © D. Bechevet et D. Shatri.
Pour lutter contre les lectures pirates et non souhaitées, nous proposons, un tag RFID « multi-touch » se présentant comme un clavier. Ces travaux s’inscrivent dans le prolongement de ceux visant à mettre en place un tag activable « on-demand ». Ce système permet de rendre le tag RFID UHF lisible uniquement au contact du doigt de l’utilisateur.
• Amélioration de la sécurité de l’authentification.
• Faible coût de fabrication.
• Applications possible dans un grand nombre de domaines, dont ceux déjà existants.
Ce travail propose une réponse à la Recommandation européenne de 2009, qui enjoint, entre autres, que la vie privée de tout porteur de tag RFID doit être protégée.
La solution envisagée par la Commission européenne est de proposer à l’utilisateur de détruire son tag gratuitement. La réponse proposée par ce projet est moins destructive : une activation à la demande du tag lorsque l’utilisateur l’autorise.
Ce concept exploite la faculté des antennes à modifier leurs propriétés au contact du corps humain. Utilisé correctement, ce phénomène permet d’envisager une antenne activée par contact, sans autre(s) élément(s) que l’antenne elle-même.
Le phénomène a déjà été démontré dans différentes publications antérieures. Ici, nous élevons le niveau de sécurité en concevant un système, qui déverrouille une application si et seulement si l’utilisateur « touche » l’antenne à des endroits ciblés et dans un ordre précis.
Ce document est le compte-rendu d’une recherche menée sur ce concept.
Ce projet de passerelle de gestion énergétique des bâtiments EMG4B vise à concevoir un environnement capable d’héberger des services énergétiques dédiés aux bâtiments. Le projet s’inspire de l’écosystème des smartphones : les applications sont découplées de la plateforme sous-jacente. Elles peuvent être ajoutées ou supprimées à la volée. Des modèles abstraits et des interfaces logicielles permettent aux applications d’accéder aux ressources périphériques de la plateforme de manière uniforme.
• Optimisation énergétique de tout type de bâtiment.
• Intégration « plug and play » de nouveaux équipements dans des stratégies de gestion énergétique pré-existantes.
• Format de données homogène permettant d’abstraire la complexité de l’exploitation des capteurs et actuateurs.
Une meilleure efficience énergétique des bâtiments aura un impact important sur le système énergétique, car les constructions comptent pour environ 40% dans la consommation d’énergie globale. Leur performance peut être améliorée de trois manières différentes : amélioration de l’enveloppe, amélioration du contrôle énergétique et responsabilisation des utilisateurs du bâtiment. Le présent projet concerne prioritairement l’aspect du contrôle énergétique, mais il fournit également des informations susceptibles de changer le comportement des utilisateurs.
Deux défis doivent être relevés pour permettre le déploiement à large échelle de tels systèmes de commande :
• Des stratégies appropriées de gestion distribuée doivent être définies;
• Une infrastructure d’hébergement « plug and play » peu onéreuse doit être disponible.
La passerelle EMG4B est un dispositif électronique bon marché capable d’accueillir de nombreuses applications dédiées à la gestion énergétique. Cette plateforme fournit aux applications une vue abstraite des ressources. Les applications interagissent avec les utilisateurs du bâtiment au travers d’interfaces web indépendantes (smartphone, tablette, PC, ...). Une application peut dès lors gérer des équipements (pompe à chaleur, volets roulants, convertisseur photovoltaïque, etc.) par l’intermédiaire des ressources correspondantes.
Ce projet propose une plateforme matérielle et logicielle intégrant différentes technologies existantes pour le monitoring d’événements à l’aide de capteurs distribués et mobiles. Un gateway permet de connecter différents capteurs environnementaux afin de les rendre accessibles sur le web au travers d’un data model. Ce dernier homogénéise l’accès à ces capteurs par le biais de données sémantiques. Dans le contexte de la surveillance de personnes, un smartphone sert d’interface à un ensemble de capteurs physiologiques portables.
• Architecture mixte exploitant différentes technologies matérielles : Bluetooth Low Energy, Ethernet, KNX, USB, etc. ainsi que solutions logicielles : Android Wear, MQTT, API RESTful, etc.
• Démonstration dans le cadre d’une application d’aide à la personne pour des patients hébergés dans un établissement médico-social.
L’objectif de ce projet est de proposer une plateforme matérielle et logicielle intégrant différentes technologies existantes pour le monitoring d’événements à l’aide de capteurs distribués et mobiles.
Archsensor se résume ainsi :
• Conception d’une plateforme matérielle distribuée pouvant accueillir les différents types de capteurs existants issus du monde de l’Internet des Objets. La solution réalisée est une plateforme capable d’homogénéiser au niveau matériel l’accès à différentes ressources provenant de protocoles filaires (KNX, Ethernet, Modbus, RS485, I2C... ) ou sans fil (RFID, Bluetooth, Z-Wave...).
• Développement d’un data model permettant d’homogénéiser l’accès aux capteurs par le biais de données sémantiques rendues disponibles au travers d’une API RESTful.
• Intégration d’un ensemble de capteurs physiologiques portables permettant de surveiller différents paramètres sur une personne et développement de capteurs sur mesure, tel qu’un système portable de mesure du niveau de stress.
• Liaison entre des utilisateurs et des gateways permettant le développement simple et performant d’applications interactives entre des utilisateurs et leur environnement.
Le projet Archsensor peut être appliqué dans différentes situations, telle que la surveillance de foules ou de personnes. La démonstration proposée est un système d’aide à une personne en établissement médico-social (EMS). La nuit, une montre de type smartwatch portée par le patient détecte si ce dernier se lève de son lit pour se rendre aux toilettes. Si la luminosité est insuffisante, un éclairage s’allumera pour assister la personne. En cas de chute, une alarme sera immédiatement transmise au personnel médical.
ABAplans est un ensemble de dispositifs informatiques interactifs multimodaux (visuel, auditif et tactile) permettant aux personnes souffrant d’un handicap visuel de se représenter l’espace urbain et de préparer leurs déplacements. Les fonctions multimodales du dispositif associent de manière très précise le relief aux informations auditives ; les yeux sont donc remplacés par le doigt et l’oreille. Grâce à ce système, les personnes aveugles peuvent consulter des plans de manière autonome.
ABAplans est un système générant automatiquement des plans de différentes natures à partir des données du cadastre. Trois types de plans correspondant à trois nouvelles façons de représenter le territoire ont actuellement été développés. En parallèle, plusieurs fonctionnalités ont été créées afin de consulter le plan, de rechercher une adresse ou un itinéraire. Le système est complètement ouvert, il est donc possible d’ajouter soit des modes de représentation, soit des fonctionnalités.
Actuellement, deux applications ont été développées et sont opérationnelles autant à Genève qu’à Neuchâtel : un éditeur de plans de carrefour à la disposition des ergothérapeutes et un plan de ville, tactile et sonore, interactif, directement utilisable par les personnes aveugles, afin qu’elles puissent acquérir une meilleure représentation de leur environnement et organiser leurs déplacements.
L’éditeur de plans de quartiers, particulièrement utile pour les instructeurs en locomotion, permet de créer automatiquement des cartes de quartier ou de carrefours personnalisables en choisissant deux rues dans une fenêtre de saisie et en précisant la taille du plan souhaité. La carte ainsi générée indique très précisément les rues, bâtiments, parcs, trottoirs et îlots. Il est ensuite possible d’ajouter d’autres éléments selon les besoins de l’utilisateur.
La fabrication des plans se déroule en quatre étapes :
1. L’utilisateur choisit deux rues, qui ont un carrefour en commun ; celui-ci se retrouvera au centre du plan. Il choisit ensuite une échelle ;
2. à l’aide de l’éditeur, l’utilisateur peut modifier le plan ;
3. impression du plan sur du papier thermo-gonflable avec une imprimante tout à fait traditionnelle. Ce papier contient une multitude de petites bulles. Celles qui sont recouvertes de noir éclatent à la chaleur, ce qui crée le relief ;
4. passage du plan à la thermo-gonfleuse, ce qui a pour effet de mettre en relief les parties noires.
Les plans de ville interactifs constituent la partie principale du projet ABAplans, les rues sont en relief et les surfaces intéressantes (parcs publics, lacs, bâtiments remarquables…) sont texturées. L’utilisateur non-voyant peut parcourir la carte simplement en l’effleurant avec les doigts. Chaque fois qu’il veut une information, il lui suffit de presser sur le plan et une information lui est donnée. Cette information dépend du mode choisi.
• Mode Plan : chaque fois que l’on presse sur une rue ou un élément texturé, une information auditive est donnée. Ceci correspond à une découverte de la ville.
• Mode Orientation : soit une adresse peut être saisie au clavier, soit un lieu d’intérêt peut être sélectionné dans une liste. Chaque fois que l’utilisateur presse le plan, la distance ainsi que la direction au point choisi sont données. Ainsi, de proche en proche (comme le jeu « tu chauffes, tu chauffes, tu brûles… »), l’utilisateur peut trouver le lieu sur le plan.
• Mode Itinéraire : en cliquant avec le doigt sur deux carrefours différents, ou deux adresses différentes, le système donne l’itinéraire le plus court allant d’un point à l’autre.
Pour naviguer entre les différents menus, un dispositif ressemblant à la navigation sur les téléphones portables : les signes permettant de changer de menu ou de passer à un sous-menu sont les suivants : ^ < o >. Une navigation d’une carte à l’autre sans passer par la carte générale du canton a été mise en place.
Ce projet a été soutenu pendant quatre ans par la fondation Hans Wilsdorf.
Légendes
1 - Dispositif interactif complet.
2 - Editeur de plans permettant de créer des plans, puis de les modifier.
3 - Personne aveugle testant le plan interactif du centre de Genève.
4 - Procédé de création d’un plan de ville.
ABAplans a été présenté à de nombreuses reprises depuis 2008, dans différents contextes.
Quelques exemples :
• 3e Prix du concours handitec du salon autonomic, Paris, juin 2008 ;
• hôte d’honneur du congrès de l’Union Mondiale des Aveugles, Genève, août 2008 ;
• présentation à la presse (journaux et télévision), Neuchâtel, novembre 2010 ;
• présentation aux géomètres cantonaux suisses, Olten, mai 2011 ;
• présentation au symposium sur les moyens auxiliaires, HUG Genève (Hôpitaux Universitaires de Genève), septembre 2011.
Afin de faire fonctionner ABAplans, il est nécessaire de disposer d’une tablette tactile de type résistif. Deux dispositifs ont été créés en collaboration avec la société Eurotouch à Toulouse.
• Le premier système, encombrant mais léger se connecte à un ordinateur et fonctionne comme une souris ; il est principalement destiné aux institutions spécialisées ou aux personnes autonomes.
• Le second système est une borne autonome pouvant être placée dans un lieu publique protégé.
Pour créer les plans, il est nécessaire de disposer d’une imprimante traditionnelle noir / blanc et d’une thermogonfleuse qui mettra en relief toutes les parties noires.
Dans ce projet, nous avons programmé sur des cartes graphiques (GPU), utilisées comme co-processeurs de calcul, des algorithmes d’optimisation afin d’en accroître les performances. Le type d’algorithmes considérés requiert en effet d’importantes ressources de calcul. Les applications visées concernent des problèmes du domaine de la logistique tels que l’affectation d’avions à des vols ou la conception des horaires d’équipages d’une compagnie aérienne.
L’utilisation de GPU pour effectuer des calculs généraux est un domaine relativement neuf car les technologies mises à disposition par les constructeurs de cartes graphiques sont récentes. Le champ d’application est immense, en particulier celui de l’optimisation combinatoire. Nous avons implémenté des algorithmes de programmation linéaire qui interviennent souvent dans des logiciels de logistique. Les gains en performances obtenus sont importants.
Les cartes graphiques GPU (Graphics Processing Unit) sont devenues extrêmement puissantes avec le développement des jeux vidéo. Les animations nécessitent en effet de nombreux calculs mathématiques pour lesquels les GPU sont optimisées.
L’idée de tirer parti de la puissance des GPU pour faire du calcul scientifique date d’une quinzaine d’années. Cependant, depuis début 2007, on observe un engouement pour l’utilisation des GPU avec la mise à disposition par le constructeur NVIDIA de l’environnement CUDA (Compute Unified Device Architecture). Il s’agit d’une technologie de GPGPU (General Purpose Computing on Graphics Processing Units) : on utilise donc un GPU pour exécuter des calculs généraux habituellement exécutés par le processeur central. La technologie des GPGPU est récente et très prometteuse vu le parallélisme massif intrinsèque aux GPU. Il existe déjà de nombreuses librairies et applications scientifiques pour faciliter le développement de programmes sur GPU.
La bio-informatique et la logistique constituent deux domaines de prédilection pour les GPU. La protéomique et la génomique recèlent de nombreux problèmes d’optimisation combinatoire qui requièrent l’utilisation de très importantes ressources de calcul. La gestion de l’affectation de personnes et d’équipements se situe dans une catégorie similaire. C’est dans ce cadre que l’institut inIT a collaboré avec l’entreprise APM Technologies. Celle-ci développe des logiciels destinés aux compagnies aériennes qui permettent de générer le programme des vols, d’affecter les avions aux vols et finalement d’attribuer les équipages. Les temps de calcul devenant vite prohibitifs même pour des compagnies avec peu d’avions, APM Technologies s’est montrée très intéressée par une utilisation de GPU pour ses logiciels.
Dans ce projet, nous avons implémenté sur GPU des algorithmes de programmation linéaire (simplexe linéaire, Branch-and-Bound…). Les gains de performances obtenus sont importants et les tests menés sur des problèmes réels prometteurs. Nous avons également entrepris une extension sur cluster de GPU ce qui permet de traiter des problèmes de taille encore plus importante.
Encore peu d’applications commerciales incorporent à l’heure actuelle des modules implémentés avec CUDA. Or, il faut relever qu’il est trivial et très peu coûteux (quelques centaines de francs) d’ajouter une deuxième carte graphique dans un PC. De nos jours, le potentiel de la technologie de GPGPU n’est pas encore reconnu par les entreprises en mal de puissance de calcul. Un obstacle majeur à la programmation d’un GPU réside dans le fait qu’il faut adopter un mode de pensée « parallèle », ce qui n’est pas habituel chez la majorité des développeurs ; le calcul parallèle n’étant finalement que peu enseigné. Par ailleurs, la maîtrise de CUDA demeure difficile, malgré l’apparition de plus en plus d’outils destinés à faciliter le travail du programmeur. Cependant, on peut parier qu’un nouveau segment se développera dans le marché du logiciel.
Légendes
1 - Supercalculateur NVIDIA S1070 constitué de 4 GPU. Courtesy NVIDIA
Deux articles ont été publiés dans des conférences internationales (ParCo 2011 et BalCOR 2011). En outre, un article a été récemment soumis au journal Mathematical Programming and Operations Research. Par ailleurs, plusieurs travaux de Bachelor et de Master ont été effectués en lien avec ce projet, l’un d’entre-eux ayant reçu le prix Arditi 2011 d’informatique de l’Université de Genève.
Pour ce projet, nous avons fait l’acquisition d’un supercalculateur Tesla S1070 de NVIDIA constitués de quatre GPU et pouvant délivrer jusqu’à 4 Tflops en performance de pointe. Nous avons aussi utilisé un cluster de GPU du centre national suisse de supercomputing (CSCS). Pour la suite de ce projet, nous avons acheté deux supercalculateurs de NVIDIA de nouvelle génération, dénommée Fermi.
Le projet interface a permis de mettre au point des surfaces tactiles « multi-touchs » sur toutes surfaces planes, horizontales ou verticales. Basé sur le principe d’une illumination infrarouge de la surface à rendre tactile, ce dispositif est peu invasif, fiable et facile à adapter sur les murs ou tables existants. Trois écoles ont participé au projet initial (hepia, heig-vd, EIA-FR).
• Permet de transformer toute surface verticale ou horizontale en une surface tactile de grande dimension.
• Complètement multi-touch (pas de limites de contacts simultanés).
• Une très grande réactivité qui garantit une réponse immédiate au contact.
• Dimension : jusqu’à 18 mètres linéaires de mur tactile.
• Compatibilité totale avec Windows 7 / plusieurs applications réalisées.
• Coût de production très raisonnable.
Depuis 2007, le projet interface vise à transformer toute surface en une surface tactile. Nous avons acquis une très grande expérience dans ce domaine qui nous permet aujourd’hui de proposer un dispositif fiable et abouti.
La partie software du projet, dont nous étions responsables, est essentielle. En effet, le principe de ce dispositif repose sur l’illumination infrarouge de la surface. Des caméras infrarouges hautes performances repèrent le réfléchissement des doigts dès qu’il y a un contact avec la surface. Ensuite, il faut « tracker » les points de contact et les transformer en coordonnées. Il revient à la partie logiciel « bas niveau » de s’occuper de cette tâche. Puis, il faut caractériser le mouvement des points reconnus pour déterminer une gestuelle et l’associer à des fonctionnalités. Par exemple, repérer un « glisser-déplacer » par opposition à un « agrandis sement ». Cette partie, de plus haut niveau, a aussi été développée par l’équipe en charge du projet, et les résultats nous permettent de réaliser des applications professionnelles exploitant le dispositif de façon aisée.
Ainsi, nous avons développé de nombreux logiciels utilisant les caractéristiques du dispositif. Nous l’avons également rendu compatible avec Windows 7 et avec le protocole de communication tuio.
Enfin, notre système permet de connecter plusieurs caméras infrarouges et de fusionner les informations reçues. Ainsi, cela nous permet de réaliser un dispositif de plusieurs mètres de long, avec les mêmes spécificités (tactile, multipoint, et de très grande réactivité).
Légendes
1 - Application fenêtrée sur le mur tactile.
2 - Mur tactile multi-touch.
3 - Dessin sur table tactile.
4 - Googlemaps sur table multi-touch.
5 - Un contact sur la surface fait des « vagues ».
- Nombreux salons : Salon International des Inventions de Genève 2010 (Prix de l’OPI), Salon du livre, Foire de Fribourg, EFEF (2011), Nuit de la science, Innotrans (Berlin 2012), exposition itinérante du CERN.
- Création d’une start-up ncilab (www.nci-lab.com) courant 2012.
- Barre d’illumination avec des lasers infrarouges.
- Caméras infrarouges.
Ce projet a permis le développement de modules basés sur un micro-contrôleur Icycom (CSEM-Centre Suisse d’Electronique et de Microtechnique) à très basse consommation et intégrant une communication RF à 868 MHz. Ces modules sont moulés dans un bouchon et sont rechargeables par induction (collaboration CFPT-Centre de Formation Professionnelle Technique). L’antenne spécialisée pour ce module a été développée grâce à une collaboration avec l’entreprise MIND (Archamps). Les données sont récoltées à travers un relais RF-Internet et transférées sur un serveur dédié dans une base de données SQL.
Le module de base d’acquisition de données est de taille très réduite de 2 cm x 2 cm. Ces caractéristiques principales sont :
• Une communication RF courte distance ~100 m.
• 128 KB de mémoire non volatile pour les programmes et données.
• Module accéléromètre 3D intégré.
• Téléchargement de nouvelles versions de logiciel par RF.
• Extensions possibles grâce à 3 bus série (SPI, i2c, UART).
• L’alimentation est fournie par une batterie rechargeable par induction.
De nos jours, l’utilisation de systèmes permettant de communiquer partout est courante, à l’exemple du Smartphone qui nous lie pratiquement avec la planète entière où que nous soyons. La durée d’utilisation est cependant limitée.
Une autre catégorie fait actuellement de plus en plus couramment son apparition et concerne les objets communicants, que l’on nomme parfois «l’Internet des objets». Ils doivent présenter une très faible consommation, ce qui leur assure un fonctionnement autonome pendant des mois, voire des années de façon autonome. Ils diposent généralement d’une faible portée de communication. L’objectif est souvent d’effectuer des mesures locales et de les transmettre dès que possible à un serveur de données ou de générer des alarmes quant à des évènements spécifiques.
Par ailleurs, les progrès récents de la médecine se sont hélas accompagnés d’une augmentation sensible des maladies nosocomiales. Les techniques invasives pratiquées pour le diagnostic, la surveillance et le traitement sont souvent à l’origine d’infections. Ces infections nosocomiales ne peuvent pas toutes être évitées, mais près de la moitié le pourraient par des moyens relativement simples, tels que le lavage et la désinfection des mains.
Dans le cadre de ce projet, des prototypes de modules communicants ont été développés ainsi que l’environnement de récolte de données basé sur un serveur SQL. Equipée de transmission RF, cette nouvelle génération de modules micro-contrôleurs d’acquisition de données présente une consommation très faible. Ces modules peuvent aussi être utilisés pour des acquisitions de données réparties et à faible débit. Leurs fonctionnalités leur permettent de communiquer entre eux ainsi que vers des stations de récolte de données. Ils peuvent être placés, récoltés et déplacés aisément.
Légendes
1 - Flot de données, schéma bloc général.
2 - Les divers éléments du système (ouvert).
3 - Station réseau intermédiaire seule.
4 - Différents états du module dans le temps.
5 - Module processeur seul.
6 - Affichage des résultats.
La réalisation de ce projet a permis de mettre en oeuvre une nouvelle gamme de processeurs développés en Suisse au CSEM (Centre Suisse d’Electronique et Microtechnique) avec des performances de consommation très réduite et incorporant une communication RF intégrée. Ce projet entre dans la dynamique de l’institut sur les systèmes embarqués autonomes et à basse consommation. Il est à l’origine :
• de la signature de mandats avec les HUG (Hôpitaux Universitaires de Genève) ;
• de collaborations actives avec le CSEM et Mind ;
• d’une base pour de futures collaborations industrielles.
• RCSO-TIC
• Mandats HUG (Hôpitaux Universitaires de Genève).
Réalisation complète du système :
• Prototype développé en parallèle avec des mandats des HUG (Hôpitaux Universitaires de Genève) et le réseau RCSO-TIC.
• Interface réseau Icycom/Ethernet.
• IPv4/SLIP sous OS-NET-7.
• Serveur base de données SQL.
• Serveur de requête BIRT.
• Protocole de communication.
• Mise à jour par RF du logiciel des modules bouchons.
• Transfert des données par initiative du bouchon sur serveur.
Andrés Revuelta
Le projet HbbTV propose de contribuer à l’essor d’applications et de services utilisant les technologies de la TV du futur. Les nouvelles possibilités d’interactivité offertes par HbbTV permettent d’envisager une évolution de l’expérience multimédia qu’il s’agit d’investiguer. Les aspects interaction et GUI multi-plate-formes étant prépondérants dans le domaine de la TV interactive, une plate-forme de démonstration permettra d’étudier l’utilisation de services interactifs liés aux contenus télévisuels.
• Nous développerons une plateforme « démonstrateur » utilisant les technologies émergentes dans le domaine de la TV connectée.
• Nous proposerons des solutions innovantes en rapport avec la consommation de contenu, en tenant compte des problèmes liés au foisonnement des informations générées par les technologies émergentes, le web et les réseaux sociaux.
• Notre système comportera tous les composants essentiels d’un réseau hybride de diffusion TV et Internet, et facilitera le test des scénarios suggérés.
Nous allons cibler nos efforts sur les trois aspects principaux suivants :
1. Choix des scénarios démontrant les problématiques HBBTV, IMS (IP Multimedia Subsystem), et IHM (Interface homme-machine) lié à la télévision interactive.
Cette partie, par la mise en pratique d’applications choisies, traitera les problématiques liées au transport des flux média, IHM et interaction riche entre spectateur-s et programme TV.
Deux scénarios de démonstration caractéristiques seront précisés en collaboration avec les partenaires. Ils porteront sur les problématiques liées aux techniques de diffusion dans un contexte de réseaux hybrides et la sophistication croissante des applications des usagers.
2. Mise en place et réalisation de la plate-forme de démonstration. Une plate-forme matérielle sera testée et validée pour son usage de démonstrateur/testeur HbbTV. Cette plate-forme HbbTV sera ensuite reliée à celle d’IMS, développée en parallèle au début du projet. L’architecture du démonstrateur sera principalement définie par :
• les choix matériels ;
• l’architecture du système (dont serveurs et clients HbbTV / IMS) ;
• définition des flux de communication HbbTV et IMS, (serveurs-applicationsterminaux tels que télécommande, tablette, smartphone…).
3. Développement et implémentation des éléments d’interface IHM. Nous procéderons à l’élaboration de l’état de l’art côté IHM, à l’implémentation interactives et logiques des couches nécessaires à la création d’applications contextuelles (scénarios) offrant des services de type « réseau social » et gestion de contenu. Selon les résultats de l’état de l’art, et en fonction de chaque scénario, nous développerons une couche IHM cohérente et capable d’interagir avec les technologies sousjacentes en question, soit IMS et HBBTV. Au final, nous devrons tirer les recommandations utiles visant au bon arbitrage entre le contenu de l’écran de la télévision et les petits écrans complémentaires.
Légendes
1 - Plate-forme de démonstration HbbTV.
2 - Exemple de scénario à implémenter.
3 - HbbTV next : le futur de la TV ?
4 - Roland Garros 2011 : un test grandeur nature réussi. © France Télévisions
5 - HbbTV apporte une nouvelle dimension interactive aux débats TV.
© France Télévisions
6 - MesServicesTV, un portail d’essai sur TNT. © MesServicesTV, Auxerre
Le contexte de travail sur des réseaux de transmission hybrides, comportant les diffusions Broadcast (satellite, TNT, CATV) et Broadband (Internet), avec l’interactivité induite par la norme HbbTV elle-même,
Economique :
• Soutien actif de l’EBU-UER, cofondateur de la norme HbbTV.
• La TSR et la PME Sobees soutiennent aussi ce projet.
• La société Ericsson est intéressée à poursuivre sa collaboration avec l’EIA-FR.
• Des discussions avec la PME Softcom sont en cours.
Académique :
• Cours MSE : «Mobiles systems & Applications» : J.-F. Wagen, T. El Maliki, A. Revuelta.
• Cours MSE : «Next Generation Networks and Web 2.0» : A. Delley et J.-F. Wagen.
• Cours MRU – 2009/2011 : «Transmissions audiovisuelles optimisées» : A. Revuelta.
exige en sus des équipements courants au développement Web et Internet, une infrastructure et des équipements complexes de transmission. Le soutien actif de l’EBUUER, cofondateur de la norme HbbTV, nous permet de pallier à ce problème.
De plus, la société Ericsson propose sa collaboration, en mettant
sa plate-forme de transmission IMS à disposition du projet.
Notre plate-forme utilisera différents terminaux accessibles sur le marché aux utilisateurs HbbTV, aussi bien en termes de télévisions et de « set top box », qu’en termes de terminaux mobiles d’affichage et d’interaction.
Ce projet vise à développer un système d’aide à la formation des conducteurs de bus. Dans ce cadre, un véhicule est équipé de plusieurs capteurs : accéléromètres pour la mesure du confort, GPS, bus FMS qui transporte des données issues de l’ordinateur central du véhicule. Ces informations sont transmises par une communication sans fil sur la tablette du formateur. Les différentes informations sont présentées dans un logiciel d’aide à la formation développé essentiellement pour l’écomobilité.
Les Transports publics genevois (TPG) souhaitent devenir exemplaires dans leurs méthodes de formation des conducteurs. Outre les compétences requises en termes de conduite, les conducteurs sont sensibilisés aux méthodes d’écomobilité : consommer moins de carburant, préserver le matériel et surtout améliorer le confort des usagers. Le système développé dans ce projet analyse les données de nombreux capteurs, ce qui permet d’apporter directement des améliorations au style de conduite du conducteur.
Tout usager des transports publics a sans doute un jour qualifié le style de conduite du conducteur de désagréable ou d’exemplairement doux. Ce projet réalisé entre hepia et les Transports publics genevois (TPG) consiste à développer un nouvel outil d’aide à la formation dont l’objectif est de fournir au formateur un outil informatique permettant de mesurer et de visualiser immédiatement les effets de la conduite sur le ressenti des passagers ainsi que de faciliter des économies de carburant.
Ce principe de l’écomobilité est présenté durant les formations et consiste à étudier les méthodes de conduite pour améliorer le confort des usagers, en évitant accélérations et freinages brusques ou répétitifs, par exemple.
L’une des difficultés majeures pour un conducteur est de comprendre l’impact de sa conduite sur le ressenti de ses passagers, surtout lorsqu’il s’agit d’un véhicule ar ticulé de longue taille.
Le bus dédié à la formation est équipé de capteurs d’accélération, d’un système de localisation par GPS, d’une liaison à la centrale du bus, ainsi que de caméras. Toutes ces informations sont centralisées et mémorisées dans un ordinateur installé dans le véhicule. Une liaison sans fil par Wi-Fi permet à une ou plusieurs tablettes de visualiser en direct le parcours effectué, les images des caméras, ainsi que l’état des différents capteurs. La lecture des informations présentées fournit au formateur la possibilité de discuter immédiatement avec le conducteur de la qualité de sa conduite en termes d’écomobilité.
Un bilan final est rédigé et mis à disposition du conducteur qui peut ainsi comparer ses différentes courses de formation et évaluer sa progression.
Le principal défi de ce projet est de concevoir une architecture extrêmement fiable et simple d’utilisation. Une transposition de ce système aux trolleys et tramways est envisagée.
Légendes
1 - Electronique d’un capteur d’accélérations.
2 - Un boîtier contenant un capteur d’accélérations.
3 - Logiciel EcoView développé dans le cadre du projet.
4 - Graphes des accélérations et représentation sous forme de nuages de points.
5 - Image de la caméra du poste de conduite et de la route.
6 - Logo TPG.
Ce projet sera achevé au printemps 2013 et mis à disposition des TPG pour le présenter à la conférence internationale sur les transports publics qui se tiendra à Genève en mai 2013.
Plusieurs développements de ce projet pourront par ailleurs être utilisés dans d’autres collaborations avec les TPG, essentiellement dans les domaines du développement durable, tels que la mesure et l’économie d’énergie.
L’environnement d’un véhicule de transport nécessite des systèmes particuliers dont la robustesse et la fiabilité se doivent d’être supérieurs aux standards :
• L’ordinateur installé dans le bus a été choisi chez le fabriquant Kontron. Celui-ci est certifié conforme à la norme EN50155 utilisée dans les transports et le domaine ferroviaire.
• La communication entre capteurs repose sur un système éprouvé dans ce domaine : le bus CAN.
• Une communication redondante est utilisée entre l’ordinateur de bord et la tablette.
QCRYPT est un projet multisites financé par Nano-tera visant à créer un système de cryptographie quantique unique. Les performances ambitionnées ont nécessité la mise en commun de plusieurs compétences afin d’appliquer les résultats de la recherche fondamentale à un système commercialisable. hepia est chargée de la conception en VHDL de composants du Quantum Key Distribution (QKD) ainsi que de la conception d’interfaces optiques implémentées dans des FPGA de dernière génération.
• Projet multi-sites de 4 ans avec un budget de plusieurs millions de francs.
• Utilisation de FPGA Virtex 6 ainsi que Stratix V.
• Implémentation d’interfaces série optiques à 2.5 Gbit/s et 10 Gbit/s.
• Conception d’algorithmes mathématiques en VHDL (Low-Density-Parity-Check, AES).
• Développement de protocoles dédiés.
• Conception de composants optiques (détecteur de photon unique).
• Preuves formelles de protocoles cryptographiques quantiques.
La société d’information actuelle est fondée sur le partage de données sous forme électronique. La cryptographie apporte des solutions pour échanger des informations de façon sécurisée et repose sur deux principes : disposer d’un algorithme mathématique de chiffrement et d’un secret commun unique. Actuellement, les systèmes d’information utilisent des algorithmes de chiffrement tels que AES (Advanced Encryption Standard), qui sont considérés comme incassables. En ce qui concerne le partage du secret commun, il est important qu’il soit transmis sans que quiconque puisse le récupérer. Selon les niveaux de sécurité souhaités, il peut être nécessaire d’utiliser une nouvelle clé de chiffrement à chaque échange de message.
L’objet de ce projet est de mettre les propriétés quantiques de l’optique au profit de la création de clés uniques. Le système est constitué de deux appareils (Alice et Bob), distants de plusieurs dizaines de kilomètres et reliés entre eux par une fibre optique. Un très faible flux de photons est émis au travers de ce canal, de sorte que chaque photon soit porteur d’un seul bit d’information. Les systèmes émetteurs et récepteurs, nommés QKD (Quantum Key Distribution) peuvent créer des clés aléatoires tout en les garantissant contre toute interception ou manipulation par un espion. Ces clés construites dans les appareils Alice et Bob à un taux de 1Mbit/s, sont transmises à deux encrypteurs chiffrant par AES des communications jusqu’à 100 Gbit/s.
Ce projet multi-sites financé par les fonds Nano-tera vise à dépasser les limites technologiques actuelles en s’appuyant notamment sur la conception de composants optiques tels qu’un détecteur de photon unique à très haut débit, sur l’accélération matérielle d’algorithmes mathématiques dans des FPGA et sur l’exploitation d’interfaces de télécommunication à 100Gbit/s.
Communications à haute vitesse sécurisées par des clés de chiffrement distribuées selon les principes de la physique quantique.
Fabien VannelSchéma ArchiQCRYPT.
Les résultats de ce projet sont exploités par la société genevoise IdQuantique sous la forme de deux nouveaux appareils : un encrypteur AES à 100 Gbit/s ainsi qu’un serveur de clés quantiques (QDK) à 1 Mbit/s fonctionnant jusqu’à 100 km. Plusieurs publications académiques sont prévues ainsi que des présentations dans des conférences internationales. Les résultats de ce projet pourront également être exploités dans le cadre de nouvelles collaborations.
Nabil Abdennadher
MUSIC vise à mettre en place une plate-forme distribuée de calcul volontaire pour le déploiement et l’exécution d’applications de calcul intensif. L’idée est d’exploiter les infrastructures matérielles non utilisées au sein d’une entreprise, laboratoire ou université pour exécuter des applications de haute performance. Plusieurs applications sont déployées afin de valider et de tester la plate-forme mise en place. Elles sont issues de domaines divers tels que l’environnement, les sciences du vivant et l’art.
L’idée directrice du projet MUSIC est de profiter de l’infrastructure matérielle informatique existante et non exploitée pour exécuter des applications gourmandes en ressources informatiques (processeurs, mémoires, espace de stockage, réseau, etc.). L’objectif est d’offrir aux chercheurs et aux industriels un environnement intuitif qui cache la complexité et l’hétérogénéité de l’infrastructure matérielle. Cette démarche est similaire aux concepts proposés par le grid et le cloud computing.
hepia développe depuis 2003 un environnement de calcul volontaire appelé XtremWeb-CH (XWCH : www.xtremwebch.net). Cet environnement est composé d’une infrastructure informatique matérielle et d’une couche logicielle qui cache l’hétérogénéité et la distribution des ressources. XWCH a fait l’objet de plusieurs améliorations et extensions dans le cadre de plusieurs projets de recherche appliquée financés par la HES-SO, la Confédération suisse et l’Europe (FP7).
L’objectif du projet MUSIC est de :
• consolider l’infrastructure existante par de nouvelles ressources fiables et stables ;
• développer les outils nécessaires pour l’administration et la gestion des ressources disponibles. Ces outils concernent aussi bien les administrateurs que les développeurs d’applications ;
• connecter la plate-forme actuelle XWCH avec d’autres plate-formes distribuées telle que la grille Suisse (www.smscg.ch), la plate-forme européenne EDGI (http://edgi-project.eu/) ou le cloud d’Amazone (http://aws. amazon.com/ec2/) ;
• utiliser la plate-forme dans le cas concret de plusieurs applications issues de domaines divers tels que l’environnement, les sciences du vivant et l’art.
Les outils, le savoir-faire et les applications développés dans le cadre du projet MUSIC seront utilisés pour proposer des solutions performantes et à coût abordable pour les sociétés et entreprises ayant un besoin en calcul de haute performance.
Le projet MUSIC utilisera le cluster Gordias installé à hepia, l’infrastructure de calcul volontaire XtremWeb-CH, la plate-forme Cloud du projet européen Venus-C ainsi qu’une plate-forme de cloud privée en cours de construction à hepia.