Masterarbeiten 2024 Master of Science in Engineering

Page 1

2

Vorwort

Sehr geehrte Damen und Herren

Es ist mir eine Freude, Ihnen gemeinsam mit den hochmotivierten Absolventinnen und Absolventen des Masterstudiums sowie ihren Betreuenden die Ergebnisse ihrer Masterarbeiten aus dem Herbstsemester 2023/24 vorzustellen.

Unsere Masterstudierenden profitieren in ihrer praxisorientierten Ausbildung von erstklassigen Fachexpertinnen und -experten sowie einer engen Einbindung in Forschungsteams. Diese Umgebung ermöglicht es ihnen, ihr Fachwissen zu erweitern und ihre Methoden- sowie Selbstkompetenzen zu vertiefen. Die aktive Teilnahme an Projekten mit einem klaren Forschungsschwerpunkt ermöglicht eine hohe Spezialisierung in den jeweiligen Themenfeldern.

Die Master-Thesis demonstriert ihre Fähigkeit, eigenständig eine umfassende Arbeit durchzuführen, die hohen methodischen, konzeptionellen und wissenschaftlichen Ansprüchen gerecht wird. Die Qualität und die herausragenden Ergebnisse dieser Leistungen können Sie auf den folgenden Seiten selbst überprüfen. Ich wünsche den Absolventinnen und Absolventen viel Erfolg und Zufriedenheit für ihren weiteren Berufsweg sowie einen gelungenen Start in ihren neuen Lebensabschnitt!

Mit freundlichen Grüssen

3
Prof. Dr. Agathe Koller Studiengangleiterin des MSE

Überblick

Referentinnen und Referenten

52 Prof. Dr. Donato Acocella

30 Hannes Badertscher

50 Prof. Tobias Baur

19 Dr. Alexandru Caracas

38 Prof. Dr. Markus Friedl

47 Prof. Dr. Martin Gutsche

54 Prof. Carsten Hagedorn

12 Prof. Dr. Roman Hänggi

39 Prof. Dr. Andre Heel

51 | 54 Prof. Dr. Tanja Herdt

29 Prof. Dr. Lin Himmelmann

15 Dr. Katrin Hügel

49 Prof. Dr. Susanne Karn

27 Prof. Stefan F. Keller

56 Prof. Philipp Krass

55 Prof. Dr. Susanne Kytzia

13 | 14 Prof. Dr. Katharina Luban

17 Prof. Dr. Ivan Marković

21 | 23 Prof. Dr. Farhad D. Mehta

22 Prof. Laurent Metzger

35 Prof. Guido Piai

11 Prof. Dr. Daniel Patrick Politze

20 | 33 Prof. Dr. Mitra Purandare

41 Prof. Dr. Dario Schafroth

53 Prof. Andreas Schneider

32 Prof. Dr. Dejan Šeatović

45 Prof. Dr. Mario Studer

43 | 44 Stefan Uhlar

25 Prof. Dr. Martin Weisenhorn

26 | 28 | 31 Prof. Dr. Christoph Würsch

36 Prof. Dr. Paul Zbinden

4 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT

Überblick

39 Dr. Julien Anet

32 Thomas Anken

54 Christian Blum

52 Clemens Bolli

21 | 23 Dr. Joachim Breitner

17 Dr. Christoph Czaderski

29 Jürg Dietrich

56 Barbara Emmenegger

26 | 28 Prof. Dr. Klaus Frick

35 Prof. Dr. Hans Fritz

50 Ingo Golz

25 Prof. Dr. Helmut Grabner

12 Dr. Urs Hafen

27 Dr. Ralf Hauser

41 Prof. Dr. Marco Hutter

15 Samuel í Hjøllum Rude

11 Dr. Noelle Jufer

19 Dr. Thorsten Kramp

31 Dr. Nitish Kumar

13 | 14 Stefan Kurpjuweit

43 Roland Lehmann

47 Prof. Dr. Daniel Lundin

45 Daniel Marty

44 Kristian Murkovic

33 Dr. Pushpak Pati

20 Dr. Raphael Polig

49 Prof. Roland Raderschall

22 Philip Schmid

36 Dr. Peter Schwider

30 Gabriel Sidler

38 Macherel Thibault

53 Bruno Thürlemann

51 Dr. Sibylle Wälty

55 Prof. Dr. Robert Weibel

5 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Korreferentinnen und Korreferenten

Überblick Themen

Business Engineering

11 Produkt- und Markttest einer digitalanalogen Plattform für Escape-Spiele

12 Operational Excellence für IndustrieMikrounternehmen

13 Optimierung der Lagerprozesse und des Material-Managements für ein GerüstbauUnternehmen

14 Organizational Optimization of a Distribution Center

15 Optimizing Airport Baggage Handling

Civil Engineering

17 Bond in concrete and its consequences on the structural level

Computer Science

19 Assessing RISC Zero using ZKit: An Extensible Test & Benchmarking Suite for ZKP Frameworks

20 Enhancing Java Performance: vector API or iGPU?

21 TypeSearch: Type-Directed API Search for All

22 Leveraging eBPF for Intent-Driven Application-Centric End-to-End Segment Routing over IPv6

23 Using Functional Reactive Programming for Robotic Art

Data Science

25 Real-Time Object Detection on LowPower Edge Device with Hardware Acceleration

26 Ratatouille – Autoencoders as chef and nutritionist

27 Benchmarking Time Series Databases for Monitoring and Analytics: TimescaleDB vs. InfluxDB

28 Evaluation of the use of 3D LiDAR Point Cloud Data in Speed Enforcement Systems

29 Occupancy monitoring with image recognition methods for low-resolution thermal sensors

30 Development of a Four-Legged Walking Robot Integrating Simulation and Reinforcement Learning

31 Learning Robots to Work on the Construction Site

32 Realisation of an Automatic Hot-water Weed Treatment System

33 Deep learning for detecting contaminants in poultry

Electrical Engineering

35 Inertiales Navigationssystem

36 Low-latency HDR Tonemapping

6 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT

Energy and Environment

38 Modelling and Scaling Considerations

39 Synthesis setup for CO2 conversion to hydrocarbons

Mechatronics and Automation

41 Robot-assisted product recognition for blind and visually impaired people

Mechanical Engineering

43 Topologieoptimierung und Rapid Prototyping

44 Validierung eines Traktor-Gesamtfahrzeugmodells anhand von Schnittkraftmessungen

45 Fiberloop

Photonics

47 Aluminum Nitride Deposition via HiPIMS without External Heating

Raumentwicklung und Landschaftsarchitektur

49 Die Millennials der Schweizer Landschaftsarchitektur

50 Grossstadt-Dschungel

51 Urbane Transformation

52 RAUMWENDE

53 Nutzungsplanung 3.0

54 Attraktive Velowege

55 Nachhaltiger Infrastrukturbau

56 Klimaanpassung und Gentrifizierung

7 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
8 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT

Bachelors, Diplomandinnen und Diplomanden

34 Baumgartner Nathanael

42 Bechstein Geraldine

23 Benz Marc

43 Brunner Stefan

18 Bögli Roman

16 Dahl Schaefer Mathilde

19 Ehrensperger Reto 24

54

45 Lüdi Christian

13 Petraskovic Mladen

38 Marxer Fabian

Pfister Pascal

46 Oberer Stefan

29 Pfister Remo

13 Peter Odin

Römer Raffael

14 Petraskovic Mladen

45 Schmid Dominik

47 Pfister Pascal

23 Schmidli Eliane Irène

27 Pfister Remo

30 Schneeberger Michael

15 Römer Raffael

36 Schraner Remo

39 Schmid Dominik

17 Thoma Stefan

22 Schmidli Eliane Irène

31 Vetsch Robin

28 Schneeberger Michael

32 Weiss Severin

33 Schraner Remo

56 Zubler Eva

17 Thoma Stefan

33 Zufferey Fabien

29 Vetsch Robin

30 Weiss Severin

48 Zubler Eva

31 Zufferey Fabien

9 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Überblick
41 Alter Nicole
Erzinger
Joel
Giordano Marco 35 Grob Gian 25 Hagmann Lucien 12 Hammer Denis 32 Hutter Silvan 26 Jäger Amira 36 Keller Chantal 21 Klaiber Julian
Kämpfen Gian-Luca Fabbio
20 Etter Marc 37 Fasolt Fabian 40
44
49 38 50 51 19 15 Schæfer Mathilde 20 21 43 47 27 11 35 41 22 53 Lüdi Christian 44 Marxer Fabian
Oberer Stefan
Peter Odin
12

Business Engineering

Im Profil Business Engineering bietet die OST die folgenden sechs Studienschwerpunkte an:

• Technology and Innovation Management

• Operations and Production Management

• Service Engineering

• Business and Production Analytics

• Supply Chain Management

• Life Cycle Management

Beteiligte Institute

• IDEE Institut für Innovation, Design und Engineering

• IFU Institut für Unternehmensführung

• ILT Institut für Laborautomation und Mechatronik

• IMS Institut für Modellbildung und Simulation

• IPEK Institut für Produktdesign, Entwicklung und Konstruktion

• IPM Institut für Informations- und Prozessmanagement

• IWK Institut für Werkstofftechnik und Kunststoffverarbeitung

10

Produkt- und Markttest einer digital-analogen Plattform für Escape-Spiele

Einleitung: In Anbetracht des aufsteigenden Trends in der Escape-Spiele-Branche und der sich stetig weiterentwickelnden digitalen Möglichkeiten entstand im Rahmen einer Projektarbeit das innovative Produktkonzept der Gripsbox, einer digital-analogen Plattform für Escape-Spiele. Diese Masterarbeit fokussiert sich auf die zentrale Fragestellung, wie das Spielkonzept der Gripsbox optimiert werden kann, um die Marktakzeptanz zu erhöhen.

Vorgehen: Im Zuge der Bearbeitung dieser Fragestellung wurde das Stage-Gate-Modell nach Tzokas angewandt, um spezifische Gate-Kriterien für die beiden Schlüsselphasen «Produkttest» und «Markttest-Resultate» zu entwickeln. Im Vorfeld des ersten Gates wurde ein Prototyp konzipiert und gemäss den festgelegten Kriterien umfassend getestet, um diesen anschliessend in der Phase des Markttests einer eingehenden Studie zu unterziehen. Durch die Integration des Konkurrenzprodukts Exit in die Studie erfolgte ein direkter Vergleich beider Konzepte, um Optimierungspotenziale aufzudecken. In der finalen Analysephase wurden die Resultate sorgfältig ausgewertet und die Nutzerkommentare aus der Zielgruppe in Kernbedürfnisse kategorisiert.

Ergebnis: Das Resultat dieser Arbeit ist die Entwicklung eines vielversprechenden Prototyps des Spielekonzepts, welcher zukünftige Weiterentwicklungen erfordert. Die durchgeführte Studie bestätigte das erhebliche Potenzial der Idee. Die Nutzerreaktionen zeugten von einem hohen Interesse und lieferten essenziellen Input. Es wurde deutlich, dass das Grundkonzept der Gripsbox als modulare Plattform nicht nur auf Interesse stösst, sondern sich diese Idee auch in den Nutzerkommentaren widerspiegelt. Zusätzlich wurden spezifische Aspekte identifiziert, die für Spieleentwickler als Richtlinien für zukünftige Spiele dienen können. Ein besonderer Fokus liegt dabei auf der Verbesserung der Benutzerfreundlichkeit, die als wesentlicher Aspekt für die weitere Entwicklung und Markteinführung der Gripsbox hervorgehoben wurde.

Prototyp, aus sieben Elementen bestehend, auf dem drei Rätsel programmiert wurden Eigene Darstellung

Transformiertes Rätsel, bei dem durch richtiges Anwenden von Licht- und Soundsensoren ein Code erscheint Grafik der Landschaft von Exit (Kosmos)

Referent

Prof. Dr. Daniel Patrick

Politze

Korreferentin

Dr. Noelle Jufer

Themengebiet

Business Engineering, Data Science, Innovation in Products, Processes and Materials – Business Engineering and Productions

Generisches Spielekonzept der Gripsbox Eigene Darstellung

11 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Denis Hammer Diplomand

Operational Excellence für Industrie-Mikrounternehmen

Implementierung Qualitätsmanagementsystem nach ISO 9001:2015 und Entwicklung OPEX-Beratungskonzept

Diplomand

Ausgangslage: In einer Projektarbeit im vergangenen Jahr wurde in der Mechanical Partner GmbH (MP) die Lean-Philosophie eingeführt. Dabei wurde erkannt, dass die Firma ein Qualitätsmanagementsystem (QMS) braucht. Ausserdem könnten aufgrund eines ISO-9001:2015-Zertifikats zusätzliche Kunden angesprochen werden.

Das Hauptziel dieser Masterarbeit ist es, ein QMS in die MP zu implementieren und dieses zertifizieren zu lassen. Zudem soll die Lean-Transformation weitergetrieben werden. Die Erfahrungen der Arbeit werden mit Theorie ergänzt und in ein Operational-Excellence-Beratungskonzept übersetzt.

den auf einer Roadmap platziert, welche anschliessend das Optimierungsprogramm des Mikrounternehmens ergibt. Mit einem Fragebogen soll in die Beratung gestartet werden. Durch die Fragen werden die notwendigen Bausteine und Module ermittelt und anhand ihres Nutzens priorisiert.

Beispiel einer Schaltfläche und einer von 34 Prozessdefinitionen im interaktiven QM-Handbuch Eigene Darstellung Odin Peter

Ergebnis: Durch Befragungen von Bestandskunden, potenziellen Kunden und einer Recherche wurde ermittelt, dass die ISO-9001:2015-Zertifizierung die passende Zertifizierung für die MP ist. Der Nutzen der Implementierung und Zertifizierung des QMS wird auf CHF 100  000 pro Jahr geschätzt. Als Vorbereitung für die Implementierung wurde die ISO9001:2015-Norm analysiert und deren Anforderungen an das QMS wurden zusammengefasst. Es wurden 50 Methoden ermittelt, mit welchen diese Anforderungen erreicht werden können. Während der Implementierung wurden noch weitere Methoden und Dokumente erstellt. Insgesamt wurden 99 Q-Dokumente geplant, wovon 74 bereits erstellt und implementiert wurden. Um die Zugänglichkeit der Q-Dokumente zu vereinfachen, wurde ein interaktives QM-Handbuch erstellt. Im QM-Handbuch können sich die Benutzer über die Prozessmap durch alle Prozesse klicken und finden so die gewünschten Informationen schnell und effektiv. Das übersichtliche QMHandbuch gewährleistet, dass die Q-Informationen auch tatsächlich benutzt werden. Die Q-Informationen werden vom QM-Manager verwaltet. Die ISO9001:2015-Zertifizierung wurde am 19.10.2023 erfolgreich mit einer Nebenabweichung bestanden.

Fazit: Die Optimierung der MP wird 2024 weitergeführt. Das OPEX-Beratungskonzept wird weiter ausgearbeitet - mit dem Ziel, Ende 2024 eine erste Version des Beratungskonzepts fertiggestellt zu haben. Nach einer genaueren Wirtschaftlichkeitsanalyse wird dann entschieden, ob das Beratungskonzept in eine durchgängige Optimierungssoftware umgewandelt (Verkauf von Software) oder weiter exklusiv als interne Beratungsunterstützung verwendet wird.

Vorgehen der QMS-Implementierung Eigene Darstellung

Referent

Prof. Dr. Roman Hänggi

Korreferent

Dr. Urs Hafen, Accelleron, Baden, Aargau

Themengebiet

Business Engineering

Projektpartner Mechanical Partner GmbH, Samstagern, Zürich

Ein weiteres Ziel der Arbeit war es, ein OPEX-Beratungskonzept aus den erarbeiteten Erfahrungen abzuleiten, um nach der Arbeit die Optimierung von Mikrounternehmen als Dienstleistung anbieten zu können. Das Beratungskonzept soll die Optimierungen vereinfachen und beliebig erweiterbar sein, um das Dienstleistungsangebot ausbauen zu können. Im Beratungskonzept werden zwei Hauptthemenfelder (Unternehmen & Prozesse und Mitarbeiter & Führung) behandelt. Die Hauptthemenfelder sind wiederum in sieben Themenfelder unterteilt. In jedem Themenfeld werden Bausteine beschrieben, welche Tools und Methoden zur Optimierung verkörpern. Die Bausteine können zu Modulen zusammengefasst werden, welche sinnvoll nacheinander eingesetzte Bausteine verbinden. Die Bausteine und Module wer-

Erfolgreich erhaltene ISO-9001:2015-Zertifikate Eigene Darstellung

12 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT

Optimierung der Lagerprozesse und des MaterialManagements für ein Gerüstbau-Unternehmen

Diplomand

Einleitung: Die Roth Gerüste AG, ein bedeutender Akteur im Bereich des Gerüstbaus, unterhält ein weitreichendes Netzwerk von über 20 Standorten in der Schweiz. Am Standort Neftenbach ist eine Arbeitsgruppe von 40 Monteuren in zwei Teams organisiert. Es ist üblich, dass Monteure Gerüstkomponenten im Lager kommissionieren und wieder einlagern. Bei genauer Betrachtung der aktuellen Lagerprozesse zeigt sich, dass insbesondere die unproduktiven Monteurstunden im Lager Verbesserungspotenzial aufweisen. Neben Prozessoptimierungen und verschiedenen Kommissioniertechniken sollen digitale Technologien für die Gerüstbaubranche evaluiert werden, einschliesslich des Einsatzes eines digitalen Lagerhaltungssystems.

Vorgehen: Zuerst wurden aktuelle Probleme und Lösungsansätze für die Gerüstbauindustrie aus der Literatur analysiert. Danach wurden mittels Interviews und Vor-Ort-Besuchen die Prozesse bei Roth aufgenommen und Schwachstellen in den aktuellen Prozessen identifiziert. Diese wurden mit den Problemen aus der Literatur verglichen und daraufhin wurde das weitere Vorgehen der Arbeit definiert. Der Fokus lag dabei auf dem Thema Kommissionierung und den Parametern, die die Kommissionierprozesse beeinflussen. Mit einer eingehenden Literaturrecherche wurden verschiedene Kommissioniertechniken identifiziert und in Bezug auf einen Einsatz bei Roth untersucht, quantifiziert und verglichen. Der Einsatz von RFID-Technologie wurde als weiterer Optimierungsansatz bewertet und eine branchenspezifische Lösung der Firma Stocadro wurde beschrieben. In einer Testphase konnte die Machbarkeit des Einsatzes dieser Lösung evaluiert und eine Investitionsrechnung durchgeführt werden. Die gesammelten Informationen und Erkenntnisse resultieren in einer Handlungsempfehlung für die Roth Gerüste AG.

gen eingeführt und aktuelle Pain Points wie aufwendige Bestandszählungen können eliminiert werden. Im Testeinsatz wurden erste Erfahrungen gesammelt und Erkenntnisse für das Change Management abgeleitet. Die finanzielle Betrachtung von Kosten und Einsparungen bei Nutzung der Stocadro-Lösung führt zu einer klar positiven Empfehlung. In Summe zeigt die Arbeit, dass Lagerprozesse eine wichtige Rolle für den Erfolg von Gerüstbau-Unternehmen spielen. Anhand der Erkenntnisse konnten klare Handlungsempfehlungen abgeleitet werden, die auch auf andere Standorte übertragen werden können. Damit erhält die Roth Gerüste AG wertvolle Inputs, um langfristige Ziele und Strategien zu definieren und sich als Pionier für die Schweizer Gerüstbaubranche zu entwickeln.

Beziehung zwischen Gerüstbauproblemen und Lösungskategorien Yin und Caldas (2022)

Angepasster Arbeitsablauf eines Lageristen und Monteurs mit Umschlagplatz Eigene Darstellung

Referentin

Prof. Dr. Katharina

Luban

Korreferent

Stefan Kurpjuweit, ABB Schweiz AG, Baden, ZH

Themengebiet

Business Engineering, Innovation in Products, Processes and Materials – Industrial Technologies

Projektpartner

Roth Gerüste AG, Neftenbach ZH, Schweiz / Stocadro GmbH, Leipzig, Deutschland

Ergebnis: Die Literaturrecherche und die Prozessanalyse zeigten, dass es mehrere Ansätze zur Optimierung der Lagerhaltung und Kommissionierung für Unternehmen in der Gerüstbaubranche gibt. Ein möglicher Ansatz ist die Kommissionierung mittels Umschlagplatz. In dieser Variante wird das Gerüstmaterial zentral auf einem Platz vorkommissioniert, wodurch Fahrzeuge gleichzeitig be- und entladen werden können. Beim Vorkommissionieren können mehrere Aufträge gleichzeitig bearbeitet und dadurch Laufwege verkürzt werden. Durch den Einsatz der RFID-Technologie kann die Produktivität des Verladeprozesses um 11% gesteigert und die Gerüste können auf bis zu 4,0 Meter genau geortet werden. In Kombination mit der branchenspezifischen Lagerhaltungssoftware der Firma Stocadro kann eine ganzheitliche Transparenz der Materialbewegun-

Digitale Lagerhaltung mittels Stocadro-App www.stocadro.de

13 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Mladen Petraskovic

Organizational Optimization of a Distribution Center

Problem: Logistics is often the last link in the order processing chain in B2C, and products must be delivered according to the orders on short notice. The result is a highly fluctuating workload within a month as well as between months. In the case of the company concerned, the ratio of peak days compared to days with little work is about 4:1 within a month. These fluctuations are primarily balanced with temporary staff. Currently, a 3:1 ratio of temporary employed staff to permanent staff is used.

The objective of this work is to develop and examine different approaches how the operation of a distribution center (DC) can be optimized in this challenging environment. The focus is on the optimization of the staffing concepts to ensure order fulfilment at the lowest possible cost. This includes the provision of personnel, personnel deployment, as well as technical improvements and their impact on staffing. The work primarily focuses on a specific DC in Switzerland, but the insights gained are transferable to other DCs.

Approach: The chosen procedure includes an indepth analysis of the current organization and the workload to lay the foundation for a future optimization of the staffing concept. The following procedure was applied:

1. Assessment of the current organization of the DC.

2. Analysis of the workload and hours worked in the observation period from July 2020 to June 2023.

3. Comparison and evaluation of different employment models according to their effectiveness.

4. Assessment of technical improvements to optimize personnel requirements in particularly challenging areas.

Result: The analysis showed that the current employment model is well suited to cover the demand in terms of speed and flexibility and it leaves only very little room for optimization.

In contrast to this insight, a feasibility study has proved that automation can make a decisive contribution to reducing the numbers of working hours required. Additionally, the automation helps to reduce peaks in workload.

Volatility of required working hours based on data from the fiscal years 2020–2023. The error marks cover 90%.

Own presentment

Base and peak employment model with a larger proportion of permanent employees to cover the basic workload

Own presentment

Concept for automated labeling street that can lead to a significant reduction of staff required for order fulfilment

Own presentment

Advisor Prof. Dr. Katharina Luban

Co-Examiner

Subject Area

Business Engineering

Compared to adjustments in the employment model, the automation of processes and procedures will lead to significant overall cost savings. The required number of working hours can be reduced by up to 25% for the entire DC through a single investment, resulting in very high cost-effectiveness. Based on these findings, implementation is urgently recommended.

14 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Raffael Römer Graduate Candidate

Optimizing Airport Baggage Handling

A Case Study of Off-Airport Baggage Service at Copenhagen Airport

Problem: The baggage handling process at Copenhagen Airports A/S (CPH) faces severe challenges due to rising passenger and baggage volumes. Key issues include check-in congestion, causing long queues and increased wait times, and inadequate early baggage storage capacity, leading to manual interventions in baggage operations. The current systemʼs limited scalability and adaptability hinder the efficient handling of future passenger growth. While CPH has undertaken various infrastructure investments to alleviate these issues, the high costs and intensive labor demands have prompted the exploration of more sustainable solutions, particularly offairport baggage service (OABS). By focusing on these challenges, the research underscores the pressing need for innovative solutions in baggage handling processes at CPH.

Approach: Adopting a mixed-method approach, the research integrates both qualitative and quantitative analyses. Utilizing the design for Six Sigma methodology, the study is structured into distinct phases:

• Defining the project scope, objectives, and customer requirements.

• Measuring the existing baggage handling system to understand stakeholder roles, process workflows, and bottlenecks.

• Analyzing operational data to pinpoint inefficiencies, complimented by an investigation and benchmarking of existing OABS, to identify key service components.

• Designing five tailored OABS concepts by integrating benchmarked components to meet CPH’s specific requirements.

• Validating the OABS concepts through a sensitivity analysis, to identify the one that best meets CPH requirements. Followed by a SWOT analysis of the chosen OABS, revealing potential risks and devising strategies for mitigation.

indicates that an OABS might not directly address the root problem and could introduce further complexities to the check-in process.

These insights emphasize the necessity of viewing the baggage handling process holistically, suggesting that the true value of an OABS can only be realized by comprehensively understanding and addressing the fundamental issues it aims to solve. This study thus sets the groundwork for further detailed research into optimizing baggage handling processes.

Advisor

Dr. Katrin Hügel

Co-Examiner

Samuel í Hjøllum Rude, Senior Director, Head of Airport Baggage Services Copenhagen Airports A/S, DK-2770

Kastrup

Subject Area

Business Engineering, Innovation in Products, Processes and Materials – Business Engineering and Productions

Project Partner

Copenhagen Airports A/S, DK-2770 Kastrup

This systematic approach ensures a thorough analysis, setting the stage for solution development.

Result: The study had two main findings. Firstly, the design of an OABS concept with the baggage pickup service emerging as the most viable concept for CPH. The SWOT analysis highlighted challenges, including dependency on external logistics, operational costs, passenger trust, sustainability, and technology reliance. To mitigate these challenges, the thesis advocates for robust stakeholder collaboration, targeted market segmentation, and comprehensive pilot testing of the concept.

Secondly, it was discovered that CPH’s core issue might not be capacity-related but stems from operational inefficiencies in the check-in process. This

Illustration of the processes involved in the baggage pick-up service

Own presentment

Fishbone diagram constituting the causes for CPH‘s check-in and baggage handling system capacity challenges

Own presentment

A simplified process overview of departing baggage and the duration between processes and baggage‘s cycle time

Own presentment

15 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Mathilde Dahl Schæfer Graduate Candidate

Civil Engineering

Im Profil Civil Engineering bietet die OST die folgenden sechs Studienschwerpunkte an:

• Konstruktiver Ingenieurbau

• Bauwerkserhaltung

• Nachhaltigkeit im Bauwesen und Betontechnologie

• Geotechnik

• Wasserbau und Umweltingenieurwesen

• Building Information Modelling – BIM

Beteiligtes Institut

• IBU Institut für Bau und Umwelt

16

Bond in concrete and its consequences on the structural level

Conventional vs. memory steel reinforcement

Introduction: Many existing reinforced concrete structures around the world will need to be rehabilitated in the future. Depending on the structure, an increase of the ultimate limit state or an improvement of the serviceability will be required. This may be due to increased service loads, new code requirements or poor original design.

There are several non-prestressed systems available to improve the ultimate limit state, but only a few prestressed systems with certain disadvantages to improve the serviceability limit state. However, prestressed solutions would often be the most suitable option to reduce deformations and partially close cracks in the existing structure again.

A newer prestressing system that can overcome many of the mentioned difficulties is the memory steel reinforcement. It consists of an iron-based shape memory alloy (Fe-SMA) that can build up prestress through an activation process. An ongoing research project aims to combine ultra-high-performance fiber-reinforced concrete (UHPFRC), another innovative material that is gaining popularity in rehabilitation projects, with memory steel reinforcement. The goal is to develop a new system for strengthening and prestressing the concrete deck of existing bridges.

Approach/Technology: The strengthening system, consisting of UHPFRC and memory steel reinforcement, was tested in activation and pullout tests (Figure 1). Various measurement techniques such as Distributed Fiber Optical Sensing (DFOS) and Digital Image Correlation (DIC) were used to determine the required information. This obtained data will be used in the future to develop a new design guideline for this strengthening system. Furthermore, nonlinear finite element modelling calculations were carried out to gain a better understanding of the interaction between the UHPFRC and the memory steel reinforcement. Analytical ultimate and serviceability limit state calculations of this strengthening system were also performed on an example bridge to demonstrate the potential of the new strengthening system.

The material model of the UHPFRC and the bond models of the conventional steel and the memory steel reinforcement were determined by nonlinear finite element calculations. These models can be used in further analyses.

The cross-section calculations carried out on the example bridge demonstrated the effectiveness of the UHPFRC and memory steel strengthening system. Individual construction stages were considered and it was shown that large reductions in stresses, strains and deformations can be achieved (Figure 3).

Own

Advisor

Prof. Dr. Ivan Marković

Co-Examiner

Dr. Christoph Czaderski, Dübendorf, Zürich

Subject Area

Civil Engineering

Project Partner

Empa, Dübendorf, Zürich / Re-fer AG, Seewen, Schwyz

Result: During the activation tests, cracks appeared on the surface of the UHPFRC due to the uneven heating of the specimens when activating the memory steel reinforcement. As a result, the test setup of the later pullout tests had to be modified. The memory steel inside the UHPFRC body got no longer activated. Otherwise, the pullout tests were completed mostly successfully within the planned timeframe. Innovative solutions were always found for problems that arose during the tests. The analyzed measurement results showed to be of good quality (Figure 2).

17 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Bau und Planung
Fig. 2: Postprocessing of the fiber optical strain measurements of a pullout test with long embedment length presentment Fig. 3: The construction stages of the UHPFRC and memory steel strengthening system during the rehabilitation Own presentment Fig. 1: Test setup of the activation tests and pullout tests with long embedment length Own presentment Stefan Thoma Graduate Candidate

Computer Science

Im Profil Computer Science bietet die OST die folgenden sechs Studienschwerpunkte an:

• Software Engineering and Technology

• Advanced User Interfaces

• Programming Languages

• Software-Defined Networking

• Communication Systems

• Cybersecurity

Beteiligte Institute

• ESA Institut für Elektronik, Sensorik und Aktorik

• EMS Institut für Entwicklung Mechatronischer Systeme

• IFS Institut für Software

• INF Institut für Ingenieurinformatik

• INS Institut für Netzwerke und Sicherheit

18

Assessing RISC Zero using ZKit: An Extensible Test & Benchmarking Suite for ZKP Frameworks

Introduction: In the realm of digital money, a common use case involves proving the membership of a coin or token within a publicly accessible set of valid coins. The authority responsible for issuing or minting these valid coins establishes this set, for example, using a Merkle tree data structure. To demonstrate the inclusion of a specific coin in this set, a prover P provides an authentication path or Inclusion Proof (IP), which is a list of hash values or digests from the tree’s leaf to its root. The verification process involves verifier V hashing the leaf data, appending the next digest to the result, and repeating this step until processing all elements in the authentication path. V is convinced of the coin’s inclusion in the set when the final digest matches the publicly known root hash of the Merkle tree. While the above described method is considered an easy-to-implement and efficient way to demonstrate an item’s inclusion in a set, it necessitates revealing the particular item in question. In the context of digital money, however, this contradicts with upholding user privacy. In other words, P should be able to convince V that a given coin belongs to a set of valid coins without disclosing the specific coin’s identity. The emerging field of Zero-Knowledge Proof (ZKP) protocols serves as a solution to this problem. RISC Zero or risc0 enables verifiable general-purpose computations in zero knowledge through its virtual machine (VM), which emulates a reduced Instruction Set Architecture (ISA). This so-called Reduced Instruction Set Computer (RISC) inspired the framework’s naming. The reason for focusing on risc0 in this thesis is twofold. First, it allows to specify circuits or proof logic natively using Rust, which leverages the ease to develop custom ZKPs. Second, it implements the Scalable Transparent Argument of Knowledge (STARK) protocol which, in contrast to Succinct Noninteractive Argument of Knowledge (SNARK) systems, does not require a trusted setup and is post-quantum secure.

Go ecosystem through a wrapper library. This portability facilitates the integration of ZKPs in existing Go projects such as for example the Fabric Token SDK (FTS). Last but not least, we share our risc0 benchmark results on IPs in two different settings. In the first setting, we measured the performance and allocated resources to create one proof for a single IP. In the second setting, we aggregate or batch multiple IPs in a single proof. We compare and interpret the results of these two settings at the end and state our recommendations that we drew from it.

ZKit component diagram

Dr. Alexandru Caracas

Co-Examiner

Dr. Thorsten Kramp

Subject Area Computer Science, Data Science, Software and Systems

Project Partner

IBM Research, Rüschlikon, Zürich

Approach/Technology: This thesis summarizes the most important properties of ZKPs and highlights the key differences between two famous implementation families, namely SNARK and STARK systems. Also, we provide a summary of promising software libraries or frameworks that help to create and verify ZKPs. Next, we analyze risc0 in detail using the above-addressed use case of an IP, i.e., proving the inclusion of leaf in a Merkle tree data structure. Therefore, we propose the concept of ZKit, an extensible tool kit for testing and benchmarking various ZKP frameworks. Besides a Command Line Interface (CLI) to execute parameterized benchmarks or generate Merkle tree test data, it also contains functionality to define and exchange IPs in a unified way. Furthermore, ZKit exemplifies how ZKP circuits written in Rust can be ported to the Advisor

Comparative duration of batched IPs relative to single IP

19 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Own
Screenshot of the ZKit CLI
presentment
Own
presentment
Own
presentment
Roman Bögli Graduate Candidate

Enhancing Java Performance: vector API or iGPU?

Comparing the vector API and a novel SVM Buffer Java API for integrated GPU

Introduction: With its vector API, Java provides an abstraction layer for executing vector operations on CPUs supporting Advanced Vector Extension (AVX) to speed up execution. On the other hand, shared virtual memory (SVM) API in OpenCL 2.0 enables the same virtual memory address the GPU and the application processor, reducing the overhead of memory operations. In this master thesis, we explore if integrated graphics cards (iGPUs) supported by SVM can improve performance compared to vector API. We develop SVMBuffer API, an extension of OpenCL’s SVM API for Java.

Approach/Technology: We explore the architecture and implementation of the SVMBuffer API and explain its integration with Java applications and the underlying OpenCL platform. We assess the performance implications of using SVMBuffer API compared to vector API in various computational scenarios, namely, Discrete Fourier Transform (DFT), Matrix Multiplication (MM), Gaussian Blur (GB), and the Black-Scholes model (BS).

Result: The SVMBuffer API is particularly promising in operation-intensive scenarios such as DFT. DFT performance is improved from a workload size of 65,536 by 1.4, compared to vector API. At a workload size of 131,072, performance can be increased by a factor of two.

If identical operations are performed on the iGPU and AVX, iGPU shows better performance only on DFT. Due to the slower memory access of the iGPU compared to the CPU, the vector API outperforms the SVMBuffer API in MM, GB, and BS benchmarks.

Benchmark performance results Own presentment

Advisor Prof. Dr. Mitra

Purandare

Co-Examiner

Dr. Raphael Polig, IBM Research GmbH, Rüschlikon, ZH

Subject Area

Computer Science

Project Partner

Martin Stypinski (Veemg GmbH), Binz, ZH

Finally, we show that with specifically tailored kernels, Matrix Multiplication and Gaussian Blur performance can be improved compared to translating the algorithm from Vector API to SVMBuffer API. Investigation of specialized kernels that reuse existing buffers and reduce the time spent on memory operations is recommended for further performance gain.

Representation of the address space of a SVM buffer Intel (OpenCL™ 2.0 shared virtual memory overview)

Hardware platforms used in benchmarking Own presentment

20
Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Reto Ehrensperger Graduate Candidate

TypeSearch: Type-Directed API Search For All

Introduction: Software developers spend a lot of their time finding and composing preexisting functions from various libraries. Almost all developers today use general-purpose search engines for this search. Specialized search engines such as Hoogle additionally use type information to improve this search, and have been successful for some typed functional programming languages. The options currently available for type-directed search for mainstream object-oriented languages is limited. Existing approaches for these languages do not have firstclass support for subtyping or parametric polymorphism. The splitting and composition of a desired functionality into and from a number of preexisting functions is also a task that needs to be done manually. In this master’s thesis we present a proofsearch-based approach to type-directed search with first-class support for subtyping, parametric polymorphism, splitting, and composition. The approach is language-agnostic, and can be specialized to simultaneously support multiple typed object-oriented languages. Given that most mainstream languages fall under this category, this approach would extend the benefits of type-directed search to the majority of programmers. As a proof of concept, we provide a running implementation of the core language-agnostic approach and extend it to support the Java programming language. Further extensions would allow the tool to simultaneously support multiple programming languages using the same query syntax.

Approach: This master’s thesis presents two chief contributions:

– A proof-search-based approach, using the CurryHoward correspondence, for finding API functions based on a user-supplied approximate type signature, with full support for parametric polymorphism and subtype polymorphism. We name this approach TSaPS (Type Search as Proof Search).

– TypeSearch, a proof-of-concept implementation of TSaPS. TypeSearch is designed with a modular plugin system so that support for new programming languages and different storage backends can be added easily. TypeSearch ships with a plugin implementation for Java, and a simple in-memory storage backend. TypeSearch is publicly accessible at typesearch.dev.

libraries. We are looking forward to further developing of TypeSearch and are eager for feedback, which can be given on typesearch.dev.

Advisor

Prof. Dr. Farhad D. Mehta

Co-Examiner

Dr. Joachim Breitner

Subject Area

Computer Science, Software and Systems

Conclusion: A type-directed API search and code synthesis approach based on the Curry-Howard correspondence and proof search is certainly viable and flexible enough to be used for typed mainstream programming languages. With our proof-of-concept implementation, TypeSearch, we show that the approach performs well for medium- to large-sized

presentment

Own presentment

Own presentment

21 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Response time measurements of TypeSearch. Histogram (right) is measured with index size 40,000. Histogram of search result ranking measurements for exactly matching type query Screenshot of the TypeSearch UI at https://typesearch.dev Own Marc Etter Graduate Candidate

Leveraging eBPF for Intent-Driven Application-Centric End-to-End Segment Routing over IPv6

Bridging the Gap between Application-Requirements and Network Routing Decisions

Introduction: In today’s digital era, the rapid evolution of applications significantly shapes how people work, communicate, and interact with technology. New hypes like artificial intelligence will become more and more critical. As these applications become increasingly complex and essential day to day, the underlying network infrastructure must evolve to meet their demanding requests. A fundamental shift of the traditional routing paradigms is required to achieve a more application-centric model. It is necessary to make changes that allow networks to adapt dynamically to the application’s needs and scale accordingly to meet demand.

Approach/Technology: The goal was to develop a client/server application with the Go programming language and the Extended Berkeley Packet Filter (eBPF) that enables Segment Routing over IPv6 (SRv6) on end devices. This combination established the foundation to control the path from source to destination via end devices rather than through the network. Building on this, eBPF is utilized for packet matching by focusing on destination IPv6 addresses and ports. This function is essential for ensuring packets are accurately encapsulated with SRv6. The encapsulation information is based on high-level intents, which are translated to operational objectives.

Conclusion: This research embarked on an ambitious plan to bridge the gap between application requirements and network routing decisions. The goal was to define application-centric requirements for the traffic to be routed accordingly. By leveraging the data plane capabilities that eBPF brought and the advanced possibilities of SRv6, an application was developed that achieved the intended objectives. The application can read high-level intents, which then translates to operational objectives. With the

intent and the application-based traffic matching, an application-centric framework is born which can differentiate various application traffic and encapsulate that according to the intent. The application allows application developers to define their requirements simply without interacting with the network.

Application architecture

Own presentment

22
architecture
presentment
eBPF
Own
traffic matching
presentment Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT Advisor Prof. Laurent Metzger Co-Examiner Philip Schmid, Isovalent
Area Computer Science, Software and Systems
Partner
McDougall, Cisco Systems
eBPF
map structure for
Own
Subject
Project
Bruce
Julian Klaiber Graduate Candidate

Using Functional Reactive Programming for Robotic Art

Introduction: Usually, the control software for robotics applications is written in a low-level imperative style, as shown in Figure 1. This method intertwines the program sequence with commands for motors and sensors. To describe the program’s behavior, it is typically divided into different states, each representing a specific system condition. It can be challenging to recognize the points at which state transitions are triggered. This way of programming complicates the comprehension of the code, making changes to the program flow a tedious task.

Functional Reactive Programming (FRP) offers a composable, modular approach for developing reactive applications. To compare FRP with the conventional imperative style, the control software for the robotic artwork Edge Beings by Pors & Rao was developed. The design uses Yampa, an FRP implementation in Haskell.

Approach: The artwork Edge Beings involves a motion sensor and motors, enabling figures to crawl over the edges of panels (see Fig. 3). The beings’ behavior varies based on the viewer’s proximity to the artwork. If the viewer is too close, the beings only peek over the edge. Otherwise, social dynamics can be observed between them. The beings belong to distinct groups, with only one allowed to emerge completely at a time. Each group has a suppressor that can drive away weaker groups, making room for its own group.

In Yampa, the problem can be implemented similarly to the described scenario (see Fig. 2). The «behavior» function switches from social to disturbed behavior when a motion event is registered by the sensor and reverts to social behavior when no motion is detected. The «social» function defines the behavior corresponding to each being’s role. For a suppressor the «suppressor» function initiates «creepOut» if it outranks the current group, allowing the suppressor to fully emerge. This triggers the «currentGroupEv» event for the suppressor’s group, enabling it to emerge as well.

Furthermore, the Yampa implementation presents state transitions more clearly, resulting in a more understandable code, especially for people with little programming experience. Nevertheless, getting started with FRP can be challenging as there are distinct definitions of FRP and frameworks based on different concepts.

Advisor

Prof. Dr. Farhad D. Mehta

Co-Examiner

Dr. Joachim Breitner

Subject Area

Computer Science, Software and Systems

Project Partner

Pors & Rao Studio, Bangalore, India

Instead of communicating directly with the motors, the FRP approach produces a signal indicating the current positions of the beings during runtime. This signal can be consumed by the motors that move to the corresponding position. This decouples the behavior of the beings from the control of motors.

Conclusion: The design allows to modify the behavior without adapting the hardware control. In addition, the produced position signal can be used for a simulation of the artwork. This enables users to visually observe the effects of modifications in the program without access to the physical hardware.

Own presentment

Own presentment

Source: Pors & Rao Studio

23 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Figure 2: Implementation of the behavior of Edge Beings using FRP (simplified) Figure 3: Sketch of the artwork Edge Beings Figure 1: Implementation of the behavior of Edge Beings using imperative style (simplified) Eliane Irène Schmidli Graduate Candidate

Data Science

Im Profil Data Science bietet die OST die folgenden drei Studienschwerpunkte an:

• Data Analytics

• Data Engineering

• Data Services

Beteiligte Institute

• ICE Institut für Computational Engineering

• IFS Institut für Software

• INS Institut für Netzwerke und Sicherheit

• ICOM Institut für Kommunikationssysteme

• IMS Institut für Modellbildung & Simulation

• ICAI Interdisciplinary Center for Artificial Intelligence

24

Real-Time Object Detection on Low-Power Edge Device with Hardware Acceleration

Introduction: Convolutional Neural Networks (CNNs) have led to significant advancements in the field of computer vision, including object detection. However, the computational complexity of CNNs requires significant electrical energy per inference cycle when executed on standard GPUs. This and the significant cost of GPUs prevent the application of CNNs in many practical applications. A resolution to this issue is aimed by specialized hardware that is at the same time power-efficient, fast and low-cost. This thesis explores the use of a dedicated accelerator in combination with a microcontroller on an embedded edge device for low-power object detection.

Approach: The target platform selected is the Google Coral Dev Board Micro. The board is equipped with an Edge TPU, a specialized component designed for accelerated AI processing designed by Google. It includes a microcontroller as its main processor and a camera for image acquisition. With the help of the Keras framework, a CNN was implemented and trained on a PC. The weights were then quantized to 8-bit integers and compiled for the Edge TPU.

Conclusion: The capabilities of the Edge TPU on the Google Coral Dev Board Micro were evaluated on a practical task. The results show that this board is capable of running the inference in real time with a latency of around 20 ms, while consuming less than 1 W of power.

Application: Prediction map of a cyclist detection model Own presentment

Advisor Prof. Dr. Martin Weisenhorn

Co-Examiner

Prof. Dr. Helmut Grabner, ZHAW Zürcher Hochschule für angewandte Wissenschaften, Winterthur, ZH

Subject Area

Data Science, Computer Science, Electrical Engineering

Google Coral EdgeTPU compile workflow https://coral.ai/docs/edgetpu/models-intro

25
Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
The detection model contains operations not supported by the TPU – these operations are performed by the CPU.
https://coral.ai/docs/edgetpu/models-intro
Marc Benz Graduate Candidate

Ratatouille – Autoencoders as chef and nutritionist

Introduction: Artificial intelligence is rarely used in current cooking recipe processing and management. Large recipe databases such as food.com, cookbooks.com or chefkoch.de do currently not offer such services. When using music streaming services such as Spotify, for example, we are used to receiving music suggestions from algorithms. When it comes to cooking, however, we still rely on classic recipes that are usually maintained by laborious manual work. This thesis addresses this gap and aims to process recipes and their ingredients with the help of neural networks.

Whenever we buy a cookbook and cook the recipes described in it, we are used to the fact that we will like most or some of them. Although everyone’s taste is individual, some combinations of ingredients seem to go better together than others. The theory is that there is a way to statistically determine which ingredients fit together better and which ones less well.

«There’s a scientific reason certain foods pair well and others don’t.»

Conclusion: Recipe databases are sparse and international recipe databases do not even exist yet. Most of them originate from the North American culture and are therefore geographically bounded. Imperial units and different packaging sizes (cans and jars) require additional preprocessing efforts to standardize all quantities into SI units.

Well-maintained nutrition datasets for data enrichment are widely available. This enables deep insights into the available ingredients. The difficulty comes when merging a recipe database with a corresponding composition database. This causes problems due to the lack of language models trained on recipes.

We use standard and variational autoencoders as generative models for new recipes and as the basis for an online recommender system to generate new recipes based on ingredients one finds at home. When training the recipe data, a vanishing gradient can be observed depending on the network architecture. This is due to the extremely diverse dataset and smooth transitions between recipes.

achieve a fully functional product, but the approach in this thesis works surprisingly well and there is plenty of room for further experimentation.

Advisor

Prof. Dr. Christoph Würsch

Co-Examiner

Prof. Dr. Klaus Frick, Berufsmittelschule Liechtenstein, Vaduz

Subject Area Data Science

Despite the challenging situation, it is still possible to create a meaningful latent space. The corresponding embeddings can be used in a variety of ways.

Result: One of the trained models is selected and used to create an interactive web app as an example of how such networks can be applied and implemented. There is still a lot of work to be done to

Data engineering concept in which various datasets are used and merged Own presentment

UMAP visualization of recipe embeddings. Own presentment

Simple ingredient finder using a trained autoencoder. Own presentment

26 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Joel Erzinger Graduate Candidate

Benchmarking Time Series Databases for Monitoring and Analytics: TimescaleDB vs. InfluxDB

A Comprehensive Comparison of Two Popular Time Series Databases for Energy Plant Data

Initial Situation: The growing importance of time series (TS) data, driven by technological advances and the emergence of the Internet of Things, underscores the need for tools capable of handling the inherent challenges. Time series databases (TSDB) advertise their suitability in this regard by providing techniques catered to this data category. However, within this domain, disparities emerge between SQL-based solutions on one side and purpose-built NoSQL solutions on the other side. Their architectural differences must be considered when faced with a TS application. In energy plant monitoring, data is first gathered in a sensor fusion unit (SFU) and then transmitted to a remote data storage and processing unit (RDSPU) for further analytics (Fig. 1). Here, a TSDB must interface with various tools along the data pipeline and provide the means to efficiently manage the workload. This thesis analyzes whether the PostgreSQL-based TSDB TimescaleDB can meet these requirements. Furthermore, TimescaleDB and the purpose-built TSDB InfluxDB are benchmarked.

performance tests show that InfluxDB, in its default configuration, exhibits superior query performance through its TS-optimized engine. In addition, InfluxDB uses less disk space by directly compressing data. However, with features like continuous aggregates, multi-indexing, or manually set compression policies, TimescaleDB can notably mitigate the performance gaps. Under the benchmark conditions created here, InfluxDB achieves a higher performance score (7) than TimescaleDB (3). TimescaleDB, on the other hand, offers more advanced database features, such as granular access management, due to its integration with PostgreSQL, while maintaining high performance for TS. Therefore, in the context of the given scenario and the established list of criteria, TimescaleDB achieves a higher overall product (17) score than InfluxDB (13).

Advisor

Co-Examiner

Subject Area

Software and Systems, Computer Science, Data Science

Approach: The goal of this thesis is to provide a comprehensive comparison of TimescaleDB and InfluxDB. First, by describing their techniques, such as TimescaleDB’s hypertable partitioning or InfluxDB’s time-structured merge tree and columnar data structure. Both leverage caching and enable efficient data processing. Then, by implementing both tools in the context of an industry scenario. Thus, the key characteristics of TS, specific TSDB techniques, and benchmark methodologies are explored. Based on these findings, the framework for the benchmark is defined. As shown in Figure 2 these findings precede the practical implementation. In this phase, a server-based test environment is created to emulate production conditions. Real energy plant data is collected for two months. Every 10 s around 25,000 datapoints are written to the database, leading to a dataset that grows by 2 GB each day. For the performance benchmark, disk usage, query execution time, CPU and memory resources are measured in several tests. In addition, a list of twelve key criteria for a TSDB in the given scenario (i.e. interoperability, or access management) is established based on literature research and direct exchange with industry representatives. For each performance test and criterion, the tools are rated on a scale from –2 to 2, resulting in a performance score and an overall product score.

Result: Despite their operational differences, this study provides a nuanced and transparent comparison of two popular TSDBs. It was possible to embed TimescaleDB in the current data pipeline and use its data for plant monitoring dashboards (Fig. 3). The

Own presentment

27 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Fig. 2: Framework for benchmarking this thesis with phases 1–5 for efficient implementation and sound results Fig. 3: Sample dashboard created in the Grafana tool showing near real-time plant data from TimescaleDB Own presentment Fig. 1: Schematic of an energy plant monitoring data pipeline with a remote time series database Own presentment Lucien Hagmann Graduate Candidate

Evaluation of the use of 3D LiDAR Point Cloud Data in Speed Enforcement Systems

Definition of Task: This thesis evaluates the use of 3D LiDAR point clouds for speed enforcement. Currently LiDAR data in only two dimensions is most often used for speed enforcement.

In addition, this work also shows some examples for neural network approaches which can be applied if more data was available and correctly labelled.

Advisor

Prof. Dr. Christoph Würsch

Co-Examiner

Prof. Dr. Klaus Frick, Berufsmaturitätsschule Liechtenstein, 9490 Vaduz, Liechtenstein

Subject Area

Data Science

Project Partner

KISTLER AG, Winterthur, Zürich

The main reason for this thesis is that accuracy does not translate to a competitive advantage, since they are either certified or denied. Instead, an advantage can be gained with quality of life improvements, such as surveiling additional lanes, or with additional data, for example classification of cars.

Approach: Neural network approaches were not feasible due to the sparsity of the available data. Instead, a classical signal processing pipeline is developed for estimating the speed of a series of 3D point clouds. For the photographic proof of exceeding the speed, a decision has to be taken by the processing chain in real time. Therefore, the focus is the development of lean algorithms that can be executed with low computation effort. After a background removal, each point cloud is collapsed to a single point. Those points are used to estimate speeds for each frame, either by dividing the distance by the time or by using different filters, such as a Kalman filter. The series of speeds are filtered again to remove outliers and then aggregated to generate a final prediction.

Conclusion: While this thesis was not able to reach a point where it could be directly certified and used due to the limited accuracy reached, it shows promising results. A better LiDAR sensor is necessary, both the frame rate and the density of the point cloud should be increased greatly.

Example point cloud (background is filtered out). The data is relatively sparse and the car is represented as L shapes.

Own presentment

Framespeeds, in a postprocessing step – outliers are removed and then combined into a final prediction

Own presentment

Results of slow speeds (less than 40 km/h). The median error is lower than 2 km/h for almost all options.

Own presentment

28
Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Graduate Candidate

Occupancy monitoring with image recognition methods for low-resolution thermal sensors

Introduction: Demand-driven control of heating, ventilation, air-conditioning, lighting and other large energy-consuming systems in facility management is becoming increasingly important in the era of climate change and energy crisis. A key component of demand-driven control are smart sensors. These sensors measure and process relevant information in real time and trigger appropriate reactions. One of the most important required information for demanddriven control of applications is room occupancy. However, commercial smart sensors that can measure room occupancy are typically expensive because they are based on high-resolution camera systems and other powerful hardware, making them unsuitable for equipping an entire building. In addition, these solutions do not protect people’s privacy, at least not at the hardware level.

Approach/Technology: In this work, we evaluate various methods from the field of computer vision for their suitability to estimate room occupancy based on low-resolution (32 x 24 pixels) infrared images. The sensors collecting these images are cheap and protect privacy at the hardware level. We consider both state-of-the-art and tried-and-tested methods. By state-of-the-art methods we mean different neural networks architectures and by tried-and-tested methods we mean maximum filters, blob detectors and other «classical» image processing solutions. Since the solution is supposed to run on an embedded device, we consider only neural network architectures that are proven to be compatible with the resource constraints of embedded devices. Additionally, we evaluate three data-driven methods for foreground extraction that we use for data preprocessing. These methods filter out the background from the infrared images and thus simplify the occupancy estimation problem. Finally, we compare the performance as well as the number of parameters and the computational complexity of the evaluated solutions. The images were recorded in a breakout room during operation with occupancies ranging from 0 to 15 people.

tion. Using foreground extraction as a preprocessing step can help reducing the complexity of the occupancy estimation problem. All investigated algorithms were able to successfully extract the background, while stable principal component pursuit (SPCP) was also able to remove most of the noise. This capability makes SPCP our clear favorite as it allows the use of simpler estimators and flexible temperature thresholds.

Advisor

Prof. Dr. Lin

Himmelmann

Co-Examiner

Subject Area

Data Science

Project Partner

Volkher Scholz, Belimo

Automation AG, Hinwil, ZH

Result: The results show that the best neural network and the best classical image processing solution performed comparably good. The best neural network architecture, a simple CNN, reached an accuracy of 81.22%, while the best classical solution, a maximum filter, reached 77.43%. However, the maximum filter requires only 23 parameters while the CNN uses 444,880 parameters – an enormous difference. In addition to the significantly reduced number of parameters, the maximum filter does not require extensive training and can be immediately generalized to other settings, making it our preferable solu-

Illustration showing the data collection setup. The two sensors are mounted to the ceiling of the room.

Own presentment

Example of maximum filter solution identifying people in lowresolution thermal images

Own presentment

Measured vs. estimated occupancy (maximum filter)

Own presentment

29 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Remo Pfister Graduate Candidate

Development of Four-Legged Walking Robot Integrating Simulation and Reinforcement Learning

An Interdisciplinary Effort: Combining Software, Electrical, and Mechanical Engineering, Robotics and AI

Introduction: Inspired by the academic and industrial in advancements legged robotics, this project’s aim was to develop a walking robot for the Interdisciplinary Center for Artificial Intelligence (ICAI) at OST. This endeavor, a joint effort led by Michael Schneeberger and Joel Meier, merged the expertise of software, electrical, and mechanical engineering and data science. The overarching ambition was not just to construct a functional robot but to establish a versatile platform for future student projects. As the project progressed, a detailed simulation of the robot was crafted using Onshape and NVIDIA’s Isaac Gym, focusing on reinforcement learning to teach the robot locomotion.

Approach/Technology: The robot’s creation involved a series of prototypes, facilitated by the use of a 3D printer. It is equipped with a Jetson Xavier NX processor, an inertial measurement unit (IMU) featuring an accelerometer and gyroscope, and specialized sensors in each foot for measuring distance and weight. The design incorporates smart servomotors for precise movement control and feedback. For the software part, a software package was developed in C++, incorporating a web server with WebSocket support and a userfriendly interface. This interface, built with React, allows users to interact with the robot, monitor its status, and control it through a virtual game pad, all via WiFi. Further achievements of the project include the development of custom inverse kinematics and walking algorithms, enabling the robot to maneuver on flat surfaces and perform intricate movements like dancing.

Result: The reinforcement learning aspect of the project showed promising results, especially in software. A pipeline was developed for transferring models from

simulation to the actual robot, and a basic model was tested successfully. This progress opens doors for future projects to potentially complete the Sim2Real gap, allowing the robot to navigate based on advanced reinforcement learning methods. Future goals include enhancing the software and integrating sensors more deeply into the robot’s movements, enabling it to adapt to challenging environments like uneven terrain.

Own presentment

Own presentment

Advisor

Hannes Badertscher

Co-Examiner

Gabriel Sidler, Teamup Solutions AG, Zürich, ZH

Subject Area

Mechanical Engineering, Electrical Engineering, Software and Systems, Computer Science

Project Partner

ICAI, OST Rapperswil, SG

30
The physically accurate virtual replica of the robot, used in NVIDIA Isaac Gym for reinforcement learning Own presentment The four-legged robot constructed for this project, standing on a wooden table An early prototype of the robot, remotely controlled using a virtual game pad on a smartphone
Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Michael Schneeberger Graduate Candidate

Learning Robots to Work on the Construction Site

Autonomous

and Collision-Free Manipulation

in Complex Environments using Reinforcement Learning

Introduction: Hilti AG, headquartered in Schaan, Liechtenstein, presented the first semiautonomous construction site robot called Jaibot at the end of 2020. Other manufacturers from the fastening technology sector have now also jumped on the robotics technology track, as shown by the recently presented Baubot from the German company Fischer or also Basil from the US start-up Canvas. The development of an autonomous robot system with the ability to independently localize itself in a room or the collision-free manipulation of a multi-axis robot still represent very high technical challenges and are a current and upcoming field of research. Robot programming using classical control theory reaches its limits in complex environments where a system has to react to temporally changing conditions or a multitude of moving obstacles. The analytic or concentrated modeling of a control plant is no longer possible. Using realistic physical simulation environments such as NVIDIA Isaac Sim or Gazebo, a digital robot twin can be trained using reinforcement learning (RL) to fulfil complex tasks and react to changing environments without explicitly being programmed.

Objective: The aim of this master’s thesis is to develop a complete simulation pipeline with NVIDIA Isaac Sim. The focus of this work was on the following core topics:

– Generation of synthetic images for automatic drill hole detection

– RL policy for data-based control of a six-degree-offreedom manipulator

– 3D reconstruction of the scanned environment based on RGB-D data respectively point clouds

– Collision-free path planning of a manipulator in a complex environment

– Comparison of classical path planning algorithms and data-based approaches

– Transfer of simulation to reality «Sim2real»

Advisor

Prof. Dr. Christoph

Würsch

Co-Examiner

Dr. Nitish Kumar, Hilti AG, Schaan, Liechtenstein

Subject Area

Data Science

Project Partner

Hilti AG, Schaan, Liechtenstein

Result: The first step in the setting process for stud anchors is the millimeter-precise detection of drill holes in a ceiling. Due to tolerances and inaccuracies in the robot’s mechanics, the drill hole must be detected using an imaging process. Within the scope of the work, classical computer vision (CV) algorithms, such as Hough transformation for drill hole detection were compared with deep learning (DL)based approaches, like the YOLO detector in terms of their accuracy and robustness. Various simulations were developed, such as an end-to-end simulation with classic path planning algorithms. Several experiments were performed to realize a data-based policy for collision-free path planning with the help of RL. For this purpose, point cloud data from the RGB-D camera were reduced to a low-dimensional latent

vector, that was used as additional state input for the RL algorithm. Due to limited GPU memory, it was not yet possible to train a vision-based RL task successfully. In a final step, the Python-based path planning algorithms such as RMPflow or RRT were transferred from the simulation to a real robot and then validated in the real world (Sim2Real).

31 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Massive parallel training within NVIDIA Isaac Gym as enabler for training RL policies in complex environments
Own presentment
Training curve of the reward: over 4,000 training epochs showing a steady improvement of the fulfilment of the task
Own presentment
Jaibot robot: a semiautonomous drilling robot from Hilti https://ifdesign.com/de/winner-ranking/project/hilti-jaibot/ Robin Vetsch Graduate Candidate

Realisation of an Automatic Hot-water Weed Treatment System

Introduction: This master thesis delves into two distinct yet interconnected aspects of agricultural robotics and environmental monitoring. Firstly, the study explores the precision requirements in robot control while simulating hot water penetration into ground soil. Examining temperature dynamics reveals intricate heat transfer phenomena around the penetration area, highlighting the necessity for precise control mechanisms.

Approach: The research addresses the detection of Rumex obtusifolius, a prevalent weed, utilizing aerial imagery and a close-up detection model. Aerial imagery analysis yielded an average intersection over Union (IoU) of 0.3556 on the test dataset, emphasizing the algorithm’s proficiency in identifying the weed. However, challenges arise when ground truth annotations are absent, potentially leading to underestimating the algorithm’s overall performance.

Approach/Technology: In the case of the close-up detection model, the study reports a commendable mean average precision (mAP) of 0.894 and a recall of 0.864 in Rumex obtusifolius detection. Nevertheless, applying this model to estimate relative distances exposes a measurement bias. Triangulation and leveraging LiDAR data are applied to enhance position estimation accuracy and mitigate measurement bias. This research contributes to the evolving field of agricultural robotics and environmental monitoring, shedding light on the intricacies of robot control precision, the challenges in weed detection algorithms, and strategies to address biases in position estimation. The insights gained have implications for improving the robustness and reliability of such technologies in practical agricultural settings.

Overview weed treatment system

Advisor

Prof. Dr. Dejan Šeatović

Co-Examiner

Thomas Anken, Agroscope

Subject Area Data Science, Mechatronics and Automation

Project Partner

Agroscope, Tänikon, Thurgau

32 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Agriculture meadow with high density of Rumex obtusifolius (predictions in red and ground truths in blue)
Own presentment
Example of position estimation measurements using depth camera
Own presentment
Own presentment
Severin Weiss Graduate Candidate

Deep learning for detecting contaminants in poultry

A comparison of several deep learning methods for anomaly detection in X-ray images

Introduction: In food processing plants, X-ray machines are used to inspect products for contaminants such as machine parts or food by-products. The X-ray images need to be automatically analyzed to detect these contaminants. The automated method must be adaptable for different types of products being inspected and should also have a low false-positive rate (FPR). A low FPR is desirable to avoid expensive and time-consuming manual inspections. A machine learning approach could simplify the process for inspection of new products and reduce labour cost. In this research project, different machine learning models are trained and tested on the given dataset of X-ray images of chicken to detect contaminants.

Approach: Two approaches were tested to detect contaminants in X-ray images: a classification approach where the model is trained with labels from the existing algorithm, and an anomaly detection approach where the models learn the distribution of normal data that is not contaminated. The anomaly detection approach evaluates whether the sample is within the distribution of normal data or not. On the other hand, the classification approach learns features that are indicative of a contaminant. The models were trained using the given dataset and evaluated based on their classification accuracy, localization performance, computational intensity, and setup time needed to get the models running.

Own presentment

Advisor Prof. Dr. Mitra

Purandare

Co-Examiner

Dr. Pushpak Pati, Johnson & Johnson, Zug, Zug

Subject Area

Data Science

Project Partner

Mettler Toledo, Greifensee, Zürich

Result: For the given dataset and available resources, the classification approach identified contaminants reasonably well, but could not locate them as intended. One anomaly detection approach was able to learn the normal data distribution and detected some contaminants, but struggled with accurate localization of anomalies. The other anomaly detection approaches failed to learn the distribution of normal data and could not detect any anomalous samples. As a result, it can be concluded that the conventional algorithm cannot be easily replaced without a significant amount of data, computational resources and a skilled machine learning engineer. If an anomaly detection approach can identify bone fragments in chicken X-ray images, it is likely to be effective in detecting all anomalies in X-ray images. The complexity of the images is high and the anomalies are difficult to detect. The models are likely to perform better when applied to other simpler products. To further evaluate the machine learning approaches, it would be interesting to train them on different datasets for different products and compare their performance.

Own presentment

Own presentment

33 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Image reconstruction of an anomaly detection approach Reconstruction error and decision boundary for the classification for an anomaly detection approach X-ray image of a piece of chicken contaminated with a bone fragment indicated by the frame Fabien Zufferey Graduate Candidate

Electrical Engineering

Im Profil Electrical Engineering bietet die OST die folgenden fünf Studienschwerpunkte an:

• Sensorik und Mikroelektronik

• Embedded Systems – Hard- und Software

• Digitale Signal- und Bildverarbeitung

• Systemdynamik und Regelungstechnik

• Kommunikations- und Informationssysteme

Beteiligte Institute

• ESA Institut für Elektronik, Sensorik und Aktorik

• ICOM Institut für Kommunikationssysteme

• IES Institut für Energiesysteme

• IMES Institut für Mikroelektronik und Embedded Systems

• ICAI Interdisciplinary Center for Artificial Intelligence

34

Inertiales Navigationssystem

Aufgabenstellung: Das Ziel dieser MSE-Masterarbeit war, die theoretische sowie die praktische Grundlage für ein inertiales Navigationssystem (INS) zu erarbeiten. Die gewonnenen Informationen sollen anschliessend für die Umsetzung weiterer Projekte genutzt werden können. Ein INS macht sich die Trägheit zunutze (engl.: inertia). So können mit Hilfe einer Inertial Measurement Unit (IMU), bestehend aus Drehratensensoren und Beschleunigungsmessern, die Orientierung und die Position im Raum ermittelt und propagiert werden. Dafür sind keine externen Referenzpunkte nötig (z. B. über Funk). Aufgrund der Sensorendrifts und -fehler ist ein INS nur eine kurzzeitgenaue Navigationslösung, da die auftretenden Fehler mit der Zeit propagiert werden.

Ergebnis: Den Kern der Arbeit bildete die Herleitung der für ein INS genutzten Strapdown-Rechnung. Diese wurde durch eine ausführliche Recherche im Zusammenspiel mit diversen Versuchen als MATLAB-Code erarbeitet. Dieser wurde verifiziert und validiert. Zusätzlich wurden alternative Methoden zur Berechnung der Orientierung diskutiert.

Bei der Strapdown-Rechnung werden unter Einbezug der IMU-Messdaten folgende Schritte durchgeführt:

– Berechnung der Orientierung aus der Drehrate

– Anpassung der Beschleunigung mit der Orientierung

– Propagation der Geschwindigkeit und Position

Vorab muss die Strapdown-Rechnung initialisiert werden. Anschliessend können einfache Kompensationen/Kalibrationen (Schwerebeschleunigung, BiasOffset, ...) angewandt werden.

Fazit: Mit der zur Verfügung gestellten Hardware (Murata) konnte die erarbeitete Strapdown-Rechnung getestet und fortlaufend erweitert werden. So konnte die Grundlage für ein INS gelegt und dabei die Hardware charakterisiert werden. Während der Arbeit wurde bemerkt, dass die Korrektur der durch die IMU verursachten Fehler essenziell für den Betrieb eines INS ist. Zur Fehlerkorrektur und Kalibrierung wurde ein Überblick geschaffen.

Beschleunigung und Position nach Strapdown-Rechnung Eigene Darstellung

Blockschaltbild Strapdown-Rechnung (mit den Koordinatensystemen)

J. Wendel, Inertiale Navigationssysteme, München, 2011

Referent

Prof. Guido Piai

Korreferent

Prof. Dr. Hans Fritz

Themengebiet

Electrical Engineering

35
OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Murata MEMS-Sensor (SCHA63T-K03) auf Evaluation Unit Eigene Darstellung Silvan Hutter Diplomand

Low-latency HDR Tonemapping

Hardware accelerator for tonemapping HDR video on an FPGA

Introduction: The dynamic resolution of displays and image formats is traditionally limited to 8 bit per color channel. This is nowhere near enough to capture most real-world scenarios at a linear scale. To compress the source information into the available range, a tonemapping operator is applied, which exploits the nonlinearity of the human perception by resolving darker areas with a higher percentage of the output range. This is usually done with logarithmic functions. The goal of this thesis was to implement a hardware accelerator for such a tonemapping operator that can augment FPGA-based computer vision applications. While software solutions exist, they require a graphics processor for video streaming. This comes at a notable power draw and latency, making it unsuitable for embedded applications with real-time constraints.

Approach: To achieve a small hardware footprint and a low latency, the algorithm according to F. Drago et al. was chosen. It approximates the human perception with a logarithmic function of a base that varies relative to the pixel brightness.

The existing C++ implementation available from OpenCV was adapted and implemented as a dedicated hardware circuit in VHDL. The proposed implementation operates on a pixel-based stream: As this is a global tonemapping operator, it applies the same (global) function to each pixel separately. There is no dependency on the local neighborhood, leading to a low computational complexity and making a line or framebuffer superfluous.

Result: This work enables existing hardware accelerated image processing applications to interface with

sources of a higher dynamic range than they natively would support. The design achieves up to 200 Mpx/s throughput on an AMD UltraScale+ architecture and requires roughly 5% of the hardware available on a medium-sized FPGA. At a latency below 1 us and a dynamic power draw of 0.26 W it is well suited for applications with constraints that would prohibit the deployment of a general-purpose graphics processor.

Algorithm: bias, sat and gamma are user parameters. GA is a dynamic adaption factor from the previous frame. Own presentment

Block diagram: RGB image is converted to gray scale (luminance) and tonemapped. Then, color is restored. Own presentment

Concept: Information from lower, mid and upper bit values of 14-bit source (left) are compressed into an 8-bit range. Original HDR source: https://www.pdfrehner.ch/

Advisor

Prof. Dr. Paul Zbinden

Co-Examiner

Dr. Peter Schwider, Photonfocus, Lachen, Schwyz

Subject Area Electrical Engineering

36
Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Remo Schraner Graduate Candidate

• SPF Institut für Solartechnik

• UMTEC Institut für Umwelt- und Verfahrenstechnik

• WERZ Institut für Wissen, Energie und Rohstoffe Zug

37

Modelling and Scaling Considerations

Optimisation Potential of a Power-to-Methane Plant

Introduction: At the site of IET Institute for Energy Technology at OST in Rapperswil there is a powerto-methane (PtM) plant to test a concept for high efficiency: The hydrogen is produced in a High-Temperature Electrolyser (HTE) and the water at the HTE’s input is preheated, which improves the electric efficiency of the HTE. The hydrogen from the HTE is combined with CO₂ and fed into a Sabatier reaction to produce CH₄. The reaction is exothermic and its heat is used to preheat and evaporate the water for the HTE. Early experiments hinted at efficiencies approaching 70% in large scale.

Since the experimental plant used is small-scale, the efficiency determined experimentally is not 70%. The IET would like to have a model of the HEPP, which allows for the prediction of efficiencies at different scales. For this also software has to be found in which to implement the model.

Definition of Task: A PtM-plant is a complex installation, especially when equipped with a HTE. Size and scale are relevant for each and every component.

The model developed cannot state which size of PtM plant with HTE reaches which efficiency. The model allows to specify the conditions that need to be met to reach a certain efficiency. Such conditions can be a maximum ∆T in heat exchangers or allowable power consumption for auxiliary equipment like the pump circulating the thermal oil.

Result: The modelling calculations indicate that under optimal conditions efficiencies of just about 70% can be reached in larger scale. For this to be reachable, the electricity consumption from the thermal oil pump has to be reduced to reasonable levels and the full efficiency potential of large-scale HTE has to be achieved. The calculations assume favorable conditions, requiring further development for implementation. The main influence (on efficiency) comes from the HTE making up about 85% of the energy consumption. Presumably only improvements to the HTE will make it possible to reach reliably beyond 70%.

Basic principle of a power-to-methane plant. Water and carbon dioxide enter the plant, methane exits the plant. Own presentment

Advisor

Prof. Dr. Markus Friedl

Co-Examiner

Macherel Thibault, EPFL Valais, Sion, VS

Subject Area

Energy and Environment

38 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Graduate Candidate

Synthesis setup for CO 2 conversion to hydrocarbons

Introduction: Since the usage of the first steam engines during industrialization, the increased consumption of fossil fuels has led to an increase in greenhouse gases (GHG) in the atmosphere. Through the combustion of fossil fuels, carbon dioxide (CO2) as well as other GHG are released, changing the Earth’s climate system. However, these changes have proven to be detrimental for humanity and the Earth’s biosphere. Therefore, reducing the emission of GHG is more important than ever.

The transportation industry relies primarily on fossil fuels. As a replacement for fossil fuels, alternatives such as batteries have been proposed. However, due to the significantly lower energy density of batteries compared to gasoline, diesel or kerosene, batteries work best for smaller vehicles. Hence, synthetic fuels are a promising short-term alternative for heavy-duty vehicles, ships, and aircraft. The two most common pathways for the commercial production of synthetic fuels are the methanol to hydrocarbons (MtH) conversion and the Fischer-Tropsch (FT) process. However, the current MtH and FT process still rely on fossil fuels. Therefore, the incentive is to investigate alternative production routes, starting from CO2.

Definition of Task: The goal is to construct a labscale experimental setup, comprising a reactor performing the MtH conversion. The setup should also allow the implementation of a second reactor in which the CO2-to-methanol conversion can be implemented. Therefore, it needs to be capable of achieving high temperatures (up to 500 °C) and withstanding high pressures (up to 64 bar), allowing the investigation of a wide range of conditions.

Idealization of the closing of the carbon cycle with synthetic fuels

Synhelion.com/solar-fuels-and-plants/solar-fuels

Drawing of experimental setup

Own presentment

Advisor

Prof. Dr. Andre Heel

Co-Examiner

Dr. Julien Anet, ZHAW

Zürcher Hochschule für Angewandte

Wissenschaften, Winterthur, ZH

Subject Area

Energy and Environment

Result: To verify the functionality of the setup, two common catalyst bases of zeolites, have been tested for the MtH conversion. The first zeolite is ZSM-5 and the second one is zeolite Y. They have also been tested with a copper loading to assess the effect of copper on the MtH conversion. The data obtained from X-ray diffraction (XRD) and N2 physisorption for the characterization of the zeolites, as well as from online mass spectrometry, match expectations, making the setup a success. It shows that zeolite topology and its acidity can be tuned to favor a range of hydrocarbons. The effect of copper-on-MtH conversion also indicates that the copper loading has to be adjusted carefully to minimize the impact on the yield.

Experimental setup comprising reactor for MtH conversion

Own presentment

39 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Gian Grob Graduate Candidate

Mechatronics and Automation

Im Profil Mechatronics and Automation bietet die OST die folgenden vier Studienschwerpunkte an:

• Industrielle Systeme

• Mechatronische Geräte

• Robotik

• Dynamische Systeme und Steuerung

Beteiligte Institute

• EMS Institut für Entwicklung Mechatronischer Systeme

• ILT Institut für Laborautomation und Mechatronik

• IPEK Institut für Produktdesign, Entwicklung und Konstruktion

40

Robot-assisted product recognition for blind and visually impaired people

Initial Situation: Around 377,000 visually impaired people currently live in Switzerland, of which 50,000 are completely blind. In total, this corresponds to over 4% of the Swiss population. Impacting various aspects of their lives, this demographic faces daily challenges due to their visual impairment, which also includes essential tasks such as grocery shopping. When attempting to navigate and find products in a supermarket, they encounter significant barriers. The inconsistency in product placement coupled with complex and frequently changing store layouts creates major challenges in locating specific items. Moreover, inaccessible product information, often displayed in small fonts or inadequate formats, restricts their access to crucial details such as ingredients or prices. The declining availability of store staff further exacerbates these barriers, limiting their access to assistance in locating products. As a consequence, their independence and autonomy while shopping is significantly reduced.

towards the identified product, continuously assessing the distance between the product and the hand. Once the hand reaches the desired product, the user receives a notification.

During a user test, the system’s functionality was validated, confirming that the proof of concept developed in this thesis verifies the feasibility of implementing this shopping cart in reality.

The development of this project is a significant step towards improving the accessibility and independence for people with visual impairments in shopping environments.

Advisor

Prof. Dr. Dario Schafroth

Co-Examiner

Prof. Dr. Marco Hutter, ETH, Zürich, ZH

Subject Area

Mechatronics and Automation

Project Partner

Schweizerischer Zentralverein für das Blindenwesen, Schweizerischer Blindenbund, Schweizerische Caritasaktion der Blinden, Schweizerischer Blinden- und Sehbehindertenverband, Innovation Booster Robotics, Fondation pour la Recherche en faveur des personnes Handicapées

Objective: The aim of this thesis is to develop shopping assistance for product recognition for blind and visually impaired people. This is intended to give those affected new perspectives for more autonomy and flexibility when shopping for groceries. The focus of this work is on object detection, user interface, and marketing aspects. At the end, an initial proof of concept should be developed. The system is intended to facilitate the selection of products without requiring assistance from another person. First, a needs assessment should be carried out in the context of surveys. In order to enable barrier-free shopping, a system should be developed that can both recognize the products in a supermarket and the user’s hand to guide them to the desired product. Thereby the challenges for those affected when shopping should be reduced. Finally, the capabilities should be demonstrated and evaluated by means of a user test.

Result: The system empowers blind and visually impaired people to independently carry out a shopping process. Positioned in front of the correct shelf, users can utilize the system’s hand navigation to place their desired products into the shopping cart. For this purpose, the user first communicates their shopping list to the system through a headset, specifying both the quantity and the product names. Subsequently, the scene is captured. Utilizing a ZED 2i camera, the system retrieves the current image to scan for the desired products by employing bounding boxes. This procedure relies on custom product recognition developed with a pretrained model. Following this, the system tracks the user’s hand and recognized product. The hand is guided acoustically

Challenges for visually impaired people while shopping Own presentment

Proof of concept Own presentment

Product and hand detection Own presentment

41 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Chantal Keller Graduate Candidate

Mechanical Engineering

Im Profil Mechanical Engineering bietet die OST die folgenden vier Studienschwerpunkte an:

• Produktinnovation und Produktentwicklung

• Produktionstechnik

• Einsatz von Simulationstools

• Digitalisierung und Industrie 4.0

Beteiligte Institute

• EMS Institut für Entwicklung Mechatronischer Systeme

• ICE Institut für Computational Engineering

• ILT Institut für Laborautomation und Mechatronik

• IPEK Institut für Produktdesign, Entwicklung und Konstruktion

• IMP Institut für Mikrotechnik und Photonik

• IWK Institut für Werkstofftechnik und Kunststoffverarbeitung

42

Topologieoptimierung und Rapid Prototyping

Industrielle Anwendung anhand repräsentativer Beispiele

Diplomand

Einleitung: Die Optimierung von Bauteilen und die additive Fertigung gewinnen an Bedeutung, wobei neben den wirtschaftlichen Vorteilen auch zunehmend die ökologischen Vorteile an Bedeutung gewinnen. Durch eine Strukturoptimierung können die zur Herstellung benötigten Ressourcen und der dabei entstehende Arbeitsaufwand auf ein Minimum reduziert werden. Das Ziel dieser Arbeit war es, durch die Anwendung von Topologieoptimierung in Verbindung mit integriertem Generativem Design und additiver Fertigung die Auswirkungen auf die Struktur von Bauteilen zu untersuchen. Anschliessend sollten die Ergebnisse der Optimierung mittels additiver Fertigungsverfahren hergestellt werden.

Vorgehen/Technologien: Während der Durchführung der Arbeit wurde jeweils ein Bauteil aus zwei verschiedenen Baugruppen optimiert. Dabei wurden zuerst die Randbedingungen festgelegt, dann eine Ausgangsanalyse durchgeführt und schlussendlich die Optimierung durchgeführt. Für die Ausgangsanalyse und die anschliessende Optimierung wurde die Software Creo verwendet. Darauffolgend wurden die optimierten Bauteile mittels additiver Fertigungsverfahren hergestellt und in der Baugruppe getestet. Abschliessend wurden die Herstellungskosten bis zum einbaufertigen Bauteil betrachtet.

Fazit: Durch die durchgeführten Optimierungen konnten bei beiden Bauteilen neue Topologien erzeugt werden. Die anschliessend mittels additiver Fertigungsverfahren hergestellten Prototypen konnten problemlos in die entsprechenden Baugruppen integriert und getestet werden. Die Vergleiche zwischen den aktuellen Bauteilen und den

durch additive Fertigung hergestellten Prototypen ergaben, dass sich die additive Fertigung nur für kleinere Serien mit komplexen Bauteilgeometrien eignet. Somit konnte gezeigt werden, dass der Prozess der Bauteiloptimierung bereits in den frühen Phasen der Produktentwicklung integriert werden sollte.

Darstellung der iterativen Vorgehensweise in der Topologieoptimierung www.insta3dp.com

Eines der zwei optimierten Bauteile (links das Originalbauteil, rechts das optimierte Bauteil) Eigene Darstellung

Kostenvergleich zwischen demOriginal-Spritzgussbauteil und dem optimierten additiv gefertigten Bauteil Eigene Darstellung

Referent

Stefan Uhlar

Korreferent

Roland Lehmann

Themengebiet

Mechanical Engineering

Projektpartner

Helbling Technik Wil AG, Wil, St.Gallen

43
OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT

Validierung eines Traktor-Gesamtfahrzeugmodells anhand von Schnittkraftmessungen

Diplomand

Einleitung: AGCO Fendt ist ein bekannter Hersteller von hochwertigen Traktoren. Ein wichtiges Thema bei der Entwicklung ihrer Traktoren ist der Fahrkomfort, um das Arbeitsumfeld für den Fahrer bestmöglich zu gestalten. Dazu zählt auch die Lautstärke in der Kabine, welche mit dem Schalldruckpegel (in Dezibel) quantifiziert werden kann. Die Hauptursache für hohe Schalldruckpegel sind Getriebegeräusche, welche in Form von Luft- und Körperschall in die Kabine übertragen werden.

Zukünftig sollen simulationsgestützte Methodiken zur Prognose des Kabinenluftschalls eingesetzt werden, um akustische Auffälligkeiten bereits vor der Prototypenphase zu erkennen und geeignete Massnahmen auf ihre Wirksamkeit untersuchen zu können. Dazu werden validierte Simulationsmodelle benötigt, mit welchen schon in frühen Entwicklungsphasen das Systemverhalten untersucht und zuverlässige Aussagen getätigt werden können.

Aufgabenstellung: In dieser Masterarbeit sollte die Methodik zur Erstellung eines Simulationsmodells erarbeitet werden, mit welcher es möglich ist, den durch Getriebeanregungen verursachten Schalldruckpegel in der Kabine von Fendt-Traktoren zu ermitteln. Mit einem elastischen Mehrkörpersimulationsmodell (eMKS) des Traktors soll ein Drehzahlhochlauf simuliert und die dabei in die Kabine eingeleiteten Kräfte (Schnittkräfte) sollen ermittelt werden können. Diese Schnittkräfte werden anschliessend mit gemessenen akustischen Transferpfaden der Kabine verrechnet, um so den durch den Körperschall verursachten Schalldruckpegel ermitteln zu können (indirekte Schallabstrahlung).

Ergebnis: Es konnte gezeigt werden, dass die Methodik funktioniert und die gemessenen Schnittkräfte mit dem erstellten Simulationsmodell reproduziert werden können. Anschliessend wurde basierend auf den gewonnenen Erkenntnissen eine Modellierungsrichtlinie erstellt.

Referent

Stefan Uhlar

Korreferent

Kristian Murkovic

Themengebiet

Mechanical Engineering

Projektpartner

AGCO Fendt, Marktoberdorf

Im Vorfeld wurde eine Messkampagne auf dem Gesamtfahrzeug-Prüfstand durchgeführt, mithilfe welcher das Simulationsmodell validiert werden konnte. Die Aufgabe dieser Arbeit bestand darin, das Messfahrzeug als elastisches Mehrkörpersystem (eMKS) nachzubilden und mit den Messdaten zu validieren. Der Fokus liegt auf den Anregungen aus dem Antriebsstrang, weshalb dieser detailliert mit den Hauptanregungsquellen nachgebildet wurde. Zur Simulation der Ausbreitung des Körperschalls muss die Strukturdynamik abgebildet werden, weshalb einige Bauteile als flexible (modalreduzierte) Körper modelliert wurden. Dadurch können die Körperschallpfade von Anregungsquelle zu Kabine abgebildet und die eingeleiteten Kräfte ermittelt werden. Auch die Kabinenlagerung mit Luftfedern und Dämpfer wurde detailliert nachgebildet, um die Schnittkräfte zwischen Kabinenlagerung und Kabine an den Anbindungsstellen ermitteln zu können.

Transferpfade Kabine Eigene Darstellung

Simulationsmodell Eigene Darstellung

Gesamtfahrzeug-Prüfstand AGCO Fendt

44 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Fabian Marxer

Entwicklung einer Simulationsroutine für die parametrische Optimierung glasfaserverstärkter Spritzgussbauteile

Diplomand

Aufgabenstellung: In dieser Masterarbeit soll eine Optimierungsroutine aufgebaut werden, welche unter Berücksichtigung der Faserorientierung eine Tragsicherheitsanalyse an einem spezifischen kurzfaserverstärkten Kunststoff-Bauteil durchführt und dieses zusätzlich gewichtstechnisch optimiert. Durch eine automatisierte Verknüpfung der verschiedenen Programme wie CAD, Füllsimulation und Struktursimulation soll so durch einen geringen Arbeitsaufwand des Benutzers eine starke Reduktion des Ressourcenaufwands bei mindestens gleichbleibender Bauteilqualität realisiert werden.

Vorgehen: Nach einer strukturierten Einarbeitung ins Thema werden die Möglichkeiten zum Aufbau der Routine analysiert und die Realisierung individuell betrachtet. Durch ein strukturiertes Abarbeiten der einzelnen Problemstellungen kann so die Optimierungsroutine Fiberloop im Anschluss schrittweise aufgebaut werden. Nach erfolgreicher Verknüpfung der verschiedenen Simulationsbausteine und einer ersten durchgeführten Gewichtsoptimierung eines Musterbauteils wird die Routine durch die Anwendung an einem Praxisbauteil der Firma Geberit AG validiert und beurteilt.

Ergebnis: Am Ende der Arbeit konnte die fertiggestellte Optimierungsroutine am Bauteil der Firma Geberit getestet und validiert werden. Die Routine umfasst eine Bauteilparametrisierung in SpaceClaim, eine Füllsimulation in Cadmould und eine Struktursimulation in Ansys Workbench. Für die benutzerfreundliche Anwendung wurde Fiberloop in Ansys optiSLang so aufgebaut, dass die Routine auf jedes Bauteil oder jede Baugruppe individuell adaptiert

Simulationsbestandteile der Optimierungsroutine Fiberloop Eigene Darstellung

werden kann. Mittels eines neuen, auf Zugversuchsdaten basierten Materialmodells und passenden, auf Python basierten Beurteilungskriterien in Ansys WB konnten weitere wichtige Simulationsbausteine realisiert werden. Mittels Fiberloop konnte sowohl beim Musterbauteil als auch beim Praxisbauteil der Firma Geberit eine Gewichtsreduktion von bis zu 25% erzielt werden. Dem Anwender wird dadurch nicht nur eine Reduktion des Ressourcenaufwands gewährleistet, sondern es ist auch eine kunststoffgerechte Beurteilung der Tragsicherheit sichergestellt.

Konzept der Optimierungsroutine Fiberloop aus der Aufgabenstellung Eigene Darstellung

Das optimierte Musterbauteil (grün) im Vergleich zur Ursprungsvariante (rot) Eigene Darstellung

Referent

Prof. Dr. Mario Studer

Korreferent

Daniel Marty, Weidmann Medical Technology AG, Rapperswil SG, SG

Themengebiet

Mechanical Engineering, Innovation in Products, Processes and Materials –Industrial Technologies

45
OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Technik und IT
Fiberloop
Dominik Schmid

Photonics and Laser Engineering

Im Profil Photonics and Laser Engineering bietet die OST die folgenden fünf Studienschwerpunkte an:

• Moderne laserbasierte Präzisionsfertigung

• Optische Messtechnik und Bildverarbeitung

• Optoelektronik und Elektrooptik

• Design und Modellierung photonischer Systeme

• Mikro-Technologien

Beteiligte Institute

• ESA Institut für Elektronik, Sensorik und Aktorik

• IMP Institut für Mikrotechnik und Photonik

• IMES Institut für Mikroelektronik und Embedded Systems

46

Aluminum Nitride Deposition via HiPIMS Without External Heating

Introduction: Aluminum nitride (AlN) films have attracted attention due to their unique physical and chemical properties in a wide range of applications. In this study, crystalline aluminum nitride layers were deposited on 8-inch Si(001) and Si(111) substrates using reactive high-power impulse magnetron sputtering (HiPIMS) without external substrate heating. The deposition was performed with equipment (CLUSTERLINE®200) manufactured by Evatec. The films were characterized using X-ray diffraction (XRD), profilometry, scanning electron microscopy (SEM), and atomic force microscopy (AFM).

Result: The growth of crystalline AlN thin films was achieved after increasing the average deposition power. Following adjustments to the working pressure ratio, the full width at half maximum (FWHM) value of the rocking curve decreased from the initial crystalline results of 5.35° to 4.07°. The AlN layers already exhibited a mean roughness below 1 nm within this process window. Subsequently, the influence of additional factors on the crystalline quality was considered at constant working pressure and compared with the literature. By using various gas mixtures of argon and nitrogen, as well as an exclusive nitrogen HiPIMS process, the FWHM value of the rocking curve was further reduced to 2.77°. Other research groups outside and within the company Evatec have grown AlN films using active substrate heating. For comparison, hot processes were also conducted, demonstrating an improved FWHM value of 2.03°. The influence of temperature on the crystalline layer is indeed present. In this study, the impact of the emitted heat from a HiPIMS plasma was observed. Finally, the significance of substrate crystal orientation and residual stress of the AlN film was addressed.

exclusive nitrogen process behaves differently, performing worse at elevated temperature than when cold. Finally, the residual stress turned out to be relatively low. This reflects the detailed observations made by B. Belkerk, where the data from this master’s thesis can be meaningfully integrated.

Advisor

Prof. Dr. Martin

Gutsche

Co-Examiner

Prof. Dr. Daniel Lundin, Linköping University, Linköping, Schweden, Östergötlands

Subject Area

Photonics

Project Partner

Evatec AG, Trübbach, St.Gallen

Conclusion: In summary, the deposition of crystalline and smooth AlN was achieved without active substrate heating. The temperature increase due to the energy flux from the highly ionized plasma contributes to an improved crystalline quality favoring HiPIMS deposition. The trade-off respective the relationship between peak current shape, voltage, and nitrogen content was qualitatively demonstrated. The scope of this master’s thesis only allowed for a focus on one particular working gas pressure. Nevertheless, good and promising results were obtained, indicating physical trends. The results obtained with 100% nitrogen flow were surprising, with the best FWHM values achieved for a layer thickness of 100 nm and without substrate heating. The results for the heated processes are also interesting. They reflect the observation that the crystalline quality improves with different gas ratios. However, the

Cross-section of the utilized HiPIMS process module (CLUSTERLINE® 200) showing the most important components. Own presentment

The blue, orange, green, and red curves correspond to the gas ratios 3:2, 1:1, 2:3, and to 70 sccm N2 only

Own presentment

HiPIMS process dependence on the nitrogen content with substrate heating (blue) and without external heating (orange) Own presentment

47 Eastern Switzerland University of Applied Sciences | Master Theses 2024 | Master of Science in Engineering | Technik und IT
Marco Giordano Graduate Candidate

Raumentwicklung und Landschaftsarchitektur

Im Profil Raumentwicklung bietet die OST die folgenden fünf Studienschwerpunkte an:

• Raumentwicklung/Raumplanung

• Stadtplanung/Siedlungsentwicklung

• Verkehrsplanung

• Landschaftsentwicklung

• Planung und Entwurf urbaner Freiräume und Gärten

Beteiligte Institute

• IRAP Institut für Raumentwicklung

• ILF Institut für Landschaft und Freiraum

• IBU Institut für Bau und Umwelt

48

Die Millennials der Schweizer Landschaftsarchitektur

Charakteristika & Tendenzen zwischen 1975 und 2000

Diplomandin

Ziel der Arbeit: Um Werte und Potenziale der gebauten Umwelt zu erkennen und diese entsprechend bewahren zu können, ist es eine zentrale Aufgabe der Fachwelt, sich mit der Geschichte und Qualität der Baukultur auseinanderzusetzen. Nicht zuletzt vor dem Hintergrund der immer kürzer werdenden Sanierungszyklen in der Bauwirtschaft. In diesem Zusammenhang will der Schweizer Heimatschutz mit der Kampagne «Die schönsten Bauten 1975–2000» Aufmerksamkeit für die Baukultur des letzten Viertels des 20. Jahrhunderts wecken.

Im Rahmen der vorliegenden Arbeit sollen die Entwicklung der Landschaftsarchitektur in der Schweiz zwischen den Jahren 1975 und 2000 untersucht sowie Tendenzen und Themen abgebildet werden, die die Profession in diesem Zeitraum geprägt haben. Damit einher gehen die Fragen nach wichtigen Projekten und Schlüsselfiguren in diesem Berufsstand sowie der Einfluss aus internationalen Entwicklungen und Projekten. Die Arbeit soll so eine Auslegeordnung zur Schweizer Landschaftsarchitektur zwischen 1975 und 2000 darstellen und den fachlichen Input der Kampagne des Heimatschutzes in Hinblick auf die Landschaftsarchitektur vertiefen und erweitern.

Vorgehen: Aus einer Recherche der Fachliteratur zur Landschaftsarchitektur des betreffenden Zeitraums und einzelnen Vertretern dieser wurden stilistische Tendenzen herausgearbeitet, die den Zeitraum charakterisiert haben. Über Beiträge in Fachzeitschriften konnte das Geschehen in der Profession genauer beleuchtet werden und um Diskurse, wichtige Projekte und Ereignisse angereichert werden. Gesprächen mit Zeitzeugen halfen in diesem Zusammenhang, die gewonnenen Erkenntnisse zu verknüpfen, die Recherche zu komplettieren und aus der Arbeit entstandene Fragen zu beantworten.

Gestaltung ästhetisch ansprechender und sinnlich erfahrbarer Räume im Fokus. Gegen Ende der 1990erJahre löste sich das Gegenüber der Vertreter der beiden Tendenzen weitestgehend auf. Es bildete sich ein zunehmender Pluralismus heraus, der sich in einer grossen Zahl verschiedener Themen und gestalterischer Zugänge in landschaftsarchitektonischen Projekten äussert – diese Entwicklung setzt sich bis heute fort.

Referentin

Prof. Dr. Susanne Karn

Korreferent

Prof. Roland

Raderschall

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Fazit: Die Jahre zwischen 1975 und 2000 stellen für den Berufsstand der Landschaftsarchitektur eine sehr bewegte und ereignisreiche Zeit dar, in der vielfältige stilistische Ausprägungen und Haltungen zum Ausdruck kamen. Durch die Umweltbewegung und die Kritik am Funktionalismus der Moderne beeinflusst, entwickelte sich in den 1970er-Jahren eine Hinwendung zur Gestaltung naturnaher Anlagen. Die teilweise stark kritisierten Werke dieser «Naturgartenbewegung» und die darüber geführte Debatte über das Verhältnis von Ökologie und Gestaltung in der Gartenarchitektur gaben den Anstoss zu einer Neuorientierung der Profession. Es bildete sich in der Folge eine neue Gestaltungssprache in der Schweizer Landschaftsarchitektur heraus, welche stark durch postmoderne Ansätze geprägt wurde. Deren Vertreter strebten unter anderem den Einbezug ökologischer Aspekte in die Entwürfe an, jedoch stand die

Irchelpark, Zürich (Atelier Stern & Partner / Eduard Neuenschwander, 1979–1986)

Baugeschichtliches Archiv Zürich, Juliet Haller

Stadtpark Brühlwiese, Wettingen (Stöckli & Kienast Landschaftsarchitekten, 1980–1984)

49 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Noah Santer, Schweizer Heimatschutz MFO-Park, Zürich (Burckhardt + Partner Architekten / Raderschall Landschaftsarchitekten; Projekt 1999–2000) Baugeschichtliches Archiv Zürich, Juliet Haller Nicole Alter

Grossstadt-Dschungel

Evaluation von Gebäudebegrünung sowie Konzeptionierung einer Roadshow zur Sensibilisierung für das Thema

Gebäudebegrünung

Diplomandin

Problemstellung: Urbane Räume stehen im Zuge des Klimawandels vor enormen Herausforderungen. Das Wetter wird extremer und zieht zunehmend schwere Folgen mit sich. Gerade Städte verlieren aufgrund der Verdichtung nach innen immer mehr ihrer wertvollen Grünflächen und Bäume. Dabei können urbane Räume gerade durch eine grüne Infrastruktur an den Klimawandel angepasst werden. Aufgrund der schwindenden Platzverhältnisse muss jedoch auf andere Flächen wie zum Beispiel Gebäude ausgewichen werden. So können Dach- und Fassadenbegrünungen einen Teil der grünen Infrastruktur darstellen.

Ziel der Arbeit: Gebäudebegrünung findet im internationalen Vergleich in der Schweiz gesellschaftlich wie auch politisch noch nicht allzu grossen Anklang. Das Ziel dieser Masterthesis ist deshalb die Sensibilisierung der Gesellschaft zum Thema Gebäudebegrünung in urbanen Räumen.

Vorgehen: Die Arbeit ist in zwei Teile gegliedert. Im ersten Teil werden Grundlagen zur Ausgangslage der Städte in Bezug auf den Klimawandel sowie deren Anpassung ermittelt. Neben international realisierten Projekten stellt auch die aktuelle Lage in der Schweiz einen Teil dar. Es werden verschiedene Möglichkeiten, Herausforderungen, Voraussetzungen und Vorurteile erläutert. Zudem zeigt eine Analyse die klimatischen, ökologischen, gesellschaftlichen sowie ökonomischen Mehrwerte von Gebäudebegrünungen auf. Die Untersuchung der Ökobilanz, eine Kosten/Nutzen-Aufstellung sowie der weitere Forschungsbedarf schliessen den ersten Teil ab.

Den zweiten Teil stellt die Konzeptionierung einer Roadshow zur Sensibilisierung der Gesellschaft für die Wichtigkeit von Grün in den Städten dar. Über ein Kommunikations- und Strategiekonzept wird die Roadshow in Theorie erarbeitet und schliesslich in den Raum übertragen.

Vergleich Kosten Gründach Eigene Darstellung

Vergleich Kosten Bitumendach Eigene Darstellung

Elemente der Roadshow Eigene Darstellung

Referent

Prof. Tobias Baur

Korreferent

Ingo Golz, Grün Stadt

Zürich

Themengebiet

Raumentwicklung und Landschaftsarchitektur

50 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Geraldine Bechstein

Von der Nachkriegssiedlung zur 15-Minuten-Stadt

Diplomand

Ausgangslage: Seit der Revision des Raumplanungsgesetzes 2013 muss die Schweiz aufgrund des grossen Flächendrucks ihre Entwicklung nach innen richten. Aus dieser Pflicht heraus haben viele Städte Nachkriegssiedlungen als Entwicklungsgebiete klassiert, da ihre Bausubstanz häufig sanierungsbedürftig ist und die Areale geringe städtebauliche Dichten aufweisen. Das Konzept der 15-Minuten-Stadt verspricht, durch fussläufige Erreichbarkeit aller für den Alltag notwendigen Angebote einen Beitrag zu einem ökologischen und sozial nachhaltigen Stadtumbau dieser Gebiete leisten zu können. Diese Arbeit möchte aufzeigen, welche Nachkriegssiedlungen sich für eine Transformation zu 10-Minuten-Nachbarschaften eignen und welche Veränderungen es benötigt, um das Konzept umzusetzen.

Vorgehen: Für die Analyse wurden vier Nachkriegssiedlungen in der Schweiz ausgewählt und ihre Bevölkerungszahl, der Anteil an Arbeitsplätzen und die Geschossflächen untersucht. Die Erhebung erfolgte in einem Perimeter mit einem Radius von 500 Metern anhand von Hektarrasterdaten des Bundesamtes für Statistik. Die Analyse ermöglichte es, die Perimeter im Spacemate-Diagramm einzuordnen, den städtebaulichen Charakter zu definieren und die Differenz zum Optimalzustand des Konzeptes zu ermitteln.

Darauf aufbauend wurde anhand von Entwicklungsszenarien untersucht, welche Verdichtungsstrategien sich für den Umbau der Gebiete eignen.

Ergebnis: Die Untersuchung ergab, dass Gebiete mit grossen Entwicklungsarealen, die wenigen Eigentümerschaften gehören, sich besonders für eine Transformation zur 10-Minuten-Nachbarschaft eignen. In topografisch anspruchsvollen Gebieten sowie in Einfamilienhausquartieren ist eine Transformation nur schwer umsetzbar. Städtebauliche Verdichtungsszenarien mit einem Schwerpunkt im Perimeter, z. B. entlang einer Strasse, erwiesen sich dagegen einfacher in der Umsetzung. Eine gleichmässige Verdichtung über den gesamten Perimeter wird aus planerischen und ökologischen Gründen nicht empfohlen. Wichtige Rahmenbedingungen für eine funktionierende 10-Minuten-Nachbarschaft sind Grün- und Freiräume, eine attraktive Fuss- und Veloinfrastruktur sowie eine gute Anbindung an den öffentlichen Verkehr.

verringern. Grundsätzlich sollten Städte und Gemeinden für die Umsetzung des 15-Minuten-Stadt-Konzeptes planerische Rahmenbedingungen schaffen, die eine Mitsprache von Eigentümerschaften und Bevölkerung erlauben und die Verwendung einer Mehrwertabschöpfung umfassen. Diese planerischen Mittel erlauben eine sozial und ökologisch nachhaltige Transformation.

Referentin

Prof. Dr. Tanja Herdt

Korreferentin

Dr. Sibylle Wälty, ETH Zürich

Themengebiet

Raumentwicklung und Landschaftsarchitektur

In der Schweiz gibt es nur wenige Nachkriegssiedlungen, die gross genug für eine Transformation nach dem 15-Minuten-Stadt-Konzept sind. Das Vorgehen kann jedoch auch auf andere städtische Gebiete angewendet werden. Die in der Arbeit entwickelte Methodik hilft, die Potenziale von Verdichtungsgebieten zu erkennen und daraus Entwicklungsstrategien abzuleiten, die den Mobilitätsbedarf der Bevölkerung

Nachkriegssiedlung, Perimeter Mattenbach: Areal Zwinglistrasse-Weberstrasse, Winterthur Google Maps

Analyse Anzahl Einwohner:innen/ha im Perimeter Mattenbach Eigene Darstellung, Hintergrundkarte AVWMS, Kanton Zürich

Perimeter Mattenbach: Szenario 1, Verdichtungsgebiet (in Gelb) entlang der Hauptstrasse Eigene Darstellung auf Basis von Swisstopo

51 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Stefan Brunner
Urbane Transformation

RAUMWENDE

Mit Raumplanung zur Energiewende – die Partizipation als Erfolgsfaktor

Diplomand

Ausgangslage: Der Faktor «Erneuerbare Energie» ist im Zusammenhang mit dem Klimawandel zu einem gesellschaftsrelevanten Aspekt geworden. Bis anhin wirkten sich die Raum -und Umweltpolitik restriktiv auf die Energiepolitik aus. Mit dem Energie-Mantelerlass soll der Ausbau erneuerbarer Energien in der Schweiz forciert werden, wodurch die Energiepolitik stärker im öffentlichen Interesse steht. Eine ganzheitliche und integrale Sichtweise auf die räumliche Entwicklung der Schweiz wird dahingehend unerlässlich. Der Alpenraum bietet grosses Potenzial für einen effektiven und raschen Ausbau erneuerbarer Energien. Gleichzeitig machen der Klima- und der demografische Wandel dem Alpenraum zu schaffen. Die Energiewende kann in der Hinsicht Chancen für die Alpen bieten. Gleichwohl ist die Diskussion um neue Energieinfrastrukturen in den Alpen von grossen Wahrnehmungsunterschieden geprägt, was zu komplexen Akteurskonstellationen führt. Die Bewältigung dieser Herausforderungen erfordert eine ganzheitliche und integrative Herangehensweise, die die Bedürfnisse der lokalen Bevölkerung berücksichtigt und gleichzeitig auf eine nachhaltige Entwicklung und Resilienz der betroffenen Gebiete abzielt. Vor diesem Hintergrund scheint der Bedarf an einem griffigen Koordinationsinstrument auf Stufe Bund an Relevanz zu gewinnen. Andererseits sind raumplanerische und partizipative Bottom-up-Ansätze zu prüfen, die zur Berücksichtigung lokaler und regionaler Interessen sowie zur Akzeptanzbildung und identifikatorischen Leistung immanent sind.

Vorgehen: Durch Literaturrecherche und die theoretische Auseinandersetzung mit der Thematik wird die Ausgangslage erläutert. Die daraus resultierende Argumentation wird empirisch durch Expert:innenInterviews verifiziert. Basierend auf den Erkenntnissen aus Theorie und Empirie wird ein Konzept entworfen. Anhand der Erkenntnisse aus Theorie, Empirie und dem Konzept werden die Forschungsfragen kritisch beantwortet. Der Schlussteil der Arbeit reflektiert, nebst der Beantwortung der verfolgten Forschungsfragen, das methodische Vorgehen kritisch. Zudem werden die wichtigsten Ergebnisse hervorgehoben und im Ausblick wird auf weiterführende Themen hingewiesen, die während der Arbeit identifiziert werden konnten.

Zentralisierung der Planungskompetenz auf Bundesebene ist sinnvoll. Interessenkonflikte und deren Aushandlung würden sich in einem definierten Rahmen bewegen und Nutzungen wie auch deren Priorisierung liessen sich besser abstimmen, was den Umgang mit der Fläche effizienter gestalten würde und im Sinne des Bundesgesetzes über die Raumplanung stünde. Gleichzeitig sollte auf regionaler Ebene raumplanerisch angesetzt werden. Das Agglomerationsprogramm des Bundes würde dazu als Bottom-up-Instrument Anreize für eine partizipative Regionalplanung stiften. Eine stärkere Beteiligung der Bevölkerung lässt sich auf institutioneller Ebene durch Trägervereine ermöglichen, entscheidend sind jedoch die Grundsätze, die ein partizipatives Verfahren gestalten.

Referent Prof. Dr. Donato Acocella

Korreferent Clemens Bolli, Axpo Group

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Ergebnis: Die Prägung von Landschaftsausschnitten durch Energieinfrastrukturen ist immer auch eine kulturelle Aushandlung und als topologisches Geschehen zu verstehen. Energielandschaften sind daher auch Kulturlandschaften. Insofern kann gestützt auf das Bundesgesetz über die Raumplanung (Art. 1 RPG) argumentiert werden, dass die Energiewende eine immanent raumplanerische Aufgabe darstellt. Eine

Verständnis soziotechnischer Transformation des Energieregimes im Kontext der Raumentwicklung Quadrantenmodell für Raum mit Zeitspirale (Sturm, 1997)

Schematische Darstellung Sachplan Energie Eigene Darstellung

Aufbau und Ablauf der regionalen Partizipation Eigene Darstellung

52 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung

Neue Ansätze für die Nutzungsplanung

Einleitung: Mit der Revision des Raumplanungsgesetzes (RPG 1) hat die Schweizer Raumordnungspolitik einen grundlegenden Wandel von der Aussen- zur Innenentwicklung vollzogen. Die Expansion auf der grünen Wiese (1950–1990) und die punktuelle Verdichtung von Industrie- und Bahnbrachen (1990–2020) werden abgelöst durch den flächendeckenden Umbau bestehender Siedlungsstrukturen (2020–...). Die heutige Nutzungsplanung enthält starre Vorschriften wie Nutzungsziffern, Höhenmasse, Baubereiche und Baulinien, die auf der grünen Wiese gut funktionieren, bei der Umnutzung von Brachen und erst beim Umbau des Bestands an ihre Grenzen stossen.

Diese Master-Thesis beschäftigt sich mit der kommunalen Nutzungsplanung der Zukunft. Ziel der Arbeit ist es, herauszufinden, welche Instrumente und Regelungen für den Umbau und die Verdichtung im Bestand benötigt werden. Dabei werden neben der Innenentwicklung im Bestand auch zukünftige Herausforderungen (Klimawandel, Biodiversitätskrise) berücksichtigt.

Vorgehen: Im ersten Teil der Arbeit erfolgt eine Auseinandersetzung mit dem aktuellen Wissensstand. Gegenstand dieses Teils sind u. a. innovative Ansätze, die im In- und Ausland angewendet oder in der Fachwelt diskutiert werden. Im zweiten Teil wird eine Definition für eine neue Nutzungsplanung erarbeitet und verschiedene Visionen für eine Nutzungsplanung werden entwickelt. Dabei stehen die Instrumente, die Prozesse und Personen bzw. die Fachexpertise im Fokus. Im dritten Teil werden die Visionen an drei Gemeinden im Thurgau getestet und darauf aufbauend wird ein Vorschlag für eine neue Nutzungsplanung erarbeitet.

Kein Spielraum: Bestehende Gebäude können kaum erweitert werden, daher folgt meist der Abriss

https://xn--einbaureglementfralle-oic.ch/abbruch/

Das Baumemorandum: Ein Instrument zur Sicherung der Siedlungsqualität

https://www.mels.ch/publikationen/129068

Referent

Prof. Andreas Schneider

Korreferent

Bruno Thürlemann

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Ergebnis: Der Vorschlag sieht eine strategiebasierte Nutzungsplanung vor. Dabei wird zwischen den Strategieansätzen «Stillhalten», «Erhalten», «Weiterbauen» und «Transformieren» unterschieden. In der Rahmennutzungsplanung werden für jeden Strategieansatz massgeschneiderte Regelungen festgelegt. Auf der Stufe Sondernutzungsplanung sieht der Vorschlag richtungsweisende räumliche Leitbilder vor. Diese sind flexibler als die heutigen Gestaltungspläne. Im Baubewilligungsverfahren werden Fachgremien eingesetzt, die bei der Erarbeitung von Bauvorhaben beratend zur Seite stehen und im Baubewilligungsverfahren die Gemeindebehörden bei der Beurteilung von Baugesuchen unterstützen.

Konzeption der neuen Nutzungsplanung auf Stufe gesamtörtliche und teilörtliche Planung Eigene Darstellung

53 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Christian Lüdi Diplomand
Nutzungsplanung 3.0

Attraktive Velowege

Möglichkeiten und Grenzen von Szenografie auf Velowegen sowie die Bedeutung derer Gestaltung

Diplomand

Problemstellung: Die Attraktivität der Velowege für den Alltagsveloverkehr im Sinne eines positiven Erlebnisses für die Velofahrenden wird in der heutigen Planungspraxis den technischen Kriterien (schnell, direkt und sicher) untergeordnet. Die Betrachtung szenografischer Aspekte wie die Schaffung von Erlebnisräumen sowie attraktiv gestalteter Velowege findet in der Planung zudem wenig Beachtung. Die vorliegende Arbeit geht der Frage nach, welche Bedeutung gut gestalteten Velowegen zukommt, um die Bedürfnisse der Velofahrenden zu erfüllen. Sie untersucht diese Aspekte für Alltagsveloverbindungen mit dem Fokus auf Wege ausserhalb des Siedlungsraums.

Ergebnis: Zusammenfassend kann die Attraktivität der Velowege in einen gestalterischen Rahmen sowie einen szenografischen Rahmen unterteilt werden. Die Szenografie überlagert dabei den gestalterischen Rahmen, der sich aus dem Umfeld und der Weginfrastruktur zusammensetzt. Im Werkzeugkasten sind gestalterische und szenografische Elemente für Velowege und deren Bedeutung sowie Einsatzmöglichkeiten festgehalten. Ein wichtiges Element stellt die Ereignisdichte dar. Zu dieser bestehen in der Literatur bisher kaum Aussagen. Die Arbeit macht zur Ereignisdichte konkrete Aussagen, wie beispielsweise zur maximalen Länge von Weggeraden. Zudem zeigt die Arbeit auf, dass der szenografische Einsatz in der Praxis oftmals durch eingeschränkte Eingriffsmöglichkeiten limitiert wird. Dies unter anderem bei wichtigen Kriterien wie der Linienführung, der Ereignisdichte sowie der Gestaltung des Umfelds. Eine szenografische Bearbeitung über eine ganze Route hinweg umzusetzen, ist in den meisten Fällen nicht möglich. Der punktuelle Einsatz von Szenografie ist jedoch oftmals möglich.

Fazit: Die Bedeutung der Attraktivität von Velowegen wurde bisher in der Planung unterschätzt, bezüglich der Bedürfnisse der Velofahrenden. Sie ist deutlich schwerer zu messen als technische Kriterien. Sie ist aber ein wichtiges Element zur Steigerung des Anteils der Velofahrenden am Modalsplit. Um ein positives Erlebnis für die Nutzenden zu ermöglichen, müssen daher sowohl die Velowege wie auch das Umfeld attraktiv gestaltet werden.

Systematisches Zusammenspiel der Elemente des Werkzeugkastens Eigene Darstellung

Grünelemente sorgen für ein positives Velofahrerlebnis Eigene Darstellung

Beispiel eines szenografischen Highlights Eigene Darstellung

Referenten

Prof. Dr. Tanja Herdt, Prof. Carsten Hagedorn

Korreferent

Christian Blum, Eckhaus AG, Zürich, ZH

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Ferner hat sich gezeigt, dass eine gute Gestaltung von Veloweg und Umfeld wichtiger ist als die szenografische Gesamtbearbeitung. Dort, wo sich Chancen für einen Umbau ergeben, kann eine szenografische Bearbeitung durchaus einen Mehrwert bieten durch spannende zusätzliche Erlebnisse. Dies gilt insbesondere für wichtige Velowege wie Velovorzugsrouten.

54 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Stefan Oberer

Nachhaltiger Infrastrukturbau

Räumliche Analyse der Wirkung von Ortsumfahrungen auf die Siedlung und die Landschaft

Diplomand

Ausgangslage: Die Strasseninfrastruktur hat einen erheblichen Einfluss auf diverse Beziehungen im Raum. Die Auswirkungen von Strassen auf die ökologische, soziale und wirtschaftliche Dimension der Nachhaltigkeit sollten daher bereits vor der Festlegung der definitiven Linienführung von neuen Strassen in frühen Projektphasen (SIA-Phasen 1, 2 und 3) bestimmt werden. Im Spezialfall von Ortsumfahrungen sind die räumlichen Wirkungen im Umfeld der Umfahrung, aber auch im Bereich der ehemaligen Hauptverkehrsachse (Ortsdurchfahrt) ganzheitlich zu betrachten.

Vorgehen/Technologien: In der vorliegenden Arbeit wurde untersucht, inwiefern die gesamtheitliche Zerschneidungs- und Vernetzungswirkung einer Ortsumfahrung und die veränderte Nutzung der Ortsdurchfahrtsstrasse mit ausgewogener Berücksichtigung der sozialen, ökonomischen und ökologischen Aspekte untersucht werden können. Dazu wurden eine Raumbeobachtung sowie ein GIS-basierter Ansatz entwickelt, welcher die Vernetzung anhand der vier Kriterien potenzielle Walkability, potenzielle Bikeability, Landschaftszerschneidung und Auswirkungen auf das übergeordnete Verkehrssystem (MIV) beschreibt. Die Operationalisierung erfolgte in der Software QGIS.

Fazit: Die Kernaussage der Untersuchungen ist, dass sich GIS-Systeme durchaus eignen, um die Auswirkungen auf die räumlichen Vernetzungsstrukturen zu untersuchen, wenn auch eine Weiterentwicklung des vorliegenden Modellansatzes als nötig erachtet wird.

Folgende Empfehlungen sind dabei zentral:

– Erweiterung des Kriterienkatalogs um die visuelle und akustische Zerschneidungswirkung

– Verbesserung der Operationalisierung der Indikatoren für alle vier Kriterien

– GIS-basierte Analysen eignen sich nicht, um Verkehrsverlagerungen detailliert zu untersuchen. Dazu sollten externe Verkehrssimulationssoftwares verwendet werden.

Referentin

Prof. Dr. Susanne Kytzia

Korreferent

Prof. Dr. Robert Weibel, Geographisches Institut der Universität Zürich

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Funktionen einer Ortsdurchfahrtsstrasse

Baudirektion Kanton Zürich, 2022: Staatsstrassen der Zukunft

Das untersuchte Fallbeispiel: Die Umfahrung Mellingen Eigene Darstellung

Wechselwirkungen zwischen Landnutzung, Siedlungsentwicklung und Verkehrssystemen Wegener und Fürst, 1999: Land-Use Transport Interaction

55
OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
Pascal Pfister

Klimaanpassung & Gentrifizierung

Eine Bestandesaufnahme zur Aktualität der Gentrifizierungsforschung im Kontext von Klimaanpassung in Schweizer Städten

Diplomandin

Referent

Prof. Philipp Krass

Korreferentin

Barbara Emmenegger

Themengebiet

Raumentwicklung und Landschaftsarchitektur

Einleitung: Wir leben in einem Zeitalter, das vom Klimawandel geprägt ist. Die Menschheit ist direkt und indirekt von den Auswirkungen betroffen. Die räumliche Planung ist gegenwärtig von Bemühungen geprägt, Lösungen zur Bewältigung der Klimafolgen zu finden und Siedlungsräume lebenswert erhalten zu können. Gemeinden wenden viele Ressourcen auf, um diesen Herausforderungen mit Klimaanpassung und Klimaschutz entgegenzuwirken. Diesbezügliche Konzepte und Strategien umfassen sowohl den privaten als auch den öffentlichen Raum. Massnahmen im öffentlichen Freiraum sind häufig mit mehreren Zielsetzungen verknüpft und beabsichtigen, technischen, ökologischen, ökonomischen, sozialen und ästhetischen Mehrwert in einem Projekt zu vereinen. Gleichzeitig ist die Wohnungspolitik ein omnipräsentes Thema in der Siedlungsentwicklung. Tiefe Leerwohnungsziffern, stetig steigende Mieten, hohe Bodenpreise und knappe Baulandreserven beschäftigen die Fachleute. Der Einfluss unterschiedlichster Aufwertungsprozesse auf den Wohnraum und die häufig damit zusammenhängende Gentrifizierung beschäftigen die Stadtforschung seit Langem. Zudem ist die Gentrifizierung für die Politik und Planungspraxis von zunehmender Bedeutung. In Verbindung mit anderen Stadtentwicklungsprozessen entstehen neue Formen der Gentrifizierung, so auch im Zusammenhang mit Umwelt- und Klimathematiken. In den vergangenen Jahren entstand ein Forschungsfeld, das unter Begriffen wie «green gentrification», «environmental gentrification», «ecological gentrification» und «climate gentrification» den Wirkungszusammenhang von Umweltfaktoren im Freiraum und der Gentrifizierung erforscht. Das Forschungsfeld beleuchtet das Paradoxon der notwendigen nachhaltigen und klimaverträglichen und klimaangepassten Stadtentwicklung und potenziell verdrängenden Auswirkungen. Grösstenteils wurde Gentrifizierung im Zusammenhang mit Umweltfaktoren und Klimaaspekten in Nordamerika und vereinzelt in Westeuropa untersucht. In der Schweiz wurde dieser Wirkungszusammenhang bislang nicht untersucht.

Ziel dieser Arbeit ist es, die Bedeutung des Wirkungszusammenhangs von Klimaanpassungsmassnahmen und Gentrifizierung im Kontext der klimaangepassten Stadtentwicklung in der Schweiz zu eruieren. Dabei liegt der Fokus auf Anpassungsmassnahmen im öffentlichen Siedlungsfreiraum.

Fazit: Gentrifizierung rückt unter verschiedenen thematischen Kontexten immer wieder in den Fokus. In Anbetracht der zunehmenden Investitionen der öffentlichen Hand in die Klimaanpassung im öffentlichen Freiraum und des Wissens bezüglich möglichen Folgewirkungen auf Gentrifizierungsprozesse steht

die Frage im Raum, ob dadurch bewusst oder unbewusst Verdrängungseffekte erwirkt werden. Es zeigte sich, dass die Klimaanpassung für den Umgang mit diesem Wirkungszusammenhang beinahe eine sekundäre Rolle einnimmt. Aus den Ergebnissen wird sichtbar, dass im Kontext der Aktualität von Klimaanpassung in Schweizer Städten die vorausschauende, sozialverträgliche Wohnraumpolitik an Bedeutung gewinnt und in Bezug auf den Forschungsgegenstand dieser Arbeit elementar ist. Die Arbeit stellt fest, dass die Wirkungszusammenhänge von Klimaanpassung und Gentrifizierung komplex sind und Verdrängungseffekte möglich sind. Eine genauere Ergründung dieser könnte Bestandteil von weiteren Forschungsarbeiten sein.

56 OST – Ostschweizer Fachhochschule | Masterarbeiten 2024 | Master of Science in Engineering | Bau und Planung
57

Rapperswil-Jona

OST

Ostschweizer Fachhochschule

Oberseestrasse 10

8640 Rapperswil

T +41 58 257 41 11 info@ost.ch ost.ch

NeueJonastrasse

Schönbodenstrasse

P P P P

Bahnhof

Oberseestrasse

OST Campus Rapperswil-Jona

Hanflandstrasse

Langäulistrasse

OST Campus Buchs P

Werdenbergstrasse

Langäulistrasse

Buchs

St.Gallerstrasse

Autobahnausfahrt St.Gallen / Zürich bzbs Bu chs

Buchs

Zentrum

Bahnhofstrasse

Bahnhof

Schaan FL

Churerstrasse

konSZ–ZürichA3
Pfä
KniesKinderzoo
P

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.