Issuu on Google+

4 Juli 2013

Professur Mediengestaltung bei OUTPUT


Technische Universität Dresden Fakultät Informatik Professur für Mediengestaltung 01062 Dresden Fon + 49 (0) 351 – 463 - 38 550 http://mg.inf.tu-dresden.de/


Werkstatt III Interaktive Installationen im Stadtraum

10 * exzellente Jahre Mediengestaltung * das sind 10 Jahre des Forschens, des Streitens und des Zusammenwachsens. Die Technische Visualistik bietet das Themendach, unter dem dies geschieht. Zum Team gehĂśren Informatiker, Maschinenbauer, Psychologen, Architekten und Designer. Informatiker sind in der Mehrheit - und das ist gut so. Denn sie sichern und erschlieĂ&#x;en uns die Quelle technischer Innovation.

Ausstellung am 2. August 2013 Infos unter werkstatt.inf.tu-dresden.de


Werkstatt III Interaktive Installationen im Stadtraum

10 * exzellente Jahre Mediengestaltung * das sind 10 Jahre des Forschens, des Streitens und des Zusammenwachsens. Die Technische Visualistik bietet das Themendach, unter dem dies geschieht. Zum Team gehĂśren Informatiker, Maschinenbauer, Psychologen, Architekten und Designer. Informatiker sind in der Mehrheit - und das ist gut so. Denn sie sichern und erschlieĂ&#x;en uns die Quelle technischer Innovation.

Ausstellung am 2. August 2013 Infos unter werkstatt.inf.tu-dresden.de


Konzeption

Projekt Brian Eschrich

Kolloqui-

Im Zentrum des Projektes EmplIT steht ein neuartiger und innovativer Weg der zusätzlichen Wissensvermittlung unter Berücksichtigung von aktuellen Trends am Arbeitsmarkt und neuen Qualifikationsbedürfnissen der Wirtschaft. Ziel ist die Entwicklung eines zukunftsfähigen zusätzlichen Qualifikationsangebots, das Studierenden Fertigkeiten im Umgang mit neusten Technologien vermittelt. Innerhalb dieses Angebots, genannt Werkstatt, können sich die Studierenden mit der ganzen Breite an Möglichkeiten der Technologie auseinandersetzen und aktuelle Fragestellungen mit real-wirtschaftlichem Hintergrund bearbeiten.

Objektanalyse Objektentwurf

Inhalte

Elektronik - Workshop Arduino - Workshop

Das zweite Modul der Werkstatt beschäftigte sich mit der Entwicklung begreifbarer Interaktionsschnittstellen, also handlichen Steuergeräten zur Kontrolle eines intelligenten Autos oder Hauses. Nach der Vermittlung wichtiger Grundlagen aus der Produktgestaltung, dem Interaktionsdesign, der Sensorik und dem Prototyping-Prozess wurde eine greifbare Interaktionsschnittstelle konzipiert. In Kolloquien diskutierten Experten aus der Wirtschaft die Projektstände und halfen diese weiter zu entwickeln. Der Bau der Schnittstellen erfolgte daraufhin an der Universität und in freien Werkstätten. Das Modul endete mit einer öffentlichen Projektpräsentation. Neu erlernte Fertigkeiten der Studierenden setzen sich aus Modellbautechniken, Elektronik, Arduino, Processing und Unity zum Einsatz zusammen.

Ausstellung

Die Werkstatt II Begreifbare Interaktionsschnittstellen Dieses Projekt wird gefördert durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).

Foyer


Konzeption

Projekt Brian Eschrich

Kolloqui-

Im Zentrum des Projektes EmplIT steht ein neuartiger und innovativer Weg der zusätzlichen Wissensvermittlung unter Berücksichtigung von aktuellen Trends am Arbeitsmarkt und neuen Qualifikationsbedürfnissen der Wirtschaft. Ziel ist die Entwicklung eines zukunftsfähigen zusätzlichen Qualifikationsangebots, das Studierenden Fertigkeiten im Umgang mit neusten Technologien vermittelt. Innerhalb dieses Angebots, genannt Werkstatt, können sich die Studierenden mit der ganzen Breite an Möglichkeiten der Technologie auseinandersetzen und aktuelle Fragestellungen mit real-wirtschaftlichem Hintergrund bearbeiten.

Objektanalyse Objektentwurf

Inhalte

Elektronik - Workshop Arduino - Workshop

Das zweite Modul der Werkstatt beschäftigte sich mit der Entwicklung begreifbarer Interaktionsschnittstellen, also handlichen Steuergeräten zur Kontrolle eines intelligenten Autos oder Hauses. Nach der Vermittlung wichtiger Grundlagen aus der Produktgestaltung, dem Interaktionsdesign, der Sensorik und dem Prototyping-Prozess wurde eine greifbare Interaktionsschnittstelle konzipiert. In Kolloquien diskutierten Experten aus der Wirtschaft die Projektstände und halfen diese weiter zu entwickeln. Der Bau der Schnittstellen erfolgte daraufhin an der Universität und in freien Werkstätten. Das Modul endete mit einer öffentlichen Projektpräsentation. Neu erlernte Fertigkeiten der Studierenden setzen sich aus Modellbautechniken, Elektronik, Arduino, Processing und Unity zum Einsatz zusammen.

Ausstellung

Die Werkstatt II Begreifbare Interaktionsschnittstellen Dieses Projekt wird gefördert durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).

Foyer


Jens R. Helmert Josephine Hartwig Johannes Schulz Mathias Müller Ingmar S. Franke Anja Knöfel Thomas Gründer Rebekka Renner Sebastian Walther

Der technische Fortschritt und die gegenwärtigen Neuerungen, insbesondere im Bereich der Schnittstelle zwischen Mensch und Maschine, erfordern die zunehmende Zusammenarbeit von Informatikern und Psychologen sowohl in der Grundlagenforschung als auch in der Anwendung. Um dieser Herausforderung gerecht zu werden, hat sich die Nachwuchsforschergruppe Cognitive Interface Technologies (CogITo), bestehend aus insgesamt acht Nachwuchswissenschaftler der Professur Mediengestaltung der Fakultät Informatik und der Professur Ingenieurpsychologie und Kognitive Ergonomie der Fakultät Mathematik und Naturwissenschaften der TU Dresden, gebildet. Über einen Zeitraum von 3 Jahren erforschen die Mitarbeiter der Nachwuchsforschergruppe CogITo verschiedenste Aspekte der Mensch-Maschine-Schnittstelle im gesamten Spektrum von Grundlagenforschung bis Anwendung. Dabei werden unter anderem Untersuchungen zu Wahrnehmung und Gestaltung in immersiven 3D-Umgebungen, zur Gestaltung und Zusammenarbeit mit virtuellen Agenten, zu verschiedenen Möglichkeiten der Aufmerksamkeitslenkung sowie zur Erzeugung und Messung von Immersion durchgeführt. Die Nachwuchsforschergruppe wird vom Europäischen Sozialfond und dem Freistaat Sachsen gefördert.

Nachwuchsforschergruppe CogITo Cognitive Interface Technologies Das Projekt »CogITo« SAB Nr.: 12795/2129 wird durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozial-

Raum 5

fonds (ESF) gefördert


Jens R. Helmert Josephine Hartwig Johannes Schulz Mathias Müller Ingmar S. Franke Anja Knöfel Thomas Gründer Rebekka Renner Sebastian Walther

Der technische Fortschritt und die gegenwärtigen Neuerungen, insbesondere im Bereich der Schnittstelle zwischen Mensch und Maschine, erfordern die zunehmende Zusammenarbeit von Informatikern und Psychologen sowohl in der Grundlagenforschung als auch in der Anwendung. Um dieser Herausforderung gerecht zu werden, hat sich die Nachwuchsforschergruppe Cognitive Interface Technologies (CogITo), bestehend aus insgesamt acht Nachwuchswissenschaftler der Professur Mediengestaltung der Fakultät Informatik und der Professur Ingenieurpsychologie und Kognitive Ergonomie der Fakultät Mathematik und Naturwissenschaften der TU Dresden, gebildet. Über einen Zeitraum von 3 Jahren erforschen die Mitarbeiter der Nachwuchsforschergruppe CogITo verschiedenste Aspekte der Mensch-Maschine-Schnittstelle im gesamten Spektrum von Grundlagenforschung bis Anwendung. Dabei werden unter anderem Untersuchungen zu Wahrnehmung und Gestaltung in immersiven 3D-Umgebungen, zur Gestaltung und Zusammenarbeit mit virtuellen Agenten, zu verschiedenen Möglichkeiten der Aufmerksamkeitslenkung sowie zur Erzeugung und Messung von Immersion durchgeführt. Die Nachwuchsforschergruppe wird vom Europäischen Sozialfond und dem Freistaat Sachsen gefördert.

Nachwuchsforschergruppe CogITo Cognitive Interface Technologies Das Projekt »CogITo« SAB Nr.: 12795/2129 wird durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozial-

Raum 5

fonds (ESF) gefördert


CogITo Handschuh mit Dehnungsmessung

CogITo Depth Touch in Aktion

Hand, Sensorik und Virtualität Begreifbare Interaktion mit der Virtualität Josefine Zeipelt, Thomas Gründer

Depth Touch

Sensorkrake zum testen und erfahren der Sensorik

Begreifbare Interaktion mit der Virtualität

Elastic Wall

Fabian Göbel, Joshua Peschke und Thomas Gründer

Reale Kugeln auf Stoff

Elastic Wall Begreifbare Interaktion mit der Virtualität Thomas Gründer, Mathias Müller, Anja Knöfel, Sebastian Walther und Ingmar Franke Vertikale Interaktion Raum 5

Raum 5


CogITo Handschuh mit Dehnungsmessung

CogITo Depth Touch in Aktion

Hand, Sensorik und Virtualität Begreifbare Interaktion mit der Virtualität Josefine Zeipelt, Thomas Gründer

Depth Touch

Sensorkrake zum testen und erfahren der Sensorik

Begreifbare Interaktion mit der Virtualität

Elastic Wall

Fabian Göbel, Joshua Peschke und Thomas Gründer

Reale Kugeln auf Stoff

Elastic Wall Begreifbare Interaktion mit der Virtualität Thomas Gründer, Mathias Müller, Anja Knöfel, Sebastian Walther und Ingmar Franke Vertikale Interaktion Raum 5

Raum 5


CogITo Illustration eines Blickbewegungspfades

CogITo

User Interface Gestaltung für virtuelle Agenten

Wahrnehmungsrealismus Perspektivkorrekturen in Visualisierungen

Wahrnehmung und Gestaltung virtueller Helfer

Ingmar Franke

Anja Knöfel

Assistenzszenarien

Zusammengesetzte comp. Projektionen Empirisch ermittelter Dialogpfad

verschiedene Formen autonomer Roboter

Eye-Tracking zur Sakkadenerkennung in Echtzeit Tiefenwahrnehmung und gestenbasierte Interaktion in VR Wahrnehmung und Interaktion in virtuellen Räumen Visualisierung von räumlicher Tiefe relativ zur virtuellen Hand

Matthias Müller

Das Auge im Kontext virtueller Welten Sebastian Walther, Ingmar Franke und Tobias Günther

Blicke machen Bilder

Raum 5

Raum 5


CogITo Illustration eines Blickbewegungspfades

CogITo

User Interface Gestaltung für virtuelle Agenten

Wahrnehmungsrealismus Perspektivkorrekturen in Visualisierungen

Wahrnehmung und Gestaltung virtueller Helfer

Ingmar Franke

Anja Knöfel

Assistenzszenarien

Zusammengesetzte comp. Projektionen Empirisch ermittelter Dialogpfad

verschiedene Formen autonomer Roboter

Eye-Tracking zur Sakkadenerkennung in Echtzeit Tiefenwahrnehmung und gestenbasierte Interaktion in VR Wahrnehmung und Interaktion in virtuellen Räumen Visualisierung von räumlicher Tiefe relativ zur virtuellen Hand

Matthias Müller

Das Auge im Kontext virtueller Welten Sebastian Walther, Ingmar Franke und Tobias Günther

Blicke machen Bilder

Raum 5

Raum 5


Was ist BiLL? Dietrich Kammer Andreas Stahl Martin Zavesky Romy Müller Jan Wojdziak

Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das in Echtzeit dreidimensionale Welten visualisiert. Zudem kann der Benutzer nicht nur den Inhalt, sondern auch die Art und Eigenschaften der Darstellung ändern. BiLL stellt eine große Anzahl von Komponenten zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten dienen. Eine Erweiterung durch zusätzliche Komponenten ist durch die modulare Framework-Architektur von BiLL einfach möglich. BiLL wurde für die Erforschung verschiedener Algorithmen der 3D-Interfacegestaltung entwickelt und unterstützt Analysen im Bereich der Computergrafik und der Kognitionspsychologie.

Plattformunabhängigkeit

Um BiLL flexibel einsetzen zu können, wurde die Grundstruktur so angepasst, dass BiLL nun auf den Betriebssystemen OS X, Linux und Windows genutzt werden kann. Eine weitere neu entwickelte Komponente ermöglicht eine rechner- und betriebssystemübergreifende, synchrone Steuerung der Ansicht. Damit sind die Grundlagen gelegt, um BiLL auch in einer interaktiven 3D Umgebung (z.B. CAVE) einsetzen zu können.

BILL – ARBEITSUMGEBUNG BILDSPRACHE LIVELAB Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das die Visualisierung dreidimensionaler Welten in Echtzeit ermöglicht. Zudem kann der Benutzer nicht nur den Inhalt der Darstellung, sondern auch deren Art und Strukturen ändern. Realer Raum

3D Brille

Bildsprache LiveLab

3D Bildschirm Virtueller Raum BiLL wurde für die Erforschung verschiedener Sachverhalte der 3D-Interfacegestaltung entwickelt und dient als Plattform für analytische Untersuchungen im Bereich der Computergrak und der Kognitionspsychologie. Dabei erlaubt BiLL die Integration verschiedener Ansätze durch eine Kombination von visualisierungsbezogenen, interaktionsorientierten und nutzerzentrierten Komponenten.

BiLL präsentiert sich als Zweifenstersystem. Im »Viewer«, erfolgt die dreidimensionale Darstellung. Der »Editor« Eyetracking 3D Szene dient der Kontrolle und Manipulation von Objekteigenschaften und Darstellungsparametern. BiLL stellt eine reichhaltige Anzahl von Plug-Ins zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten oder der Einbindung von Eyetracking- und Multitouch-Technologien von dienen. Eine unkomplizierte Erweiterung durch zusätzliche Plug-Ins wird von der modularen Framework-Architektur von BiLL unterstützt.

Professur für Mediengestaltung Arbeitsgruppe Technische Visualistik

Gefördert vom

Validierung des Innovationspotentials wissenschaftlicher Forschung - VIP

Erforschung bildgestützter Interaktion in 3D-Anwendungen

Eyetracking

Die Eyetracking-Komponenten von BiLL wurden so erweitert, dass BiLL flexibel mit verschiedenen Systemen verwendet werden kann. Dadurch konnte BiLL als Experimentalumgebung in Kooperation mit der Firma Interactive Minds für ein räumliches Eytrackingexperiment eingesetzt werden. Die Verbindung aus stereoskopischer 3D-Präsentation und räumlicher Erfassung eröffnet neue intuitivere Formen der Visualisierungen von Blickbewegungsdaten . Mit einem weiteren Beispiel für die Anwendung von BiLL und Eyetracking befasst sich die Forschergruppe CogITo in Form der sakkadenkontingenten Darstellung.

Bildsprache LiveLab wird an der Professur für Mediengestaltung im Rahmen des BMBF geförderten Projektes VALABI evaluiert und weiterentwickelt.

Raum 1 Technische Universität Dresden


Was ist BiLL? Dietrich Kammer Andreas Stahl Martin Zavesky Romy Müller Jan Wojdziak

Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das in Echtzeit dreidimensionale Welten visualisiert. Zudem kann der Benutzer nicht nur den Inhalt, sondern auch die Art und Eigenschaften der Darstellung ändern. BiLL stellt eine große Anzahl von Komponenten zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten dienen. Eine Erweiterung durch zusätzliche Komponenten ist durch die modulare Framework-Architektur von BiLL einfach möglich. BiLL wurde für die Erforschung verschiedener Algorithmen der 3D-Interfacegestaltung entwickelt und unterstützt Analysen im Bereich der Computergrafik und der Kognitionspsychologie.

Plattformunabhängigkeit

Um BiLL flexibel einsetzen zu können, wurde die Grundstruktur so angepasst, dass BiLL nun auf den Betriebssystemen OS X, Linux und Windows genutzt werden kann. Eine weitere neu entwickelte Komponente ermöglicht eine rechner- und betriebssystemübergreifende, synchrone Steuerung der Ansicht. Damit sind die Grundlagen gelegt, um BiLL auch in einer interaktiven 3D Umgebung (z.B. CAVE) einsetzen zu können.

BILL – ARBEITSUMGEBUNG BILDSPRACHE LIVELAB Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das die Visualisierung dreidimensionaler Welten in Echtzeit ermöglicht. Zudem kann der Benutzer nicht nur den Inhalt der Darstellung, sondern auch deren Art und Strukturen ändern. Realer Raum

3D Brille

Bildsprache LiveLab

3D Bildschirm Virtueller Raum BiLL wurde für die Erforschung verschiedener Sachverhalte der 3D-Interfacegestaltung entwickelt und dient als Plattform für analytische Untersuchungen im Bereich der Computergrak und der Kognitionspsychologie. Dabei erlaubt BiLL die Integration verschiedener Ansätze durch eine Kombination von visualisierungsbezogenen, interaktionsorientierten und nutzerzentrierten Komponenten.

BiLL präsentiert sich als Zweifenstersystem. Im »Viewer«, erfolgt die dreidimensionale Darstellung. Der »Editor« Eyetracking 3D Szene dient der Kontrolle und Manipulation von Objekteigenschaften und Darstellungsparametern. BiLL stellt eine reichhaltige Anzahl von Plug-Ins zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten oder der Einbindung von Eyetracking- und Multitouch-Technologien von dienen. Eine unkomplizierte Erweiterung durch zusätzliche Plug-Ins wird von der modularen Framework-Architektur von BiLL unterstützt.

Professur für Mediengestaltung Arbeitsgruppe Technische Visualistik

Gefördert vom

Validierung des Innovationspotentials wissenschaftlicher Forschung - VIP

Erforschung bildgestützter Interaktion in 3D-Anwendungen

Eyetracking

Die Eyetracking-Komponenten von BiLL wurden so erweitert, dass BiLL flexibel mit verschiedenen Systemen verwendet werden kann. Dadurch konnte BiLL als Experimentalumgebung in Kooperation mit der Firma Interactive Minds für ein räumliches Eytrackingexperiment eingesetzt werden. Die Verbindung aus stereoskopischer 3D-Präsentation und räumlicher Erfassung eröffnet neue intuitivere Formen der Visualisierungen von Blickbewegungsdaten . Mit einem weiteren Beispiel für die Anwendung von BiLL und Eyetracking befasst sich die Forschergruppe CogITo in Form der sakkadenkontingenten Darstellung.

Bildsprache LiveLab wird an der Professur für Mediengestaltung im Rahmen des BMBF geförderten Projektes VALABI evaluiert und weiterentwickelt.

Raum 1 Technische Universität Dresden


Stadtbilder Deborah Schmidt

Stadtbilder wurden historisch betrachtet stets autoritär durch den architektonischen Duktus und durch politische und wirtschaftliche Ämter der entsprechenden Epoche geprägt. Heute dominieren kommerzielle Schaustellungen die Freiflächen der Großstädte. Der öffentliche Raum führt aber individuelle Personen zusammen, die unter Einbeziehung moderner Techniken befähigt werden können, als Einzelperson oder als Gruppe den Stadtraum zu prägen.

Interaktion

Bereits etablierte Techniken zur Vernetzung von Personen, zur intuitiven Interaktion und die Verwendung von steuerbaren Projektionen binden Passanten als Akteure in einen freien Dialog ein. Ziel dieser Arbeit ist es, Interaktionskonzepte für vernetzte Projektionen im Stadtraum auszuarbeiten, die im Gegensatz zu Werbebildern nicht überblenden, sondern Eigenschaften des Projektionsgrundes aufgreifen und visuell adaptieren.

Umsetzung

Die Installation bietet durch die Verwendung offener Kommunikation zwischen den Komponenten und durch die Dokumentation eigener Implementierungsmöglichkeiten innerhalb der Projektionssoftware eine Plattform zur Weiterentwicklung. Dabei liegt der Fokus auf nicht kommerziellen und offenen Software- und Hardware-Komponenten.

Crawling Traces Eroberung des Stadtraums durch individuell steuerbare und vernetzte Projektionen – Diplomarbeit Foyer


Stadtbilder Deborah Schmidt

Stadtbilder wurden historisch betrachtet stets autoritär durch den architektonischen Duktus und durch politische und wirtschaftliche Ämter der entsprechenden Epoche geprägt. Heute dominieren kommerzielle Schaustellungen die Freiflächen der Großstädte. Der öffentliche Raum führt aber individuelle Personen zusammen, die unter Einbeziehung moderner Techniken befähigt werden können, als Einzelperson oder als Gruppe den Stadtraum zu prägen.

Interaktion

Bereits etablierte Techniken zur Vernetzung von Personen, zur intuitiven Interaktion und die Verwendung von steuerbaren Projektionen binden Passanten als Akteure in einen freien Dialog ein. Ziel dieser Arbeit ist es, Interaktionskonzepte für vernetzte Projektionen im Stadtraum auszuarbeiten, die im Gegensatz zu Werbebildern nicht überblenden, sondern Eigenschaften des Projektionsgrundes aufgreifen und visuell adaptieren.

Umsetzung

Die Installation bietet durch die Verwendung offener Kommunikation zwischen den Komponenten und durch die Dokumentation eigener Implementierungsmöglichkeiten innerhalb der Projektionssoftware eine Plattform zur Weiterentwicklung. Dabei liegt der Fokus auf nicht kommerziellen und offenen Software- und Hardware-Komponenten.

Crawling Traces Eroberung des Stadtraums durch individuell steuerbare und vernetzte Projektionen – Diplomarbeit Foyer


16:50, Vortrag (Raum 6)

VISEA – Visual Search Interfaces Motivbasierte Suche als Suchparadigma für die Produktsuche Dr. Andreas Both und Mandy Keck

Projekt Mandy Keck Martin Herrmann

Zusammen mit den Projektpartnern der queo GmbH und der Unister GmbH erforscht die Professur Mediengestaltung im Projekt VISEA neue Wege zur Exploration komplexer Informationsräume. Der Rahmen des Projektes erstreckt sich dabei von der Konzipierung geeigneter und intuitiver Benutzeroberflächen für die Produktsuche - hier am Beispiel der Reise- und Finanzproduktsuche betrachtet - bis hin zur visuellen Unterstützung komplexer Analyseund Entscheidungsszenarien.

Motivbasierte Suche In Kooperation mit queo GmbH und Unister GmbH

VISEA

Gerade für unerfahrene Nutzer ohne Expertenwissen oder konkrete Zielvorstellungen zeigen heutige Suchsysteme mit einfachen Eingabemasken und Ergebnislisten erhebliches Verbesserungspotenzial. Meist ist der Nutzer darauf angewiesen, seine Suchanfrage vorab genau zu formulieren. Unter dem Begriff der „motivbasierten Suche“ wird beispielsweise die Suche nach dem persönlichen Traumurlaub oder einem passenden Finanzprodukt verstanden, bei dem noch keine konkrete Vorstellung vom Suchziel vorhanden ist und nur vage Vorstellungen und Motive den Suchprozess auslösen. Dies erfordert alternative Suchkonzepte, Inspiratoren und ein intelligentes, visuelles Interface, das die Interessen und den Kontext des Nutzers einbezieht.

Visual Search Interfaces Das Projekt „VISEA – Visual Search Interfaces“ wird gefördert aus den Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen

Foyer


16:50, Vortrag (Raum 6)

VISEA – Visual Search Interfaces Motivbasierte Suche als Suchparadigma für die Produktsuche Dr. Andreas Both und Mandy Keck

Projekt Mandy Keck Martin Herrmann

Zusammen mit den Projektpartnern der queo GmbH und der Unister GmbH erforscht die Professur Mediengestaltung im Projekt VISEA neue Wege zur Exploration komplexer Informationsräume. Der Rahmen des Projektes erstreckt sich dabei von der Konzipierung geeigneter und intuitiver Benutzeroberflächen für die Produktsuche - hier am Beispiel der Reise- und Finanzproduktsuche betrachtet - bis hin zur visuellen Unterstützung komplexer Analyseund Entscheidungsszenarien.

Motivbasierte Suche In Kooperation mit queo GmbH und Unister GmbH

VISEA

Gerade für unerfahrene Nutzer ohne Expertenwissen oder konkrete Zielvorstellungen zeigen heutige Suchsysteme mit einfachen Eingabemasken und Ergebnislisten erhebliches Verbesserungspotenzial. Meist ist der Nutzer darauf angewiesen, seine Suchanfrage vorab genau zu formulieren. Unter dem Begriff der „motivbasierten Suche“ wird beispielsweise die Suche nach dem persönlichen Traumurlaub oder einem passenden Finanzprodukt verstanden, bei dem noch keine konkrete Vorstellung vom Suchziel vorhanden ist und nur vage Vorstellungen und Motive den Suchprozess auslösen. Dies erfordert alternative Suchkonzepte, Inspiratoren und ein intelligentes, visuelles Interface, das die Interessen und den Kontext des Nutzers einbezieht.

Visual Search Interfaces Das Projekt „VISEA – Visual Search Interfaces“ wird gefördert aus den Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen

Foyer


Job Adriaensz Berckheyde:Innenansicht der St. Bavokerk zu Haarlem, 1665 Paolo Portoghesi: Zeichnung

Bild-Betrachter Relation Stephan Jando Tobias Hafermalz und Franziska Hannß

Die Rolle von Körperlichkeit im Forschungsfeld der Mensch-Computer-Interaktion steigt in den letzten zehn Jahren zunehmend. Mit unserer Forschung möchten wir entsprechende Parameter identifizieren und stärken. Dabei wird die Bedeutung des Betrachters im Sinne der Bild-Betrachter Relation im Museumskontext untersucht.

Studie

Durch diese Studie wird das Betrachterverhalten im Rahmen von Gemäldeausstellungen untersucht. Der Besucher betritt den nachempfundenen Museumsraum. Mittels Trackingtechnologie wird seine Bewegung vor den Gemälden aufgezeichnet. Bisherige Studien haben gezeigt, dass die Position des Betrachters von der Bildgeometrie beeinflusst wird. Besonders die laterale Ausrichtung vor den Gemälden orientiert sich an der Saggitalebene. Weitere Studien streben an auch die Abhängigkeit bezüglich der Distanz des Besuchers bei der Betrachtung des Gemäldes zu untersuchen. Die ausgewählten Renaissancegemälde hängen im Original in der Gemäldegalerie Alte Meister der Staatlichen Kunstsammlungen Dresden. Für diese Untersuchungen spielt die Bildgeometrie, damit verbunden ein perspektivischer Bildraum, eine große Rolle. Den gewählten Gemälden liegt eine gut rekonstruierbare Bildgeometrie zugrunde. Auf Basis des Rasterfußbodens ist die Ermittlung des Maler-Augpunktes sehr gut möglich.

Annäherung an den Bildraum Diese Arbeit entstand im Rahmen des Forschungsseminars Medien-

Studie zur Bild-Betrachter Relation

gestaltung im Masterstudiengang Medieninformatik der TU Dresden. Seitens Dipl.-Medieninf. Franziska Hannß wird diese Arbeit durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Euro-

Raum 1

päischen Sozialfonds (ESF) gefördert.


Job Adriaensz Berckheyde:Innenansicht der St. Bavokerk zu Haarlem, 1665 Paolo Portoghesi: Zeichnung

Bild-Betrachter Relation Stephan Jando Tobias Hafermalz und Franziska Hannß

Die Rolle von Körperlichkeit im Forschungsfeld der Mensch-Computer-Interaktion steigt in den letzten zehn Jahren zunehmend. Mit unserer Forschung möchten wir entsprechende Parameter identifizieren und stärken. Dabei wird die Bedeutung des Betrachters im Sinne der Bild-Betrachter Relation im Museumskontext untersucht.

Studie

Durch diese Studie wird das Betrachterverhalten im Rahmen von Gemäldeausstellungen untersucht. Der Besucher betritt den nachempfundenen Museumsraum. Mittels Trackingtechnologie wird seine Bewegung vor den Gemälden aufgezeichnet. Bisherige Studien haben gezeigt, dass die Position des Betrachters von der Bildgeometrie beeinflusst wird. Besonders die laterale Ausrichtung vor den Gemälden orientiert sich an der Saggitalebene. Weitere Studien streben an auch die Abhängigkeit bezüglich der Distanz des Besuchers bei der Betrachtung des Gemäldes zu untersuchen. Die ausgewählten Renaissancegemälde hängen im Original in der Gemäldegalerie Alte Meister der Staatlichen Kunstsammlungen Dresden. Für diese Untersuchungen spielt die Bildgeometrie, damit verbunden ein perspektivischer Bildraum, eine große Rolle. Den gewählten Gemälden liegt eine gut rekonstruierbare Bildgeometrie zugrunde. Auf Basis des Rasterfußbodens ist die Ermittlung des Maler-Augpunktes sehr gut möglich.

Annäherung an den Bildraum Diese Arbeit entstand im Rahmen des Forschungsseminars Medien-

Studie zur Bild-Betrachter Relation

gestaltung im Masterstudiengang Medieninformatik der TU Dresden. Seitens Dipl.-Medieninf. Franziska Hannß wird diese Arbeit durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Euro-

Raum 1

päischen Sozialfonds (ESF) gefördert.


Projektbeschreibung Mirko de Almeida Madeira Clemente, Hannes Leitner

Zusammen mit der queo GmbH entwickelt und untersucht die Professur Mediengestaltung im Projekt „Vizamp“ neue Interface-Konzepte für Projektmanagementlösungen. Hintergrund sind die Unzulänglichkeiten aktueller Lösungen hinsichtlich der Unterstützung kollaborativer Planungsszenarien und die in diesem Kontext bisher noch unzureichend betrachteten Möglichkeiten, die sich aus der technologischen Weiterentwicklung ergeben. Ziel des Projektes ist es, dem Planungsprozess durch ein mehrschichtiges System und die stärkere Einbeziehung der Mitarbeiter zu mehr Agilität und folglich auch mehr Planungssicherheit zu verhelfen, die insbesondere im Multiprojektmanagement eine große Herausforderung darstellt.

Anwendungsszenarien In Kooperation mit queo GmbH

Die im Projekt angestrebte Prozessmodellierung einer agilen Planung im Multiprojektmanagement fußt auf drei Szenarien: Projektmeeting, Projektplanung und KapaMeeting. Sie beeinflussen sich in hohem Maße gegenseitig, weshalb sich die Steuerung der Kommunikationsflüsse nach dem Middle-out-Paradigma richtet. Dadurch können sowohl die Ergebnisse aus Projektmeetings (Bottom-up) als auch die Vorgaben der Projektmanager (Top-down) in die Gesamtplanung einfließen.

Vizamp – ein Systemansatz für agiles Multiprojektmanagement Projektdatenaggregation und Projektplanung für mittelständische Unternehmen in der Wissensgesellschaft

Das Projekt „Vizamp“ wird gerfördert aus den Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen.

Raum 1


Projektbeschreibung Mirko de Almeida Madeira Clemente, Hannes Leitner

Zusammen mit der queo GmbH entwickelt und untersucht die Professur Mediengestaltung im Projekt „Vizamp“ neue Interface-Konzepte für Projektmanagementlösungen. Hintergrund sind die Unzulänglichkeiten aktueller Lösungen hinsichtlich der Unterstützung kollaborativer Planungsszenarien und die in diesem Kontext bisher noch unzureichend betrachteten Möglichkeiten, die sich aus der technologischen Weiterentwicklung ergeben. Ziel des Projektes ist es, dem Planungsprozess durch ein mehrschichtiges System und die stärkere Einbeziehung der Mitarbeiter zu mehr Agilität und folglich auch mehr Planungssicherheit zu verhelfen, die insbesondere im Multiprojektmanagement eine große Herausforderung darstellt.

Anwendungsszenarien In Kooperation mit queo GmbH

Die im Projekt angestrebte Prozessmodellierung einer agilen Planung im Multiprojektmanagement fußt auf drei Szenarien: Projektmeeting, Projektplanung und KapaMeeting. Sie beeinflussen sich in hohem Maße gegenseitig, weshalb sich die Steuerung der Kommunikationsflüsse nach dem Middle-out-Paradigma richtet. Dadurch können sowohl die Ergebnisse aus Projektmeetings (Bottom-up) als auch die Vorgaben der Projektmanager (Top-down) in die Gesamtplanung einfließen.

Vizamp – ein Systemansatz für agiles Multiprojektmanagement Projektdatenaggregation und Projektplanung für mittelständische Unternehmen in der Wissensgesellschaft

Das Projekt „Vizamp“ wird gerfördert aus den Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen.

Raum 1


Anika Wagner Philipp Siekmann Dietrich Kammer

Die Entwicklung komplexer Gesten auf Basis der grundlegenden Ereignisse, die über den Beginn (touchStart), den Verlauf (touchMove) und das Ende (touchEnd) einer Berührung informieren, ist ohne weitere Abstraktion mit großem Programmieraufwand verbunden. GeForMT bietet eine kurze, prägnante und plattformunabhängige Beschreibungssprache für einfache und komplexe Multitouch-Gesten unter Verwendung einfacher, atomarer Gestenbestandteile. Durch die einfache, formale Beschreibung komplexer Gesten in menschenlesbarer Form und dem Abstrahieren von Implementierungsdetails werden Designer und Programmierer unterstützt. Trotz der menschenlesbaren Form ist die Beschreibung der Gesten aufgrund der spezifischen Syntax und Semantik jedoch nicht trivial. Eine besondere Herausforderung liegt in der Unterstützung der Entwickler bei der Dekomposition komplexer Gesten in ihre atomaren, durch GeForMT unterstützten Bestandteile. Diese Arbeit baut auf einem bestehenden Gesten-Editor für GeForMT auf, welcher dem Kennenlernen der Entwickler mit der Sprache und der Unterstützung der Formalisierung dienen soll, und analysiert dessen Defizite. Auf Grundlage dessen werden die Anforderungen an einen solchen Editor genauer spezifiziert und darauf aufbauend ein neuer Editor konzipiert und prototypisch umgesetzt. Dadurch wird gezeigt, dass die Formalisierung und Implementierung komplexer Multitouch-Gesten mithilfe der GeForMT-Sprache und des konzipierten Editors vereinfacht werden kann. Die mit dem visuellen Editor mögliche, bildhafte Programmierung von Multitouch-Gesten verringert die notwendige Programmierarbeit.

GeForMT Gesteneditor auf Basis der Gestenformalisierung für Multitouch Raum 7


Anika Wagner Philipp Siekmann Dietrich Kammer

Die Entwicklung komplexer Gesten auf Basis der grundlegenden Ereignisse, die über den Beginn (touchStart), den Verlauf (touchMove) und das Ende (touchEnd) einer Berührung informieren, ist ohne weitere Abstraktion mit großem Programmieraufwand verbunden. GeForMT bietet eine kurze, prägnante und plattformunabhängige Beschreibungssprache für einfache und komplexe Multitouch-Gesten unter Verwendung einfacher, atomarer Gestenbestandteile. Durch die einfache, formale Beschreibung komplexer Gesten in menschenlesbarer Form und dem Abstrahieren von Implementierungsdetails werden Designer und Programmierer unterstützt. Trotz der menschenlesbaren Form ist die Beschreibung der Gesten aufgrund der spezifischen Syntax und Semantik jedoch nicht trivial. Eine besondere Herausforderung liegt in der Unterstützung der Entwickler bei der Dekomposition komplexer Gesten in ihre atomaren, durch GeForMT unterstützten Bestandteile. Diese Arbeit baut auf einem bestehenden Gesten-Editor für GeForMT auf, welcher dem Kennenlernen der Entwickler mit der Sprache und der Unterstützung der Formalisierung dienen soll, und analysiert dessen Defizite. Auf Grundlage dessen werden die Anforderungen an einen solchen Editor genauer spezifiziert und darauf aufbauend ein neuer Editor konzipiert und prototypisch umgesetzt. Dadurch wird gezeigt, dass die Formalisierung und Implementierung komplexer Multitouch-Gesten mithilfe der GeForMT-Sprache und des konzipierten Editors vereinfacht werden kann. Die mit dem visuellen Editor mögliche, bildhafte Programmierung von Multitouch-Gesten verringert die notwendige Programmierarbeit.

GeForMT Gesteneditor auf Basis der Gestenformalisierung für Multitouch Raum 7


Arduino Workshop – Are We On

17:30, Vortrag (Raum 6)

Interaktionsdesign für das Sammeln und Strukturieren kurzlebiger Informationen Marius Brade Effiziente Visualisierungsmethoden zur Repräsentation von Zusammenhängen im Kontext ständiger Veränderung

Show and Tell – Are We On

Raum 6


Arduino Workshop – Are We On

17:30, Vortrag (Raum 6)

Interaktionsdesign für das Sammeln und Strukturieren kurzlebiger Informationen Marius Brade Effiziente Visualisierungsmethoden zur Repräsentation von Zusammenhängen im Kontext ständiger Veränderung

Show and Tell – Are We On

Raum 6


Materialisierung und Darstellungsweisen von Gedankenprozessen – Workshop von Gunnar Green und Dominique Hurth (Bauhaus Universität Weimar)

Idee Prof. Christian Sery Prof. Dr.-Ing. habil. Rainer Groh Prof. Dr. Markus Wacker Grit Koalick Deborah Schmidt Axel Berndt

Show and Tell. Herzprojekt von Franziska Hoffmann, Jakoba Schönbrodt-Riehl und Wolff-Roberto Schimpf

Claudia Schötz

F-A-S-T ist ein Pilotprojekt, das den Aufbau eines postgradualen Bildungsangebots beabsichtigt und mit ESF-Mitteln gefördert wird. Es verbindet künstlerische, wissenschaftliche und technische Forschung und Umsetzung. Die Vernetzung von Kunst, Wissenschaft und Technologie bilden den Schwerpunkt der Lehre bei F-A-S-T, um interdisziplinäre Kommunikations-, Denk und Handlungsformen zu entwickeln und zu etablieren.

Jonas Loh Erik Zimmermann Erprobung Sebastian Gassel

Kooperationspartner Das Pilotprojekt F-A-S-T ist eine Kooperation der Hochschule für Bildende Künste Dresden mit der Technischen Universität Dresden und der Hochschule für Technik und Wirtschaft Dresden

Visualisierung von TCP-Paketen.

Wissenschaftler, Künstler und Ingenieure bringen jeweils unterschiedliches spezifisches Fachwissen gekoppelt mit ihrem eigenen Sprachverständnis mit. Als Basis der Kommunikation zwischen den Disziplinen muss zunächst eine gemeinsame Sprache durch gegenseitiges in Beziehungsetzen entwickelt werden, welches über das eigene Sprachverständnis hinaus verweist. Erst durch gegenseitiges Begreifen entsteht Raum für gemeinsames Denken und Handeln über die Begrenzung der eigenen Kompetenzen hinaus. So wird durch die vielfältige Zusammensetzung und Zusammenführung theoretischer und praktischer Lehrangebote ein Austausch für gemeinsame Projektarbeiten geschaffen. Auf der Grundlage interdisziplinären Denkens und Vorgehens entstehen neue Handlungsräume und Erkenntnisstrukturen, die im Rahmen des Bildungsangebots F-A-S-T entwickelt und erprobt werden und zum Aufbau des Bildungsangebots beitragen. Die Arbeit an interdisziplinären Projekten wird durch Vorlesungen, Seminare, Workshops und Projektkonsultationen aus unterschiedlichen Fach- und Wissensgebieten begleitet. In diesem offenen System der Lehre und Wissensvermittlung werden die studentischen Teilnehmer von externen Dozenten aus den verschiedensten Disziplinen sowie von künstlerischen und wissenschaftlichen Mitarbeitern des Projekts betreut. Die Aufbauphase des Bildungsangebots läuft bis Dezember 2014.

F-A-S-T Framing-Art-Science-Technology Entwicklung eines postgradualen Bildungsangebotes Dieses Projekt wird gefördert durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).

Foyer


Materialisierung und Darstellungsweisen von Gedankenprozessen – Workshop von Gunnar Green und Dominique Hurth (Bauhaus Universität Weimar)

Idee Prof. Christian Sery Prof. Dr.-Ing. habil. Rainer Groh Prof. Dr. Markus Wacker Grit Koalick Deborah Schmidt Axel Berndt

Show and Tell. Herzprojekt von Franziska Hoffmann, Jakoba Schönbrodt-Riehl und Wolff-Roberto Schimpf

Claudia Schötz

F-A-S-T ist ein Pilotprojekt, das den Aufbau eines postgradualen Bildungsangebots beabsichtigt und mit ESF-Mitteln gefördert wird. Es verbindet künstlerische, wissenschaftliche und technische Forschung und Umsetzung. Die Vernetzung von Kunst, Wissenschaft und Technologie bilden den Schwerpunkt der Lehre bei F-A-S-T, um interdisziplinäre Kommunikations-, Denk und Handlungsformen zu entwickeln und zu etablieren.

Jonas Loh Erik Zimmermann Erprobung Sebastian Gassel

Kooperationspartner Das Pilotprojekt F-A-S-T ist eine Kooperation der Hochschule für Bildende Künste Dresden mit der Technischen Universität Dresden und der Hochschule für Technik und Wirtschaft Dresden

Visualisierung von TCP-Paketen.

Wissenschaftler, Künstler und Ingenieure bringen jeweils unterschiedliches spezifisches Fachwissen gekoppelt mit ihrem eigenen Sprachverständnis mit. Als Basis der Kommunikation zwischen den Disziplinen muss zunächst eine gemeinsame Sprache durch gegenseitiges in Beziehungsetzen entwickelt werden, welches über das eigene Sprachverständnis hinaus verweist. Erst durch gegenseitiges Begreifen entsteht Raum für gemeinsames Denken und Handeln über die Begrenzung der eigenen Kompetenzen hinaus. So wird durch die vielfältige Zusammensetzung und Zusammenführung theoretischer und praktischer Lehrangebote ein Austausch für gemeinsame Projektarbeiten geschaffen. Auf der Grundlage interdisziplinären Denkens und Vorgehens entstehen neue Handlungsräume und Erkenntnisstrukturen, die im Rahmen des Bildungsangebots F-A-S-T entwickelt und erprobt werden und zum Aufbau des Bildungsangebots beitragen. Die Arbeit an interdisziplinären Projekten wird durch Vorlesungen, Seminare, Workshops und Projektkonsultationen aus unterschiedlichen Fach- und Wissensgebieten begleitet. In diesem offenen System der Lehre und Wissensvermittlung werden die studentischen Teilnehmer von externen Dozenten aus den verschiedensten Disziplinen sowie von künstlerischen und wissenschaftlichen Mitarbeitern des Projekts betreut. Die Aufbauphase des Bildungsangebots läuft bis Dezember 2014.

F-A-S-T Framing-Art-Science-Technology Entwicklung eines postgradualen Bildungsangebotes Dieses Projekt wird gefördert durch die Europäische Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).

Foyer


Technische Universität Dresden Fakultät Informatik Professur für Mediengestaltung 01062 Dresden Fon + 49 (0) 351 – 463 - 38 550 http://mg.inf.tu-dresden.de/


4 Juli 2013

Professur Mediengestaltung bei OUTPUT


Professur Mediengestaltung bei OUTPUT.DD