Mercedes-Benz next Ausgabe 1-2014

Page 1

next

1 / 2014

Das Technologie- und Innovationsmagazin www.mercedes-benz.com/next

Mein Auto lernt mich kennen Nutzer-Wünsche als Maxime Perfekter Nahverkehr Bus Rapid Transit durchdringt Metropolen


Brennstoffzellen

Echtzeitverkehrsdaten Intelligent Architecture

Komfort

Plugin

Materialit채t

Auto der Zukunft

Wissensnetzwerk

Aktive Sicherheit

Zukunftsforschung

Fahrassistenzsysteme

Mensch-Maschine-Interaktion

Augmented Reality

Autonomes Fahren

Mobilit채tskonzepte Automatisierung

Passive Sicherheit

Situationsanalyse Innovationsprozesse Werkstoffe Hybridmotoren Patente Sharing Economy

Bionic Intelligence Aerodynamik

Car-to-X-Kommunikation Design

next begleitet die Mercedes-Benz Vision vom unfall- und emissionsfreien Fahren im Zeitalter der allumfassenden Digitalisierung.


next

editorial

Die individuelle Mobilität steht vor grundlegenden Veränderungen. Schon länger haben wir bei Mercedes-Benz die weltweite ­Urbanisierung und die sich daraus ergebenden Anforderungen an zukünftige Fahr­ zeugkonzepte und Mobilitätsangebote im Blick. Inzwischen stellen uns auch die greifbaren Entwicklungen auf dem Gebiet des autonomen Fahrens, der ­Augmented Reality oder auch alle denkbaren Spielarten der Car-to-X-Kommunikation vor neue, spannende Herausforderungen. Als Erfinder des Automobils spielt dabei weiterhin die Sicherheit eine zentrale Rolle: Gleichgültig wohin die Reise geht, das Automobil der Zukunft muss verkehrssicher, betriebssicher und auch datensicher sein. Dafür steht die Marke mit dem Stern. Unser neues Technologie- und Innovationsmagazin Mercedes-Benz next hat den Finger am Puls der Zeit. Dieses spannende Magazin soll die außergewöhnlichen Entwicklungen begleiten, die die individuelle Mobilität der Zukunft neu prägen werden. Darüber hinaus reflektiert es die technologische ebenso wie die gesellschaftliche Dynamik ­unserer Zeit mit Stimmen aus dem ­Unternehmen und von externen Experten. Wie immer freuen wir uns über Ihre Reaktionen auf unser Heft! Viel Vergnügen beim Lesen von Mercedes-Benz next wünscht Ihnen

Thomas Weber Vorstandsmitglied der Daimler AG, verantwortlich für Konzernforschung und Mercedes-Benz Cars Entwicklung

2 3


Making -  of Wie lässt sich eine Titelgeschichte wie „Augmented Reality“ (AR) mit realistischer Fotografie in Szene setzen, wenn das fertige Produkt noch einige Jahre in der Zukunft liegt? Rafael Krötz, renommierter Fotograf mit Händchen für automobile Themen, hatte die ­zündende Idee: eine komplexe Installation aus zahllosen Glasscheiben, kombiniert mit grafischen Projektionen und Hintergründen. Reali­siert mit großem Team im 860 Quadratmeter großen Studio werden die Bilder bewusst künstlich belassen. Denn niemand weiß, wie die ­„erweiterte Realität“ in Fahrzeugen von ­Mercedes-Benz in einigen Jahren aussehen wird. Zum Einsatz kommt trotzdem eine S-Klasse des Jahres 2014 — schließlich wird sie von den Daimler-Entwicklern schon ­heute als Versuchsträger für ihre Vision der Augmented Reality genutzt. Das Ergebnis des Foto­shootings und einen ganz konkreten Einblick in den Entwicklungsstand automobiler Anwendungen finden Sie in unserer Titel­geschichte.    ab Seite 6 Augmented Reality hält nicht nur über die   Titel­g eschichte Ein­zug in ­diese Ausgabe — Sie ­können AR auch direkt selbst ausprobieren. Auf einigen Seiten des Hefts finden Sie das oben­stehende Symbol. Wenn Sie eine solche ­Seite mit der Kamera Ihres Smartphones oder Ihres Tablet-PC erfassen, holt das Gerät über die passende App zusätzliche ­Inhalte aus dem Internet und spiegelt sie in die Seite ein. Alles, was Sie vorab dafür tun müssen, ist, den obigen QR-Code mithilfe der App Junaio (kostenlos erhältlich für iOS und Android) zu scannen.    auf den Seiten 21 und 47 Seit bald 20 Jahren hat next-Autor Steffan Heuer als USA-Korrespondent den Finger am Puls des Silicon Valley und berichtet mit Sitz in San ­Francisco über Innovationen und Technologietrends. Genauso lange ist ­Mercedes-Benz mit einem eigenen Entwicklungs­ standort in der Region vertreten — als damals einziger Automobil­ hersteller. Kurz nach Bezug des neuen Hauptquartiers ­öffneten die Experten von Mercedes-Benz Research & Development North ­America die Türen für Heuer sowie den Foto­grafen ­David ­Magnusson, und gewährten Einblick in die dort entwickelte Technologie der „Predictive User Experience“.    ab Seite 44


next

Inhalt

Titelthema

Augmented Reality (AR) reichert die reale Welt mit Informationen an

22

06 mehr als real

Das Auto ist die optimale Plattform für künftige AR-Anwendungen. Daimler-Entwickler loten die Spielräume von morgen aus

06

22 Realität im Durchblick

28 „Sicherheit ist das oberste Gebot“

AR-Pionier Thad Starner über Zukunft und Vergangenheit der „erweiterten Realität“

Herbert Kohler über Qualitätsstandards für Fahrzeuge in Zeiten der Digitalisierung

26 Augmented Reality im Alltag

Ein Einblick in die faszinierende Vielfalt der AR-Anwendungen

32 Die automobile vermessung der Welt

Die Herausforderungen der exakten Standortbestimmung von Fahrzeugen 38 Programmierter Überblick

Wie Autos beginnen, Verkehrssituationen selbstständig zu begreifen 44 Mein Auto lernt mich kennen

Lernende Systeme machen das Nutzererlebnis im Auto von Grund auf komfortabler 52 Think Tank im Silicon valley

28

In Kalifornien arbeiten Mercedes-Benz Entwickler an der Interaktionswelt im Auto 56 Stadtbus auf hochniveau

Warum Straßburg auf „Bus Rapid Transit“ setzt 65 Impressum 66 seitenblick

56

Internationale Stimmen zur Vision des autonomen Fahrens

4 5



next

augmented reality

MEHR ALS REAL Wie Augmented Reality die physische Umwelt mit relevanten Informationen anreichert und so mehr Sicherheit, Komfort und Lebensqualit채t schafft.

6 7



next

augmented reality

8 9

Die Welt um uns herum wird durch Augmented Reality transparenter. Sie verrät, was vor uns liegt, wie die Dinge funktionieren und zusammen­hängen, was uns nutzt oder schaden könnte.



next

augmented reality

10 11

Das Auto verfügt über beste Voraussetzungen für AR-Anwendungen. In Zukunft kann die Windschutz­­scheibe zum intelligent vernetzten Display werden.


Digitale Infoebenen im Automobil m端ssen den Fahrer stets entlasten, anstatt ihn zu 端berfordern.


next

augmented reality

Text Steffan Heuer Fotografie Stefan Hohloch Rafael Krötz

Unter „Augmented Reality“ versteht man im Allgemeinen die computer­gestützte Er­ weiterung der menschlichen Realitäts­­wahr­nehmung. Gemeint ist dabei meist die visuelle ­Ein­blendung digitaler Zusatzinformationen ins Blickfeld des Betrachters auf einem Bildschirm oder einer Projektionsfläche.

D

ie Indizien sind nicht zu übersehen: Auf den Menschen kommt eine vollkommen neue Sicht der Dinge zu. Mechaniker, Chirurgen und Kundendienstmit­ arbei­ter experimentieren mit Datenbrillen am Arbeitsplatz. Touristen lassen sich vom Smartphone zeigen, an welchen Sehenswürdigkeiten sie sonst vielleicht ahnungslos vorbeigehen würden. Und Mercedes-Benz präsentierte in der jüngsten Vergangenheit mehrere Prototypen für eine auf höchstem Niveau umgesetzte „Augmented Reality“ (AR) im Automobil, also die Anreicherung der physischen Umwelt mit relevanten Informationen in Echtzeit. Die Grenze zwischen real und virtuell verschwindet

Von Richtungspfeilen, die der Bordrechner virtuell auf die Fahrbahn zeichnet, als ob sie schon immer dort gewesen wären, über virtuell eingeblendete Hausnummern, die an einem Gebäude zu haften scheinen und die Navigation auch in einer unbekannten Stadt zum Kinderspiel machen, bis hin zur futuristisch anmutenden Gestensteuerung, bei der die gesamte Windschutzscheibe zu einer lebendigen Projektionsfläche wird, sodass Fahrer und Beifahrer mit dem Fahrzeug, ihrem aktuellen Standort und ihren persönlichen Daten interagieren können — dank AR verschwindet zusehends die Grenze ­zwischen Realität und virtueller Welt. Unser Blick auf die Welt verändert sich

Im Alltag heißt das, dass die Welt mit sich beständig wandelnden, aktualisierenden und individuell ausgerichteten Informationen überzogen wird, die jeder Straße, jedem Baum, jedem Haus und sogar dem

Nachthimmel seine Geheimnisse entlocken und ins Sichtfeld einspielen. Möglich machen das kleine, aber immer leistungsfähigere Computer im Verbund mit preisgünstigen Sensoren und intelligenten Algorithmen, die einen steten Datenstrom aus der Cloud verarbeiten oder umgekehrt in sie einspeisen. Diese erweiterte Wirklichkeit ist bislang noch nicht zu einem kommerziell tragfähigen oder für Verbraucher erschwinglichen Massenphänomen geworden. Doch erste Experimente wie die Konzept­ studien von Mercedes-Benz und kurz vor der Serienreife stehende Produkte wie Datenbrillen zeigen, wie sich unser Blick auf die Welt verändern wird, um neue digitale Informationsebenen überall sichtbar zu machen. Auf lange Sicht hat AR das Potenzial, dem Menschen mehr Wissen am richtigen Ort zur richtigen Zeit zu bieten — und damit ein Plus an Sicherheit, Produktivität und Lebensqualität.

Durch AR wird das Zusammenwirken von Mensch und Maschine enger, intuitiver und persönlicher.

12 13


„ Augmented Reality liegt an der Schnittstelle der Themen Sicherheit und Komfort.“ Peter Ebel Telematik-Systemfunktionen bei Daimler

Im Interview Das komplette Gespräch mit AR-Pionier Thad Starner vom Georgia Institute of Technology finden Sie ab Seite 22.

Augmented Reality wird zudem von Experten als eine jener Technologien betrachtet, die eng mit der Vision des autonomen Fahrens verbunden ist, da sie eine enge, intuitiv begreifbare und sehr persönliche Schnittstelle zwischen Mensch und Maschine herstellen kann. Automobile Anwendungen sind  der logische Schritt

Das Automobil ist dabei eines der wichtigsten Testfelder und Anwendungsgebiete: „Augmented Reality liegt an der Schnittstelle von zwei grundlegenden Themen: Sicherheit und Komfort. Sie ist der nächste logische Schritt in der technischen Entwicklung, um den Menschen zu entlasten, damit er ein Auto optimal nutzen kann“, sagt Peter Ebel, der die Abteilung Telematik-Systemfunktionen bei Daimler in Sindelfingen leitet. „Das ist einer der zentralen Aspekte, um das Auto von heute in die Welt von morgen zu bringen.“ Seit Mitte 2013 kümmert sich ein spezielles Team in Ebels Abteilung ausschließlich um die Frage, wie der virtuell erweiterte Blick auf ein Borddisplay oder durch die Windschutzscheibe vom Forschungsprojekt zur Serienreife gebracht werden kann. Dabei gilt es, eine Reihe von Fragen zu lösen, mit denen Forscher und Technologen seit den 1960er-Jahren ringen. Welche Informationen sind für einen Nutzer — in diesem Fall für den Fahrer oder die Passagiere — nützlich oder notwendig? Wie sollten sie präsentiert werden, um optimal wahrgenommen zu werden, ohne abzulenken? Und wie passen diese Erwartungen zu dem, was technisch und ökonomisch möglich ist, etwa wenn es um Größe und Auflösung eines Displays, die Verarbeitungsgeschwindigkeit und insbesondere die präzise Einpassung der Informationen in die Realität geht? „Ein Ingenieur kann jede Menge interessante oder unterhaltsame Daten einblenden, doch der normale Mensch ist damit kognitiv sehr schnell überfordert“, erklärt Ebel und bringt das Ziel auf den Punkt: „Wir wollen Entlastungskomfort schaffen.“ Grundsätzlich neu ist AR weder in der Wissenschaft noch in der Industrie. Nur ist sie endlich an der Schwelle zur technischen Machbarkeit und Wirtschaftlichkeit angekommen, argumentiert der Computerwissenschaftler Thad Starner, der den Begriff Augmented Reality schon 1990 prägte. „Die Zeit ist reif. Heute kann man davon ausgehen, dass mobile ARSysteme funktionieren“, sagt der Professor am Georgia Institute of Technology in Atlanta, der zugleich einer der technischen Entwicklungsleiter für Googles Datenbrille namens Glass ist. Starner betrachtet das neu erwachte Interesse an AR mit Genugtuung. Während die ersten Pioniere in den 1960erJahren noch kühne Visionen verfolgten, aber von den technischen Zwängen der Zeit eingeengt waren, versuchten Forscher in den 1990er-Jahren erneut das Problem der „Computer Vision“ zu lösen, also der ortsgenauen und sogenannten kontakt­analogen Überlagerung. Mit anderen Worten: Wie kann ein Rechner virtuelle Objekte möglichst genau in ein Kamera­bild einpassen — noch dazu, wenn sich der Betrachter, sein Blickwinkel, das Objekt oder alle drei Variablen bewegen?


next

augmented reality

14 15

Als Versuchsträger dient diese Mercedes-Benz S-Klasse. Sie ist ein rollendes Forschungslabor und zeigt auf dem Bildschirm bereits AR-Inhalte.

Smartphones liessen das Potenzial erstmals erkennen

Das Resultat waren anfangs oft klobige Displays, die nur funktionierten, wenn ein zugehöriger Rechner am Gürtel getragen wurde. Aufgrund ihrer Abmessungen und hohen Kosten fanden sie nur für Spezialfälle Anwendung — etwa bei der Wartung hochkomplexer Maschinen wie etwa Flugzeugen. Die Einführung des Smartphones, insbesondere des ersten iPhones im Jahr 2007, war eine Wendemarke. Sie öffnete der breiten Masse die Augen, auf welche Informationsfülle sie mobil zugreifen kann. Und Smartphones wie auch Tablet-PCs lockten Entwickler, mit immer neuen Apps zu erkunden, wie sich eine ebenso praktische wie unterhaltsame Verbindung zwischen Internet und Realität herstellen lässt. So entstanden erste Anwendungen, mit denen sich unbekannte Gipfel in den Alpen oder ein Flugzeug am Himmel in Sekunden mit einem Namen und anderen, live aus der Cloud eingespielten Details versehen lassen, solange der Nutzer

den Blick nur auf das Display richtet. Datenbrillen, die einige Hersteller auf den Markt bringen oder schon gebracht haben, weisen den Weg zum nächsten Evolutionsschritt der AR: dem Nutzer wichtige Daten direkt ins Sichtfeld einzu­ spielen und so eine bessere, weil schnellere Wahrnehmung zu ermöglichen. Das Automobil bietet trotz dieser ­Fortschritte bei buchstäblich tragbarer AR einige handfeste Vorteile. Es hat eine ­gesicherte Stromversorgung und leistungsfähige ­Antennen, um einen schnellen Datendurchsatz zu ermöglichen. Das Armaturen­brett oder die Windschutzscheibe sind ideale Flächen, um Displays einzubauen oder Informationen direkt ins Sichtfeld zu projizieren. „Gewisse Facetten von Augmented Reality sind bereits in ­heutigen Serien-Pkw vorhanden, etwa Fahrerassistenz­systeme, die mit Sensoren und Kameras sicherheits- und komfort­ relevante Informationen erfassen und dem Fahrer vermitteln“, sagt Marc Necker, Manager des neu gegründeten AR-Teams bei Daimler. Für Necker wird Augmented Reality im Pkw


Ambient

-3:20

...

„Wir wollen mit Augmented Reality im Automobil in erster Linie Entlastungskomfort schaffen.“ Peter Ebel Telematik-Systemfunktionen bei Daimler

LO

MID

„ Die technischen Bausteine für AR sind jetzt alle verfügbar und auch weitgehend bezahlbar.“ Marc Necker Augmented Reality bei Daimler

HI

EQ

35° 27°


0732

2058

... in drei Entwicklungsschritten zur Serienreife gelangen. Die erste, aktuelle Stufe basiert auf Daten der bereits im Fahrzeug eingebauten Kameras sowie Radar- und Ultraschallsensoren. Software kann so die Koordinaten eines Objekts bestimmen und erkennen, ob es sich um eine Person oder einen Gegenstand 32 handelt, und sie entsprechend im Videobild auf einem 06 Display markieren. Die zweite Evolutionsstufe, die sich derzeit in der ­intensiven Entwicklung und Erprobung befindet, bindet Geopositions0.5 Daten ein. So lassen sich virtuelle Informationen genau einem 0.8 Objekt zuordnen. „Wir können ein virtuelles Objekt in der Land­ schaft verorten, weil das Auto weiß, wo es gerade ist und in welche Richtung man fährt oder schaut. So lässt sich das Objekt im Videobild entsprechend positionieren“, erklärt ­Necker. Da diese Verortung auf GPS-Daten beruht und diese unkorrigiert lediglich eine Genauigkeit von 10 Metern haben, sei sie aber immer noch relativ unpräzise und könne manch­m27. al um ein paar Meter daneben liegen.

next

1150

°53 21°.pmeT Temp.°12 7 2 ° .1 1.2 m

augmented reality

02:3-

tnei

1830

0.3 0.5

0.5 0.7

0.8 0.8

0.6 0.9

1.2 1.9

0.9 1.4

1.4 2.0

28.

29. 30.

31.

01.

02.

03.

QE

IH

DI

Ein versuchsträger zeigt die zukunft der automobilen Navigation

Einen ersten konkreten Ausblick über den Einsatz der Technologie rund ums Automobil gibt ein Versuchsträger auf Basis der S-Klasse von Mercedes-Benz: Wer sich hier hinter das Steuer setzt, erlebt den Prototypen eines AR-Navigations­ systems, bei dem ein „Fahrbahnteppich“ aus blauen Richtungs­ pfeilen die exakte Route auf die jeweils befahrene Straße zeichnet. Zudem sind nahe gelegene „Points of Interest“ auf dem Display markiert: Straßennamen, klar lesbare, weiße Hausnummern, die an einem blau unterlegten Gebäude zu haften scheinen, und Symbole, die etwa auf eine Tankstelle oder einen Bahnhof hinweisen. „Mit einem solchen System werden Sie nie wieder auf den letzten Metern wenden müssen, weil zum Beispiel die gesuchte Hausnummer schlecht lesbar ist“, sagt der Experte Dirk Olszewski, Use Cases und Funk­tionen bei Daimler. Diese Art des Entlastungskomforts stellt bereits erhebliche Anforderungen an die Rechenleistung. Um die ­Ungenauigkeiten der GPS-Daten zu kompensieren, entwickelten die DaimlerIngenieure ein mathematisches Modell der Fahrzeugbewegung, in das eine Reihe von Sensordaten einfließen. Algorithmen müssen Kurven, Steigungen sowie Wanken und Nicken des Fahrzeugs bei Bodenunebenheiten, beim Bremsen oder Beschleunigen vorhersagen und mathematisch kompensieren. Denn nur wenn die genaue Position und Blickrichtung der Kamera in jeder Fahrsituation bekannt sind, ist es möglich, Einblendungen in Echtzeit und an exakt richtiger Position zu halten. „Bei der Genauigkeit trennt sich bei AR die Spreu vom Weizen. Die meisten heute am Markt befindlichen Systeme können das nicht leisten“, sagt Necker. „Nur wenn die virtuelle Information wirklich am echten Objekt zu haften scheint und sich mit ihm bewegt, nimmt sie der Mensch als zusammengehöriges Ganzes wahr.“ Und nur durch diese ortsstabile

16 17 17

„ Nur durch eine ortsstabile Darstellung sind die Zusatzinformationen intuitiv zu verstehen.“ Christian Grünler Fahrzeugtechnologie und Systemintegration bei Daimler


Darstellung seien die Zusatzinformationen für den Nutzer auch intuitiv zu verstehen, ergänzt Christian Grünler, Fahrzeugtechnologie und Systemintegration bei Daimler. Ein Richtungspfeil auf der Fahrbahn muss also so aussehen und sich so verhalten, als sei er wirklich dort hingezeichnet, sonst lehnt ihn das menschliche Auge als störenden Fremdkörper ab. Dann schafft die virtuelle Navigationshilfe mehr Ablenkung als Entlastung. Obendrein wünschen sich Verbraucher wie Fachleute, den virtuellen Layer so nah und unkompliziert wie möglich vor Augen zu haben. Die S-Klasse besitzt schon heute zwei Bildschirme mit einer Diagonalen von 12,3 Zoll, die getrennte Inhalte („Splitview“) für Fahrer und Beifahrer ermöglichen. Außerdem können ausgewählte, relevante Informationen auf die Frontscheibe projiziert werden. Wie sich in Zukunft die gesamte Windschutzscheibe in eine intelligente Leinwand verwandeln lässt, hat Daimler in ersten Konzeptstudien demonstriert. Schlagzeilen erntete die

„ Sie werden nie wieder auf den letzten Metern wenden müssen, weil die gesuchte Hausnummer schlecht lesbar ist.“ Dirk Olszewski Use Cases und Funktionen bei Daimler

Als Navigationshilfe wird der Blick auf die Fahrzeugumgebung im Bord-Display des Daimler-Versuchsträgers mit ausgewählten digitalen Infoebenen ergänzt.

Böblinger Str.

7

P

Otto-Lilienthal-Str.

8 P


next

DICE-Skulptur — kurz für „Dynamic and Intuitive Control ­Experience“ — auf der internationalen Elektronikmesse CES in Las Vegas Anfang 2012. Heutige Head-up-Displays können zwar fast alle Farben und Formen einblenden, allerdings nur im Postkartenformat. Im DICE-Konzept können Nutzer virtuell eine Hauptverkehrsstraße in San Francisco entlangfahren und mit ihrer Umgebung und den Funktionen des Fahrzeugs großflächig per Gestensteuerung interagieren. So blendet DICE „Points of Interest“ ein und bietet Fahrer oder Beifahrer die Option, weiterführende Details aufzurufen. Ebenso lassen sich Funktionen wie Telefonate, Musik oder Cloud-Daten per Handbewegung aktivieren und steuern. Um diese Ideen in die Serienreife zu bringen, sollte AR wirklich umgebungsorientiert sein, also die dritte Evolutionsstufe erklimmen. „Das Fahrzeug muss seine Umgebung so gut verstehen, dass es zuverlässig sagen kann, dass beispielsweise ein Abbiegepfeil auf die zweite Spur von rechts gehört, weil es weiß, das es sich um die Rechts-

augmented reality

abbiegespur handelt, die der Nutzer nehmen soll“, sagt Peter Ebel. „Bis wir dort angelangt sind, werden allerdings noch mindestens fünf bis sieben Jahre vergehen.“ Zudem stellt sich neben dem technisch Machbaren die Frage, welche Aufgaben mobile AR erfüllen soll. Für mehr Sicher­ heit und Navigation erfüllen Monitore und Head-up-Displays verschiedene Zwecke. Ein Monitor bietet ein größeres Sichtfeld und somit mehr Raum, um Informationen darzustellen. Er verlangt allerdings vom Fahrer, den Blick abzuwenden, wenn auch nur kurzzeitig. Head-up-Displays erlauben es, den Blick auf dem Straßengeschehen zu belassen, müssen aber die Informationsdichte minimieren, um nicht abzulenken oder zu verwirren. Umgebungs- und kontextorientiert heißt künftig auch, zunehmend relevante Informationen aus der persönlichen Cloud des Nutzers zu berücksichtigen und etwa Terminkalender, Korrespondenz oder soziale Netzwerke zu integrieren. Ebel: „Wie wäre es, wenn man nicht nur die Hausnummer virtuell auf

die menschlichen Sinne und AR

Um sich zurechtzufinden, nimmt der Mensch Objekte nicht nur als einzelne Elemente wahr, sondern auch als erlebtes Ganzes. Einige Gesetzmäßigkeiten der menschlichen Wahrnehmung machen sich AR-Entwickler für eine möglichst intuitiv verständliche Darstellung zunutze:

rechts

P

200 m

Stau

2 km

Tankstelle

1 km

S-Bahn

150 m

Parken

270 m

1

Verbundenheit

Der Mensch empfindet mit­einander verbundene Elemente als ein Objekt.

2

Nähe

Objekte, die nahe beieinanderliegen, werden als zusammengehörig wahr­ genommen.

3

Gemeinsames Schicksal

Z wei oder mehr Objekte, die sich in die gleiche Richtung bewegen, werden als eine Einheit wahrgenommen.

18 19


ein Gebäude malen kann, sondern gleich einen Hinweis, dass dort das nächste Meeting mit einer bestimmten Person stattfindet? AR lässt uns Dinge darstellen, die vorher nicht untergebracht werden konnten oder nicht vermittelbar waren.“ Wenn dem Menschen relevante Informationen schnell, präzise und intuitiv verständlich vermittelt werden, entwickelt er zunehmendes Vertrauen in die Fähigkeiten seines Fahrzeugs, sich selbstständig im Straßenverkehr zurechtzufinden und ihn zunehmend zu entlasten. So geht die Entwicklung der AR Hand in Hand mit der Evolution lernfähiger Systeme und der Vision vom autonomen Fahren. Das Automobil bietet auch eine ideale Schnittstelle zur Welt der tragbaren Geräte, da es dem Nutzer den Wechsel zwischen unterschiedlichen AR-Erfahrungen ermöglicht — vom einfachen Richtungspfeil direkt vor der Netzhaut bis zur hochauflösenden Darstellung eines ganzen Straßenzuges im Fahrzeug, bei dem jedes Gebäude mit Daten angereichert ist. Auch bei diesem Schulterschluss zwischen tragbaren Computern und dem Pkw hat Daimler bereits Versuche durchgeführt. So bauten Entwickler etwa einen Prototypen, der „Door-to-Door“-Navigation mittels AR erlaubt. Solange der Fahrer im Wagen sitzt, weist ihm das eingebaute Navigationssystem den Weg. Geht er den Rest des Weges zu Fuß weiter, wird ihm die Route auf der Datenbrille eingeblendet. Ebenso lassen sich künftig Smartwatches oder Fitness-Tracker in das WLAN-Netz eines Fahrzeugs einbinden. So entsteht Stück für Stück eine engmaschige und dynamische Verbindung zwischen der Wirklichkeit und dem Internet der Dinge. „AR ist nicht nur besser als der Atlas auf dem Lenkrad“, sagt Daimler-Experte Peter Ebel. „Warum sollten wir nicht an einem trüben Tag oder auf einer langen Fahrt die Umgebung verschönern? Wir könnten im November die Bäume blühen lassen oder am Straßenrand eine römische Ruine zum virtuellen Leben erwecken. Das sind alles Dinge, die das Fahrzeug von morgen vom reinen Transportmittel zum ‚Third Place‘, zum dritten Ort zwischen unserem Zuhause und unserem Arbeitsplatz, machen. So schaffen wir nicht nur Sicherheit und Komfort, sondern gewinnen auch mehr Lebenszeit.“

Smarte AR-Apps Wikitude ff Eine

Art Wikipedia für die Umwelt, deren Daten aus rund 3.500 Quellen ins Kamerabild eingespeist werden — von Sehenswürdigkeiten bis zu Restaurantbesprechungen.

ff für

iOS, Android, Blackberry, Windows

Yelp Monocle ff Die

beliebte Restaurant-App lässt sich von der reinen Listendarstellung in ein interaktives Periskop verwandeln.

ff für

iOS, Android, Kindle

Google Ingress ff Ein

Science-Fiction-Spiel, bei dem die in zwei verfeindete Lager aufgeteilten Spieler in der realen Welt Punkte sammeln und geheime Portale finden müssen.

ff für

iOS, Android

Layar, Junaio ff Zwei

vielseitige Apps, die gedruckte Seiten zu dreidimensionalem Leben erwecken, wenn man sie durch sein Mobilgerät betrachtet.

ff Layar:

für iOS, Android, Blackberry Junaio: für iOS, Android

Google Sky Map, Satellite AR ff Ein

Blick durchs Handy markiert und erklärt Gestirne, Sternbilder und Satelliten am Himmel.

ff Google

Hyperlink

Die AR-Experten Peter Ebel und Marc Necker von Daimler im Interview ff next.mercedes-benz.com/  ar-interview-de

Sky Map: für Android Satellite AR: für Android

Spyglass ff Die

App für Abenteurer blendet Landkarten, Kompass, Gyroskop, Sextanten und andere wichtige Navigationshilfen in die Landschaft ein.

ff für

iOS


next

augmented reality

20 21

AR selbst ERLEBEN

Testen Sie Augmented Reality auf dieser Seite: Einfach die Junaio-App installieren und den QR-Code auf Seite 4 scannen — AR erleben.


„Virtuelle Informationen bereichern den Nutzer auf seinem Weg durch die echte Welt.“


next

augmented reality

Interview Steffan Heuer

Fotografie ThAd Starner ist Professor für Informatik am Georgia Institute of Technology (Georgia Tech) in Atlanta und einer der technischen Entwicklungsleiter für Google Glass. Starner prägte 1990 den Begriff „Augmented Reality“ und war einer der ersten Forscher, der sich selbst mit tragbaren Computern ausstattete, um immer und überall vernetzt zu sein.

Audra Melton

Realität im Durchblick 22 23

Computer-Vision-Pionier und Google-Glass-Entwickler Thad Starner über den langen Weg von Augmented Reality (AR) in den Alltag.

NEXT: Herr Starner, Sie haben das Konzept der AR, der „erweiterten Wirklichkeit“, vor rund 25 Jahren in die Diskussion ein­geführt ... Streng genommen ist dieses Konzept viel älter. Herbert Upton baute schon 1967 eines der ersten Systeme, weil er taub wurde. Also montierte er Leuchtdioden (LEDs) in seine Brillengläser. Je nachdem, welche Laute sein Gesprächspartner erzeugte, leuchteten unterschiedliche LEDs auf, selbst wenn er nicht Lippen lesen konnte. Dann gab es das „Schwert des ­Damokles“, das Ivan Sutherland und Bob Sproull 1968 als erstes Display entwickelten, das man am Kopf tragen konnte. Während man sich in einem Raum umsah, legte das Gerät Grafiken über das Sichtfeld und passte sie dem Blickwinkel an. Forscher wie ich begannen sich darauf zu

konzentrieren, wie man computer­ generierte Grafiken möglichst genau in die Wirklichkeit einpassen kann, um bestimmte Aufgaben wie etwa Reparaturen zu erfüllen. Wie würden Sie den aktuellen Stand in Sachen AR beschreiben? Zuerst einmal müssen wir definieren, was heute mit AR gemeint ist. Ich habe den Begriff 1990 geprägt, da „Artificial Reality“ schon in allen möglichen, nicht technischen Zusammenhängen benutzt wurde. Für mich bedeutet AR, unterwegs auf Infor­ mationen zugreifen zu können. Wir haben Zugang zu Informationen, die unser Handeln ergänzen, aber nicht ersetzen, wie das bei Virtual Reality der Fall wäre. In diesem Sinne ist schon der Blick auf meine Position auf der Landkarte aus der Vogelperspektive ein Fall von AR.


„ AR nutzt die kurze Zeitspanne zwischen Idee und Handlung.“ Mit aktuellen tragbaren Geräten wie Google Glass, Telepathy One oder Vuzix kehren wir wieder zu meiner ursprünglichen Definition zurück: dem Nutzer virtuelle Informationen zu liefern, die ihn bereichern, während er in der echten Welt unterwegs ist. Man könnte sagen, die alte, weiter gefasste Definition von AR ist zu neuem Leben erwacht. Welche Hürden haben ­verhindert, dass AR in all diesen Jahren zu einem Massenphänomen wurde? Tragekomfort, Mode, Batterieprobleme, digitale Netze. Die Frage, was man damit anfangen kann und soll. Doch das größte Problem war das Gewicht. Anfangs dachten viele Menschen, sie benötigten ausgewachsene AR-Systeme mit breiten Displays. Das funktionierte jedoch nur mit ­großen Systemen, die man höchstens eine halbe Stunde tragen konnte, aber auf keinen Fall jeden Tag eine ­ganze Acht-Stunden-Schicht lang. Diese ersten Systeme waren einfach zu schwer, zu klobig, zu unbequem. Und selbst die leichteren Varianten kosten immer noch 3.000 Dollar — nur für das Display, ohne den Rechner. Es gab also jede Menge Innovationen, aber keinen wirklichen Durchbruch? Zwischen den 1990er-Jahren und heute wurden Tausende solcher ARSysteme verkauft. Sie waren durchaus solide hergestellt, aber ihre Zeit war noch nicht gekommen. Es gab keine Smartphones, sodass die Men-

schen nicht einmal verstanden, was sie mit mobiler Navigation oder Spielen anfangen sollten. Die DisplayPioniere hatten es deshalb schwer. Sie konnten sich entweder mit einem tragbaren Videodisplay profilieren, womit kein Geld zu verdienen war, oder Spiele für Zuhause entwickeln. Im Bereich der Fertigung konzentrierten sich Hersteller auf Automobilbau und Flugzeugwartung. Dazu bauten sie integrierte Systeme, bei denen der Computer am Gürtel getragen wurde und fester Bestandteil des Displays war. Diese Geräte verkauften sich, weil sie für mehr Effizienz sorgten. Aber selbst nachdem das Smartphone auf den Markt kam, war es nicht einfach, sie an externe Displays anzuschließen. Ist die Einführung von Google Glass eine Wendemarke, um AR zum Publikumsrenner zu ­machen? Dieses Projekt hat dafür gesorgt, das Thema in den Mittelpunkt zu rücken. Als Brille besitzt es einen gewissen Mode-Appeal. Außerdem ist der Markenname Google damit verbunden, und drittens haben die Menschen inzwischen begriffen, wie nützlich ein Smartphone ist und wo seine Grenzen liegen. Etwa, wie lange es dauert, bis man sein Handy hervorholt, entsperrt und eine App hochfährt. AR nutzt die kurze Spanne zwischen Idee und Handlung. Hinzu kommt, dass man dank der Cloud alle diese Netze buchstäblich vor Augen hat. Heute kann man davon ausgehen, dass solche Geräte funktionieren.

Wird Augmented Reality jetzt wirklich umfassend mobil ­werden? Bei jedem Gerät muss man vier Dimensionen betrachten. Erstens den Energieverbrauch und die erzeugte Wärme — das ist immer der wichtigste begrenzende Faktor. Zweitens die Benut­zer­schnittstelle, drittens die Pri­vat­sphäre des Nutzers und viertens den Netzzugang. Ein Auto besitzt bestimmte Vorteile: eine große Batterie und eine große Antenne — beides Voraussetzungen für eine gute Verbindung. Obendrein sitzt der Nutzer still und hat vergleichsweise beschränkten Handlungs­spielraum. Man kann also hochwertige AR-Dis­ plays in einen Pkw einbauen, und es gibt viele handfeste Gründe dafür. Wenn ein Fahrer etwa den Radiosender wechseln möchte, ist er normalerweise für mindestens anderthalb Sekunden abgelenkt. Ein Head-upDisplay, das auf die Windschutz­ scheibe projiziert wird, ist ganz klar besser. Es gibt Studien darüber, dass Menschen so Informationen um 50 Prozent schneller verarbeiten können. Das klingt, als ob ein vernetztes Fahr­zeug viele nützliche Anwen­ dungen für AR bietet — ohne die ­üblichen Beschränkungen von Mobilgeräten. Es kommt immer darauf an, was man erledigen will. Unterwegs will ich eine Schnittstelle, die schnell reagiert und meine Aufmerksamkeit nur wenig beansprucht — also maximalen Nutzen bei minimaler Ablenkung, ohne die Batterie zu erschöpfen. Also nichts mit schicken Grafiken und Animation. Solche Geräte sollten erst dann in Aktion treten, wenn wir etwas Interessantes wie einen QR-Code vor Augen haben. Man drückt einen Knopf, um die „Computer Vision“ zu aktivieren, die Infos werden heruntergeladen und eingespielt. Diese AR auf Knopfdruck ist ziemlich verlockend, und deswegen werden die meisten modernen AR-Systeme solche MikroInteraktionen bieten.


next

augmented reality

AR im Jahr 1996 mit großen Brillen und umfangreicher Elektronik. Thad Starner (vorne rechts) mit ForscherKollegen des MIT Media Laboratory in Cambridge, Massachusetts.

„ Die Leute reagieren neugierig, verwundert, begeistert.“

24 25

Können Sie das mit einem Beispiel erläutern? Nehmen wir die Übersetzung über ein Smartphone oder eine Datenbrille. Ich sehe einen Text und bekomme die Übersetzung in der gewünschten Sprache eingespielt — und zwar nur so lange, wie ich benötige, um einen Text oder ein Schild zu lesen. Wie werden tragbare Geräte und vernetzte Autos zu einer naht­ losen Erfahrung verschmelzen? Wie gesagt, es geht bei AR immer um vier Dimensionen, und eine davon sind die Netzwerke. Bald werden Fahrzeuge miteinander Daten austauschen und zu WLAN-Hotspots mit einer guten Stromversorgung werden. Das heißt, ich kann mit meinem Fahrzeug eine verlässliche Verbindung für meine Mobilgeräte herstellen. Der Pkw wird so zum Hilfssystem für die sehr persönlichen Geräte, die ich immer bei mir trage. Sobald ich wieder im Fahrzeug sitze, schalte ich um auf die dafür optimierte Erfahrung.

Was sind aus Ihrer Sicht die derzeit spannendsten ARProto­typen? Dabei denke ich zuerst an Geräte, die Sehbehinderten helfen. Nehmen wir einmal an, ich bin blind und habe im Supermarkt eine Dose oder Packung in der Hand. Wenn ich wissen will, was darin ist, kann ich ein Foto oder Video an jemanden schicken, der gerade online ist und mich mit den nötigen Informationen bedient. Diese Anwendung namens VizWiz gibt es wirklich. Das System hat im ersten Jahr seines Bestehens schon rund 5.000 Menschen mit 60.000 solcher Anfragen geholfen. Seit Kurzem ist diese Anwendung auch für Google Glass verfügbar. Hier an der Georgia Tech in Atlanta haben wir das sogenannte Captioning on Glass entwickelt, eine Art von Live-Untertitel für Schwerhörige. Man gibt seinem Gesprächspartner das Smartphone in die Hand, der drückt eine Taste und spricht. Das Smartphone fragt das Transkript online ab und spielt

den Text auf dem Display und auf der Brille ein. Und schließlich haben wir ein Paar elektronische Handschuhe namens „Mobile Music Touch“ entwickelt, die mir nicht nur beibringen, wie man Klavier spielt, sie eröffnen auch völlig neue Möglichkeiten bei der Rehabilitation. Erwarten Sie, dass Augmented Reality in den kommenden Jahren große Akzeptanz finden wird? Oder muss die Gesellschaft erst noch lernen, mit der neuen Technologie umzugehen? Mobile Rechner gibt es schon seit Jahren, streng genommen seit der Einführung der ersten MP3-Player. Wir haben Smartphones längst in unseren Alltag integriert. Ich denke, dass der Widerstand oder die Entrüstung über Dinge wie Google Glass Einzelfälle sind, die nur ein weites Medienecho finden. Wenn ich mit meiner Datenbrille herumlaufe, dann reagieren die Leute neugierig, sie sind verwundert oder begeistert.


Augmented Reality im AlltaG Mit einer faszinierenden Anwendungsvielfalt bereichert die Zukunftstechnik unseren Alltag — von der Navigation über die Medizin bis hin zur Lernhilfe.

AR-Motorradhelm

Rundumsicht für mehr Sicherheit

E

in Motorradhelm, der dem Fahrer wichtige In­ formationen über Verkehrslage, Wetter oder die nächste Tankstelle liefert und zusätzlich eine Rund­ umsicht bietet: Der sogenannte Guardian wurde von Fusar Technologies in New York entwickelt und projiziert wichtige Daten von innen auf das Visier. Der AR-Helm hat auf seiner Rückseite Kameras, die das Geschehen hinter dem Fahrer übertragen. Zudem kann der Helm fotografieren und wie eine Blackbox das Verkehrsgeschehen aufzeichnen. Ebenso nützlich: Der Fahrer sieht die Armaturen-Anzeige im Helm und ist ständig mit dem Internet verbunden.

Datenbrille für den OP

Röntgenblick in 3D

A

ugmented-Reality-Anwendungen in der ­Medizin bieten viele Möglichkeiten. Die Technische Universität München (TUM) arbeitet an einer Umset-­ zung in die Praxis. Der Lehrstuhl für Informatik­anwendungen in der Medizin & Augmented Reality entwickelt mit der ­Chirurgischen Uniklinik ein computergestütztes Visualisierungs- und Navigations­system für minimalinvasive Eingriffe. Auf Knopfdruck sollen Chirurgen Schicht für Schicht bis auf die Knochen in den Körper des Patienten blicken können, ohne einen zweiten Bildschirm nutzen zu müssen. Dafür werden zuvor gemachte Computertomografie-Bilder auf dem Körper des Patienten ­eingeblendet. Mittels Datenbrille erhält der Arzt ein dreidimensionales Bild des Körper­inneren und kann damit noch präziser operieren.


next

augmented reality

Bastel-Kit für Kinder

Ganz schön spannend

A

Schneller am Gate

F

ür mehr Orientierung im Kopenhagener Flughafen sorgt eine Augmented-Reality-App, die das Software-Unternehmen Novasa zusammen mit der Stadt Kopenhagen und dem Luftfahrt-IT-Verband SITA entwickelte. Es ist die weltweit erste ARAnwendung zur Indoor-Navigation mithilfe des eigenen Smartphones. Binnen kürzester Zeit wurde sie mehr als 100.000 Mal heruntergeladen. Das aktuell veröffentliche Update lotst die Passagiere mit erweiterten Funktionen durch den Flughafen. Dafür scannt die Smartphone-Kamera die Umgebung und kann Passagiere beispielsweise zum richtigen Gate navigieren oder naheliegende Shops und Restaurants anzeigen.

Nutzer-Statistik

Rasantes Wachstum 200

millionen

Flughafen-app

ugmented Reality findet für Lern­zwecke vielfältige Anwendungsmöglichkeiten. Die Stanford Graduate School of Education entwickelte beispielsweise das Bastel-Kit LightUp, um Kinder für Elektrizität zu begeistern und das abstrakte Thema haptisch erlebbar zu machen. Es enthält magnetische LeuchtdiodenModule, die selbst zusammengebaut und mit einer Schaltung verknüpft werden können. Hält man anschließend ein Smartphone mit der zugehörigen App darüber, lässt sich beobachten, wie sich die LED-Module in einen animierten Stromkreislauf verwandeln.

60

2013

2018*

Globaler Markt für mobile AR-­ Anwendungen (in Millionen Nutzer, *Prognose)/ juniper Research © Statista 2014.

26

Digitale Taucherbrille

AR unter Wasser

A

btauchen und faszinierende Korallenriffe entdecken — was bisher nur im Meer zu sehen war, soll mit AR nun auch im Schwimmbad möglich sein. Das Fraunhofer-Institut für ­Angewandte Informations­technik (FIT) in Sankt ­Augustin entwickelte Prototypen einer neuartigen Taucherbrille, die aus einem gewöhnlichen Schwimmbecken eine tropische Welt voller Unterwasser­ pflanzen, Fische und Muscheln macht. Ein vor der Brille befestigtes, wasser­ dichtes, transparentes Display ermöglicht sowohl die reale Welt als auch virtuelle Objekte zu sehen. Neben der Anwendung in Freizeit­bädern gibt es Potenzial für Berufstaucher: Die Technologie könnte bei Reparatur­arbeiten unter Wasser zum Einsatz kommen.

27


Interview Rüdiger Abele Josef Ernst Fotografie oliver schwarz

„ Sicherheit ist das oberste Gebot “ Herbert Kohler, Leiter Konzernforschung und Nachhaltigkeit bei D ­ aimler, über die hohen Ansprüche an die Automobil­technologie in Zeiten der Digitalisierung.

NEXT: Herr Kohler, der ­Anspruch an Produkte der Marke ­Mercedes-Benz liegt sehr hoch und ist immer wieder branchen­ prägend. Wie schafft man es, ihn zu erfüllen? Ganz klar: Das geht nicht nur mit der richtigen Vision, sondern immer auch mit harter Arbeit. Etwa bei unserem Forschungsprojekt zum autonomen Fahren, bei dem wir mit seriennaher Technik im öffentlichen Verkehr autonom über eine lange Strecke unterwegs gewesen sind: Dahinter steckt ein großes Team hochkarätiger Ex­ perten, das sich jahrelang mit dem Thema beschäftigt hat. Bis so etwas der Öffentlichkeit präsentiert wird, entstehen unzählige Rechnersimulationen, dann erste Fahrzeugprototypen und schließlich der fertige Tech­ nologieträger, bevor es überhaupt an eine Serienvorbereitung geht. Bei ­allem, was die Fachleute tun, orientieren sie sich an den Markenwerten. Wir haben das Auto erfunden, und seitdem sind wir immer wieder heraus­ragender Vorreiter in der Auto-

mobiltechnik. Das legt die Messlatte für unsere Tätigkeit und unsere Produkte auf das hohe Niveau, das schlichtweg heißt: das Beste zu liefern. Dazu zählen für uns neben Effizienz und Komfort auch die Sicherheit. Jede unserer Technologien spiegelt diese Werte wider. Wie ist das Thema Sicherheit angesichts der Digitalisierung des Automobils zu beherrschen? Das Thema wird ja sehr viel diskutiert, und zwar völlig zu Recht. Die Digitaltechnik ermöglicht ganz neue Möglichkeiten im Alltag. Konkret wahrnehmbar ist es etwa über das Smartphone, das viele ­Handlungen revolutioniert hat. Man hält die Mög­ lich­keiten in Form dieser kleinen und hochwertigen Geräte tatsächlich in der Hand. Klar, da kommt der Wunsch auf, diese neue Welt mit in die Lebensumgebung Auto zu nehmen, zumal viele Menschen sehr viel Zeit im Auto verbringen. Man kann das Smartphone deshalb durchaus als einen Schrittmacher für neue


next

digitalisierung

28 29

Herbert Kohler ist seit 1976 bei Daimler ­ beschäftigt. In diversen Positionen und Tätigkeiten vereinte er immer die Aspekte Umwelt, Technik und Verkehr und bringt sie bis heute ins Zukunftsdenken des Konzerns ein. Herbert Kohler ist Honorar­ professor der Universität Stuttgart und seit 2002 zudem Umweltbevollmächtigter bei Daimler.


automobile Anwedungen ansehen, zumindest in Teilbereichen. Doch als Hersteller für komplexe Fahrzeuge müssen wir in der Umsetzung eine sehr hohe Verantwortung wahrnehmen. Denn unsere Fahrzeuge sind im öffentlichen Raum und auch in höheren Geschwindigkeiten unterwegs — da kann und darf keine Ablenkung vom komplexen Geschehen ­passieren, und auch die Betriebssicherheit von Hard- und Software muss absolut gewährleistet sein. Deshalb ist für uns die Sicherheit das oberste Gebot, wenn es darum geht, neue Technologien ins Auto zu ­integrieren. Dem Smartphone verzeiht man manchen Fehler. Man ärgert sich vielleicht und startet das Gerät neu. Aber im Auto können Fehler — ob durch die Bedienung seitens des Fahrers oder über das Fahrzeug selbst — fatale Folgen haben. Wir legen deshalb viel schärfere Qualitätskriterien an. Sind sie zu erfüllen? Selbstverständlich. Es ist ein üblicher Prozess. Das Auto wird ja mit jeder Generation aufwendiger und komplexer, und unsere Forscher und Entwickler stellen sicher, dass die Technik beherrschbar ist. Sonst würden wir sie nicht auf die Straße bringen. Mit jedem neuen Fahrzeug verschieben wir die Grenzen des Möglichen weiter. Wir gehen immer Schritt für Schritt voran und erweitern das Machbare. Neue Techno­ logien geben dazu mitunter die Impulse, und zugleich helfen sie, technische Grenzen zu verschieben. Das macht ja unter anderem die Faszination Automobil aus. Zurück zum autonomen Fahren. Entmündigt es den Fahrer nicht? Bitte sehen Sie das autonome Fahren als Zusatzfunktion an — wir verstehen es als ein Angebot an unsere Kunden. Wir werden dem Fahrer über die entsprechende Technik eine weitere Entlastung bieten. So, wie wir es schon längst über andere

„ Dem Smartphone verzeiht man manchen Fehler. Man ärgert sich vielleicht und startet das Gerät neu. Beim Automobil legen wir viel schärfere Qualitäts­kriterien an.“

Assistenzsysteme tun. ­Beispielsweise die DISTRONIC, die es ja schon lange gibt und die wir immer weiter entwickelt haben. Man kann sie einschalten und nutzen — oder auch nicht. Viele unserer Kunden nutzen sie täglich und wollen sie nicht mehr missen. Zugleich sind sie damit bereits in einer ersten Stufe autonom unterwegs, denn mit der DISTRONIC hält man ja automatisch einen vorgege­ benen Abstand zum Vorausfahrenden. Viele meinen, es gehe darum, Autos ohne Lenkrad zu bauen und sich nur noch chauffieren zu lassen. Nicht nach unserem Verständnis, denn, wie gesagt, für uns ist das autonome Fahren in seinen diversen Teilaspekten eine weitere Zusatzfunktion als Angebot für den Kunden. Was kann ein Automobil­ unternehmen von Apple und Co. lernen? Oft wird die Innovationsgeschwindigkeit von Elektronik- und Software­ unternehmen positiv herausgehoben. Sie sind schnell, keine Frage — aber oftmals präsentieren sie auch nur erneuerte Software-Applikationen und verkaufen sie als große Neuheit, während die Hardware nahezu unverändert bleibt. Das ist eine Sache, die wir lernen können: die Software von der Hardware zu trennen, auch um während des Lebens­ zyklus eines Automobils über die

Software immer wieder Aktualisierungen und Neuerungen bringen zu können. Was wir auch lernen können, ist die Unbedarftheit mancher Unternehmen: Viele hadern nicht lange, sondern setzen um und eröffnen damit mitunter sogar einen Markt. Wir können davon lernen; natürlich ohne dabei an Präzision und Sicherheitsansprüchen zu verlieren.


next

Wie bereiten Sie Fahrzeuge darauf vor, stets auf dem neues­ ten Stand gehalten zu werden? Zum Beispiel durch die erwähnte Trennung von Hard- und Software. Aber auch durch erweiterte Spei­cher­kapazitäten, die eine Reserve bieten, um auch künftigen Soft­ware­ anforderungen zu genügen. Das Auto wird noch besser Update-fähig sein als heute schon — man kann das dann als eine digitale Modellpflege bezeichnen, die es auf aktuellem Stand hält. Große Schübe erwarten wir in dieser Hinsicht auch von Echtzeit­ verkehrsdaten, die dazu beitragen, dass ein Navigations­system Schritt hält mit Neuerungen und Änderungen im Verkehrsgeschehen. In der S-Klasse haben wir das ja bereits verwirklicht. Auch Karten­-Updates in Echtzeit gehen in diese Richtung. Noch anspruchsvoller wird das Thema, wenn die Kommunikation zwischen Fahrzeugen, die sogenannte Car-to-X-Kommunikation, im Alltag funktioniert.

Das Internet schiebt immer wieder neue Entwicklungen an. Kann die Technologieentwick­ lung bei Daimler davon ­profitieren? Wir sind immer offen gegenüber neuen Marktmechanismen oder Technik­entwicklungen. Doch wenn man einige jüngere Phänomene des Internets betrachtet, inklusive der offenbarten Sicherheitslücken, dann kommt man immer zum zentralen Aspekt: Im Automobil muss man anders und letztendlich viel professioneller mit einigen Dingen umgehen, um den immens höheren Anforderungen zu genügen. Ich kann nur betonen, dass das Thema Sicherheit bei uns schon jetzt großen Raum einnimmt und weiterhin w ­ ichtig sein wird. Was steht uns in Sachen „Digital Lifestyle“ im Auto noch bevor? Diverse erleichternde Funktionen werden kommen, um das digitale Leben perfekt ins Auto zu inte-

digitalisierung

grie­ren. Hohe Bedeutung wird die Spracherkennung haben, die noch präziser arbeiten und künftig auch im Auto ganz normal gesprochene Sätze verstehen wird, selbst Dialekt. Und auch die Sprachausgabe wird verbessert, um sich etwa E-Mails ­vorlesen zu lassen. Wie lautet die Philosophie von Mercedes-Benz bei der Integration neuer Technologien ins Auto? Jede neue Technologie muss im Auto absolut zuverlässig funktionieren und, falls notwendig oder sinnvoll, auf höchstem Niveau mit anderen Komponenten zusammenarbeiten. Der Kunde soll ausschließlich die Vorteile wahrnehmen. Wir sprechen von einer „seamless experience“ — von der nahtlosen Wahrnehmung der neuen Technologie. Am Ende macht sein Perfektionsgrad einen ­Mercedes-Benz aus — das ist unser Anspruch und auch der Anspruch unserer Kunden.

Die digitale Welt hält immer mehr Einzug ins Automobil — wie zum Beispiel die Mercedes-Benz Apps für COMAND Online in der S-Klasse. Im Gegensatz zu Smartphone oder Tablet-PC müssen die automobilen Anwendungen aber in allen sicherheitskritischen Bereichen weit höhere Anforderungen erfüllen.

30 31



next

lokalisierung

Text Kai-Holger Eisele Illustration Iassen Markov

Y

z

x

Die Automobile Vermessung der Welt 32

Daimler-Forscher arbeiten an der zentimetergenauen Positions­bestimmung von Fahrzeugen — eine ­zentrale ­Voraussetzung für die ­Entwicklung autonomer Fahrsysteme.

A

utonomes Fahren wird über die kommende Dekade hinweg Schritt für Schritt zur Realität auf den Straßen. Stufenweise wird Mercedes-Benz neue autonome Fahrfunktionen in Serienmodelle bringen, die dem Fahrer auf Wunsch immer mehr Aufgaben abnehmen und ihn etwa im Stau oder auf der Autobahn entlasten. Am Ende dieser phasen­weisen technologischen Entwicklung steht die Vision vom vollautonomen Fahrzeug mit höchstem Komfort für die Insassen und maximaler Sicherheit für alle Verkehrsteilnehmer. Bis es so weit ist, läuft die Entwicklung unterschiedlichster Technologien, die für eine absolut zuverlässige Funktionalität der autono-

men Systeme im realen Alltagsverkehr benötigt werden, bei Daimler auf Hochtouren. Neben den Sensortechnologien — ­sozusagen die Hardware, die dazu dient, das nahe und weitere Umfeld eines autonom fahrenden Automobils mittels Kamera, Radar und Ultraschall exakt zu erfassen — sind dabei vor allem Informations­ technik und intelligente Datenverarbeitung gefragt. Die Herausforderungen sind vielfältig: Die Fahrzeugumgebung muss nicht nur erfasst, sondern in einer permanenten ­Situationsanalyse (siehe auch Seite 38 ff.) vom System erkannt, interpretiert und korrekt „verstanden“ werden. Damit diese Analyse absolut verlässlich ausfällt, werden die Daten der verschiedenen Sensoren nicht einzeln, sondern stets gebündelt analysiert („Sensorfusion“). Unter anderem auf Basis dieser Auswertung ist das autonome Fahrzeug zukünftig dann in der Lage, seine weiteren Manöver zu planen und durch das elektronische Ansteuern von Lenkung, Bremsen und Antrieb innerhalb von Millisekunden umzusetzen. Das muss weitaus schneller funktionieren, als es einem menschlichen Fahrer möglich wäre. Eine zentrale Voraussetzung für die Situationsanalyse und die Manöverplanung durch das autonome Fahrsystem ist dabei die höchst exakte Standort­bestimmung des Fahrzeugs in einer Karte. Anders ausgedrückt: Nur wenn

33


Fahrkorridor

Die Berechnung der Ideallinie Der rechnerisch festgelegte Fahr­ korridor, auch „Fahrschlauch“ genannt, legt die exakten Grenzen des Raumes fest, durch den sich das autonome Fahrzeug auf ein Ziel hin sicher bewegen kann. In die Berechnung fließen zahl­reiche Parameter ein, wie der augenblickliche Standort, die Spurbreite, Topografie, Geschwindigkeitsbeschränkungen und die Abmessungen des Fahrzeugs. Im Rahmen dieses sicheren Korridors liegt dann die ideale ­Trajektorie des Fahrzeugs — sein genauer Bewegungs­pfad im Raum über die Zeit hinweg, wobei auch mögliche Hindernisse ein­bezogen werden müssen. Wie weit im Voraus der Fahr­ korridor berechnet werden muss, hängt von der Geschwindigkeit des Fahrzeugs ab.

Nur ein Wimpernschlag Zeit für eine exakte Standortbestimmung.


next

lokalisierung

34 35

das Fahrzeug sich des eigenen Platzes in der Welt „bewusst“ ist, kann es auch die richtigen Entscheidungen daraus ableiten und den optimalen Fahrkorridor hin zu einem gewählten Ziel selbst bestimmen. Die technischen Anforderungen für die Lokalisierung sind dabei durchaus komplex, denn herkömmliche, satellitengestützte Verfahren der Positions­bestimmung im Fahrzeug, wie etwa der Einsatz von GPS in konventionellen Navigationssystemen, stellen keine ausreichend genauen Daten bereit. „GPS liefert uns Standort­informationen mit einer Genauigkeit im Dezimeterbereich — wir aber benötigen für hochautomatisierte Fahrfunktionen je nach Situation eine Genauigkeit von bis zu zwanzig Zentimetern“, erklärt ­Martin Haueis, der sich als Leiter Lokalisierung und Datenmanagement in der Konzernforschung und Vorent­ wicklung bei Daimler mit dem Thema der Standortbestimmung auseinandersetzt. Beispiel Kreuzungssituation: Zum einen muss das ­autonome Fahrzeug so weit an die Kreuzung heranfahren, dass seine Sensorsysteme herannahende Verkehrsteilnehmer selbst bei schlecht einsehbaren Verhältnissen zuverlässig erfassen können. Zum anderen darf es keinesfalls so weit in die Kreuzung hineinfahren, dass andere Teilnehmer behindert oder im ungünstigsten Fall gar gefährdet würden. Dass hierfür eine

Standortgenauigkeit mit einer Varianz von mehreren Metern keineswegs ausreicht, erklärt sich von selbst. Der erforderliche feinere Grad der Genauigkeit bei der Lokalisierung, berichtet Martin Haueis, hängt damit auch vom Umfeld ab, in dem sich ein autonomes Fahrzeug bewegt. komplexe situationen erfordern hohe genauigkeit

In komplexen Verkehrssituationen, wie beispielsweise im Stadtverkehr mit seinen vielfältigen Abbiegesituationen, Fußgängerüberwegen, Ampeln und Kreisverkehren, ist eine höhere Lokalisierungsgenauigkeit erforderlich als auf einer Autobahn. Viel Zeit für die Standortbestimmung bleibt dem System aber in keinem Fall: Sie muss innerhalb einer Zehntelsekunde (100 Millisekunden) erfolgen. Eine Zeitspanne, die in etwa der Dauer eines menschlichen Wimpernschlags entspricht. Eine wichtige Grundlage bei der Beschreibung der Umgebung um das Fahrzeug an einer gegebenen Position werden in Zukunft hochgenaue digitale Karten sein, deren Informations­ gehalt weit über den von heute gebräuchlichen Navigationssystemen hinausgeht. Sie enthalten in verschiedenen Kartenschichten etwa Informationen über Spurverläufe und -breiten oder den Standort von Verkehrsschildern, Ampeln und Gebäuden mit einer Exaktheit von bis zu zehn Zentimetern.


Erstellt werden die neuartigen Karten durch den Einsatz spezieller Messfahrzeuge, wie sie auch heute schon bei Karten­ herstellern vorhanden sind. Während des autonomen Fahrvorgangs lokalisiert sich das Fahrzeug in der digitalen Karte. Dazu werden die in der Karte gespeicherten Landmarken genutzt, um durch Korrespondenzfindung die genaue Position des Fahrzeugs zentimetergenau zu berechnen. Ist dies geschehen, gewinnen die Sensorfusion und die Situationsanalyse aus der digitalen Karte Umgebungsinformationen zum vorausliegenden Fahrkorridor, zu Ampeln, Fußgängerüberwegen, Stoppschildern und vielem mehr. Auf diese Weise steht dem Fahrzeug während des Fahrens ein Modell der Umgebung zur Verfügung, das sich sowohl der Informationen der sensorischen Umgebungserfassung als auch der Informationen der digitalen Karte bedient. Dabei werden die jeweiligen Schwächen ausgeglichen, die Karte und Sensorik zumindest nach dem heutigen Stand der Technik noch innewohnen. Die dynamischen Informationen, die die zu einem vorherigen Zeitpunkt erfassten Daten der digitalen Karte nicht enthalten, werden von den Sensoren geliefert. Der Nachteil der begrenzten Sichtweite von Sensoren — die zum Beispiel nicht um sichtversperrende Objekte herumsehen können — wird wiederum von der Karte wettgemacht, die etwa den weiteren Spurverlauf hinter einer Kurve bereits kennt.

Fahrzeugsensorik

Die Augen des Automobils Im autonomen Forschungsfahrzeug Mercedes-Benz S 500 ­INTELLIGENT DRIVE ermöglicht die nach vorn gerichtete Stereo­kamera eine Lokalisierung anhand der Fahrspur. Die Aufnahmen der nach hinten gerichteten Kamera werden mit den Merk­malen ver­glichen, die in der Karte verzeichnet sind.

Daimler-Experte Haueis denkt längst über die technischen Limitierungen von heute hinaus: „Die Vision ist die Einbeziehung der Fahrzeuge in die Aktualisierung der digitalen Karten, wobei sie als ständige Sender von Kartenänderungen die Informationen aktuell halten und etwa einen neuen Kreisverkehr sofort an eine entsprechende Datenbank melden.“ Umgekehrt profitiert jedes Fahrzeug als Empfänger von den Informationen des Netzwerks. Schon heute ist die flächen­deckende, direkte Kommunikation von Fahrzeugen unter­einander („­Car-to-Car-Kommunikation“) möglich, indem Sensor­daten, etwa über Staus oder Unfälle, direkt an nachfolgende Autos gemeldet werden — egal ob diese autonom oder mit einem menschlichen Fahrer hinter dem Steuer unterwegs sind. Lokalisierung mithilfe der Stereokamera

Darüber, welche Art von Daten die einzelnen Schichten der Karte für autonome Fahrzeuge enthalten müssen, entscheiden die Anforderungen der Sensorfusion, der Situationsanalyse sowie der Fahrzeuglokalisierung. Für die erfolgreichen Testfahrten des autonomen Forschungsfahrzeugs S 500 ­INTELLIGENT DRIVE, die im Spätsommer 2013 auf der historischen BerthaBenz-Route zwischen Mannheim und Pforzheim stattfanden, haben die Entwickler von Mercedes-Benz einen kamera­


next

„ Unsere Vision: Die Fahrzeuge liefern Daten für die Aktualisierung digitaler Karten.“ Martin Haueis Leiter Lokalisierung und Datenmanagement in Konzernforschung und Vorentwicklung bei Daimler

lokalisierung

basierten Lokalisierungsansatz gewählt, der Bezug auf charakte­ristische Landmarken entlang der Strecke nimmt. Die Bilder der im Forschungsfahrzeug verwendeten Kameras — eine Stereo­kamera mit Blick nach vorne und eine Monokamera nach hinten — wurden dabei permanent mit dem in der Karte hinterlegten dreidimensionalen Abbild der Umgebung verglichen. Um die Verlässlichkeit kamerabasierter Lokalisierungsverfahren zu steigern, werden sogenannte MEMS („Microelectromechanical systems“) im Fahrzeug genutzt — mikroskopisch kleine Beschleunigungssensoren, die ausgehend von einem geografischen Bezugspunkt die zurückgelegte Strecke und Richtung des Fahrzeugs messen. MEMS-Sensoren sind schon heute Voraussetzung für die Zündung des lebensrettenden Airbags oder für die Erkennung fahrdynamisch kritischer Situationen durch das Elektronische Stabilitäts-Programm ESP ®. Orte mit Charakter

Zu den verglichenen Merkmalen von Kamerabildern und Karte gehören dabei selbst feinste Details in der Fahrzeugumgebung: Straßenschilder und -markierungen, Bordsteinkanten, Fenstersimse, Gebäudekanten und vieles mehr. In der Kombination der Merkmale erhält so jede Position auf der Strecke ihr charakteristisches „Gesicht“. Eine Herausforderung für die Zukunft wird laut Martin Haueis dabei die Regionalisierung der digitalen Karten darstellen, denn beispielsweise ein US-amerikanischer Highway sieht unter Umständen ganz anders aus als eine deutsche Autobahn — und die Lokalisierung muss schließlich überall auf der Welt absolut zuverlässig funktionieren. Eine solche merkmalsbasierte Positionsbestimmung kann dabei nicht nur mithilfe einer Kamera erfolgen. Der Einsatz von Radar oder die Umgebungsmodellierung mittels Laserscanner sind Alternativen, die mit ihren spezifischen Vor- und Nachteilen in der Daimler-Forschung ebenfalls verfolgt werden. Keine Frage: Der Fortschritt im Bereich der Informationstechnologie und Sensorik wird über die kommende Dekade eine völlig neue Dimension der fahrassistenzgestützten Mobilität eröffnen. Bis hin zum vollautonomen Fahrsystem, das auf Wunsch ohne menschliche Eingriffe auskommt. Für Martin Haueis hat die intensive Beschäftigung mit dem Thema Fahrzeuglokalisierung bereits den Blick verändert. Bei der Entwicklung der neuartigen digitalen Karten für autonome Fahrzeuge, sagt er, „beginnt man schon, die Welt um uns herum mit ganz anderen Augen zu sehen.“ Hyperlink

Der Mercedes-Benz Future Truck 2025 fährt autonom und zeigt ein Logistikkonzept von morgen. ff

ext.mercedes-benz.com/  n future-truck-de

36 37


Text Rüdiger Abele

Illustration halbautomaten

Programmierter  Überblick Verkehrssituationen blitzschnell erfassen und richtig reagieren — eine Herausforderung für Mensch und Technik. Doch mithilfe der Situationsanalyse gelingt sie.

nachfolgender Pkw

FuSSgänger

- 18 km/h - Entfernung 3,4 m  Bremsweg ausreichend

- 3 km/h - Blickrichtung Straße  Überquerung höchst wahrscheinlich

Ampel - unbeweglich - Gelbphase 3 Sekunden  Rotphase in 2,2 Sekunden

Pkw - 48 km/h - Entfernung zur Ampel: 4 m  Ampel bei Gelblicht noch überfahrbar

nachfolgender Pkw - 56 km/h - Entfernung 2 m  fährt zu dicht auf


next

Umfelderkennung

PKW - 51 km/h - nähert sich der Mittellinie  Spurwechsel wahrscheinlich

PKW - 30 km/h - Entfernung 3 m - Blinker rechts aktiv  verlässt den Kreisverkehr

BAUM - 0,0 km/h - Entfernung 4 m - unbeweglich  keine Gefahr

38 39


Radfahrer - 0,5 km/h - unterwegs auf Radweg  vor dem Abbiegen durchlassen

Radfahrer PKW - 0,0 km/h - nicht vorfahrtberechtigt  bleibt stehen

- 26 km/h - unterwegs auf Radweg  keine Gefahr

Pkw - 17 km/h - Blinker rechts aktiv - vorfahrtberechtigt  biegt rechts ab

FuSSgänger - 6 km/h - Blickrichtung Straße  ­ Überquerung sehr wahrscheinlich

nachfolgender Pkw - 12 km/h - bremst weiter ab - Blinker nicht aktiv  Anhalten wahrscheinlich


next

Umfelderkennung

PKW - 43 km/h - Entfernung 36 m  wird langsamer

Situationsanalyse und

Pkw - 0,0 km/h - Warnblinklicht aktiv - steht am Bordstein  Spurwechsel unwahrscheinlich

PKW - 0,0 km/h - Blickrichtung Straße  ­ achtet Vorfahrt

spielendes Kind - 5 km/h - Blickrichtung Straße - Ball rollt auf die Fahrbahn  Gefahrensituation bevorstehend

Assistenzsysteme

W

ie kann ein Fahrzeug eine Verkehrssituation erkennen und auswerten? Wenn es darum geht, Fahrer­assistenzsysteme zu verbessern und darüber auch den Weg zum autonomen Fahren zu ebnen, spielt die Situationsanalyse eine bedeutende Rolle. Sie soll, vereinfacht gesagt, dem Automobil die künstliche Intelligenz mitgeben und selbstständig Verkehrssituationen so auswerten, dass daraus perfekte Handlungsanweisungen an die diversen Assistenz­systeme resultieren. Um eine Situation möglichst detailreich zu erfassen, sammeln diverse Sensoren und Datensysteme im Fahrzeug ständig umfangreiche Informationen. Diese werden der Situationsanalyse zur Verfügung gestellt. Beispiel Spurwechsel im dichten Verkehr: Das Fahrzeug auf der linken Spur trifft mithilfe seiner Assistenzsysteme die Vorhersage, dass von der rechten Spur ein Auto herüberwechseln möchte. Diese Vorhersage basiert auf der aktuellen Situation sowie dem Rechenergebnis, dass sich die ­Situation in der nahen Zukunft möglicherweise ändert — inklusive einer Wahrscheinlichkeitskalkulation. Ein wichtiger Faktor ist zum Beispiel, welcher Fahrtlinie ein Auto folgt, das möglicherweise einschert — Trajektorie nennen die Experten eine solche Fahrtlinie, diverse davon werden ständig ­berechnet, um jederzeit entscheidungsbereit zu sein. Der Verlauf der Trajektorien wird verglichen mit generischen Situationsmerkmalen, die zum Beispiel einen Spurwechsel beschreiben. Je exakter die Übereinstimmung ist, desto größer ist die Wahrscheinlichkeit eines Spurwechsels. Auf Basis der Trajektorien, der Situationsmerkmale und deren Auswertung ist es zudem möglich vorherzusagen, wo das spurwechselnde Fahrzeug die Fahrbahnmarkierung zur anderen Fahrspur überfahren könnte. Und welchen Winkel es zu den Fahrbahnmarkierungen haben wird. Je steiler der Winkel, desto größer die Wahrscheinlichkeit eines Spurwechsels. Das sind die einfachen Grundlagen. Komplex wird das Geschehen, weil die Systeme zudem

40 41


Interview Rüdiger Abele Josef Ernst

entscheiden, ob ein angedeuteter Spurwechsel tatsächlich einer ist — oder ob der Fahrer lediglich etwa beim Drehen am Lautstärkeregler des Radios un­ absichtlich etwas näher an die andere Fahrspur herankam. Deshalb zieht die Situationsanalyse neben der Trajektorienauswertung weitere Situations­ merkmale heran, beispielsweise die Querbewegung des Nachbarfahrzeugs und die Bewegungsgeschwindigkeit in Richtung der Lücke zwischen den zwei Fahrzeugen auf der linken Fahrspur. Zusätzlich wer­den sehr detaillierte Wahrscheinlichkeits­werte errechnet. Wenn die Gesamtwahrscheinlichkeit den Schwellenwert für Spurwechselsituationen überschreitet, dann können die Assistenzsysteme den Fahrer entweder warnen oder, falls notwendig, direkt einschreiten, etwa mit einem Bremsvorgang, um eine Kollision zu vermeiden. Wie erfolgreich die Situationsanalyse eingesetzt und beständig verbessert wird, zeigen die verschiedenen Generationen der DISTRONIC von Mercedes-Benz: Mit jeder neuen Entwicklungsstufe reagiert das Abstandswarn- und -haltesystem feinfühliger und exakter. Das verbessert spürbar nicht nur die Sicherheit im Kolonnenverkehr, sondern erhöht zudem den Fahrkomfort, was beides in der Regel als sehr entlastend empfunden wird.

Fotografie Delia baum

Millisekunden entscheiden Die Daimler-Experten Gabi Breuel und Thao Dang machen die Daten des Fahrzeugumfelds fürs Automobil verfügbar.

Hyperlink

Das autonome Mercedes-Benz Forschungsfahrzeug S 500 INTELLIGENT DRIVE ff next.mercedes-benz.com/s-500-de

Gabi Breuel und Thao Dang

haben in der fahrzeugbezogenen Forschung ein Ziel: Dem Computer beizubringen, dass er Verkehrssituationen „versteht“. Basis dafür ist profundes Wissen über die Funktionsweise des menschlichen Gehirns. Die wichtigsten Verhaltensweisen werden dann in Software übersetzt.

NEXT: Wie unterstützen Sie als Wissenschaftler die Entwicklung von Assistenzsystemen und neuen Fahrzeugfunktionen? Breuel: Unser Arbeitsgebiet, die Situationsanalyse, liefert Entscheidungskriterien für die Arbeitsweise der Assistenzsysteme. Der Mensch ist dabei unser Vorbild. Er beherrscht sehr komplexe Verkehrssituationen in großer Vielfalt, indem er sie erfasst und sich dann für passende Handlungen entscheidet — mitunter innerhalb von Millisekunden. Dabei


next

zieht er manchmal sehr feine Kriterien heran, die er aus seinem Erfahrungsschatz ableitet. Dang: Wir entwickeln Software, mit

der eine Maschine eine Verkehrssituation „verstehen“ soll. Das ist sowohl für komfortables als auch für sicheres Fahren erforderlich. Unsere Aufgabe ist also einfach zu verstehen, doch die Umsetzung ist extrem aufwendig. Weil es darum geht, das ­menschliche Gehirn bestmöglich zu imitieren? Breuel: Nein, wir wollen das menschliche Gehirn nicht imitieren, sondern es wie gesagt bestmöglich verstehen. Zum Beispiel um herauszufinden, welche und wie viele Merkmale der Mensch für eine Entscheidung heranzieht. Nehmen wir eine Standardsituation aus dem täglichen Verkehrsgeschehen, um die Komplexität zu zeigen: Ein Fahrzeug nähert sich einer Kolonne und soll sich fließend im Reißverschlussverfahren einreihen. Der Mensch am Steuer erfasst die Situation insgesamt, entscheidet sich für eine Lücke, passt seine Geschwindigkeit an, um heranzugleiten, setzt oftmals den Blinker und manövriert das Auto ohne Kollision zwischen zwei rollende ­Fahrzeuge. Dabei hält er den passenden Abstand ein und ist dabei so wachsam, dass er flexibel eine erneute Handlung einleiten kann, wenn die Situation sich ändern sollte. Das Ganze ist eine höchst anspruchsvolle Aufgabe. Solche menschlichen Muster zu verstehen und sie dann in eine künstliche Intelligenz zu übertragen, das ist unsere Aufgabe. Mit dem Ziel des autonomen Fahrens? Dang: Nur mittelbar geht es um das autonome Fahren. Das Ziel lautet, unfallfrei unterwegs zu sein. Daran

orientiert sich Daimler ja bereits einige Jahrzehnte und hat immer wieder Maßstäbe gesetzt. In jedem Assistenzsystem steckt das Wissen der Situationsanalyse, und das autonome Fahren ist aus technischer Sicht lediglich die perfekte Verknüpfung diverser Systeme. Die Situationsanalyse ist das Bindeglied zwischen den Sensoren und den Funktionen, die letztendlich ausgelöst werden. Was macht die Situationsanalyse so komplex? Breuel: Sie ist deshalb so herausfordernd, weil es ja eigentlich darum geht, dass die Sensoren nur über eine begrenzte Reichweite verfügen und daher in Abhängigkeit von der Fahrgeschwindigkeit nur ganz kurz in die Zukunft schauen können. So, wie der Mensch in seiner Situationsbewertung gewissermaßen auch in die Zukunft schaut, indem er abwägt, was passieren könnte. Die Softwareumsetzung ist eine sehr herausfordernde Aufgabe. Dang: Hinzu kommt, dass die Tech-

nik ja nicht weiß, was der Fahrer und vor allem auch andere Verkehrsteilnehmer um ihn herum tatsächlich vorhaben. Manchmal wünschte ich mir, dass es einen Telepathie-Sensor gäbe, um das zu erfahren! Breuel: Ziel ist es, die Assistenz-

systeme so zu verbessern, dass sie noch feiner oder genauer arbeiten und damit Unfälle vermeiden helfen — weil sie noch besser als bisher schon „vorausahnen“, was in einer bestimmten Verkehrssituation passieren wird. Die Situationsanalyse beschreibt darum Szenen so detailliert, dass sie vollständig und in sich konsistent sind, um daraus dann passende Handlungsweisen abzuleiten. Die Informationsverarbeitung des Menschen ist schneller als ein

Umfelderkennung

technisches System, aber das System reagiert schneller als der Mensch und ist zudem immer wach und entscheidungsbereit. Man wird doch unmöglich alle Verkehrssituationen speichern können, um bei Bedarf darauf zuzugreifen? Breuel: Genau, das wäre zu viel des Guten. Deshalb gehen wir anders vor. Die Situationsanalyse liefert den Assistenzsystemen ständig Kriterien, um die Wahrscheinlichkeit zu beschreiben, mit der eine Situation auftritt, damit die Systeme dann schneller oder besser reagieren können. Diese Wahrscheinlichkeiten ermöglichen einen Handlungsspielraum für funktionelle Entscheidungen. Dabei werden möglichst universelle Kriterien erfasst — solche, die immer und auf der ganzen Welt gelten. Nehmen wir das Fahren im Kreisverkehr als Beispiel: Wir suchen die jeweiligen Kriterien, die für alle Kreisverkehre gelten, um das Fahren dort sicherer zu machen, und berücksichtigen sie in der Steuersoftware diverser Assistenzsysteme. Wie gelangt das Wissen ins fertige Produkt? Dang: Der Weg ins fertige Fahrzeug dauert mitunter sehr lange. Wir erarbeiten ja in vielen Fällen erst einmal Grundlagen und simulieren danach in verschiedenen Stufen ihre Funktionsfähigkeit im Computer. Im nächsten Schritt bringen wir unser Wissen über modifizierte Steuergeräte in Versuchsträger hinein, um eine neue Technologie im Alltag zu erproben. Bis zur Serieneinführung vergehen manchmal viele Jahre.

42 43


Mein Auto lernt mich kennen Das Fahrzeug von morgen stellt sich auf die Bed端rfnisse seiner Nutzer ein. Ein Ausblick auf die Welt der Predictive User Experience.


next

User Experience

Text Steffan Heuer

Fotografie David Magnusson MICHAEL PEREDO

44 45

Ein Interaktiver Prototyp ist diese Touchscreen-Skulptur, mit der Mercedes-Benz die mÜglichen Funktionalitäten eines Automobils, das seine Nutzer kennenlernt, erlebbar gemacht hat.


Schnellste Route ins Büro

Aufheizen auf 21 Grad Celsius

„Manic Monday“ von: The Bangles

simulationsmodell

An einem kühlen Montagmorgen empfiehlt die Predictive User Experience voll auf den Nutzer zugeschnittene Einstellungen: die direkte Route zur Arbeit, eine ihm angenehme Innenraumtemperatur und eine Musikauswahl ganz nach seinem Geschmack.

E

s ist ein unerwartet kalter Montagmorgen, als sich Dave mit seinen beiden Kindern ins Auto setzt und um halb acht aus der Garage fährt. Das Fahrzeug weiß bereits, dass an diesem Wochentag erst die Fahrt zur Grundschule und dann zum Gymnasium ansteht, um den Nachwuchs abzusetzen, und berechnet automatisch die beste Route. Danach wird Dave bei seinem üblichen Café anhalten, bevor er ins Büro weiterfährt. Auch diese Stopps werden bereits angezeigt. Als der Familienvater auf die Hauptstraße biegt, läuft im Radio der Lieblingssender der Kinder, die Klimaanlage hat sich dem nasskalten Morgen angepasst und ist zwei Grad wärmer als sonst um diese Jahreszeit. Auf dem Display ist die Handynummer von Daves Ehefrau bereits voreingestellt, weil das Paar gerne telefoniert, während beide auf dem Weg zur Arbeit sind. Noch ist dieses Szenario des Fahrzeugs als stets aufmerksamer Begleiter ein Prototyp, den Ingenieure, Programmierer und Designer von Mercedes-Benz ­Research & Development North America, Inc. (MBRDNA) Anfang 2014 auf der Elektronikmesse CES in Las Vegas der Öffentlich­ keit vorstellten. Die Fachleute nennen die Innovation „Predictive User Experience“, durch die ein moderner Pkw zum lernenden System wird. Sie ist keine ferne Zukunftsmusik mehr: „Innerhalb der nächsten zehn Jahre dürfen Verbraucher erwarten, dass ein Fahrzeug intelligent genug ist, um ihr Verhalten zu kennen und sich auf ihre Wünsche und Bedürfnisse wie von Geisterhand einzustellen“, erklärt Johann Jungwirth, Präsident und CEO von MBRDNA im Herzen des Silicon Valley. „Diese Technologie bringt Mercedes-Benz ins Zeitalter der ‚Kontext-Awareness‘, in dem sich das Fahrzeug zunehmend seiner Umwelt und den Gegebenheiten der Situation ‚bewusst‘ wird. Wir arbeiten daran, Fahrzeuge mit der

„Think Tank im Silicon Valley“ Mehr zum neuen Haupt­ quartier von MBRDNA im kalifornischen Sunnyvale erfahren Sie ab Seite 52.


next

User Experience

Kontext-Variablen, wie etwa Temperatur und Niederschläge, fließen ebenfalls in die Berechnungen ein und nehmen beispielsweise Einfluss auf die Komfort­einstellungen im Fahrzeug.

46 47

„ Innerhalb der nächsten zehn Jahre kann man erwarten, dass ein Fahrzeug sich wie von Geisterhand auf Wünsche einstellt.“ Johann Jungwirth, Präsident und CEO, Mercedes-Benz ­Research & Development North America, Inc.

Video-Interview mit Johann Jungwirth auf dieser Seite: Junaio-App installieren und den QR-Code auf Seite 4 scannen.


„Gutes Design hilft beim Konzentrieren auf das Wesentliche, anstatt abzulenken.“ Paolo Malabuyo Vice President Advanced User Experience Design, Mercedes-Benz ­Research & Development North America, Inc.

Kontextsensitiv erlernt das Fahrzeug nach und nach auch die typischen Bedürfnisse seines Nutzers zu unterschiedlichen Uhrzeiten und Wochentagen.


next

nötigen Intelligenz auszustatten, um ihre Insassen und ihre Umgebung immer besser kennenzulernen“, sagt Jungwirth. „Es ist der nächste logische Schritt, um die Erwartungen zu erfüllen, die Menschen in Sachen Komfort, Sicherheit und Design an unsere Marke haben. Es geht darum, das Leben einfacher und angenehmer zu machen, sodass man die Hände und seinen Kopf frei hat für wichtige Dinge.“ An Forschung, Entwicklung und Design arbeitet ein Team aus derzeit rund 160 Experten am Hauptsitz von MBRDNA im kalifornischen Sunnyvale, eine der vielen, nahtlos ineinander übergehenden Städte im Silicon Valley. Der Arbeitsplatz der Ingenieure und Designer ist nur wenige Minuten entfernt von den Firmensitzen etablierter IT-Marken wie Apple, Google oder Yahoo. So leben und arbeiten sie inmitten von Gründern und Technologen, die auf der Jagd nach den nächsten Trends sind — von vernetzten Geräten und allgegenwärtigen Sensoren bis hin zu Webdiensten und Algorithmen, die den Menschen im Alltag entlasten sollen. Aus gesammeltem wissen wird Vertrauen

„Zunächst gibt das System der ‚Predictive User Experience‘ Empfehlungen ab und überlässt dem Menschen die Entscheidung. Mit der Zeit steigt das Vertrauen, und es entsteht so etwas wie eine persönliche Beziehung“, beschreibt Jungwirth die Vision des vorausschauenden digitalen Begleiters, der das Verhalten von Fahrer und Passagieren erkennt und sich darauf einstellt, aber sich stets dezent im Hintergrund hält. „Das Fahrzeug von morgen wird zu einer Art gutem Freund, der Vorlieben und tägliche Routinen lernt und immer besser vorwegnehmen kann: Wohin man fährt, welche Route man nehmen möchte, welche Musik man hören will und wie andere Klima- und Komfortfunktionen von unterschiedlichen Nutzern eines Fahrzeugs eingestellt werden. Ist es nicht verrückt, dass man im Winter jeden Tag die Sitzheizung einschalten muss? Mein Auto sollte mein Verhalten kennenlernen und solche Bedienaktionen nach zwei Tagen selbstständig vornehmen.“ Für Paolo Malabuyo, Vice President Advanced User Experience Design bei MBRDNA, ist der Prototyp des intelligenten Begleiters ein kleiner Vorgeschmack auf die Technikwelt von morgen, die tragbare Elektronik, Sensoren und eines Tages autonome Fahrzeuge zu einem engen Verbund werden lässt. „Wir wollen auf höchstem Niveau eine vollkommen persönliche Erlebniswelt im Auto schaffen. Es geht nicht einfach darum, Vorschläge zu unterbreiten, die den Wünschen oder dem Verhalten anderer Menschen nahekommen, die mir ähneln. Es geht um mich persönlich und meine Wünsche, Vorstellungen und Gewohnheiten.

User Experience

Das Auto kennt mich genau und weiß, was mir in einem bestimmten Moment wichtig ist“, sagt der Experte und ergänzt: „Das bringt zugleich einen Hauch Magie in den Alltag.“ Dazu entwickelte das interdisziplinäre Team intelligente Algorithmen für sogenannte Prediction Engines, die viele kleine Datenpunkte und Aktionen aus mehreren Bereichen ständig erfassen und interpretieren: von sozialer Interaktion über Medien, Navigation und Ortsdaten bis hin zu Komforteinstellungen. Obendrein berücksichtigt die Software Umfelddaten, also Wochentag, Uhrzeit und das Wetter, die Außentemperatur und die Verkehrslage, außerdem Sensordaten aus dem Fahrzeug selbst, beispielsweise zu Sitz- oder Spiegeleinstellung oder zu Heizung und Beleuchtung. „Die Herausforderung besteht darin, alle diese kleinen Datenmengen zusammenzuführen und daraus Sinn für den Menschen zu stiften“, erklärt Johann Jungwirth. Am Ende steht ein System, das so vertrauenswürdig ist wie ein guter Freund und zugleich so professionell und kenntnisreich wie ein Concierge. Der Fahrer soll von diesen Rechenprozessen, die ständig um ihn herum ablaufen und auf sein Verhalten reagieren, so wenig wie möglich merken. Deswegen zeichnet sich der Prototyp durch ein minimalistisches Design aus, an dem Malabuyos Team für den Prototypen feilte. „Ein prädiktives System, das gut durchdacht ist, soll die Anzahl der Handgriffe oder Entscheidungen so weit wie möglich verringern. Wenn ich jeden Tag zur Arbeit fahre, dann muss ich nicht dieselben vier, fünf Handgriffe vornehmen, sondern kann einfach dem Fahrzeug vertrauen, weil es meine Routine kennt. Designer sind gefragt, dieses Erlebnis so zu vereinfachen, dass die Technik dem Menschen genau das anbietet, was er in diesem Moment benötigt. Gutes Design hilft beim Konzentrieren auf das Wesentliche, anstatt abzulenken“, sagt Paolo Malabuyo. Aufbauen auf der vorhandenen sensorik

Dabei können die Experten von Mercedes-Benz wichtige Anleihen bei der Umfelderkennung von Fahrerassistenzsystemen nehmen, die bereits zum Standard gehören — etwa, dass sich die Scheibenwischer automatisch einschalten, wenn es zu regnen beginnt, oder die Scheinwerfer bei der Einfahrt in einen Tunnel aufleuchten. „Das Bewusstsein, wo und wie ich mich bewege, gehört zum Fahrerlebnis dazu“, so Jungwirth. Er erwartet, dass im Laufe der Zeit weitere Teile der vernetzten Umwelt eingebunden ­werden. „Natürlich immer unter der Maßgabe, dass der Nutzer dem Verwenden und Auswerten der Daten ausdrücklich zustimmt.“

48 49


Zentrale Parameter für die Empfehlungen der Predictive User Experience an die Fahrzeuginsassen sind der momentane Standort und die geplante Route.

Um einen engeren Schulterschluss mit digitalen Endgeräten vom Smartphone bis zum kleinen, am Körper getragenen Computer zu schaffen, hat das Team in Sunnyvale erste experimentelle Prototypen entwickelt, die den Austausch von Daten zwischen den tragbaren Geräten und dem Fahrzeug erlauben. Etwa mit der „Door -to-Door Navigation“ kann ein Fahrer seine Route im Auto beginnen und sich — sobald er eingeparkt hat — den Rest der Wegstrecke zu Fuß auf eine Datenbrille wie zum Beispiel Google Glass einspielen lassen. Ebenso lassen sich künftig relevante Fahrzeuginformationen direkt auf einer Smartwatch anzeigen, die nahtlos in das Telematiksystem des Fahrzeugs integriert sein wird. In nicht allzu ferner Zukunft könnte die Predictive User Experience auch weitere relevante Daten berücksichtigen. Angaben, die einem intelligenten Fahrzeug noch mehr über seine Insassen verraten — etwa Messungen von Biosensoren, die signalisieren, ob jemand ausgeruht, müde oder gestresst ist. „Der technische Fortschritt verändert grundlegend, wie wir mit unseren Fahrzeugen umgehen. In den kommenden zehn Jahren wird sich dank digitaler Technologie beim Fahr­ erlebnis mehr tun als in den vergangenen fünfzig Jahren“, meint Paolo Malabuyo. „Wenn das Auto eine Person wirklich in- und auswendig kennenlernt, wird das ihr Leben und ihren Lebensstil ändern — und zwar zum Besseren.“ Hyperlink

Das Video-Interview mit Johann Jungwirth und Paolo Malabuyo zur „Predictive User Experience“ ff

ext.mercedes-benz.com/  n video-pux-de

Die drei Bildschirme des Prototypen symbolisieren die KontextBedingungen des Systems (unten), den Instrumententräger im Fahrzeug sowie die System-Empfehlungen (oben).


next

User Experience

Sensordaten aus dem Fahrzeug selbst werden vom System ebenfalls berücksichtigt — etwa, ob außer dem Fahrer noch weitere Personen an Bord sind.

50

lernfähige systeme

Mercedes-Benz ist mit dem Prototyp zur Predictive User Experience ein Pionier für lernfähige, kontextbasierte Technologie: Geräte und Maschinen stellen sich auf Gewohnheiten und Routineabläufe ihrer Nutzer ein und verfeinern ihre Abläufe kontinuierlich. Das Ergebnis sind beispielsweise eine individuelle Funktionsweise und eine einfachere Bedienung. Generell wird erst die Zukunft zahlreiche konkrete Produkte in allen Lebensbereichen bringen. Doch in einigen sind sie bereits Realität. So gibt es etwa Navigations­geräte mit lernenden Algorithmen. Sie erfassen oft gefahrene Strecken, werten sie anonymisiert in einem Rechenzentrum aus und erstellen aus den Profilen Routen, die ins Fahrzeug zurückgespielt werden und zum Beispiel für bestimmte Tageszeiten oder für einen geringen Treibstoffverbrauch optimiert sind. Oder Musik-Streaming-Dienste: Sie registrieren, welche Stücke der Nutzer immer wieder wählt, schließen daraus auf den Musikgeschmack und generieren Empfehlungen für ähnliche Musikstücke, die dann dem Nutzer gezielt angeboten werden. Oder der intelligente Heizungsthermostat, der seine Nutzer kennenlernt, sich ihren Gewohnheiten sowie der Witterung anpasst und darüber zugleich die Energiekosten optimiert — ebenfalls ein lernfähiges Gerät mit hohem Alltagsnutzen. Den ganz großen nächsten Wissenssprung erwarten Experten, wenn die lernfähige Technik auch Emotionen erkennt und sich entsprechend darauf einstellt. Selbst dazu gibt es bereits Prototypen.

51


PARAmeter ff

Name: Mercedes-Benz Research and ­Development North America, Inc. (MBRDNA)

ff

Gründung: 1994 in Palo Alto

ff

Mitarbeiter: ca. 300 (USA gesamt)

ff

Hauptquartier: Sunnyvale, Kalifornien

ff

Expertise: Advanced User ­Experience Design, Group ­Research & Advanced ­Engineering, eDrive & Powertrain, Advanced Exterior Design, Tech Center

Die Designer von MBRDNA bezogen nach fast zwanzig Jahren in Palo Alto im Herbst 2013 ihr neues, größeres R&D-Center im wenige Kilometer entfernten Sunnyvale.


next

Forschung & Entwicklung

Text Steffan Heuer

Fotografie David Magnusson

Think Tank im Silicon Valley In Sunnyvale, im Herzen der amerikanischen Tech-Industrie, arbeiten die Experten von Mercedes-Benz Research and Development North America an der digitalen Interaktionswelt im Automobil der Zukunft. 52 53


Das Arbeitsumfeld verkörpert die Tugenden der Tech-Industrie des Silicon Valley: kurze Wege sowie offene und transparente Räume für enge Zusammenarbeit und ständigen Gedankenaustausch.

Ideen schneller zum leben  erwecken Das Mercedes-Benz Forschungs- und Entwicklungszentrum im Silicon Valley eignet sich wie kaum ein anderer Standort dazu, mit der Synthese aus Hardware und Software zu experimentieren. Im neuen Hauptsitz von MBRDNA sind mehrere Disziplinen vereint, um Innovationen mithilfe von Forschung und Entwicklung sowie neue Geschäftsmodelle rund um Mobilität und Konnektivität voranzutreiben. Zwischen Monitoren und Regalen voller elek­ tronischer Komponenten laden bunte Sitzmöbel und kleine Gruppenräume zu spontanen Diskussionen ein. Wer lieber unter freiem Himmel nachdenkt, kann sich auf eine der Terrassen zurückziehen. Große Glasscheiben zwischen Büros und Konferenzräumen und „Idea-Paint-Wände“ sind mit Skizzen

und Stichwörtern beschrieben, die kreative ­Schatten werfen. „Das Gebäude schafft eine neue Qualität bei der Zusammenarbeit. Wir können dank der räum­ lichen und gedanklichen Nähe Ideen schneller umsetzen und Innovationen in Mercedes-Benz und smart Fahrzeugen noch schneller auf den Markt bringen“, sagt Johann Jungwirth, Präsident und CEO von MBRDNA. Hyperlink

Eine Bildgalerie mit weiteren Eindrücken aus Sunnyvale finden Sie unter: ff

next.mercedes-benz.com/pux-de/2


next

Forschung & Entwicklung

„Wir experimentieren hier nicht nur mit Technologie, sondern mit der Art und Weise, wie wir arbeiten.“ Ein Blick ins Tech-Labor: Im neuen Hauptquartier werden Fahrassistenz­systeme für den US-Markt adaptiert. Eine erweiterte Forschungs- und Vorentwicklungs­abteilung konzentriert sich künftig auf neue Funktionen rund ums autonome Fahren.

Paolo Malabuyo Vice President Advanced User Experience Design bei Mercedes-Benz ­Research & Development North America, Inc.

54 55

Ein Schwerpunkt liegt in Sunnyvale auf der Gestaltung der „User Experience“, mit dem Ziel, die Interaktion des Fahrers mit Fahrzeug und Umgebung so einfach, angenehm und ansprechend wie möglich zu machen.


Text Rüdiger Abele

Fotografie Günther Bayerl

Stadtbus  auf   Hochniveau Straßburg hat sich für einen Ausbau des Tram-Netzes mithilfe von Bus Rapid Transit entschieden. Die neue „Ligne G“ ist bereits nach wenigen Monaten ein Erfolg.


56 57


Auf eigener Fahrspur rollen die BRT-Busse am Stau vorbei. An Ampelkreuzungen erhalten sie per Schaltsignal freie Fahrt.

Die BRT-Macher Christian Berger (links) und Laurent HervĂŠ (rechts) von der Stadtverwaltung StraĂ&#x;burg sowie Arthur Notter von der Betreibergesellschaft CTS.


next

Bus Rapid Transit

„ Bus Rapid Transit ermöglicht die Optimierung vorhandener Verkehrssysteme. Daimler hat mehr als 30 Jahre Erfahrung.“ Richard Mejía Daimler, BRT-Systeme

S

traßburg an einem kühlen Sommermorgen. Der Schnellzug TGV war pünktlich, nach angenehmer Fahrt hat er den Reisenden in der elsässischen Metropole abgesetzt. Vom Hauptbahnhof aus gilt es, die „Ligne G“ zu nehmen, die gleich gegenüber der gläsernen Bahnhofsvorhalle abfährt. Die Sonne wirft dekorativ ihr Licht auf die ur­bane Szenerie — in die pünktlich und perfekt ­angeleuchtet ein auffällig gestalteter weißer ­Citaro-Gelenkbus fährt und an der Haltestelle dicht am Bordstein ausrollt. Ihn schmückt ein geometrisches Muster aus blauen, roten, gelben und weißen Flächen, klar ausgerichtet angeordnet und insgesamt sehr freundlich wirkend. Voilà, die Ligne G ist einsteigebereit. Nach den sechs schienengebundenen Tramlinien A bis F ist sie die erste der Stadt, die ohne Gleisnetz fährt — und doch in eigenen Bahnen: Ein öffentliches Verkehrs­mittel nach dem Konzept von „Bus ­Rapid Transit“ (BRT). Die Franzosen sprechen noch lieber von „BHNS“, was für „Bus à Haute Niveau de Service“ steht — eine Buslinie mit einem besonders hohen Beförderungsniveau. Busfahrt mit vorteilen

Einsteigen in die Linie G. Zügig leert sich der Bussteig, dank vier Schwingtüren, eines ebenerdigen und damit zugleich barrierefreien Zustiegs und generell vorab gelöster Fahrkarten. Flott setzt sich der Mercedes-Benz Citaro mit seinem umweltfreundlichen Erdgasantrieb in

58 59

Bewegung, fädelt auf eine eigene Fahrspur ein und peilt die nächste Kreuzung an. Die Ampeln sind auf Vorrang geschaltet, der Bus fährt über den Knotenpunkt, biegt nach links ab und rollt an der direkt dahinter liegenden Halte­stelle sanft aus. Alle vier Türen öffnen sich, schnell wechseln Aussteigende und ­Zusteigende, und nach kürzest­möglicher Zeit setzt sich das Verkehrs­mittel erneut in Bewegung. Auf der eigenen Fahrspur kommt es schnell voran, während direkt nebenan auf den Autospuren die Fahrzeuge in einem kleinen Ampelstau stehen. Da kann der Fahrgast lächeln: Schneller als mit BRT kann man kaum über volle Straßen einer Großstadt kommen. Denn darum geht es bei BRT: Busse ­bekommen möglichst eine eigene Fahrspur, um die Transportgeschwindigkeit zu erhöhen.


„ Beförderungs­‑ qualität und Ambiente der ‚Ligne G‘ entsprechen höchsten Anforderungen — wie auch unsere Straßenbahnen.“ Christian Berger Stadtverwaltung Straßburg

Doch das ist nicht alles. Für einen möglichst ­reibungslosen Publikumsbetrieb muss ein zügiger Ein- und Ausstieg gewährleistet sein. Die Planer von BRT-Systemen legen deswegen auf möglichst viele Bustüren Wert, auf Ebenerdigkeit, ein möglichst dichtes Andocken des Busses an den Bordstein und natürlich den Fahrkartenverkauf außerhalb des Busses — so, wie es bei einem modernen Straßenbahnoder U-Bahn-System üblich ist. Darüber hinaus gleiten BRTBusse bedarfsgerecht auf einer grünen Welle durch die Stadt. Zusammengenommen dienen alle diese Faktoren einer höchstmöglichen Kundenfreundlichkeit und Effektivität. Aus diesen Gründen und weil ein BRT-System zudem im Vergleich zum Auf- oder Ausbau eines schienen­ gebundenen Nahverkehrsnetzes deutlich ­kostengünstiger zu realisieren ist, ist BRT in vielen Megastädten das Verkehrs­mittel erster Wahl. Bewährt ist es zum Beispiel seit vielen Jahren in den brasilianischen Millionenstädten ­Curitiba und São Paulo, die Vorreiter für diese Art der Mobilität waren. Dort werden gegenwärtig mehr als 2,3 respektive 2,5 Millionen Passagiere täglich befördert. Damit sind


next

Bus Rapid Transit

Das Design der BRT-Busse und -Halte­stellen in Straßburg und auch die groß­zügigen Monitore ­verbinden eine Klarheit mit einem deutlichen Informations­anspruch. Das Café Aubette am Place Kléber in Straßburg diente als Vorbild für das Design der BRT-Busse.

diese Städte einsame Spitzenreiter auf dem Globus, während BRT in Rio de Janeiro in diesem Jahr eine große Bewährungs­probe zu bestehen hatte: Anlässlich der FIFAFußballweltmeisterschaft setzten die Betreiber das System als zentrales Verkehrsmittel ein, um die Zuschauer zügig zu den Stadien und nach den Spielen wieder von dort wegzubringen. Seit 2012 ist das BRT-System in der Stadt am ­Zuckerhut in Betrieb. Die besondere Belastungsprobe während der WM verlief reibungslos. Ein weltweit seit langem bewährtes Konzept

BRT wurde erstmals in den 1970er-Jahren verwirklicht und ist unter diversen Bezeichnungen unterwegs: Außer „Bus Rapid Transit“ zum Beispiel als „Busway“ oder „Metrobus“. Nach Anfängen in kleineren Städten war Curitiba die erste Metropole, die voll auf BRT setzte. Bis heute ist das System dort das Rückgrat des öffentlichen Personennahverkehrs, das Streckennetz auf eigener Trasse ist rund 80 Kilometer lang. Daimler gilt als ein BRT-Pionier. Schon früh etablierte das Unternehmen entsprechende Systeme, unter anderem in Adelaide (Australien), die bis heute im Einsatz sind. Derzeit gibt es BRT-Systeme mit Daimler-Bussen beispiels­weise in Bogotá (Kolumbien), Istanbul (Türkei), Mexiko-Stadt (­Mexiko) oder Santiago de Chile (Chile). „Über die Jahrzehnte hat sich bei uns ein gehöriges Fach‑ wissen angesammelt — das vollständig in die Beratung von Kommunen fließt, wenn diese eine Optimierung des bestehenden Personennahverkehrs mithilfe von BRT ­erwägen“, sagt Richard Mejía, bei Daimler Buses weltweit zuständig für BRT-Verkehrsplanung. Ob große oder kleine Städte, starke oder geringe Passagiervolumina — er und seine

Puristische Ästhetik 60

Die Busse und Haltestellen des BRTSystems in Straßburg sind markant und unverwechselbar gestaltet. Das Design mit stark geometrischen und farbigen Flächen lehnt sich an eine Sehenswürdigkeit in der Innenstadt an: Die Künstler Theo van Doesburg, Hans Arp und Sophie Taeuber-Arp entwarfen die Innen­dekoration des Ende der 1920er-Jahre eröffneten Cafés und Tanzlokals im AubetteGebäude am Place Kléber ganz im Sinn der Künstlergruppe De Stijl, der sie angehörten. Diese wurde 1917 von niederländischen Architekten, Designern und Künstlern ­gegründet — unter anderem vom Maler Piet ­Mondrian. Die Gruppe stellte geo­ metrisch-abstrakte Darstellungen in den Mittelpunkt ihres Schaffens — wie auch die „Konkrete Kunst“, die van Doesburg 1924 erstmals beschrieb. Der entstehende Purismus und die Ästhetik zeigen Parallelen zum ­deutschen Bauhaus. Das restaurierte Café steht heute unter Denkmalschutz und kann besichtigt werden. www.musees.strasbourg.eu

61


Barrierefrei per Rampe oder passender Bussteighöhe — BRT ist für jeden zugänglich.

Kollegen Oliver Schaal und Matthias Hoffmann betrachten alle Faktoren individuell und stellen dann das auf die Stadt zugeschnittene Konzept zusammen. „Wir skalieren es ­exakt auf die Bedingungen vor Ort — ganz entsprechend den Wünschen des Betreibers“, sagt Schaal, der für Daimler weltweit BRT-Projekte betreut. „BRT ist ein flexibles Angebot, das sich problemlos auf unterschiedliche Gegebenheiten einrichten lässt.“ So wie zum Beispiel in Straßburg. Dort ging es nicht darum, große Passagierzahlen zu bewältigen — 9.000 Personen pro Tag für die Ligne G gilt als moderate Zahl, und auch die Länge der BRT-Strecke ist mit fünf Kilometern und einer Fahrzeit von 15 Minuten im internationalen Vergleich eher kurz. Die Straßburger Verkehrsbetriebe entschieden sich bewusst für das auf Bussen basierende Angebot, um deren Flexibilität zu nutzen und zügig sowie mit einem relativ geringen Kostenaufwand eine Schnellverbindung vom Hauptbahnhof bis in den Stadtteil Cronenbourg und die Gemeinde Schiltigheim zu schaffen. „Und zwar ganz gezielt auf einem hohen Niveau, das in Beförderungs­quali­ tät und Ambiente mindestens dem unserer Straßenbahnen entspricht“, erläutert Christian Berger, Mitarbeiter in der Direktion für Mobilität und Transport der Stadtverwaltung Straßburg. „Die Linie setzt sich ab von herkömmlichen Buslinien und gilt deshalb bei uns als die siebte Tramlinie der Stadt, was die Bezeichnung ‚Ligne G‘ aufgreift.“ Der schnelle Fahrkartenverkauf außerhalb des Busses ist ein Systemmerkmal von Bus Rapid Transit. Er beschleunigt das Ein- und Aussteigen — so wie auch eine große Anzahl von Bustüren und ein punktgenaues Anfahren des Haltepunkts.

„ BRT ist ein flexibles Angebot. Wir skalieren jedes System exakt auf die Bedingungen vor Ort — entsprechend den Wünschen des Betreibers.“ Oliver Schaal Daimler, BRT-Systeme


next

Bus Rapid Transit

„Wir nutzen den frischen Sog entlang der BRT-Strecke, um Stadtentwicklung zu initiieren. Manches Projekt greift sogar die Farbgestaltung auf.“ Laurent Hervé Stadtverwaltung Straßburg

Dank Vernetzung findet die Ligne G in ­Straßburg perfekt Anschluss — auch an Miet­fahrräder für das letzte Stück.

Wichtige Nebeneffekte: Nicht nur das Dienstleistungsund Gewerbezentrum entlang der letzten Haltestellen an der Avenue de l’Europe hat eine perfekte Anbindung an die Innenstadt und das ÖPNV-Netz erhalten, sondern BRT erfüllt zudem eine wichtige stadtsoziologische Aufgabe. Denn unterwegs durchmisst die Ligne G das Wohnviertel Cronenbourg, dessen Ruf in der Vergangenheit als durchwachsen galt. „Wir wollten das Viertel über die neue Linie bewusst und deutlich an das Stadtzentrum und die übrige Stadt anbinden“, erläutert Christian Berger, „die Ligne G ist dafür ein positives Signal.“ Klassizistische Vorbilder

Was die Gestaltung der Busse widerspiegelt: Das geometrische farbige Muster auf ihrer Außenhaut entstand in Anlehnung an eine Sehenswürdigkeit am Place Kléber in der Innenstadt. Vertreter der niederländischen Künstlergruppe De Stijl schufen dort im klassizistischen Gebäude Aubette Ende der 1920er-Jahre ein Café und Tanzlokal, das ebenfalls in klaren Farben und Formen ausgebaut ist. So senden die heutigen BRT-Busse über ihr Design einen ästhetischen Gruß aus der Innenstadt. Impulse sind auch im Fahrgastraum aufgenommen: etwa über die Wandund Deckengestaltung sowie die Farben und Muster der Sitze. Die großen Fahrgastdisplays geben dem Bus einen Hightech-Charakter, der über die übersichtliche Routen- und Haltestelleninformation zugleich hohen Nutzwert bietet. Haltestangen in Chrom-Optik strahlen Hochwertigkeit aus. Insgesamt: Ein Ambiente, in dem man sich gern aufhält. „Zugleich nutzen wir den frischen Sog der Linie, um entlang der Strecke Stadterneuerung zu initiieren“, sagt

Laurent Hervé, ebenfalls Mitarbeiter in der Direktion für Mobilität und Transport der Stadtverwaltung Straßburg. Auf Brachflächen entstanden attraktive Neubauten, die teil­weise und partiell sogar die Farbgestaltung der Busse aufgreifen. Einige ältere Gebäude wurden abgerissen und schaffen Raum für Neues. Die Haltstellen der Linie G signalisieren ebenfalls eine Moderne und Frische, die sich nahtlos einfügt in die übrige Stadtmöblierung Straßburgs. Weitere markante Akzente setzt die Trassenbeleuchtung: Es wurden Leuchten­ modelle gewählt, die schlicht und zeitlos ebenfalls einem Designanspruch genügen und damit perfekt den zukunftsweisenden Charakter des BRT-Systems unterstreichen. Insgesamt signalisiert die Ligne G eine angenehme Aufbruchsstimmung. Straßburg ist ein Beispiel, wie BRT zugeschnitten auf europäische Verhältnisse seine Vorteile entfaltet und vielfältige Aufgaben erfüllt. Etwa in latein­ amerikanischen oder asiatischen Millionenstädten gelten andere Vorgaben, dort steht meist das Bewältigen erheblicher Passagierströme im Vordergrund. „Wir gehen bei unserer Beratung genau auf Gegebenheiten und Wünsche ein“, sagt Matthias Hoffmann, Stadt- und Verkehrsplaner bei Daimler, „heraus kommt stets das genau passende BRTSystem — ob für eine Großstadt oder eine Millionenstadt.“ Was alle Städte eint: BRT vernetzt die Menschen mit­ einander, die Busse sind im Wortsinn ein verbindendes Element. Je nach Stadt kann es darüber hinaus von Bedeutung sein, dass Bewohner entfernter Stadtteile Zugang zu pulsierenden Vierteln erhalten — und damit oftmals auch zu Bildung und Wissen, was der wirtschaftlichen Prosperität des Einzelnen und damit zugleich eines Großraums

62 63


dient. Damit ist BRT weit davon entfernt, ein reiner Transportträger zu sein. Egal, wo BRT verwirklicht wird, stets spielt es seine Kostenvorteile aus im Vergleich zu schienengebundenen Systemen und bringt zugleich erhebliche Pluspunkte an Transportgeschwindigkeit und -kapazität im Vergleich zu klassischen Busverbindungen, die sich die Fahrspuren mit anderen Verkehrsmitteln teilen. Doch der Daimler-Experte Oliver Schaal mahnt zu Aufmerksamkeit: Nur ein konsequent umgesetztes BRT-System bringe den vollständigen Umfang an Vorteilen — jedes Systemdetail sei bedeutsam. „Eine Kette ist nur so gut wie ihr schwächstes Glied, und BRT benötigt jedes Glied, um den vollen Nutzen ausspielen zu können.“ Konsequenterweise dürfe man beim Aufbau eines BRT-Netzes nicht an Details sparen, wenn das gesamte Potenzial ausgeschöpft werden soll. Realisierung in kürzester Zeit

Straßburg hat alle wichtigen Elemente in der Planung berücksichtigt und auch umgesetzt. Es hat sich gelohnt: Innerhalb von nur drei Jahren wurde BRT — oder vielmehr BHNS — dort inklusive Planung und Baumaßnahmen verwirklicht. Seit Ende November 2013 ist die Ligne G in Betrieb, und die Erfahrungen sind überaus positiv. Die geplante Passagierzahl von 9.000 am Tag wurde bereits nach vier Monaten erreicht, inklusive der klassischen Bus­ linien habe man pro Tag 3.000 Fahrgäste mehr als vorher in Richtung der Gemeinde Schiltigheim, sagt Laurent Hervé, was auf die hohe Beförderungsqualität der Ligne G zurück-

zuführen sei. Die Busse des BRT-Systems sind mit einer Durchschnitts­geschwindigkeit von 20 km / h unterwegs — ein Top-Wert für ein straßengebundenes Verkehrsmittel, auch direkt verglichen mit der Tram: Diese erreicht in­ Straßburg oberirdisch im Mittel 19 km / h und in Tunneln 22 km / h. Klassische Buslinien verkehren mit durchschnittlich 16 km / h. Autonome Zukunft

Bus Rapid Transit ist aus vielen Großstädten der Welt als zentraler öffentlicher Verkehrsträger nicht mehr wegzudenken. Die Entwicklung geht jedoch immer weiter. So werden eines Tages vermutlich auch autonom fahrende Busse auf BRT-Trassen unterwegs sein. Grundsätzlich hat BRT ein Automatisierungspotenzial, weil der Anteil an Eigentrassen oft sehr hoch ist. Fester Bestandteil der von Daimler konzipierten BRTSysteme sind die umweltfreundlichen Antriebe, die im umfangreichen Fahrzeugangebot für den öffentlichen Personen­nahverkehr zur Verfügung stehen. Rein elektrische Antriebe mithilfe der Brennstoffzelle befinden sich bereits seit Jahren in der Erprobung. Hyperlink

Video: Die neue Ligne G in Straßburg ff

ext.mercedes-benz.com/  n brt-video-de

Der Start - und Endpunkt der Ligne G befindet sich in Straßburgs Innenstadt am Hauptbahnhof — perfekt für den Wechsel auf die Straßen- oder Fernbahn.


„Ob für Großstädte oder Millionenstädte — Bus Rapid Transit eignet sich für nahezu jede Kommune, um Verkehrsprobleme zu lösen.“ Matthias Hoffmann Daimler, BRT-Systeme

I M p ress u m UN D k o n t a k t

HERAUSGEBER Daimler AG, Mercedesstraße 137, 70327 Stuttgart, Deutschland Verantwortlich für den Herausgeber: Thomas Fröhlich Mirjam Bendak Publication Manager: Dr. Josef Ernst Redaktion Daimler AG: Sandra Wagner Redaktion und Gestaltung design hoch drei GmbH & Co. KG, Glockenstraße 36, 70376 Stuttgart, Deutschland Kreativ-Direktion: Sonja Schäffer, Wolfram Schäffer Projektmanagement: Susanne Wacker Redaktionsleitung: Rüdiger Abele Redaktion: Kai-Holger Eisele, Anja Niksch Autor: Steffan Heuer Lektorat: Anke Brettnich Art-Direktion: Pia Bardesono Gestaltung: Marc Arthofer, Sabina Keric Fotografie/Illustration: Delia Baum, Günther Bayerl, halbautomaten, Stefan Hohloch, Rafael Krötz, David Magnusson, Iassen Markov, Audra Melton Photography Inc., Michael ­Peredo, Oliver Schwarz, Enis Terzioglu VERTRIEB Daimler AG: Uwe Haspel Vertrieb: Zenit Pressevertrieb GmbH, Stuttgart, Deutschland PRODUKTION Repro und Litho: Dr. Cantz’sche Druckerei Medien GmbH Ostfildern/Kemnat, Deutschland Druck: Stark Druck GmbH & Co. KG, Pforzheim, Deutschland KONTAKT UND LESERSERVICE Zenit Pressevertrieb GmbH, Postfach 81 05 80, 70522 Stuttgart, Deutschland Tel.: +49 711 7252-268 Fax: +49 711 7252-399 Online: www.zenit-presse.de Daimler AG, Kommunikation, HPC E402, 70546 Stuttgart, Deutschland Fax: +49 711 17-790-95251 E-Mail: next@mercedes-benz.com Online: www.mercedes-benz.com/next BILDnachweise S. 25 Boston Globe / Getty Images, S. 26 Fusar Technologies, S. 27 Peter Kirillov / Shutterstock; Fraunhofer-Institut für Angewandte Informationstechnik FIT Rechte Nachdruck und Verwendung, auch auszugsweise, nur mit ausdrücklicher und schriftlicher Genehmigung der Daimler AG. Für unverlangt eingesandte Texte und Fotos wird keine Gewähr übernommen. Namentlich gekennzeichnete Beiträge müssen nicht der Meinung des Herausgebers oder der Redaktion entsprechen. Informationen über Ausstattungen und Zubehör ohne Gewähr. Verbindliche Angaben und Preise enthalten die jeweils gültigen offiziellen Verkaufsunterlagen der Daimler AG. Auch alle anderen Informationen in diesem Heft nach bestem Wissen, aber ohne Gewähr. Mercedes-Benz next erscheint zweimal jährlich in den Sprachen Deutsch und Englisch. Nummer 1, 1. Jahrgang 2014 ISSN: 2199-5842 © Daimler AG 2014 mercedes-benz.com/next Eine Publikation der Daimler AG

64 65


seitenblick Autonomes Fahren

„Vor 125 Jahren haben wir die erste Kutsche ohne Pferd gebaut. Und jetzt kommt bald die Kutsche ohne Kutscher.“ Dieter Zetsche, Vorstandsvorsitzender der Daimler AG

„Ich will auf kein Taxi warten! Ich will autonom sein! Ich will mich befreien von diesen eierschalenen, rollenden Boxen mit integrierter Zwangskonversationsfunktion. Ich will, dass das autonome Fahren kommt. Lieber jetzt als morgen.“

„Autonome Fahrzeuge sind keine Science-Fiction mehr. Die Technologie gibt es schon seit Jahren, und die neueste Forschung hat den Bereich aus der Versuchsphase nahe an die Marktfähigkeit herangeführt.“ Ryan C. C. Chin, MIT Media Lab

„ Am Ziel aussteigen — und der Wagen parkt sich selbst: Nichts macht die Aussicht auf den Autopiloten verlockender.“ Benjamin Bessinger, Zeit Online

Margret Hucko, Spiegel Online

„ Autonome Fahrzeuge werden einfach um vieles besser sein. “ Tom Keane, The Boston Globe

„Junge Menschen werden es irgendwann für selbst­verständlich halten, dass man die Zeit im Auto auch für andere Dinge als für das Fahren nutzen kann.“ Christian Senger, Forschungschef für Automobilelektronik bei Continental

„Wir kommen jetzt an den Punkt, wo das Auto eine Erweiterung Ihres Körpers ist und für Sie aufpasst. Autos sind dafür ideal geeignet, besser als Ihr Mobiltelefon, ein Tablet oder ein anderes digitales Gerät.“ Thilo Koslowski, Experte für die Automobilindustrie bei Gartner Inc.


What’s next?

www.mercedes-benz.com/next Mehr Themen, mehr Stimmen, mehr Bilder


Eine Publikation der Daimler AG Š Stuttgart 2014


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.