Home | Impressum | Sitemap | KIT
Portrait Monika Landgraf
Leiterin Gesamt-kommunikation, Pressesprecherin
Monika Landgraf

Tel: +49 721 608-47414
Fax: +49 721 608-43658
E-Mail

Das KIT auf der CeBIT 2017

CeBIT_Key Visual 2017

Rund um die Digitalisierung in Gesellschaft und Wirtschaft drehen sich die Themen des CeBIT-Auftritts des KIT in diesem Jahr. Roboter, die komplexe Greifaufgaben erfüllen, brauchen ein feines Gefühl für Objekte. Wo Kameras alleine nicht ausreichen, liefert der kapazitive Taktile NäherungsSensor TNS berührungslos Lagedaten aus den „Fingerspitzen“ des Roboters vor dem Zugriff. Der Höhenmesser RüttelFlug informiert Gleitschirmflieger durch Vibrationsmuster über aktuelle Sink- und Steigeraten, damit aufdringliche Displays und Tonzeichen das Flugerlebnis nicht stören. Eyezag entwickelt als Spin-Off des KIT nutzt handelsübliche Webcams, um die genaue Blickposition auf dem Bildschirm zu berechnen, sodass sich freiwillige Probanden am tatsächlichen Ort der Nutzung – dem Schreibtisch, dem Küchentisch oder dem Sofa –in ihrem authentischen Nutzerverhalten beobachten lassen. Im Projekt thingsTHINKING des KIT lernen Computer Sprache wie Menschen, also in Ihrer Semantik statt als statistische Auswertung zu erfassen, um die Lücken der Mensch-Computer-Interaktion zuschließen oder Mängel in natürlicher Sprache etwa bei technischen Texten zu lösen.

Zur Presseinformation

 

Future Mobility

Mit einer virtuellen Testfahrt werden auf der CeBIT Ideen und Konzepte des Testfelds Autonomes Fahren Baden-Württemberg (TAF BW) veranschaulicht. Der Fokus wird dabei auf Darstellung autonomer Fahr- und Car2X-Funktionen sowie der Daten-Infrastruktur liegen. Ein Demonstrator – bestehend aus einem Modellfahrzeug, einer Videowand und einer Ampel mit zugehöriger Road Side Unit (RSU) – zeigt insbesondere die Kommunikation zwischen Infrastruktur  und Auto und die Bereitstellung der Ampelinformation.

In der virtuellen Testfahrt durchfährt das Versuchsfahrzeug verschiedene Fahrszenarien von Landstraßen bis hin zu innerstädtischen Kreuzungen. An diesen stellt eine RSU dem Fahrzeug den aktuellen Ampelstatus über Funk zur Verfügung. Auf Basis der bereitgestellten Informationen kann das automatisierte Fahrzeug frühzeitig auf Ampeln reagieren und somit zu einem effizienteren und komfortableren Verkehrsfluss beitragen. Die Kopplung von virtueller Testfahrt und realem Versuchsfahrzeug veranschaulicht eine der vielfältigen Test- und Validierungsmöglichkeiten für automatisierte Fahrfunktionen. Herausforderungen, Lösungsansätze und Vorteile der Mobilität der Zukunft werden erläutert und sichtbar gemacht.

Über das Testfeld sollen Fahrzeugsysteme für automatisiertes und vernetztes Fahren im realen Straßenverkehr getestet und entwickelt werden. Verkehrsflächen unterschiedlichster Art werden für das automatisierte und vernetzte Fahren vorbereitet. Dazu werden u.a. hochgenaue 3-D-Karten erzeugt sowie Sensoren zur Echtzeiterfassung des Verkehrs und dessen Einflussfaktoren installiert. Weiterhin erhalten die Nutzer Informationen über die Schaltungen der Ampeln und die Bewegungen im Bus-, Stadt- und Straßenbahnverkehr. Eine erste Inbetriebnahme des Testfelds ist Ende 2017 geplant.

 

Weitere Informationen

www.fzi.de/forschung/projekt-details/testfeld

 

Podcast KIT.audio zum autonomen Fahren:

thingsTHINKING

thingsTHINKING entwickelt eine künstliche Intelligenz, die Text versteht und so etwa beim Aufspüren von Mängeln in technischen Dokumenten hilft.

Natürliche Sprache ist die neue Revolution in der Interaktion mit Maschinen. Machine Learning, Statistik und andere seit Jahren bestehende Ansätze werden die Lücken in der Mensch-Computer-Interaktion nicht schließen, solange Maschinen nicht die Bedeutung von natürlicher Sprache verstehen, sondern versuchen, diese mathematisch-statistisch zu fassen. thingsTHINKING unterscheidet sich von bisherigen Methoden im NLP/NLU (Natural Language Processing/Understanding), da es die Bedeutung von Konzepten (Semantik) in der Sprache versteht.

 

thingsTHINKING versteht, verarbeitet und verwendet die Semantik der natürlichen Sprache und ist daher verwendbar für eine Vielzahl von Anwendungsfällen. Die vorgestellte Software erkennt und löst Mängel in natürlicher Sprache von Anforderungsspezifikationen jeglicher Art. Einsatzmöglichkeiten bestehen im Industrie-4.0-Umfeld, bei Software-Herstellern und auch bei Beratungsunternehmen. Zukünftig kann der Kundendienst mit virtuellen Assistenten verbessert werden und eine LegalTech-Lösung könnte bei Entscheidungen und der Interpretation von Verträgen helfen.

 

Weitere Informationen: 

 

 

Eyezag

Eyezag entwickelt als Spin-Off des KITs eine Technologie mit der durch jede handelsübliche Webcam die genaue Blickposition auf dem Bildschirm berechnet werden kann. Studien, die bisher im Labor mit Spezial-Hardware und dazugehörigem Personal umgesetzt wurden, können nun einfach, schnell und parallel online durchgeführt werden. Die passende Zielgruppe lässt sich dabei über das Internet rekrutieren und es kann vom tatsächlichen Ort der Nutzung – dem Schreibtisch, dem Küchentisch oder dem Sofa – authentisches Nutzerverhalten aufgezeichnet werden. Die Benutzeroberfläche ist dabei so implementiert, dass weder Probanden noch Analysten spezielle Software oder Plugins installieren müssen – ein normaler Webbrowser öffnet den Weg ins virtuelle Eye-Tracking-Labor. Neben der Aufnahme und Berechnung bietet Eyezag eine rundum Online-Suite in der Studien angelegt, durchgeführt und umfangreich ausgewertet werden können. Es stehen dabei sowohl die klassischen Darstellungsformen wie Heatmaps, Gazeplots und andere Visualisierungen zur Verfügung, als auch können statistische Berechnungen für Areas-of-Interests durchgeführt werden.

Die Technologie wird ermöglicht durch eigenentwickelte State-of-the-Art Algorithmen und Machine-Learning-Ansätze, die selbstlernend das System immer weiter verbessern. In der Usability-, Markt- und Werbeforschung hat die Technologie ihr erstes Anwendungsfeld gefunden, bietet sich aber auch als Basistechnologie für weitere Entwicklungen in der Interaktion, Diagnose und Assistenz an.

 

Weitere Informationen

 

RüttelFlug

RüttelFlug ist ein Variometer, das auf dem Prinzip der sensorischen Augmentation basiert und vertikale Geschwindigkeiten mittels entsprechender Vibrationsmuster anzeigt. In anderen Worten: es handelt sich um ein innovatives Messgerät für Gleitschirmflieger, das mit dem Nutzer über ein vibrotaktiles Interface kommuniziert. Aufgabe eines Variometers ist es, die Vertikalgeschwindigkeit, also das Sinken und Steigen während des Fluges, zu messen und den Piloten darüber zu informieren. Gegenüber den oft als störend empfundenen Variometern mit einem auditiven oder visuellen Output präsentiert sich RüttelFlug als attraktive Alternative. Durch sein benutzerfreundliches Design kann das taktile Variometer ähnlich einem Armband einfach am Handgelenk getragen werden. Ein barometrischer Sensor ermittelt die Vertikalgeschwindigkeit und ordnet diese interessanten Klassen von Sink- und Steigwerten zu. Die Übertragung der ermittelten Klassen an den Gleitschirmpiloten erfolgt dann über die eindeutig zu unterscheidenden Vibrationsmuster. Dank dieses neuartigen Konzepts können Sink- und Steigbewegungen während des Gleitschirmfluges angenehm und weniger aufdringlich vermittelt werden. Was RüttelFlug von anderen Variometern unterscheidet ist allerdings nicht das geringe Störvermögen. Vielmehr kann der Fliegende die Geschwindigkeitsänderungen dank des vibrotaktilen Outputs direkt spüren. RüttelFlug ist als anwendungsorientiertes Gadget für alle Gleitschirmpiloten konzipiert, die unaufdringliche Rückmeldungen über Luftströme und Witterungsverhältnisse möchten, aber ebenso danach streben, das Momentum des Gleitschirmfliegens zu verlängern, zu verbessern und zu einem besonderen, taktil erfahrbaren Erlebnis zu machen.

 

Weitere Informationen

 

 

TNS – Taktiler Näherungs-Sensor

Ein intelligenter Roboter zeichnet sich durch die Fähigkeit aus, seine Umgebung wahrzunehmen, daraus ein Umgebungs-Modell zu schätzen und entsprechend darauf zu reagieren. Sowohl bei autonomen als auch bei fest-programmierten Robotern trägt eine berührungslose Detektion der umgebenden Objekte signifikant zur Sicherheit und Robustheit der Aktion bzw. Interaktion bei. Dies unterstützt zusätzlich die Durchführung komplexer Aufgaben wie bspw. das Greifen von unbekannten Objekten.
Die am KIT entwickelten Sensoren ergänzen etablierte Kamerasysteme und ermöglichen damit sowohl verbesserte als auch neuartige, vielfältige und komplexe Interaktion der ausgerüsteten Maschinen/Roboter mit ihrer Umgebung bzw. mit einem Werkstück.

Einer dieser Sensoren ist der TNS – Ein kapazitiver Taktiler NäherungsSensor, der sich die elektrische kapazitive Kopplung zunutze macht, um Objekte berührungslos zu detektieren, zu lokalisieren und – im Falle eines mechanischen Kontakts – die Druckkraft des Griffes zu erfassen.
Mit einem Demonstrator wird die Rolle solcher Sensoren bspw. in der Teleoperation verdeutlicht. Dabei werden die Sensordaten mit einem haptischen Display dargestellt, wodurch der Nutzer live die Umgebungs-Wahrnehmung des Roboters mitverfolgen kann.

 

Weitere Informationen

 

AUREUS

Laut CeBIT-Veranstaltern ist einer der größten IT-Trends die Verschmelzung von realer und digitaler Welt: Virtual- und Augmented-Reality-Anwendungen (VR/AR) sollen in naher Zukunft Industrie, Logistik, Gesundheitswesen, Handel und viele weitere Branchen erobern. Das FZI zeigt mit Ergebnissen aus den Projekten NIKI 4.0 und SensIDL eine intelligente Datenvisualisierung mit Augmented Reality im Kontext von Industrie 4.0. Hierzu werden die Daten verschiedener Sensoren mit modellgetriebenen Software-Entwicklungsansätzen ausgelesen, semantisch angereichert, transformiert und auf mobilen Endgeräten dargestellt. Der Besucher kann mit spielerischen Elementen die Produktionsbedingungen einer beispielhaften Produktion (ein 3D-Drucker) verbessern und so auch die Qualität des gefertigten Ergebnisses optimieren.

Besonders relevant sind solche Sensorinformationen in umgebungsempfindlichen Produktionsverfahren oder -anlagen. Spritzgussverfahren beispielsweise sind fehleranfällig für Wind, bzw. Luftzug und für Schwankungen der Umgebungstemperatur. Durch die Messung und intelligente Visualisierung sollen Facharbeiter künftig störende Lufteinwirkungen und Hinweise auf deren Quelle leicht interpretieren und die richtigen Handlungen zur Fehlerbehebung ableiten können.

Mehr zu NIKI 4.0 unter http://url.fzi.de/niki_4-0 sowie mehr zu SensIDL unter http://www.sensidl.de/

Symposium „Robotik im 21. Jahrhundert“

Mi., 22.03.2017, 11-15 Uhr, Halle 6, Stand A30 und Convention Center, Saal 3A

Industrie und Wissenschaft stehen heute der Herausforderung gegenüber, alltagstaugliche Roboter zu entwickeln, die lernend agieren und Intelligenz entwickeln. Robotik-Experten führender Universitäten in Deutschland diskutieren während eines Wissenschaftlichen Symposiums auf der CeBIT (Mittwoch, 22. März 2017, 11 bis 15.00 Uhr in der Halle 6, Konferenzforum Future Talk und im Convention Center (CC), Saal A3) gegenwärtige Trends, neueste Errungenschaften und Zukunftschancen der Robotik im 21. Jahrhundert. Sie möchten beim spannenden Thema der Mensch-Maschinen-Interaktion Impulse setzen und den Stand der Forschung dem CeBIT-Publikum zugänglich machen. Die Teilnahme steht jedermann offen und ist kostenlos.

Referenten sind: Prof. Tamim Asfour (Karlsruher Institut für Technologie),  Prof. Oliver Brock (Technische Universität Berlin), Prof. Wolfram Burgard (Universität Freiburg), Prof. Jessica Burgner-Kahrs (Universität Hannover), Prof. Rüdiger Dillmann (Karlsruher Institut für Technologie), Prof. Sami Haddadin (Universität Hannover), Prof. Katja Mombaur (Universität Heidelberg), Prof. Oskar von Stryk (TU Darmstadt), Prof. Britta Wrede (Universität Bielefeld), Prof. Florentin Wörgötter (Universität Göttingen).

 

Weiteres Programm des Symposiums:

11 bis 11.30 Uhr            

Besuch des Standes des KIT
(Halle 6, Stand A30)

 

11.30  bis 12 Uhr           

Einführung, Begrüßung und Demonstration
(Halle 6, Konferenzforum Future Talk)

Prof. Thomas Hirth, Vizepräsident für
Innovation und Internationales, KIT

Prof. Tamim Asfour, Vortrag:
„Humanoide Robotik: Von Roboterassistenten zu personalisierten Roboteranzügen“

 

12 bis 13Uhr                  

Imbiss und Gedankenaustausch
(Convention Center (CC), Saal 3A)

 

13 bis 15 Uhr                 

Wissenschaftliches Symposium „Robotik im 21. Jahrhundert“
(Convention Center (CC), Saal 3A)