SE 2012
Programm Techn.-Wiss. Programm Workshops/TutorienIndustrietag Doktorandensymposium Rahmenprogramm Gremiensitzungen Ausstellung
Anmeldung Tagungsort Berlin im Februar Termine Organisation Sponsoring Downloads Einreichungshinweise Archiv Geschichte Kontakt

Technisch-wissenschaftliches Programm - Keynotes

Christoph Peylo

Christoph Peylo, Telekom Innovation Laboratories
Smartphones, Sicherheit und Software Engineering

Abstract

Der Marktanteil von Smartphones ist in wenigen Jahren von 50 Mio auf über 350 Mio Stück gestiegen und Smartphones werden schon bald den Markt für mobile Endgeräte dominieren. Treiber für die Marktentwicklung sind im Wesentlichen die Apps, die über die verschiedenen App Stores erhältlich sind und in zunehmendem Maße kaufentscheidend für die Hardwareplattform des Endgerätes geworden sind.

Das Geschäftsmodel der App Stores erleichtert es den Entwicklern, einen sehr großen Markt zu adressieren. Mit komfortablen Entwicklungsplattformen lassen sich relativ einfach Apps für die verschiedenen Plattformen erstellen. Häufig werden bei der Implementierung Konzepte und Vorgehensweisen aus dem nicht-mobilen Bereich übernommen. Smartphones werden in diesem Ansatz ähnlich wie PCs behandelt, die Konsequenzen der unterschiedlichen Netzanbindung werden vernachlässigt. Entsprechende Implementierungen führen nicht nur zu einer unbefriedigenden Performanz der Apps, sondern auch zu einer starken Belastung der Mobilfunknetze.

Daneben stellen Apps häufig ein erhebliches Sicherheitsrisiko für Smartphone Benutzer dar. Dies betrifft nicht nur die Gefährdung durch dezidierte Schadsoftware, sondern kann auch in der Entwicklung selbst oder Plattform-inhärenten Risiken begründet sein.

In diesem Vortrag werden die genannten Herausforderungen durch Beispiele erläutert und gezeigt, welchen Beitrag Software Engineering bei der Lösung, bzw. Vermeidung leistet. Als Ausblick werden aktuelle Forschungsansätze zur systematischen Verminderung des Sicherheitsrisikos bei Smartphones aufgezeigt.

Markus Dahlweid

Markus Dahlweid, Microsoft Research Advanced Technology Labs Europe
Herausforderungen und neue Technologien zur Verifikation nebenläufiger verteilter Systeme

Abstract

Nebenläufige und verteilt arbeitende Softwaresysteme sind nicht neu. Betriebssysteme sind seit mehr als 20 Jahren inhärent nebenläufig. Verteilte Datenbanken werden mindestens genauso lange erfolgreich eingesetzt. Neue Entwicklungen wie Multi- und Many-Core Architekturen, Cloud und Ubiquitous Computing oder die immer größer werdenden Anforderungen an Performanz, Energieeffizienz und andere Qualitätseigenschaften stellen jedoch die Effektivität etablierter Qualitätssicherungstechniken in Frage. Insbesondere ist systematisches Testen immer weniger geeignet, die erforderliche Qualität solcher Systeme adäquat und kosteneffizient zu sichern. In dieser Situation stellen leistungsfähige modellbasierte und formale Verifikationstechniken eine attraktive Alternative dar. Der Vortrag zeigt, wie diese Techniken bereits heute in die industrielle Praxis der Softwareproduktion wirken.

Walter Tichy

Walter F. Tichy, Institut für Programmstrukturen und Datenorganisation, Karlsruher Institut für Technologie
Die Multicore-Transformation und ihre Herausforderung an die Softwaretechnik

Abstract

Mehrkern-Rechner sind im Begriff, zu übernehmen. Mobiltelefone werden bereits mit Doppelprozessoren ausgestattet, Tablettrechner mit vier Prozessoren, PCs mit acht und mehr, Server mit Dutzenden, und GPUs mit einem halben Tausend. Diese Entwicklung stellt die Softwaretechnik vor die Herausforderung, parallele Software mit der gleichen Qualität und zu gleichen Kosten wie sequentielle herzustellen. Dieser Vortrag diskutiert einige der Forschungsthemen, die auf diese Herausforderung reagieren. Zu aller erst ist die Frage nach der Parallelisierungsmethodik: Wie findet man die Komponenten in neuer oder existierender Software, die von Parallelisierung profitieren? Was sind brauchbare Parallelisierungsmuster, Algorithmen, Daten- und Steuerungsstrukturen? Was sind geeignete Programmiersprachenerweiterungen, um Parallelität verständlich auszudrücken? Wie entdeckt man Parallelisierungsfehler oder vermeidet sie von vorne herein? Wie findet man eine gute Konfiguration der vielen neuen Parameter, die man in einem parallelen Programm berücksichtigen muss? Wie garantiert man Leistung? Und schließlich: Wie kommt man mit der zunehmenden Heterogenität der Prozessoren zurecht? Ohne Anspruch auf Vollständigkeit zeigt dieser Vortrag einige Forschungsrichtungen auf, die helfen können, Parallelprogrammierung zur Routine zu machen.

Martin Wirsing

Martin Wirsing, Institut für Informatik, Ludwig-Maximilians-Universität München
Developing Physiological Computing Systems: Challenges and Solutions

Abstract

Today’s computing systems provide all kinds of media output to the users including pictures, sounds, lights and visual animations; but user input is mostly restricted to narrow, time-consuming input modes such as mouse, touch screen or keyboard, even if the system could sense this information implicitly from the human body. Physiological computing allows one to re-balance this information asymmetry by considering also physiological data of the users as input during on-line processing. Using such inputs, physiological computing systems are becoming able to monitor, diagnose and respond to the cognitive, emotional and physical states of persons in real time.

In this paper we give an introduction to physiological computing, discuss the challenges that typically arise when developing physiological computing systems, and solutions that we found promising in the creation of case studies. More specifically, we discuss the concepts software frameworks should incorporate to provide guidance in the development process: component-orientation, data processing support, and distribution support were found useful when dealing with physiological computing systems, where real-time sensing, on-line data processing, actuator control, context-awareness and self-adaptation are involved. Furthermore, we discuss why agile software development methodologies seem appropriate to structure development efforts involving physiological computing. Finally, we cover the issues in validation and verification of physiological computing systems that arise from the characteristics of the application domain, and discuss how empirical validation through psychological experiments, software validation and verification can interact with each other in the domain of physiological computing.