Abgeschlossene Abschlussarbeiten

Folgend finden Sie eine Liste bereits abgeschlossener Bachelor-, Master und Diplomarbeiten.

2024

Prompt Engineering im Rahmen einer Automatisierten Beantwortung von Kundenanfragen - Konzept und Prototypische Umsetzung

Bachelorarbeit, Mai 2024

Die Bachelorarbeit impliziert die Entwicklung eines Prototyps zum ersten Testen und Evaluieren von LLM-Integration in einem mittelständischen Unternehmen anhand der OpenAI API und stellt eine sinnvolle Kooperation von Forschung und Wirtschaft dar. In Zusammenarbeit mit der exali AG soll die Performanz von LLMs im Kontext der Beantwortung von Kundenanfragen in der IT-Versicherungsbranche bewertet werden. Das Unternehmen, unterstützt die Arbeit mit Daten, Domänenwissen, sowie einem Team an unterschiedlichen Experten für Konzeption und Evaluation des Prototyps. In diesem Kontext wurde eine methodische Struktur entwickelt, geplant und umgesetzt, wie mit Herausforderungen wie Datenknappheit (synthetische LLM-basierte Generation), wirtschaftlichen Anforderungen (Pricing Model, Datensicherheit, …)  und Art der Evaluation (technisch und menschlich) umgegange werden kann, um eine Prognose für das Unternehmen bezüglich Sinnhaftigkeit dieses Anwendungsszenarios zu treffen. 

 

ResearchConnect - A Smart Web-Application to Enhance Interdisciplinary Work through Intelligent Matching of Scientists based on their Disciplines

Bachelorarbeit, Januar 2024

Die Bachelorarbeit behandelt die interessante Fragestellung, wie man interdisziplinäres Arbeiten technisch unterstützen kann. Hierzu wird zunächst kurz die Relevanz interdisziplinärer Arbeit in der Forschung thematisiert, sowie auf aktuelle Herausforderungen eingegangen. Am Beispiel der Website der Universität Augsburg wurde ein Prototyp in Form einer intelligenten Webanwendung entwickelt: ResearchConnect. Diese ermöglicht es, basierend auf einer intelligenten semantischen Suche anhand der Eingabe eines bspw. Forschungsgebiets weitere Forschende zu finden, die sich mit ähnlichen Themen beschäftigen, wobei die Informationen von den öffentlichen Seiten der Mitarbeiterinnen und Mitarbeiter gescraped werden.

 

 

 

 

2023

Evaluation von XAI-Algorithmen mithilfe Szenariobasierter Fokusgruppen

Masterarbeit, November 2023

Diese Masterarabeit ist in einem interdisziplinären Bereich angesiedelt und zielt darauf ab, die Eignung von szenariobasierten Fokusgruppen, einer Methodik aus den Sozialwissenschaften, zur Evaluation von Techniken im Bereich der Erklärbaren Künstlichen Intelligenz (Explainable AI, XAI) zu untersuchen. Vor dem Hintergrund der zunehmenden Komplexität von Systemen der Künstlichen Intelligenz (KI) und der damit verbundenen Undurchsichtigkeit der Ausgaben, die von den eingesetzten Modellen erzeugt werden, stellt sich die Frage nach Bewertungsansätzen für XAI-Methoden, insbesondere aus der Perspektive verschiedener Stakeholder. Trotz der Entwicklung zahlreicher XAI-Methoden fehlen bisher umfassende Evaluationsmöglichkeiten für solche Techniken, speziell aus der Sicht der Nutzenden. Dabei wird in der Mastarbeit die Verknüpfung von sozialwissenschaftlichen Forschungsmethoden mit der Bewertung von XAI-Techniken als möglicher Lösungsansatz betrachtet.

Die Anwendung von szenariobasierten Fokusgruppen, die bereits in verschiedenen Disziplinen etabliert sind, auf das Feld der XAI bildet den Kern dieser Arbeit. Hierzu wurden zwei Fokusgruppen mit unterschiedlichen Stakeholdergruppen – Studierende der Humanmedizin und KI-Entwickler:innen – durchgeführt. Den Teilnehmenden wurde ein Szenario präsentiert, welches die hypothetische Anwendung eines KI-gestützten 12-Kanal-EKGs zur Diagnose von verschiedenen Herzrhythmen beschreibt. Das Grundszenario wurde in zwei Eskalationsstufen ergänzt, indem jeweils eine ansteigende Menge an Informationen und Erklärungen der KI an die Teilnehmenden gegeben wurde. Die Fokusgruppen hatten die Aufgabe, diese Situationen zu diskutieren und zu bewerten. Die zentralen Analysepunkte der Gespräche umfassten dabei die Präsentation der bereitgestellten Informationen, die Erklärbarkeit, das Vertrauen in die KI sowie vorgeschlagene Verbesserungen. Eine Literaturrecherche zum aktuellen Stand der Forschung auf dem Gebiet der Evaluationsmöglichkeiten von XAI-Methoden rundet die Masterarbeit ab.

2022

Zusammenführung Multi-modaler Datenquellen in einer Anwendung zur Analyse des Ösophagus für die Diagnoseunterstützung von Achalasie

Masterarbeit, November 2022

Die Masterarbeit wurde in Kooperation mit dem Uniklinikum Augsburg (UKA) erstellt, um Ärztinnen bei der Diagnose von Achalasie zu unterstützen. Hierfür wurden verschiedene Daten mehrerer Patientinnen bereitgestellt. Aktuell müssen Ärzte selbst die Ergebnisse verschiedener Datenquellen für die möglichst präzise Diagnose der Art der Krankheit und der dadurch bedingten Behandlungsstrategie zusammenführen. Um diesen Prozess zu unterstützen, wurde eine Software zur Erstellung einer möglichst realitätsgetreuen 3D-Rekonstruktion des Ösophagus entwickelt, welche die gemessenen Manometrie-Druckwerte als Farbverlauf für verschiedene Messzeitpunkte inkludiert.

Das entwickelte Verfahren integriert die Nutzerin direkt bei der Dateneingabe, wobei die Manometrie-Messungen, ein Breischluck-Röntgenbild und Bilder aus einer Endoskopie-Aufnahme zur Rekonstruktion verwendet werden. Für die Zusammenführung werden noch weitere Angaben benötigt, wobei das Röntgenbild, welches den Verlauf des Ösophagus darstellt, als Grundlage dient. Um die Manometrie Messungen zu mappen, werden am besten die bekannten Positionen des oberen und unteren Ösophagus Sphinkters eingetragen, die Messabstände des Geräts sind bekannt. Für die Zuordnung des Durchmessers aus den Endoskopie Aufnahmen, wird der Messstartpunkt markiert. Auch muss zu jedem Bild die jeweilige Höhe bekannt sein. Um den Durchmesser zu extrahieren, wurden automatisierte Verfahren zur Extraktion aus den Endoskopie Aufnahmen in die finale Software integriert. Diese Extraktion gelingt allerdings aufgrund der verschiedenen Lichtverhältnisse nicht immer gut, weshalb die Software dem User die Funktionalität zur manuellen Nachbereitung des ausgewählten Durchmessers eines jeden Bildes bereitstellt. Dasselbe trifft auch auf die Extraktion des Verlaufs aus dem Röntgenbild zu. Um eine optimale Usability, die den Bedürfnissen der klinischen Nutzerin entspricht, zu erreichen, wurde auf eine intensive Zusammenarbeit und Feedback bei der Softwareentwicklung viel Wert gelegt.

 

Modell-Erklärungen als Quality-Gate in Machine Learning Pipelines

Masterarbeit, September 2022

Diese Masterarbeit ist im Bereich des interpretierbaren Maschinellen Lernens (ML) angesiedelt. Werden Modelle mithilfe von ML trainiert, ist bei komplexen Modellarten wie den Neuronalen Netzen das Ergebnis, zu welchen diese Algorithmen kommen, sehr schwer oder gar nicht erklärbar. Hier entsteht gegenwärtig das schnell wachsende Forschungsfeld der erklärbaren Künstlichen Intelligenz (KI). Eine Teildisziplin darin umfasst Methoden, die zur Interpretation der Modell-Ausgaben genutzt werden können. Dabei lassen sich vieler dieser Techniken auf bereits trainierte Modelle anwenden, um so die Funktionsweise des Algorithmus post-hoc näher zu untersuchen. Gleichzeitig entstehen aktuell Prinzipien im Bereich des operativen ML (MLOps) um den Lebenszyklus von KI-Anwendungen zu beschleunigen und Schritte des Entwicklungsprozesses zu automatisieren. Die Masterarbeit untersucht die Schnittmenge dieser Disziplinen. Hierfür wurde ein eine ML-Pipeline als Forschungsgegenstand herangezogen, worin ein Neuronales Netz zur Objekterkennung in Bilddaten trainiert wurde. Um die Ausgabe des Neuronalen Netzes in eine erklärbare Form zu überführen, wurde die Interpretations-Methode LIME verwendet. Anschließend wurde ein Konzept entwickelt und implementiert, wie die Ausgaben des Interpretations-Algorithmus in der Validierungsphase der ML-Pipeline herangezogen werden kann, um auf Basis der Ergebnisse eine mögliche automatisierte Freigabeentscheidung für das ML-Modell treffen zu können.  Die Literaturrecherche zum aktuellen Stand der Forschung in den relevanten Bereichen der erklärbaren KI und MLOps rundet die Masterarbeit ab.

 

Interpretierbares Maschinelles Lernen mit EKG-Daten

Bachelorarbeit, Juli 2022

Das Elektrokardiogramm (EKG) verkörpert eine zentrale diagnostische Methode in der Medizin zur Identifizierung kardialer Pathologien bei Patienten. Angesichts der essenziellen Bedeutung der Detektion von Herzerkrankungen mittels EKG in klinischen Kontexten, eröffnet die Automatisierung dieser Erkennungsprozesse durch maschinelles Lernen neue Perspektiven. Forschungsergebnisse haben gezeigt, dass der Einsatz von Deep Neural Networks (DNN) in bestimmten Fällen eine überlegene Genauigkeit bei der Diagnose von Herzerkrankungen ermöglicht, verglichen mit der Bewertung durch Fachkardiologen. Vor diesem Hintergrund fokussiert diese Bachelorarbeit auf die Präsentation und Evaluierung diverser neuronaler Netzwerke, welche für die Klassifikation von EKG-Daten konzipiert wurden. Eine herausfordernde Problematik bei der Anwendung neuronaler Netzwerke besteht darin, dass diese Systeme typischerweise keine direkten Erklärungen für ihre Diagnosen bieten. Um diesem Mangel zu begegnen, werden in dieser Arbeit verschiedene Ansätze zur Erhöhung der Erklärbarkeit neuronaler Netzwerke untersucht, mit einem speziellen Fokus auf die Methodik der Local Interpretable Model-agnostic Explanations (LIME). Es folgt die Darstellung der Implementierung von LIME für ein neuronales Netz, welches Signaldaten verarbeitet, inklusive einer Reihe von Experimenten, die diese Methode evaluieren und mit alternativen Ansätzen vergleichen. Weiterhin wird die Anwendung des Algorithmus Randomized Input Sampling for Explanation of Black-box Models (RISE) erörtert. Abschließend liefert die Arbeit einen Ausblick auf die zukünftige Rolle von DNNs im medizinischen Sektor und betont die zunehmende Relevanz erklärbarer Modelle in diesem Zusammenhang.

2021

Evaluation von KI-Erklärungen im Kontext von Active Learning

Masterarbeit, November 2021

Der fortschreitende Einzug der KI Technologien in unserer Gesellschaft hat die öffentliche Diskussion - durchaus kontrovers - seit einigen Jahren erreicht. Dabei zählt zu den vorrangigen Themen u.a. die allgemeine Anwendbarkeit von KI Modellen, v.a. bezüglich ihrer Vertrauenswürdigkeit. Im Forschungsgebiet der erklärbaren KI (XAI) wird gerade in verantwortungslastigen Bereichen wie dem Gesundheitssystem die In- terpretierbarkeit von ML Modellen zunehmend unverzichtbar. Da sachkundige Kom- mentatoren (z.B. Ärzte) i.d.R. über wenig Zeit verfügen, sind korrekt annotierte Daten rar. Eine Methodik, die diesem Problem begegnet ist aktives Lernen (AL), bei welcher das Modell kontinierulich trainiert und sukzessiv neue Annotationen angefragt werden. Durch die Analyse von Modellerklärungen in einem AL Kontext leistet diese Masterarbeit einen Beitrag zur aktuellen XAI Forschung. Das domänen-spezifische Erklärsystem wird durch ein speziell dafür entwickeltes Framework bewertet. Dies geschieht durch die Analyse der, für die Vorhersagen einer ML-basierten Klassifikationsaufgabe für Hautkrebsbilder, generierten Erklärungen, mit dem Ziel, wünschenswerte Anforderungen an eine gute Erklärung zu extrahieren. Das so gewonnene Wissen über die innere Funktionsweise des ML Modells kann zu einer Verbesserung der gesamten ML Pipeline zur Laufzeit eines AL-Projekts führen.

 

Bias-Erkennung mittels Methoden des interpretierbaren Maschinellen Lernens

Bachelorarbeit, September 2021

Während Machine Learning (ML) Systeme im menschlichen Leben immer mehr an Bedeutung gewinnen, wird das Bewusstsein, dass diese Sytseme einen Bias haben können immer stärker. Vor diesem Hintergrund gewinnt das Forschungsfeld des interpretierbaren maschinellen Lernens (IML) an Bedeutung, da es die Nachvollziehbarkeit der Entscheidungsprozesse in ML-Modellen verbessert. Diese Bachelorarbeit verfolgt das Ziel, die Anwendbarkeit von IML-Methoden für die Detektion von Bias in ML-Modellen aufzuzeigen. Zur Bewertung der Fähigkeit von IML-Methoden, Datenverzerrungen zu identifizieren, wurden experimentelle Untersuchungen durchgeführt. Hierbei wurde in den Datensatz gezielt ein Bias eingeführt. Zur Detektion dieses Bias kamen die Methoden Local Interpretable Model-agnostic Explanations (LIME) und Randomized Input Sampling for Explanation of Black-box Models (RISE) zum Einsatz. Die Analyseergebnisse indizieren, dass RISE effektiv in der Lage ist, den eingeführten Bias zu identifizieren, während die Ergebnisse mittels LIME nicht als signifikant erachtet werden können. Diese Befunde suggerieren, dass IML-Methoden grundsätzlich zur Erkennung von Verzerrungen in ML-Modellen geeignet sind. Gleichzeitig unterstreichen sie die Notwendigkeit weiterführender Forschungen im Bereich der Bias-Detektion mittels IML-Methoden, um die Effektivität und Präzision dieser Techniken weiter zu erhöhen.

 

Reduktion des Annotationsaufwands - Ein Vergleich von Active Learning Frameworks

Bachelorarbeit, Juni 2021

Diese Bachelorarbeit ist im Bereich der Softwareentwicklung mit Machine Learning (ML) angesiedelt. Zum überwachten Trainieren von ML-Modellen ist i.d.R. ein großer Satz an Daten, bestehend aus den Beispielen mit dazugehörigen Annotationen notwendig. Nachdem die Annotation von Daten sehr zeit- und kostenintensiv ist, wird versucht, mit Techniken wie Active Learning diesen Prozess effizienter zu gestalten. Das große Potential bei diesem Verfahren kombiniert mit den Besonderheiten im medizinischen Kontext motiviert die Entwicklung eines umfassenden Active Learning Frameworks, welches sich für die Anwendung mit unausgeglichenen Datensätzen eignet. In dieser Bachelorarbeit werden dabei drei existierende Open-Source Frameworks für Active Learning dahingehend untersucht, ob und inwieweit sie sich zur Adaption für eine Eigenimplementierung einigen. Um eine Bewertung vorzunehmen, wurden Kriterien definiert und anhand der Anwendung der Frameworks analysiert. Die praktische Umsetzung umfasst sowohl die Implementierung einer eigenen Query Strategie sowie ein Performance-Test unterschiedlicher Machine Learning Modelle für die betrachteten Active Learning -Frameworks. Eine Recherche zu weiteren Entscheidungsfaktoren rundet die Untersuchung ab.

 

 

Herausforderungen bei der Implementierung von sicheren APIs in einer vordefinierten Netzwerk-Serverinfrastruktur unter Berücksichtigung interner und externer Aspekte

Bachelorarbeit, Mai 2021

APIs gewinnen bei Unternehmen immer mehr an Bedeutung, weil sie vermehrt einen wesentlichen Anteil zur Wertschöpfung beitragen. Das hat zur Folge, dass in zunehmendem Maß APIs entwickelt und für Kunden bereitgestellt werden. Mit dem rasanten Anstieg der Anzahl der APIs, werden sie zu immer beliebteren Angriffszielen und müssen dementsprechend vor Angreifern geschützt und Sicherheitslücken unterbunden werden. In dieser Bachelorarbeit wird das Thema API-Sicherheit und die damit verbundenen Herausforderungen behandelt. Realisiert wird das anhand der Implementierung einer Web API in Kooperation mit der Daimler AG. Unter Berücksichtigung der Daimler internen Sicherheitsrichtlinien und der OWASP API Top 10 Sicherheitslücken, werden Sicherheitsrisiken aufgedeckt und Gegenmaßnahmen umgesetzt. Für die Implementierung einer sicheren Web API wird dazu die projektspezifische Infrastruktur und die vorangegangenen Sicherheitsmaßnahmen berücksichtigt. Abschließend wird eine Evaluierung der Umsetzung durchgeführt, dabei wird auf die Machbarkeit und die Herausforderungen bei der Implementierung einer sicheren Web API bei der Daimler AG eingegangen.

 

Weniger Annotationen bei gleicher Modell-Qualität: Ein Vergleich verschiedener Ansätze für Aktives Maschinelles Lernen am Beispiel eines optischen Hautkrebs-Klassifikators

Bachelorarbeit, Mai 2021

Das Training moderner Klassifikatoren benötigt üblicherweise große Datensätze, in welchen jeder Datenpunkt durch Menschen mit den darin enthaltenen Klassen annotiert wurde. Um diesen manuellen Arbeitsaufwand zu reduzieren, schlägt das Konzept des Aktiven Lernens einen iterativen Prozess vor: Statt zufällig die nächsten zu annotierenden Datenpunkte auszuwählen, werden der aktuelle Trainingszustand des Modells sowie das Verhältnis der Datenpunkte untereinander berücksichtigt, um so möglichst früh die informativen Datenpunkte im noch nicht annotierten Datensatz zu finden. Dadurch besteht das Potential, dass deutlich weniger Annotationen nötig sind, und früher ein Klassifikator mit vergleichbarer Modellqualität entsteht.

In diesem Kontext war es das Ziel der Arbeit, den aktuellen Stand der Wissenschaft in dem Bereich zu recherchieren und einen passenden Ansatz in einem bestehenden Beispielprojekt umzusetzen und auszuwerten.

 

Medical Deep Learning: Comparing State of the Art Model Architectures for Skin Cancer Detection in Dermatoscopic Images

Bachelorarbeit, April 2021

Die Arbeit ist im Bereich des maschinellen Lernens auf medizinischen Bilddaten angesiedelt. Konkreter war das Ziel, auf einem bestehenden Datensatz von über 10.000 Bildern menschlicher Haut ein Modell zu entwickeln, welches in der Lage ist die sieben verschiedenen Läsionen zu unterscheiden. Dazu sollte der aktuelle Stand der Wissenschaft in dem Bereich recherchiert und umgesetzt werden. Um die Ergebnisse dieser Arbeit bestmöglich in weiteren Projekten der Professur unterzubringen, war zusätzlich zur Modellqualität auch die zum Training benötigte Rechenzeit ein wichtiges Merkmal

Evaluation der CWE-Abdeckung von Analysetools auf
Code

Bachelorarbeit, Februar 2021

In den letzten Jahren ist der Umfang des Quellcodes von modernen Software Produkten exponentiell angestiegen. Zusätzlich werden informationstechnische Systeme fortschreitend für sicherheitskritische Applikationen wie das autonome Fahren oder die Energieversorgung entwickelt. Daher steigen die Ansprüche der Nutzer sowie Unternehmen an die Qualität des Quellcodes, insbesondere in Hinblick auf die Sicherheit des Systems. Eine Möglichkeit, um die Sicherheit von Software weiter zu verbessern, ist die Verwendung sogenannter statischer Codeanalyse Tools. Im Rahmen dieser Bachelorthesis wird untersucht, inwiefern moderne statische Codeanalyse Tools die häufigsten Schwachstellen in Quellcode identifizieren können. Die ausgewählten Schwachstellen können dem Standardregelwerk der Common Weakness Enumeration zugeordnet werden. Für die Evaluation wurden zu 10 der häufigsten Schwachstellen des Jahres 2020 insgesamt 27 Testprogramme in der Programmiersprache C++ entwickelt. Dabei haben die drei ausgewählten statischen Codeanalyse Tools CppCheck, PVS-Studio und Cpp- Depend 12 beziehungsweise 13 der 27 Fehler richtig identifiziert. Damit kam es im Kontext dieser Bachelorarbeit zu einer vergleichsweisen hohen Entdeckungsrate von Common Weaknesses in Quellcode.

 

 

 

Reduktion des Annotationsaufwands - Ein Vergleich von Active Learning Frameworks

Bachelorarbeit, Januar 2021

Die Bachelorarbiet ist im Bereich der Softwareentwicklung mit Machine Learning (ML) angesiedelt. Zum überwachten Trainieren von ML-Modellen ist i.d.R. ein großer Satz an Daten, bestehend aus den Beispielen mit dazugehörigen Annotationen notwendig. Nachdem die Annotation von Daten sehr zeit- und kostenintensiv ist, wird versucht, mit Techniken wie Active Learning diesen Prozess effizienter zu gestalten. Das große Potential bei diesem Verfahren kombiniert mit den Besonderheiten im medizinischen Kontext motiviert die Entwicklung eines umfassenden Active Learning Frameworks, welches sich für die Anwendung mit unausgeglichenen Datensätzen eignet. In dieser Bachelorarbeit werden dabei drei existierende Open-Source Frameworks für Active Learning dahingehend untersucht, ob und inwieweit sie sich zur Adaption für eine Eigenimplementierung einigen. Um eine Bewertung vorzunehmen, wurden Kriterien definiert und anhand der Anwendung der Frameworks analysiert. Die praktische Umsetzung umfasst sowohl die Implementierung einer eigenen Query Strategie sowie ein Performance-Test unterschiedlicher Machine Learning Modelle für die betrachteten Active Learning-Frameworks. Eine Recherche zu weiteren Entscheidungsfaktoren rundet die Untersuchung ab.

 

 

Trade-off Analysis between Green Internet of Things and Security Guidelines

Masterarbeit, Januar 2021

Das Internet der Dinge ist eine stetig wachsende Technologie die uns in vielen Bereichen des Lebens unterstützt. Die Geräte die Teil des Internet of Things (IoT) sind, sammeln Informationen und senden sie an andere Geräte im Internet um ihre Aufgaben zu erfüllen. Die Informationen die verarbeitet werden sind oftmals personenbezogene Daten die es gilt vor Missbrauch zu schützen. Heutzutage werden Daten die über das Internet gesendet werden durch verschiedene Sicherheits- und Verschlüsselungsmechanismen vor Missbrauch geschützt. Da die meisten gängigen Verschlüsselungsmechanismen, für viele ressourcenbeschränkte Geräte wie sie im IoT zu finden sind, sehr rechenaufwändig sind, gestaltet sich der Bau von effizienten und sicheren IoT Geräten schwierig. Die Arbeit beschäftigt sich mit der Analyse der Performanz von verschiedenen alternativen Verschlüsselungsmechanismen und derer Sicherheitseinstellungen, und vergleicht die Einflüsse dieser in Bezug auf Energieeffizienz und Sicherheit gegenüber heutigen gängigen Methoden. Die Resultate ermöglichen es praktikablere Verschlüsselungsalternativen für ein grüneres und sichereres Internet of Things zu bestimmen für welches ein ausreichendes Sicherheitslevel erreicht werden kann, ohne die Energieeffizienz so stark zu beeinträchtigen wie es heute gängige Methoden tun.Sichern

2020

Process methodology of creating a care web portal of insurance company clients

Bachelorarbeit, September 2020

Diese Bachelorarbeit verfolgt die Entwicklung eines Minimalwertproduktes einer Tschechischen Softwareunternehmens, nämlich die Entwicklung eines Webportals, welches die Schadensbeauftragter in Versicherungsunternehmen verwenden können. Die Hauptfunktion dieses Webportals besteht darin, die Schadensbeauftragter bei der Suche nach einem geeigneten medizinischen Dienstleister für die Bedürfnisse ihrer Kunden zu unterstützen. Ziel der Abschlussarbeit war es, die Vorteile eines Minimalwertproduktes, die Gründe für die Verwendung für die Entwicklung des Webportals, seine Vorteile und die Einbindung in das Endprodukt zu erklären. Abschließend wird das Konzept dieser Software mit verschiedenen anderen Softwareanbietern sowohl aus Deutschland als auch aus den USA verglichen

 

 

Architekturgestaltung sicherer Kommunikation in Sensornetzwerken

Bachelorarbeit, September 2020

Sensornetzwerke, die aus vielen einzelnen Sensorknoten bestehen, haben eine Vielzahl von möglichen Einsatzgebieten, darunter Militär, Umwelt oder den Haushalt. Aufgrund der eingeschränkten Leistung der Sensorknoten, können viele in anderen Netzen genutzten Sicherheitsmechanismen nicht verwendet werden. In der folgenden Arbeit wird daher die Frage beantwortet, wie die Kommunikation und Netzwerkarchitektur gestaltet werden muss, um trotzdem Sicherheit gewährleisten zu können. Dazu werden alle Schichten des Protokollstapels betrachtet und deren  Sicherheitsanforderungen identifiziert. Auf jeder Schicht gibt es mehrere mögliche Angriffe. Diese werden erklärt und unterschiedliche Gegenmaßnahmen präsentiert. Weiterhin werden auf jeder Schicht Protokolle vorgestellt und deren Sicherheitsmechanismen erläutert. Der nächste Abschnitte beschäftigt sich näher mit der Gestaltung einer sicheren Kommunikation. Die Kommunikation kann geschützt werden, indem symmetrische Schlüssel verwendet werden, um die übertragenen Nachrichten zu verschlüsseln. Dabei gibt es verschiedene Möglichkeiten, um symmetrische Schlüssel auf die Sensorknoten zu verteilen. Hier werden sowohl probabilistische, als auch deterministische Verfahren betrachtet. Im Folgenden werden die Sicherheitsmechanismen aktueller Standards dargestellt und erklärt, warum diese noch nicht ausreichend sind. Schließlich weder hier noch mehrere Verbesserungsvorschläge gemacht. Insgesamt kann man feststellen, dass die Kommunikation in einem Sensornetzwerk noch nicht ausreichend gegen Angriffe geschützt ist

 

 

 

Linienextraktion zur Fahrbahnerkennung im
Kontext autonomer Fahrzeuge

Bachelorarbeit, Juli 2020

Diese Arbeit beschreibt Schritt für Schritt die Funktionsweise eines Python-basierten Linienextraktionsalgorithmus für die Nutzung in der Modellierung autonomen Fahrens sowie die Bestimmung der Parameter für diesen Algorithmus. Die hierfür verwendete Hardware ist ein NVIDIA Jetson TX1 Developer Kit mit CUDA-Support. Das Programm wird mit der Nutzung der OpenCV Library entwickelt. Die Arbeit gibt weiterhin einen Überblick über die Verarbeitungsgeschwindigkeit des Algorithmus und dessen einzelnen Schritten. Abschließend werden mögliche Ansätze zur Erweiterung und weiteren Optimierung des Algorithmus  beschrieben.

 

 

 

Konzeptvergleich von Cyber Physical Systems und Internet of Things im Kontext Telemedizin

Bachelorarbeit, Juli 2020

In den letzten Jahrzehnten konnten große Fortschritte sowohl in der Rechnerentwicklung als auch im Bereich der Kommunikationstechnik festgestellt werden. Auch deshalb finden Cyber-physische Systeme (CPS) und Internet of Things (IoT) Anwendung im Bereich der Medizin. In dieser Arbeit werden die beiden Konzepte definiert, eingeführt, technisch analysiert und evaluiert. Ein wesentliches Augenmerk wird dabei auf Aspekte der Safety und Security gelegt. Darüber hinaus werden CPS und IoT miteinander verglichen. Dabei werden die Gemeinsamkeiten und Unterschiede herausgearbeitet. In der Literatur existieren unterschiedliche Ansichten, ob CPS und IoT identische Konzepte sind, oder nicht. In Abschnitt 5.2 konnten sieben Merkmale identifiziert werden, anhand derer die Abgrenzung voneinander möglich ist

 

 

Echtzeitkritische ML-basierte Bildverarbeitung auf dem NVIDIA JetsonTX1 für autonomes Fahren im Maßstab 1:8

Bachelorarbeit, März 2020

Eingebettete Graphics Processing Units (GPUs) wie das NVIDIA JetsonTX1 zeichnen sich durch ihre kompakte Bauform sowie hohe Leistung bei geringem Energieverbrauch aus. Sie eignen sich gerade deshalb für Anwendungen im Bereich des autonomen Fahrens. Die vorliegende Arbeit befasst sich mit der Integration des JetsonTX1 als Recheneinheit zur echtzeitkritischen und Machine Learning (ML)-basierten Bildverarbeitung
zum autonomen Fahren. Hierzu wurden in einem Praxisteil bereits bestehende Algorithmen zur Bildverarbeitung auf das JetsonTX1 portiert. Zusätzlich wurden mithilfe von passender Middleware, Endpunkte zur Integration des TX1 in die Verarbeitungskette eines Modellautos geschaffen. Der Theorieteil befasst sich zunächst mit den nötigen hardware- und softwaretechnischen Grundlagen der Integration. Anschließend wird beschrieben, wie die Umsetzung mithilfe einer Client-Server-Architektur gelang und wie sich das System den strikten Echtzeitanforderungen annimmt. Der anschließende Vergleich mit der Vorgängerarchitektur verdeutlicht die leistungs- sowie sicherheitstechnischen Vorteile der neuen Architektur. Das letzte Kapitel gibt einen Ausblick auf weitere mögliche Optimierungen hinsichtlich Software und Hardware.

 

 

Konzeption zur Erweiterung des ONOS Intent Frameworks für die Einbindung von Policy Graph Abstractions

Bachelorarbeit, März 2020

Intent-Based Networks (IBN) verbergen die Komplexität der Netzverwaltung durch eine höhere Abstraktionsebene, um die Steuerung von heterogenen Geräten und Diensten des Netzwerks mithilfe von deklarativen Richtlinien zu vereinfachen. Eine Umsetzung dieses Ansatzes zeigt das Intent-Subsystem des Open Network Operating Systems (ONOS), welche die Anfragen zur Initialisierung von Intents entgegennimmt und daraus die gerätespezifischen Konfigurationen ableitet. Ein Problem bei der bestehende Implementierung tritt jedoch im Zusammenhang mit konkurrierenden Intents auf. Das Intent-Subsystem bearbeitet einzelne Anfragen unabhängig von bereits installierten Intents und ist nicht geeignet, Konflikte zwischen unterschiedlichen Intents zu erkennen. Zur Identifikation und Behandlung von Abhängigkeiten zwischen verschiedenen Intents wird daher Policy Graph Abstraction (PGA) vorgeschlagen. PGA nutzt Graphen zur Abstraktion von übergeordnete Richtlinien mit dem Ziel, Abhängigkeiten zu erfassen und eine konfliktfreie Verschmelzung durchzuführen.

 

 

Model-to-Model Transformationen im Kontext Modellzentrischer Testmechanismen am Beispiel UTP2

Bachelorarbeit, Februar 2020

Das modellbasierte Testen liefert einen Ansatz, den Testprozesses eines Systems durch Modelle zu erweitern. In diesem Kontext definiert die Object Management Group (OMG) die Modellierungssprache namens UML Testing Profile 2 (UTP2). Diese ermöglicht es, Testartefakte zu beschreiben und zu visualisieren. In dieser Arbeit wird zuerst ein Überblick über das modellbasierte Testen und die wichtigen Begriffe der Metamodellierung und Modelltransformationen gegeben. Dabei wird vor allem auf die Standards der OMG genauer eingegangen. Nach einer kurzen Einführung des Eclipse Modeling Framework und der UTP2, werden drei Metamodelle vorgestellt. Anhand dieser werden zwei Model-to-Model-Transformationen definiert, die ein UTP2-konformes visuelles Modell in ein Modell zur weiteren Analyse umwandeln. Den Abschluss der Arbeit bildet ein Abschnitt über mögliche Erweiterungen der Metamodelle und Modelltransformationen.

 

 

Model-to-Model Transformation im Kontext Modell-basierter Software- und System-Analysen

Bachelorarbeit, Februar 2020

Wenn Transformationen zwischen Modellen in der Softwareentwicklung manuell erledigt werden, kann dies einige Nachteile mit sich bringen. Es ist zum einen nicht effizient und zum anderen eine potenzielle Fehlerquelle. Dies kann durch eine automatisierte Transformation dieser Modelle, wie sie in dieser Arbeit beschrieben wird, teilweise vermieden werden. Die Arbeit zeigt eine Transformation zwischen drei unterschiedlichen Ecore-Modellen. So geht sie zu Beginn auf grundlegendes Wissen ein, welches im Laufe der Arbeit anhand der Transformation wiederverwendet und durch ein konkretes Beispiel veranschaulicht wird.

 

 

 

 

 

Evaluation der Benutzerfreundlichkeit des Eclipse Testframeworks SWTBot

Bachelorarbeit, Januar 2020

Mit steigender Bedeutung von der Software in unserem Leben spielt das Softwaretesten eine immer größere Rolle für die Softwareentwicklung. Das Testen lässt die Qualität von der Software auf hohem Niveau halten. Das Ziel dieser Bachelorarbeit ist die Verwendung von dem Eclipse Testframework SWTBot beim Testen eines GUI zu evaluieren. Dazu gibt diese Bachelorarbeit einen Überblick über die Software Prüftechniken, sowie über die Besonderheiten beim Testen eines GUI. Dabei werden Vorteile und Nachteile der GUI-Testautomatisierung analysiert, sowie auf die Vorgehensweise der GUI-Testautomatisierung eingegangen. Für die Evaluation des Eclipse Testframework SWTBot werden die Testszenarien vorgestellt und die Testergebnisse präsentiert. Abschließend wird die Verwendung von SWTBot mit dem klassischen Testprozess mittels JUnit verglichen. Dieser Vergleich ergibt, dass die Verwendung von SWTBot die Aufwandsersparnis beim Testen eines GUI bietet.

 

2019

Funktionsvalidierung eines Onboard-Datenverarbeitungssystems zur Anwendung im Motorsport

Bachelorarbeit, Dezember 2019

Im Motorsport werden während den Rennen die Fahrzeugdaten mitgeschrieben um im Nachhinein zu Überprüfen, ob die Fahrzeuge die Vorgaben des Reglements erfüllen. Diese Arbeit wird von technischen Delegierten durchgeführt. Ein System, welches die Validierung der Daten übernimmt wird derzeit entwickelt. Ein Testrahmen für dieses System existiert noch nicht.
Im Rahmen dieser Arbeit wird ein Validierungssystem für ein Onboard-Datenverarbeitungssystem zur Anwendung im Motorsport entwickelt. Hierfür wird eine Softwarearchitektur entwickelt und ein Katalog von Akzeptanzkriterien erstellt. Anhand dessen wird eine Referenzimplementierung entworfen und ein Protoyp gebaut. Das erstellte System wird anschließend bewertet. Die Methoden zur Umsetzung dieser Systementwicklungsaufgabe richten sich an die Stabdards des IEEE.

 

 

 

Sensorfusion im Kontext autonomer Fahrzeuge im Maßstab 1:8

Bachelorarbeit, Dezember 2019

Das Ziel dieser Arbeit war eine geeignete Sensorfusion für ein Modellauto im Maßstab 1:8 zu entwerfen. Dabei wurde sich auf Daten aus Ultraschallsensoren und einem LiDAR-System beschränkt. Die großen Unterschiede dieser Technologien stellen eine Schwierigkeit der Fusion dar. Um aus theoretischen Konzepten die richtige Wahl zu treffen, muss das Setup genau analysiert werden. Dazu wurden die Sensoren sowie die Umgebung des Autos genauer untersucht. Anhand dieser Evaluierung wurde sich für eine fahrzeugfeste Belegungskarte entschieden. Ein Problem, das dabei entscheidend ist, sind die begrenzten Systemressourcen. Deswegen wird bei der Speicherung auf eine effiziente Struktur zurückgegriffen. Der Hauptteil der Arbeit besteht in der Umsetzung
des konkreten Ablaufs von der Sensormessung bis zur Speicherung der fusionierten Daten. Diese Realisierung ist auch auf normal große Fahrzeuge übertragbar.
 

 

 

Durchführung einer Mehrwertanalyse zur Evaluation des Einsatzes von IoT-Geräten im Profi-Sport

Bachelorarbeit, November 2019

Heutzutage greifen viele Topclubs bei der Trainingsgestaltung auf Daten zu, die sie durch den Einsatz von Wearables erhalten haben. Aus diesem Grund wird in dieser Arbeit die Anwendung vonWearable Technologien im Profisport untersucht. Die dabei zu klärende Frage ist, ob diese Technologien eine Leistungssteigerung mit sich bringen. Es wird aufgezeigt, dass es viele verschiedene Arten von Wearables gibt, die mit unterschiedlichen technischen Komponenten ausgestattet sind. Außerdem wird deutlich, wie die Technologien mit den dazugehörigen Applikationen zusammenarbeiten, um die sportliche Aktivität gezielt zu unterstützen. Im Anschluss wird der Begriff der Leistungssteigerung definiert. Darüber hinaus werden die zu verbessernden Körperfunktionen und Bewegungsabläufe erläutert. Diese lassen sich ebenfalls als motorische Fähigkeiten zusammenfassen und ihre Verbesserung erfolgt durch das Einhalten gegebener Trainingsprinzipien. Anschließend folgt ein Bewertungsschema. Durch die gezielte Vergabe von unterschiedlichen Gewichtungen, kann ein individueller Vergleich von Wearables durchgeführt werden. Dabei kristallisieren sich geeignete Technologien, für eine Vielzahl von unterschiedlichen Sportarten heraus. Zu letzt wird die praktische Anwendung von Wearables in professionellen Umgebungen präsentiert. Hierbei wird ersichtlich, dass der Fokus auf die Auswertung von physiologischen Paramatern gesetzt wird, da diese ein Indikator für Verletzungsanfälligkeit oder Leistungssteigerung sind.

 

 

 

Sicherheitsanalyse in der Medizin mit Hilfe von Penetration Testing

Bachelorarbeit, Oktober 2019

Durch die Digitalisierung und die steigende Anzahl von Cyber-Angriffen ist das Gesundheitswesen in Bezug auf die Sicherstellung der Informationssicherheit so gefordert wie noch nie. Deshalb ist das Ziel dieser Arbeit die Analyse des sinnhaften und ausreichenden Einsatzes von verschiedenen Herangehensweisen des Penetration Tests im Anwendungsgebiet der Medizin. Dabei sollen die verschiedenen eingesetzten Varianten untersucht und kritisch gewürdigt werden. Außerdem werden Besonderheiten der Penetration Tests in der Medizin analysiert. Für die Beantwortung der Forschungsfrage ist eine ausführliche und kritische Literaturrecherche betrieben worden. Die Arbeit ist zu dem Ergebnis gekommen, dass der Einsatz von Penetration Testing in der Medizin sinnvoll sein kann. Im Anwendungsgebiet der Medizin weisen Penetration Tests kaum Besonderheiten auf. Die tatsächliche Durchführung ist schwer festzustellen, da in diesem Zusammenhang nur wenige Statistiken zur Verfügung stehen. Diese Tatsache und die gefundenen Daten weisen auf einen nicht ausreichenden Einsatz in allen Anwendungsgebieten hin.

 

 

Methoden für die Qualitätsanalyse von EAST-ADL Systemarchitekturmodellen

Bachelorarbeit, September 2019

Das Ziel der vorliegenden Bachelorarbeit ist es, Möglichkeiten zur Qualitätsanalyse von EAST-ADL-Systemarchitekturen aufzuzeigen. Dazu stellt sich die Frage, ob und in welchem Umfang Metriken zur Qualitätsmessung von Softwarearchitekturen auch auf ebensolche Systemarchitekturen übertragbar sind. Um diese Frage zu beantworten wurde versucht, Konzepte und Metriken aus der Softwareentwicklung auf EAST-ADL-Systemarchitekturmodelle zu übertragen. Dabei stellte sich heraus, dass aufgrund der unterschiedlichen Konzepte in Software- und Automobilentwicklung viele der Metriken nicht oder nur mit Einschränkungen  übertragbar sind. Dennoch wurden erfolgreich einige der Maßzahlen entweder direkt oder mit geringen Anpassungen auf EAST-ADL transferiert. Daraus resultierend zeigt diese Arbeit auf, dass die Anwendung von bereits erprobten Metriken auf EAST-ADL-Systemarchitekturmodelle grundsätzlich möglich ist. Damit eröffnet sich auch mit der empirischen  Evaluation dieser Metriken in weiterführender Forschung die Möglichkeit, solche Modelle automatisiert auf gewisse Qualitätseigenschaften zu untersuchen.
 

 

Evaluierung von OpenHAB 2 anhand eines Medical Smart Home Use Cases zur Entwicklung von Bindings

Bachelorarbeit, September 2019

Das Ziel der vorliegenden Bachelorarbeit ist die Evaluation von OpenHAB2, eine Open Source Lösung von Smart Homes. Hierzu werden mehrere IoT Plattformen untersucht und diese bezüglich ihrer Struktur und Funktionalität miteinander verglichen. Mithilfe eines Medical Use Cases, bei dem ein Binding für Fitbit Geräte entwickelt wurde, kann der medizinische Mehrwert der Plattform bewertet werden. Hierbei stellt sich heraus, dass OpenHAB2 für die Entwicklung von medizinischen Smart Homes ungeeignet ist, da sich die Plattform noch in der Reifephase befindet und noch keine Erweiterungen für medizinische Sensoren und Geräte anbietet.

 

 

Identifikation und Analyse von Safety Aspekten in medizinischen IoT-Geräten

Masterarbeit, Juli 2019

Die Technologie des IoT spielt im Sektor der Medizin eine immer bedeutendere Rolle. Eine Vielzahl von Produkten die heute aus der Medizintechnik hervorgehen sind mit winzigen Sensoren ausgestattet und ermöglichen es, das sich Gegenstände mit anderen Gegenständen oder Systemen via Internet verbinden können. Dazu zählen u.a. auch Geräte wie Schrittmacher oder Insulinpumpen, welche direkt am Körper einer Person getragen werden. Personen mit bestimmten Krankheiten sind auf diese tragbaren medizinischen IoT-Geräte angewiesen, da diese entsprechende Maßnahmen einleiten, um den Betroffenen davor zu bewahren, in eine gesundheitskritische Situationen zu kommen. Doch die Abhängigkeit von Geräten wie diesen, birgt auch Gefahren, wenn das entsprechende Gerät in seiner Verfügbarkeit bzw. im Normalbetrieb eingeschränkt wird und so nicht die Unterstützung für den Betroffenen geleistet wird, die notwendig wäre. Im Zuge dessen identifiziert diese Arbeit zum einen Gefahren, welche den Betrieb von medizinischen IoT-Geräten hemmen oder gar zum Erliegen bringen können. Zum anderen stellt diese Arbeit eine Vorgehensweise vor, mit der anhand einer Sicherheitsanalyse mögliche Gefahren frühzeitig entdeckt und minimiert werden können. Zur Verdeutlichung dieser Vorgehensweise wird die Sicherheitsanalyse am Beispiel einer  Insulinpumpe durchgeführt. Dabei zeigt das Ergebnis dieser Analyse auf, dass mehrere Gefahren existieren, die nicht nur zur Beeinträchtigung von medizinischen IoT-Geräten führen können, sondern auch schwere Schäden bei Betroffenen hervorrufen.

 

 

Automatische Erstellung von IT-Architekturmodellen aus Kommunikationsdaten

Bachelorarbeit, April 2019

Das IT-Architekturmodell ist ein Werkzeug, um die Infrastruktur und die Beziehungen der einzelnen Systemkomponenten untereinander zu beschreiben. Es sorgt dafür, dass selbst große und komplexe IT-Landschaften handelbar werden. Das erreicht es unter anderem durch eine einheitlichen Beschreibung des Systems. An ihnen können beispielsweise Analysen durchführt und Visualisierungen aus verschieden Blickwinkeln erstellt werden. Eine Erweiterung dazu stellt das Unternehmensarchitektur Modell dar. Dieses betrachtet nicht nur die IT-Landschaften, sondern das komplette Unternehmen mit all seinen Produkten, Geschäftsprozessen und der IT.

Diese Arbeit liefert ein Konzept für die Modellerstellung einer Servicelandschaft aus Kommunikationdaten. Die Datengrundlage liefter das Application Performance Management Tool Instana. Das Konzept wird in Bezug auf das Werkzeug, zur modellgestützten Analyse, AutoAnalyze beschrieben. Basierend auf den erfassten Daten werden drei weitere Analysekonzepte für AutoAnalyze vorgeschlagen. Diese umfassen eine Schwächen-Analyse, eine Kapazitäten-Analyse und eine Analyse, die das Einführen eines neuen Prozesses in ein bestehendes Systems betrachtet.

Abschließend werden die Vorteile von Instana und AutoAnalyze betrachtet und miteinander verglichen, um ein klares Bild über die Einsatzgebiete der beiden zu erhalten.

 

 

Grundlagen der Blockchain-Technologie und ihre Anwendungen

Bachelorarbeit, März 2019

Das Ziel dieser Arbeit ist die Erklärung der Blockchain-Technologie, einschließlich der Funktionsweise dieser Datenstruktur anhand praktischer Beispiele. Da die speziellen Charakteristiken einer Blockchain auf mathematischen und kryptographischen Methoden beruhen, werden diese im Rahmen dieser Arbeit erläutert. Daraufhin werden die Funktionsweise, die Konsensfindung und mögliche Schwachstellen der Datenstruktur erklärt. Der zweite Teil der Arbeit beschreibt die Funktionsweise und Bedeutung der Blockchain anhand von zwei aktuellen praktischen Beispielen, Bitcoin und Ethereum. Mittels Bitcoin werden die Grundlagen einer klassischen Kryptowährung wie Transaktionen, Mining, Adressen und die verwendete Software erklärt. Neue Technologien wie Smart Contracts und die daraus resultierenden Möglichkeiten werden mittels der modernen Währung Ethereum erläutert.

 

 

Datenfluss-basierte abstrakte Testausführung in der Modell-basierten Softwareentwicklung

Masterarbeit, März 2019

 

 

Representative For A Linear Function Using The Example Of A Street Lane

Bachelorarbeit, März 2019

 

 

Autonomous Overtaking Systems: Design, Modelling and Analysis

Bachelorarbeit, Februar 2019

The future of mobility and transportation are autonomous driving systems. Improving driving safety is the key purpose of these systems. Since overtaking is one of the major causes of fatal accidents, there is need for the development of an overtaking driver assistant system that improves safety during the execution of this maneuver. In this thesis an autonomous overtaking system is designed, modelled and simulated using a set of powerful software tools (MATLAB/Simulink and CarMaker). The algorithm is developed based on equations of lateral deviation and longitudinal displacement of vehicle models in terms of time. Using these, the total maneuver time is calculated and then it is decided whether a collision-free execution of the maneuver with the oncoming or trailing-vehicle is possible. The modelled algorithm achieves collision-free overtaking maneuvers under specific conditions and it employs three overtaking strategies namely the accelerative (normal), the flying and the 2+, each according to the traffic conditions at the time of performing the maneuver.

 

 

Entwicklung eines Open Source Frameworks zur Nachverfolgung von Abläufen und Kosten für Serverless Computing Lösungen

Bachelorarbeit, Februar 2019

In dem neuen Konzept Serverless Computing übernimmt ein Cloud-Anbieter die volle Verantwortung über die Ausführung von Programmcode und ermöglicht eine Kostenabrechnung, die nur auf der tatsächlichen Ausführung einer Anwendung basiert. Im Mittelpunkt dieser Bachelorarbeit steht die Entwicklung eines anbieterunabhängigen Frameworks zur besseren Übersicht über Abläufe und Kosten bei Verwendung des Konzeptes Serverless Computing. Dazu wurden Aspekte herausgearbeitet, die für den Einblick in ein Serverless Computing System interessant sind und es wurden die mit Serverless Computing einhergehenden Einschränkungen analysiert. Aus diesen Erkenntnissen wurden verschiedene mögliche Datenquellen für das Framework abgeleitet und anhand eines Cloud-Anbieters verschiedene Architekturentwürfe eines Frameworks erstellt. Die unterschiedlichen Entwürfe zeigen, wie Informationen zu dem Framework transportiert und dort weiterverarbeitet werden können.

Eine Variante der Architekturentwürfe wurde mit einem beliebten Open Source Werkzeug implementiert. Dazu wurde zusätzlich ein Beispielfall entwickelt, der die Funktionalität des Frameworks validieren konnte. Das Ergebnis der Arbeit ist ein praktisch einsetzbares Framework, das Ausführungen und Kosten von Serverless Computing Anwendungen überwachen kann und weitere interessante Forschungsfragen aufzeigt.

 

 

Vergleich aktueller Implementierungen von Message Oriented Middlewares

Bachelorarbeit, Februar 2019

In der modernen Softwareentwicklung finden sich in großen Anwendungen häufig sogenannten Message Oriented Middlewares wieder. Hierbei handelt es sich um Systeme, die eine effiziente Kommunikation zwischen einer großen Anzahl von Prozessen ermöglichen, oft auch in verteilten Systemen oder heterogenen Netzen. In den letzten Jahren gab es vermehrt Weiterentwicklungen im Bereich der Message Oriented Middleware, da diese nicht zuletzt auch in Microservices vermehrte Verbreitung gefunden haben. Hierbei handelt es sich um Message Oriented Middlewares, die als eigene Anwendung unabhängig vom restlichen System betrieben werden. Es existieren viele Implementierungen, wobei sich diese untereinander stark unterscheiden können. Bei der Konzeption eines Systems, welches eine Message Oriented Middleware verwendet, verliert man daher schnell den Überblick über diese.

Aus diesem Grund wird diese Arbeit einen Überblick über bestehende Lösun- gen geben und diese auf konzeptioneller Ebene vergleichen. Einzelne Punkte, in denen sich diese unterscheiden, werden dabei begründet erarbeitet und zu einem Katalog zusammengefasst werden. Dies ermöglicht, die Erkenntnisse aus der Arbeit auch auf zukünftige Entwicklungen anzuwenden. Daraufhin wird ein Vergleich erstellt, um die aktuell führenden Implementierungen aufzeigen und ihre Unterschiede in den Punkten dieses Kataloges gegenüberzustellen. Letztendlich soll für ein Zielsystem des Betreuers (CHECK24 Versicherungsservice GmbH) eine geeignete Implementierung gewählt werden. Da die Umsetzung den Rahmen der Arbeit sprengen würde, wird sich hier auf eine Analyse der möglichst optimalen Lösungen beschränkt. Hierzu werden für dieses System spezifische Anforderungen identifiziert und versucht, mit dem im zweiten Teil der Arbeit vorgestellten Katalog eine Kategorie für dieses Zielsystem zu finden. Daraufhin kann eine Empfehlung einer Lösung ausgesprochen werden. Da eine konkrete Implementierung entfällt, werden theoretische Probleme der empfohlenen Implementierung erörtert und Lösungsvorschläge präsentiert werden.

Zusammenfassend wird zum einen ein Überblick über Implementierungen erstellt, der diese konkret vergleicht. Dabei werden einzelne Punkte des Vergleichs vorher erarbeitet und anschließend nach Relevanz eingeordnet. Letztendlich werden anhand eines Fallbeispiels die vorherigen Abschnitte validiert und ein Fazit gezogen.

 

 

Efficient Online Topology-Aware Network Slice Embedding for 5G Mobile Networks

Masterarbeit, Februar 2019

Network slicing is seen as a key enabler in order to meet the requirements that arise for the fifth generation of mobile networks (5G). This includes dealing with diverse new use cases like enhanced Mobile Broadband (eMBB), large sensor networks for the industry or the Internet of Things (IoT), autonomous driving, remote surgery etc. With network slicing, it is possible to integrate a variety of different applications and services on a shared physical infrastructure, whereby all requirements can be satisfied. New requests for embedding such network slices are arising unpredictably, as the requests come up just when new services are added to the network. Furthermore, they leave dynamically. Therefore, the necessity for finding an efficient, fast network slice embedding algorithm is given. Hence, this thesis introduces an online, heuristic algorithm that can solve the problem in few milliseconds. It is based on rankings that are computed by ranking algorithms for the substrate as well as for the slices. Four different ranking algorithms are proposed and evaluated, they can be differentiated by their usage of resources and/or topology as ranking measurements. All algorithms are evaluated on different substrate architectures (layer and cyclic) together with a variety of network slice types. Simulations show that depending on the slice type and the substrate architecture, different ranking algorithms perform best. For example, the algorithm based on Google’s PageRank algorithm achieves the best results for mobile broadband like slices on a cyclic substrate. Furthermore, the evaluation shows that in comparison to an optimal embedding strategy, all algorithms are in average about 1500 times faster.

 

 

Analyses of Internet of Things with Medical Devices

Bachelorarbeit, Januar 2019

Der Trend des Gesundheitswesens entwickelt sich immer weiter dahin, Patienten zu Hause zu versorgen. Dies geschieht mit einem Netzwerk, welches eine Erweiterung des Internet of Things (IoT) darstellt - das sog. Internet of Things with Medical Devices (IoTMD). Dadurch soll trotz einer erhöhten Pflegebedürftigkeit der Bevölkerung die Lebensqualität erhalten bleiben und der damit verbundenen rapiden Kostenerhöhung vorgebeugt werden. Die Heimbetreuung, welche mittels Sensoren umgesetzt wird, ist allerdings mit vielen Problemen v. a. im Bereich der Security und Safety verbunden. Um die Zweckmäßigkeit des praktischen Einsatzes zu analysieren und Schwächen und zeitliche Veränderungen zu erkennen, müssen eine Vielzahl von Metriken wie Latenz, Safety, Security, Kosten, Verfügbarkeit und Qualität bewertet werden. Dies geschieht über Analysemethoden wie z. B. der Prospective Hazard Analysis (PHA) oder der Root Cause Analysis (RCA), welche die Architektur immer weiter optimieren, indem Auslöser für negative Ereignisse ermittelt werden. Außerdem existieren zur Vereinfachung der Architekturabbildung Analysetools wie Custodian oder Node-RED. Deren Aufgaben ist es, Designer dabei zu unterstützen, die Metriken und die Architektur bereits in der Designphase zu bewerten und so den Effektiveinsatz geeignet zu optimieren.

2018

Erweiterung des Versionsverwaltungssystems Git um eine Invariantenprüfung

Bachelorarbeit, November 2018

 

 

Evaluierung von Simulations- und Modellierungswerkzeugen für Internet of Things

Bachelorarbeit, Oktober 2018

In der folgenden Bachelorarbeit werdenWerkzeuge zur Simulation und Modellierung eines IoT-Netzes untersucht. Die Tools sollen dabei auf ihre Nützlichkeit hinsichtlich der Erweiterung und Neuerstellung, sowie dem Testen eines bereits bestehenden Netzes untersucht werden. Dabei werden die Tools in drei Kategorien unterteilt. Die erste Kategorie widmet sich der Netzwerkmodellierung. Besprochen werden: NS-3, Packet Tracer, CupCarbon und NetSim. Die zweite Kategorie setzt sich mit der Gerätesimulation auseinander, besprochen werden Node-RED und Simulink, sowie die IoT Plattformen von Amazon und IBM, bei welchen zudem noch auf die Thematik von „Security by Design“ eingegangen wird. Im letzten Abschnitt wird auf die modellgetriebene Softwareentwicklung im Bereich der IoT eingegangen, wobei das Tool Papyrus vorgestellt wird.

 

 

Evaluierung von Safety- und Security-Aspekten eines IoT-MD-Systems zur Vermeidung gesundheitsgefährdender Angriffe

Bachelorarbeit, Oktober 2018

Das Internet der Dinge und die Anzahl ständig mit dem Internet verbundener Geräte erlebten in den letzten Jahren ein massives Wachstum, das inzwischen auch in den Gesundheitssektor vorgedrungen ist. Insbesondere in diesem Kontext spielt Sicherheit eine existenzielle, teilweise lebenswichtige Rolle. In dieser Bachelorarbeit werden Safety- und Security-Aspekte medizinischer IoT-Geräte (IoT-MD) und deren Auswirkungen bzw. Risiken für die Gesundheit ihrer Anwender untersucht. Zunächst soll ein Überblick über das „Internet of Things of Medical Devices“ gegeben werden, wobei ein besonderes Augenmerk auf IoT-Endgeräte gelegt werden soll. Anschließend werden mögliche Szenarien für Angriffe auf IoTMD-Systeme im Detail untersucht, sowie mehrere Taxonomien zur Klassifikation von Angriffen vorgestellt. Anschließend sollen die vorgestellten Angriffsszenarien in diese Klassifikationssysteme eingeordnet werden. Das Ziel dieser Evaluierung ist es hierbei, wiederkehrende Schwachstellen und Angriffspunkte, sowie die durch sie möglichen Auswirkungen aufzuzeigen. Darüber hinaus sollen kurz auch weitere Teilmengen von „Sicherheit“, namentlich Safety sowie Datenschutz-Aspekte, im Kontext von IoT-MD-Geräten kurz untersucht werden. Den Schluss dieser Arbeit bildet eine abschließende Einschätzung, welchen Einfluss Safety- und insbesondere Security-Probleme und die damit verbundenen Risiken auf die langfristige Perspektive von IoT-MD Systemen haben könnten.

 

 

Einfluss der Einbauumgebung von Radarsensorik auf die Sensorwahrnehmung für Fahrerassistenzsysteme

Bachelorarbeit, Oktober 2018

 

 

Coordination of Network Slice Objectives in Self-Organising Mobile Networks - A Formal Model and Architecture

Masterarbeit, September 2018

Self-Organising Networks (SON) highly reduce the manual effort required to configure and manage mobile networks. The network operator defines high level goals in form of Key Performance Indicator (KPI) targets, which are interpreted by a SON Management System controlling the SON functions of the underlying mobile network. With the fifth generation of mobile networks network slicing is introduced. Network slices are logical networks sharing a common mobile network infrastructure and providing diverse services for different use-cases and applications. The requirements of the network slices regarding the underlying mobile network infrastructure can widely vary and can even be conflicting. This thesis proposes a model for slice objective definition and coordination in order to determine the best trade-off for the SON configurations of the overall network. The slice objective coordination takes the cost of providing the required resources to fulfil the network performance objectives and the objective fulfilment for each network slice into account.

 

 

Serverless Architecture mit AWS

Bachelorarbeit, September 2018

Serverless Architecture ist ein recht neuer Trend des Cloud-Computing, in den derzeit von den etablierten Cloudanbietern stark investiert wird. Unter Serverless  werden einerseits der Einsatz sehr kurzlebiger, zustandsloser  Ausführungscontainer für Funktionen (vergleichbar mit den Methoden  prozeduraler Programmiersprachen) und andererseits ein massives Einbinden von Drittanbieter-Diensten verstanden. Grundsätzlich bietet Serverless Architecture einzigartige Vorteile, weist derzeit allerdings auch noch verschiedene Schwachstellen auf.
In dieser Arbeit wird dieses Konzept ausführlich vorgestellt und ein realtiätsnaher Use-Case – ein Chatprogramm – exemplarisch durch den Einsatz von
Amazon Web Services umgesetzt, wobei die Infrastrukturbereitstellung mit AWS
CloudFormation automatisiert und erleichtert wird. Anschließend wird untersucht, ob eine sinnvolle Umsetzung möglich war, sich Schwachstellen an den
verwendeten Plattformen gezeigt haben und wo die Grenzen der verwendeten
Automatisierungstechnik liegen.

 

 

Sensorfusion zur Fluglage- und Positionsbestimmung von UAV

Bachelorarbeit, September 2018

Das Forschungsziel dieser Arbeit unterteilt sich in mehrere Gebiete. Um eine Hinführung auf das eigentliche Thema der Sensorfusion zu erzielen, wird zu Beginn auf allgemeine Konzepte der Koordinatenbestimmung eingegangen. Die verschiedenen Darstellungen von Winkeln in unterschiedlichen Koordinatensystemen werden in diesem Punkt erläutert, da diese von Sensor zu Sensor variieren können. Weiterleitend dazu werden die grundlegenden Sensoren zur Positions- und Lagebestimmung bei UAVs analysiert. Dabei werden die allgemeinen Funktionsweisen, sowie auch deren Tendenz zu verschiedenen Arten von Fehlern untersucht. Um diese Fehlerquellen zu vermeiden, bzw. die verfälschten Daten zu verbessern, wird auf die Methode der Zustandsschätzung durch Filter eingegangen. Die Arbeit wird in diesem Bezug konkret die Auswertung der Einsetzbarkeit eines Kalman-Filters besprechen. Folglich wird auch dessen Funktionsweise analysiert.

Um eine genauere Schätzung zu erhalten, wird das Forschungsziel sich in einem größeren Teil auf die Nutzbarkeit des oben genannten Kalman-Filters im Bezug auf die Sensorfusion beziehen. Dabei wird darauf eingegangen, wie die einzelnen Messwerte zusammengeführt und die Fehlerquellen der Sensoren kompensiert werden können. Um den Rahmen der Arbeit einzuhalten, wird sich auf die Fusion des GPS und der inertialen Messeinheit beschränkt.

Nachdem die zugrunde liegende Theorie besprochen wurde, beschäftigt sich die Arbeit zusätzlich mit einer konkreten Implementierung eines Kalman-Filters im Rahmen des Avionic Software Engineering Labs der Universität Augsburg. Diesbezüglich wird die vorhandene Software für Simulation und Kontrolle benutzt. Um die Wirksamkeit des Filters zu überprüfen, wird ein Vergleich mit der aktuellen Software unter gleichen Störungssimulationen vollzogen. Zudem wird eine zunehmende Verfälschung der Daten getestet, um einen Sensor mit Fehlverhalten zu simulieren und die Reaktion des Filters darauf zu beobachten.

 

 

Abstract Execution of Graph-based Test Descriptions In Model-Driven Software Engineering

Masterarbeit, September 2018

Common Model Based Testing (MBT) approaches allow for automatically generated test cases at any stage of software development. However, automatic testing results can usually not be obtained until code artifacts are created and executed. Given the economical need to detect errors as quickly as possible, testing in early stages of model driven software development can be beneficial. In this thesis, a novel approach for abstract execution of test descriptions is presented and prototypically implemented in a framework. Instead of processing contained instructions, the abstract structure of model artifacts is brought to execution. By comparing model graphs of system and test, structural differences can be identified that indicate discrepancies between actual behavior and intended behavior of the System Under Test (SUT). These indicators can be processed and classified to give the tester feedback for early test set assessment and potential problems.

 

 

Implementierung einer automatisierten Flottensteuerung basierend auf einem Nachfragemodell

Masterarbeit, September 2018

 

Modellierung von Feature Trees für die Anwendung von Produktlinien in sicherheitskritischen Systemen

Bachelorarbeit, Juli 2018

Die Fahrzeugindustrie steht mit voranschreitendem technologischen Fortschritt vor wachsenden Herausforderungen hinsichtlich der Konfigurierbarkeit einzelner Fahrzeugmodelle. Kunden können ihr Fahrzeug bei der Bestellung aus einer Vielzahl von Funktionalitäten, bzw. Merkmalen (im Folgenden Features genannt) genau so modifizieren, wie sie es am liebsten haben. Viele dieser Features sind sicherheitsrelevant, viele jedoch nicht. Da die Fahrzeuge ausführlichen Sicherheitsanalysen unterzogen werden müssen, ist es wichtig, zwischen sicherheitsrelevanten Features und solchen, die dies nicht sind, unterscheiden zu können.

 

Im Zuge dieser Arbeit wurde mittels Eclipse-Sirius und EMF ein Tool entwickelt, mit dem Feature-Model-Diagramme modelliert werden können, die eine Hierarchie und Abhängigkeiten der einzelnen Features eines Fahrzeugs darstellen. Innerhalb dieser Diagramme besteht die Möglichkeit, die einzelnen Features als sicherheitsrelevant im Sinne von Safety, Security und Timing (SST) zu markieren. Die Datenstruktur der Feature-Model-Diagramme wurde mit einem bestehenden Tool zur Sicherheitsanalyse mittels eines SST-Diagramms verknüpft, um so einzelne Teilbäume hinsichtlich ihrer Sicherheit - im Fokus steht hierbei der SST-Teilaspekt Safety - auswerten zu können, in denen z.B. nichtsicherheitsrelevante
Features vernachlässigt werden.

 

 

Konzeption, Implementierung und Absicherung eines Kreuzungs-Assistenten im Kontext autonomer Fahrzeuge

Bachelorarbeit, April 2018

Das Ziel der Arbeit war die Entwicklung eines sicheren Kreuzungs-Assistenten mit der Motivation zukünftig die Anzahl der Verkehrsunfälle in diesem besonders fehleranfälligen Umfeld zu senken. Hierzu wurde ein Konzept entworfen, das beschreibt, wie mit der Hilfe von Umgebungsdaten und einem vorgegebenen Fahrwunsch über das Verhalten bei Anfahrt an eine Kreuzung entschieden werden kann. Die Überlegungen wurden anschließend verwendet, um den Kreuzungs-Assistenten als Modell in Matlab/Simulink zu implementieren. Dieses wurde anschließend in der Simulationsumgebung IPG Carmaker getestet. Die Ergebnisse zeigen, dass das System den Fahrer erfolgreich bei sämtlichen Gefahren warnt und dadurch die Sicherheit in Kreuzungen verbessert werden kann.

 

 

Lidar and camera sensor fusion and its implications for object detection, classification and segmentation in autonomous vehicles

Masterarbeit, Februar 2018

The development of reliable and safe autonomous vehicles is one of the most important and challenging research task in computer science and engineering. Most vehicles use a combination of different sensors to perceive their environment and act according to it. However, the fusion of those sensors and their gathered information is often complex and inefficient. This is especially true for two of the most utilized sensors, lidar and camera. Both are often processed independent of each other and don’t employ the possible insight provided by the other sensor. This is especially true in the field of 2D object detection and classification, where the state-of-the-art is dominated by the latest iterations of convolutional neural networks. Although new architectures that unify both sensors in their model architecture have recently emerged, the methods are often complex and hard to adapt towards innovations in image processing. This thesis therefore proposes the use of lidar sensor data as an image input channel. The concept encodes the depth information within the input data, making it independent from the subsequent image processing networks, while utilizing the additional depth information. Two different approaches are hereby proposed, implemented and evaluated. First, the combination of grayscale and depth images, generated by projecting lidar into the 2D image plane. Second, the addition of lidar as a overlay on top of regular RGB images.

 

 

Visuelle Datenflussprogrammierung für eingebettete Systeme

Masterarbeit, Februar 2018

 

 

Recommendation App Entwicklung mit Anbindung an Fitbit

Bachelorarbeit, Februar 2018

Fitness-Tracker und Smartwatches bieten einfache Möglichkeiten zur Körperdatenerfassung. Durch die Entwicklung einer App wurde überprüft, ob diese Körperdaten genutzt werden können um mit einer Fitbit Ionic medizinische Empfehlungen auszugeben. Andere Studien haben nachgewiesen, dass Vorhofflimmern mit hoher Genauigkeit anhand der Herzfrequenz erkannt werden kann. Die zweigeteilte Anwendung führt eine echtzeit Analyse der Pulsdaten durch um eine Frühdiagnose von Vorhofflimmern zu stellen. Dabei nutzt sie zwei statistische Methoden (die Root Mean Square of Successive Differences (RMSSD) und die Shannon Entropy) um Anzeichen von Vorhofflimmern zu registrieren. Daneben wird Stress in Abhängigkeit von Ruhepuls erkannt. Die aufgedeckten Limitierungen und Kritikpunkte an der entwickelten Anwendung zeigen, dass sich die Fitbit Ionic derzeit nicht für medizinische Benachrichtigungen eignet. Es wurden zwei Anwendung etwickelt, die Vorhofflimmern und Stress erkennen können, jedoch keine Echtzeit-Benachrichtigungen liefern.

 

 

Medizinische Sensorfusion mit Hilfe eines Smart Home Automation Tools

Bachelorarbeit, Februar 2018

Das Ziel der vorliegenden Bachelorarbeit war es, eine medizinische Sensorfusion mit Hilfe eines Smart Home Automatisation Tools durchzuführen. Zunächst wurde unter vielen Tools Home Assistant ausgesucht. Im nächsten Schritt ging es um die Anbindung medizinischer Geräte, die Sensorwerte für die Fusion zur Verfügung stellen sollten. Dafür wurde die Anbindung des Fitbit Charge 2 umgesetzt, das die Herzfrequenz für die Sensorfusion liefert. Der zweite für die Sensorfusion benötigteWert wurde simuliert. Schließlich konnte die Sensorfusion mit Hilfe von Home Assistant realisiert werden.

2017

Evaluation von Microservice-Architekturen: Definition von Metriken und Entwicklung eines Analysetools

Masterarbeit, Dezember 2017

Microservices bezeichnet eine Art, wie Softwareanwendungen als Einheit von unabhängigen und eigenständig lauffähigen Services strukturiert werden können. Microservices sind ein noch relativ neuer Trend, der immer populärer wird und häufig Verwendung findet. Vorteile sind die strikte Modularisierung, ein unabhängiges Deployment einzelner Microservices und die individuelle Skalierbarkeit und Flexibilität. Daneben sind die Heterogenität des Systems, die Offenheit bezüglich der Integration neuer Microservices und der Schnitt der Microservices sowie das Refactoring über Microservicegrenzen hinweg Herausforderungen. In dieser Arbeit wird das entwickelte Analysetool MAAT - Microservice Architecture Analysis Tool - vorgestellt, das zum einen eine Visualisierung des Microservice-Systems liefert und zum anderen bei der Analyse der Architektur und der Erkennung von Hotspots hilft. Die Daten dazu werden zur Laufzeit des Microservice-Systems erfasst, so dass jederzeit ein aktuelles Modell vorhanden ist und Probleme in der Architektur frühzeitig erkannt und behoben werden können. Um die Architektur eines Microservice-Systems zu evaluieren, werden Metriken entwickelt, die auf Prinzipien für ein gutes Architekturdesign von Microservice-Systemen basieren und diese messbar machen. Außerdem wird eine Fallstudie durchgeführt, in der das Analysetool in einem Projekt eingesetzt wird, um das Analysetool und insbesondere die Aussagekraft der Metriken auf die Architektur eines Microservice-Systems zu evaluieren.

 

Implementierung eines Systems zur automatisierten Behebung von Software/Systemstörungen unter Verwendung einer regelbasierten Entscheidungsmaschine und technische Interaktion mit den beteiligten Komponenten

Masterarbeit, Oktober 2017

 

Entwicklung eines plattformunabhängigen und mobilen Tourenmanagers

Bachelorarbeit, Oktober 2017

 

 

Transformation einer modellbasierten REST-Schnittstelle nach Angular

Bachelorarbeit, Oktober 2017

 

 

Funktionale Absicherung auf dem Weg zum autonomen Fahren am Beispiel eines Autobahnpiloten

Masterarbeit, September 2017

 

Kommunikationsprotokolle innerhalb Smart Homes

Bachelorarbeit, September 2017

Gegenstand der hier vorgelegten Bachelorarbeit sind die gängigen, unterschiedlichen Kommunikationsprotokolle, die im Bereich Smart Home und innerhalb medizinischer Geräte Verwendung finden. Ziel dieser Arbeit ist, zu untersuchen, ob medizinische Geräte in bestehende Smart Home Systeme integriert werden können, um ein Medical Smart Home im Wellbeing-Bereich zu generieren. Dazu wurden Kommunikationsprotokolle miteinander verglichen und ausgewählt. Zuletzt werden zwei Lösungsmöglichkeiten der Idee eines Medical Smart Homes erläutert.

 

Aufbau eines Big Data Szenarios und Vergleich von Amazon Web Services, Google Cloud Platform und Microsoft Azure

Masterarbeit, September 2017

 

 

Smart Home Erweiterung durch Internet of Things of Medical Devices

Bachelorarbeit, September 2017

In dieser Arbeit wird ein fundierter Überblick über Internet of Things geschaffen, der aktuelle Forschungsstand auf diesem Gebiet dargestellt und die Potenziale und Möglichkeiten einer Kombination von Smart Home und Internet of Things of Medical Devices, die konkrete Anwendungen von Internet of Things sind, mit dem Fokus aufWell-being aufgezeigt. Durch die Kombination können Verbraucher im eigenen Wohnkomplex kontinuierlich überwacht werden, sodass durch die Auswertung der gesammelten Informationen Empfehlungen und Warnungen im Hinblick auf eine gesunde Lebensweise ausgesprochen werden können. Dadurch kann Well-being unterstützt werden. Auf Basis einer ausführlichen und kritischen Literaturrecherche werden die Konzepte Internet of Things, Smart Home und Internet of Things of Medical Devices aufgearbeitet und vorgestellt. Im letzteren werden medizinische Geräte ausgewählt und näher beschrieben, die bei der Erweiterung des Smart Homes eingesetzt werden.

 

 

HIGHLY SCALABLE E-COMMERCE SYSTEM BASED ON MICROSERVICES AND EBS

Masterarbeit, Juli 2017

 

 

Formale Spezifikation von Analyseanforderungen im Enterprise Architecture Management

Masterarbeit, Juli 2017

EAM ist nicht Selbstzweck, sondern ein ganzheitliches Mittel, um die Geschäftsfähigkeit von Unternehmen zu verbessern. Das Enterprise Architecture Management beginnt daher zunächst damit, den aktuellen Zustand, also die Ist-Architektur, eines Unternehmens zu erfassen. Diese Architektur wird dann untersucht, um Schwachstellen zu identifizieren und aus den so gewonnenen Erkenntnissen eine Soll-Architektur zu definieren. Aus dieser leitet der Enterprise Architect dann eine Roadmap ab, anhand derer er das Unternehmen Schritt für Schritt zu seiner Soll-Architektur begleitet. Gerade das Untersuchen von Unternehmensarchitekturen ist jedoch eine sehr große Herausforderung: Unternehmensarchitekturen stellen die gesamten Bestandteile einer Firma dar und sind deshalb sehr komplex. Automatisiert ausführbare Analysen sind für einen Unternehmensarchitekten damit ein wertvolles Werkzeug, um Zusammenhänge und daraus resultierende Schwachstellen einer Firma zu erkennen und entsprechend handeln zu können.

Beispielsweise können über EA-Analysen die Auswirkungen einer Veränderung in der Architektur bestimmt oder Wahrscheinlichkeiten für den Ausfall bestimmter Systeme errechnet werden. Aus verschiedenen Gründen sind EA-Analysen derzeit jedoch nicht besonders weit verbreitet: Einerseits wurde in der Forschung noch nicht besonders viel dafür getan und andererseits stellen EA-Analysen oft komplexe Anforderungen an die zu analysierenden Modelle.

In dieser Arbeit möchten wir uns genauer mit diesem zweiten Aspekt beschäftigen. Wir werden uns verschiedenste Analyseansätze ansehen und dabei die Anforderungen herausarbeiten, die die Analysen an die jeweils analysierte Unternehmensarchitektur stellen. Basierend auf diesen Überlegungen werden wir einen Ansatz zum Beschreiben solcher Anforderungen entwickeln und abschließend ein Tool implementieren, welches eine Unternehmensarchitektur automatisch auf das Erfüllen so beschriebener Anforderungen prüfen kann.

 

 

Klassifikation von vitalen Sensoren - Transformation von Big Data am Fallbeispiel eines medizinischen Recommender Systems im Automotive Bereich

Masterarbeit, Juni 2017

In Deutschland sind in den letzten 5 Jahren im Schnitt 3.400 Personen pro Jahr bei Verkehrsunfällen gestorben [mon17]. Die häufigsten, natürlichen Todesursachen waren 2014 die Durchblutungsstörung des Herzmuskels, Herzschwäche und akuter Herzinfarkt [Sta17a]. Alle drei Ursachen können medizinisch überwacht werden. Die übliche medizinische Überwachung findet nach wie vor in Krankenhäuser, Pflegeheimen oder Reha Kliniken statt. In Fahrzeugen ist die medizinische Überwachung fast nicht vertreten, obwohl 57% der Deutschen ihr Fahrzeug fast täglich nutzen [pkw17]. Diese Arbeit widmet sich der stärkeren Integration medizinischer Überwachung im Automotive Bereich. Das Ziel der Masterarbeit ist es, ein medizinisches Recommender System zu erstellen, welches mittels vitaler Sensoren in der Lage ist, den oder die Insassen gesundheitlich zu überwachen und die gemessenen Werte an unterschiedlichen Anzeigegeräten darzustellen. Außerdem sollen Notrufe bei Unfällen oder kritischen Gesundheitszuständen automatisch versandt werden. Dazu wurden verschiedene medizinische Sensoren mit ihren gemessenen Biosignalen und Messorten am Körper kategorisiert und untersucht. Bei der Verwendung von Sensoren und Wearables lag der Fokus auf einer kabellosen Anbindung. Diese soll die Bewegungsfreiheit des Nutzers gewährleisten. Das System zeigt die Aktivitäten der einzelnen Bestandteile auf einem abstrakten Niveau und wurde auf Basis aktuell vorhandener Wearable Technologie und Sensorik erstellt. Abschließend wurden mögliche Erweiterungen und Verbesserungen für eine zukünftige Entwicklung, sowie Erkenntnisse zusammengetragen. iii

 

Towards Scalable Object Sharing for Robotics

Masterarbeit, April 2017

 

Analyse und Implementierung der Architekturstilkombination Model-Driven Development und Domain-Driven Development

Masterarbeit, April 2017

 

Entwicklung einer modularen Plattform zur Erfassung und Verarbeitung heterogener Sensordaten in Python

Masterarbeit, April 2017

Sensoren befinden sich überall. Moderne Fahrzeuge sind beispielsweise mit diversen sensorbasierten Assistenzsystemen ausgestattet und bilden die Grundlage autonomen Fahrens. Auch unsere Umwelt oder Haushaltsgeräte und sogar der Mensch werden mit dem IoT oder mithilfe sogenannter Wearables erfassbarer. Zahlreiche weitere Beispiele aus Forschung, Industrie, dem Finanzwesen aber auch dem Umweltschutz und Gesundheitswesen belegen ein wachsendes und berechtigtes Interesse an der Erfassung und Auswertung dieser allumfassenden Daten. Die bisherigen technischen Möglichkeiten sind weit entwickelt, aber gleichzeitig stark limitiert auf einen eingeschränkten Teilbereich. Angesichts der vielfältigen Verwendungszwecke scheint eine einheitliche Möglichkeit der bereichsübergreifenden Datenerfassung und Analyse von Sensoren und Datenquellen sinnvoll und wichtig.
Im Rahmen dieser Masterarbeit wurde das Software-Framework SDPP entwickelt, welches hochdynamisch Messwerte heterogener Sensorik erfassen kann und damit das Grundgerüst für beliebige sensorbasierte Anwendungen bildet. Für Entwickler und Wissenschaftler wurde eine neuartige Grundlage geschaffen, ohne technische Kenntnisse über die Interna benötigter Sensoren, auf historische und Echtzeitdaten beliebiger Quellen zuzugreifen und darauf umfassende Analysen durchzuführen. Durch die Umwandlung der Datenquelle in standardisierte Sensorstreams und die Verarbeitung mittels einer Pipeline wird zudem ein bestmöglicher Softwareentwicklungsprozess garantiert. Weiter wird die Datenverarbeitung durch die Bereitstellung relationaler Operatoren unterstützt.
Die Arbeit wird die Entwicklung des Frameworks begleiten und dabei relevante Aspekte und Implementierungsentscheidungen hervorheben. Mittels einer Fallstudie wird außerdem ein konkreter Anwendungsfall beleuchtet und somit die Funktion des Frameworks validiert.

 

 

Indoor Navigation mit Smartphone Sensorik

Masterarbeit, März 2017

 

 

Prävention von Vorhofflimmern durch Merkmalsextraktion mit Hilfe von Deep Learning

Masterarbeit, März 2017

Das Ziel dieser Masterarbeit ist die Entwicklung eines Versuchsaufbaus, mittels Deep Learning Technologien, zur Detektion von Vorhofflimmern. Dazu wurden EKGs der Website Physionet herangezogen, um auf deren Basis die Fähigkeit zu erlernen, Vorhofflimmern erkennen zu können. Zusätzlich bietet diese Arbeit einen Überblick über die Grundlagen des maschinellen Lernens, medizinische Basiskenntnisse des Herzens und eine Erläuterung der Herzkrankheit Vorhofflimmern. Mit dem entwickeltem Versuchsaufbau konnte eine Genauigkeit von 91 Prozent bezüglich der Vorhersagen erzielt werden. Das trainierte Modell wird im Rahmen dieser Arbeit zusammen mit einer Anwendung zur weiteren Verwendung bereitgestellt.

 

Legibility at a Glance – Concept, Design and Evaluation of a Mobile Platform for Conducting Behavioral Research

Masterarbeit, Februar 2017

 

Komplexe Suchfunktionen mit modernen Datenbanksystemen

Bachelorarbeit, Januar 2017

 

Generierung und Test sicherheitskritischer Systeme mittels des AADL Error Model Annex

Masterarbeit, Januar 2017

Mit der Architecture Analysis and Design Language (AADL) kann die Architektur von sicherheitskritischen Echtzeitsystemen vor der Entwicklung spezifiziert und analysiert werden. Durch die Analyse werden späte Nacharbeiten vermieden und so Risiken verringert und Kosten gespart. Eine Erweiterung der AADL ist der Error Model Annex. Dieser bietet zusätzlich die Möglichkeit, Fehlerereignisse und Fehlerzustände von Modellkomponenten sowie Fehlerpropagierungen zwischen den Komponenten zu beschreiben. In dieser Arbeit wird eine Methode vorgestellt, mit dem aus dem Error Model Annex sowohl ausführbarer Code als auch Unittests für die Java Real-Time-Spezifikation generiert werden können.

 

 

Erarbeitung einer Zertifizierungsgrundlage zur Sicherstellung der Informationssicherheit im Anlagennetz eines (mittelständischen) Maschinenbauunternehmens auf Basis von Industrie 4.0

Masterarbeit, Januar 2017

2016

On-Site-Deployment von Ruby-on-Rails-Anwendungen

Masterarbeit, Dezember 2016

 

Konzeptionierung und Realisierung eines Worklist-Handlers für Orchestra

Bachelorarbeit, Oktober 2016

 

 

Integration von Modellbasiertem Testen in das Vorgehen nach Scrum

Bachelorarbeit, Oktober 2016

Durch die heutigen Möglichkeiten in der Softwareentwicklung werden IT-Projekte immer umfangreicher und komplexer. Dabei darf allerdings die Qualität des Produktes nicht verloren gehen, auf was sowohl das Vorgehen nach Scrum, als auch Modellbasiertes Testen Wert legen.In der vorliegenden Bachelorarbeit wird untersucht, ob und in welcher Art und Weise die Technologie des Modellbasierten Testens in den Scrum-Prozess eingebracht werden kann. Dafür werden zunächst die Grundlagen beider Themen vorgestellt. Es stellt sich heraus, dass eine Herangehensweise aus herkömmlichen Entwicklungsprozessen wie dem V-Modell nicht herangezogen werden kann. Die Agilen Werte, der Aufbau des Scrum-Teams und die zyklische Vorgehensweise lassen sich allerdings auf eigene Art und Weise mit Modellbasiertem Testen vereinen. Einige Möglichkeiten werden vorgestellt, analysiert und eine dieser anhand eines Fallbeispiels genauer betrachtet.

 

Design and Implementation of a System for Password-less Authentication against a Third-Party Service using Mobile Devices

Masterarbeit, September 2016

 

Design und Implementierung eines plattformübergreifenden Test-Frameworks

Masterarbeit, Juli 2016

 

Behavioral Modeling of Real-Time Linux Scheduling

Masterarbeit, Juli 2016

 

A graphical editor for AADL with Sirius

Masterarbeit, März 2016

In this Thesis we are going to build a new graphical editor for The Architecture Analysis & Design Language (AADL) with Sirius.
AADL is available as EMF and Xtext projects that Sirius uses as resources to be able to map the grammar of the language to a graphical representation in form of an editor.

 

Self-Service Business Intelligence durch Software as a Service - Konzeption und Entwicklung

Masterarbeit, März 2016

 

Modeling and Analyzing Safety, Security and Real-Time Requirements of Embedded Systems

Masterarbeit, März 2016

Safety critical real-time embedded systems are subject to numerous safety requirements. Identifying and analyzing potential safety hazards usually necessitates recognizing potential security vulnerabilities as well as considering real-time constraints. In most instances these requirements will entail considerable changes in design, implementation and certification of the safety critical systems. However, the identified objectives are often partially con- flicting. Therefore, it is crucial to reveal and resolve these conflicts during the development process. This can be achieved with a combined safety, security and timing risk assessment, based on the Failure Mode and Effects Analysis (FMEA). This master thesis aims to facilitate informed decision making and tradeoff between conflicting requirements, while ensuring that safety, security and timing risks are as low as reasonably practical. We will provide a practically usable prototype of a graphical editor, implemented with Eclipse Sirius and the Eclipse Modeling Framework (EMF). The Eclipse plug-in will allow structuring and comparing objectives as well as trading off and tracing potential alternative solutions, by means of the Analytic Hierarchy Process (AHP). Additionally, a case study on the safety of deliver-by-drone will be presented. This case study as well as the subsequent evaluation will show that the prototype is sound and practically useful.

 

Industrie 4.0: Use Cases und Predictive Analystics Plattformen – Evaluierung und prototypische Realisierung

Masterarbeit, Januar 2016

 

Anwendung eines Data-Mining Prozessmodells zur Erkennung von Kilometerstandsmanipulationen

Masterarbeit, Januar 2016

2015

Auslesen und Interpretation von Mercedes-spezifischen Motorparameterwerten auf einer mobilen Plattform

Bachelorarbeit, Dezember 2015

 

Identifikation und Formalisierung von Methodenbausteinen für das Enterprise Architecture Management

Masterarbeit, November 2015

Um im Geschäftsleben der Zukunft bestehen zu können, ist es für die Verant- wortlichen von Nöten, vorausschauend zu agieren. Damit IT-Verantwortliche fundierte Entscheidungen treffen können, brauchen sie eine übergreifende Sicht auf die Systeme des Unternehmens in ihrem Zusammenspiel. Nur so ist ein strategisches Management der IT-Landschaft möglich. Das Fundament hierfür liefert das Enterprise Architecture Management. Neben der Schaffung von Transparenz in der IT-Landschaft und der Förderung des Business-IT-Alignments kann das Unternehmen mithilfe eines Enterprise Architecture Managements Dokumentationspflichten vereinfachen und Wertsteigerungspotenziale identifizieren. Das EAM liefert Methoden, um den tatsächlichen Ist-Zustand, den anvisierten Soll-Zustand sowie Migrationspläne der Unternehmensarchitektur zu beschreiben.

Es gibt bereits viele verschiedene Methoden aus Wissenschaft und Praxis, die Unterstützung bei der Ein- und Durchführung eines EAM bieten. Diese sind jedoch sehr komplex und können meist aufgrund von unternehmensspezifischen Besonderheiten nicht direkt übernommen werden. Auch ist es nur schwer möglich, diejenigen Bausteine aus den einzelnen Methoden anzuwenden, die für das Unternehmen passen, da sich die Methoden in ihrem Umfang und ihrer Beschreibung stark unterscheiden.

Aus diesem Grund soll mit dieser Arbeit ein erster Schritt zur besseren Vergleichbarkeit der Methoden gemacht werden. Hierfür werden bereits exisitierende Unternehmensarchitekturmethoden in der Literatur identifiziert und auf deren Basis die wichtigsten Bausteine einer Best practice-Methode herausgearbeitet, die anschließend in einem Metamodell formalisiert werden. Mithilfe diesem Metamodell werden alle identifizierten Methoden in einem Methodenkatalog beschrieben. Dieser soll bspw. den EAM-Einführungsprozess vereinfachen, indem es Anwendern ermöglicht, diejenigen Bausteine aus den unterschiedlichen Methodenansätzen zu wählen, die ihrer individuellen Situation am ehesten gerecht werden. 

 

Rapid Enterprise Application Development in the Cloud by the Example of Force.com

Masterarbeit, November 2015

 

Identifikation und Absicherung von Fahrzeugmanipulationen

Masterarbeit, November 2015

 

Transformation from a Product House to a SaaS Provider from the Viewpoint of Enterprise Architecture Management by the Case Example MID GmbH

Masterarbeit, November 2015

Software-as-a-Service (SaaS) has emerged as a new, more accessible and flexible solution of how to provide software to customers. In order to compete successfully within their domain software providers have to take part in transformation processes not only for aligning their business to new developments but also in order to lead by establishing these. A transformation within an enterprise can be guided by Enterprise Architecture Management techniques. By providing a model description of the current and the target Enterprise Architecture transformation steps can be derived while it is always transparent which enterprise components will be affected. In this thesis an Enterprise Architecture for a Software as a Service provider will be presented which shows the business and operation requirements for the service product delivery. The methodology describes how to acquire the present and the targeted architecture in the right scope and how to elaborate transformation options towards the target. A case study at modeling software enterprise MID GmbH is conducted applying the presented method. Its Baseline Architecture and Target Architecture are modeled with regard to the presented SaaS Provider Architecture. This information is applied to derive gaps and critical transformation aspects. Recommendations for the enterprise’s development conclude the case study. 

 

Generate RTSJ out of AADL Software Description

Masterarbeit, November 2015

The complexity of embedded systems has increased rapidly over the last years. If this trend is compared with other software systemy, such as desktop applications or operating systems, one recognizes that they underwent a similar change five to ten years ago. This thesis deals with the adoption of existing solutions in the aforementioned areas to the embedded area. In particular, it deals with the application of MDSD and high-level languages to control complexity better. The chosen modelling language is AADL and Java in combination with RTSJ as the high-level language. Therefore, a mapping from AADL to RTSJ and the consequential generation is presented. This allows the design of embedded systems with AADL to generate efficient Java code which corresponds to the designed model.

 

Konzeption und Entwicklung eines ReqIF-Editors und Vergleich mit herkömmlichen Spezifikationsmechanismen für Anforderungen

Bachelorarbeit, Oktober 2015

 

E/E-Landkarten - Quantifizierung von Software- und Hardwarearchitektur im Automotive-Umfeld zwecks Visualisierung

Masterarbeit, Oktober 2015

 

Anforderungen an und Definition von einer Analysensprache für das Enterprise Architecture Management

Masterarbeit, Oktober 2015

Das Enterprise Architecture Management (EAM) ist eine seit 20 Jahren wachsende Disziplin zur Unternehmensgestaltung. Um eine ideale Architektur der Informationssysteme und -flüsse entwerfen zu können, müssen die Soll- und Ist- Situation analysiert werden. Mit Hilfe von EAM Analysen kann der Fokus auf verschiedene Aspekte gelegt werden. Die verschiedenen Ziele einer solchen Analyse benötigen dementsprechend verschiedene Ansätze. Um das jeweilige Ergebnis erzielen zu können, unterliegt jeder Analysetyp verschiedenen Anforderungen. Jedoch existiert aktuell kein generischer Analyse-Ansatz, der alle Typen und somit alle Ziele beinhaltet. Diese Arbeit bietet zu Beginn eine grundlegende Übersicht über Enterprise Architecture Management und seine Analysen. Hierdurch wird ein gemeinsames Verständnis für EAM und den Zweck von Analysen geschaffen. Anschließend wird geklärt, was für verschiedene Analyse-Kategorien existieren, welche Anforderungen die verschiedenen Analyse-Kategorien an eine Analyse-Sprache stellen und wie eine mögliche Spezifikation einer solchen Sprache aussehen könnte. Diese Arbeit identifiziert daher alle benötigten Anforderungen der unterschiedlichen Analyse-Kategorien. Hierfür werden zuerst verschiedene Analyse-Kategorien anhand der Ziele, Konstrukte und Ergebnis-Arten in fachlicher sowie technischer Richtung ermittelt. Anschließend werden mit Hilfe einer ausführlichen Literaturrecherche und einer Analyse der Ansätze notwendige Anforderungen herausgearbeitet. Diese werden auf Korrektheit und Notwendigkeit geprüft bevor die abschließende Zuordnung erfolgt. Abschließend wird für den ersten Teil eine Matrix erstellt, die alle umsetzbaren Kategorie-Kombinationen zeigt und die Grundlage für die weiteren Ergebnisse bildet. Im zweiten Teil dieser Arbeit wird, basierend auf den Ergebnissen der Anforderungs-Analyse, eine Metasprache entworfen, die alle ermittelten Kategorien und ihre benötigten Anforderungen enthält. Diese wird innerhalb eines 3-Phasen-Systems entworfen. Nach der Festlegung der Analyse-Kategorie und des erwünschten Ziels wird ein Metamodell entworfen, das auf einem abstrakten und konkreten Syntax basiert. Dieser Aufbau wird in mehreren Iterationen überprüft. Eine abschließende Evaluation beinhaltet die Durchführung und Überprüfung der Sprache. Abschließend werden die Grenzen und Vorteile der Sprache aufgezeigt und ihre Integration mit Tools beschrieben.

 

Real-Time Knowledge in NoSQL Databases: Identifying Key Performance Drivers on Heterogeneous Private Wealth Allocations Stored in a MongoDB

Masterarbeit, Oktober 2015

 

Integration softwarebasierter Automatisierungsmethoden in eine Test-ECU

Masterarbeit, September 2015

Die Zunahme an komplexen Softwarefunktionen in Fahrzeugen ist einem hohen Qualitätsanspruch der Automobilhersteller gegenübergestellt. Um in Verbindung mit dem Zeit- und Kostendruck der Industrie diesem Anspruch auch in Zukunft zu genügen, wird derzeit in neuen Methoden der Testautomatisierung geforscht. Bisherige Methoden verifizieren eine Aktions-/Reaktionskette im verteilten System. An manchen zu testenden Komponenten scheitert dabei eine volle Automatisierung an einer manuell zu initiierenden Aktion. Eine Lösung für dieses Problem ist die Entwicklung einer Sensorwertsimulation. In einer vorhergehenden Arbeit wurde ein Software-Prototyp auf der Basis von AUTOSAR entwickelt, der eine hardwarenahe Simulation von Kundeneingaben ermöglicht. In dieser Arbeit wurde er neuen Anforderungen gegenübergestellt und für den Praxiseinsatz weiterentwickelt. Die entstandene Softwarelösung lässt sich mit Hilfe eines SIM-Master/Agents-Konzepts in ein verteiltes System integrieren und ermöglicht die getaktete Simulation von Sensorwerten in Steuergeräten. Dabei werden die zu simulierenden Hardwaresequenzen vom SIM-Master aufbereitet und anschließend an teilnehmende SIM-Agents gesendet. Da alle Testdaten vor Beginn der Simulation vollständig übertragen werden, wird die laufende Simulation nicht durch weitere Simulationsdaten beeinflusst. Bei der Weiterentwicklung wurde auf eine generische Lösung geachtet, die mit der Simulation von digitalen Eingaben geprüft wurde. Eine Validierung liefert den Nachweis, dass die simulierten Kundeneingaben, in Abhängigkeit der Zeit, reproduzierbar sind. Ferner wird diskutiert wie diese Technik zum Standard werden kann.

 

Gemeinsame Durchführung von automatisierten End-to-End Tests bei Web- und Mobile-Anwendungen: Analyse und Entwurf einer domänenspezifischen Sprache

Masterarbeit, September 2015

Qualitätssicherung ist ein fester Bestandteil der Softwareentwicklung. Eine bekannte Disziplin der Qualitätssicherung ist der Softwaretest. Zwischen 30-50% der Gesamtkosten eines Softwareprojekts sind dem Testen zuzuschreiben. Eine Möglichkeit, um Kosten einzusparen ist die Testautomatisierung. Bis auf wenige kommerzielle Tools sind Frameworks zur Automatisierung der Testdurchführung oftmals auf eine Anwendungstechnologie beschränkt. Ist eine Anwendung alsWeb- und als Mobile-Version implementiert, so müssen im Zuge der Testautomatisierung zwei Testskripte geschrieben werden, obwohl die gleichen Funktionalitäten getestet werden. An dieser Stelle setzt die Problemstellung der Masterarbeit an. Das Ziel dieser Arbeit stellt eine domänenspezifische Sprache zur gemeinsamen, automatisierten Durchführung von End-to-End-Tests bei Web- und Mobile-Anwendungen dar. Anhand einer konkreten Beispiel-Anwendung wird zunächst eine Domänenanalyse für getrennte, automatisierte End-to-End-Tests bei Web- und Mobile-Anwendungen durchgeführt. Das Ergebnis sind Gemeinsamkeiten und Unterschiede der beiden Problemdomänen. Mit Hilfe der Vergleichsergebnisse wird ein Modell entworfen, auf dem die DSL basiert. Darauf aufbauend werden eine fachlich und eine technisch orientierte konkrete Syntax und eine Methode zur Codegenerierung entworfen. Eine Evaluierung wird anhand einer prototypischen Implementierung als interne DSL vorgenommen.

 

Entwicklung einer Methode für die Migration von Stammdaten in ERP Systemen

Masterarbeit, August 2015

Die Migration von Daten und v.a. Stammdaten ist eine komplexe Aufgabe, bei der verschiedene Aspekte berücksichtigt werden müssen. Durch groß angelegte Projekte wie einem globalen Einführungsprojekt wird die Komplexität verstärkt. Da bisher in Wissenschaft und Praxis diese konkrete Fragestellung nicht ausreichend berücksichtigt wurde, will diese Arbeit einen Ansatzpunkt anhand einer eigens entwickelten Methode hierfür thematisieren. Mit Hilfe des Design Science wird eine situative Methode mit konstruktionsbasiertem Ansatz aus dem Methoden-Engineering erarbeitet. Abschließend folgt in Zusammenarbeit mit einem globalen Unternehmen die Evaluation der erarbeiteten Methode am Beispiel einer Stammdatenmigration in SAP ERP-Systeme und es werden hierbei verschiedene, der Praxis dienliche Dokumente ausgewiesen. 

 

Driver Behavior Modeling Using Hidden Markov Models

Masterarbeit, August 2015

 

Evaluation and implementation of cryptographic operations in web applications

Bachelorarbeit, August 2015

 

Best-practices im Unternehmensarchitekturmanagement

Masterarbeit, Juli 2015

Die Dokumentation von Erfahrungen, die während der Projektarbeit erarbeitet wurden, sowie die Ausarbeitung von Vorgehensweisen und Komponenten, die sich in der Vergangenheit bereits bewährt haben, stellt folglich einen wesentlichen Beitrag dar, bestehende Ressourcen für zukünftige Entwicklungen effizient einzusetzen. Die geforderte Dokumentation von profitablen Erfahrungswerten für zukünftige Projekte, kann in Form von Mustern erreicht werden. Um eine konsistente Sammlung von Mustern zu erreichen, ist es notwendig diese in einem formalisierten Schema zu erfassen. Somit kann dieser Erfahrungsschatz auch unerfahrenen Nutzern und Mitarbeitern, die neu integriert werden sollen, zugänglich gemacht werden. Die Anwendung dieser Muster in Folgeprojekten, erhöht in der Regel die Aussicht auf einen erfolgreichen und effektiven Abschluss. Im Bereich der Softwarearchitekturen finden Muster seit geraumer Zeit eine große Verbreitung und werden vielfach eingesetzt, um Architekten und Entwickler beim Entwurf und der Realisierung effizienter Softwarearchitekturen zu unterstützen. Im Bereich EAM befinden sich Muster noch am Anfang ihrer Entwicklung. Folglich fehlt es zum momentanen Zeitpunkt noch an einer anerkannten und verbreiteten Definition, was unter dem Begriff EAM Muster zu verstehen ist, welche Bestandteile ihre Dokumentation umfassen soll und wie Muster miteinander in Verbindung gesetzt werden, um als Referenz zur Verfügung zu stehen. Diese Aspekte umfassen insbesondere den Umstand, dass für EAM Muster noch keinerlei Standardsammlung existiert und deren Interpretation somit auch in der Literatur stark variiert. Die Arbeit beschäftigt sich daher mit der Anwendung von Mustern speziell im Kontext des EAM und stellt dazu folgende Themenbereiche in den Vordergrund:

  • Definition des Begriffs Muster im EAM und Abgrenzung zu anderen Bereichen.
  • Vorstellung von State-of-the-Art Mustersammlungen.
  • Evaluation der Mustersammlungen.
  • Vorschläge zur konsistenten Dokumentation von Mustern im EAM.

 

Analyse und Bewertung von Frameworks zur Integration von mobilen Anwendungen im Fahrzeug anhand einer Android-basierten Implementierung

Masterarbeit, Juli 2015

 

Konzeption und prototypische Implementierung einer Smartphone App für das Sportportal Sportheon unter dem Aspekt der Performanceoptimierung

Masterarbeit, Juni 2015

 

Konzeption eines kontextsensitiven Systems zur Unterstützung mobiler Geschäftsprozesse

Masterarbeit, April 2015

Die vorliegende Arbeit befasst sich mit der Konzeption eines kontextsensitiven Systems zur Unterstützung mobiler Geschäftsprozesse. Hinsichtlich dieses Zieles erfolgt eine vertiefte Betrachtung und Darstellung der Kernelemente und Kernaufgaben kontextsensitiver Systeme, welche für die Konzeption eines kontextsensitiven Systems benötigt werden. Zudem werden Konzepte bestehender Systeme in der derzeitigen Forschung betrachtet. Anschließend werden Möglichkeiten und Anwendungsfälle zur Unterstützung mobiler Geschäftsprozesse durch kontextsensitive Systeme dargestellt sowie Probleme betrachtet und bestehende Lösungen analysiert. Basierend auf den erarbeiteten Ergebnissen wird ein kontextsensitives System zur Unterstützung mobiler Geschäftsprozesse durch kontextsensitive, mobile Applikationen auf Basis von kontextsensitiven Diensten konzipiert. Es folgt die Erörterung der prototypische Realisierung von essentiellen Teilen des Systems. Abschließend wird das konzipierte System evaluiert und Unterschiede zu bestehenden Lösungen aufgezeigt. Das konzipierte System zeichnet sich hierbei durch eine hohe Adaptionsfähigkeit, Flexibilität, Wiederverwendbarkeit und Skalierbarkeit aus. Zudem hat das konzipierte Systeme den nötigen Einfluss auf die essentiellen Kernelemente einer mobilen, kontextsensitiven Applikationen (wie Applikationsdienste, Applikationsdaten und Applikationspräsentation) und ermöglicht die Integration und Interoperabilität dafür benötigter Komponenten und Systeme, um mobile Geschäftsprozesse durch kontextsensitive, mobile Applikationen zu unterstützen.

 

 

Techniken für die Navigation mit RGB Kameras

Masterarbeit, April 2015

 

Automatische Annotation von Bilddaten mit ALTO Metadaten

Bachelorarbeit, April 2015

Bachelorarbeit, April 2015 Da die Digitalisierung von Dokumenten nach wie vor an Interesse gewinnt, rückt Software zur automatischen Erkennung von Text, sog. OCR-Software, immer mehr in den Vordergrund. Da viele Programme allerdings keinerlei Rücksicht auf den Aufbau eines Dokuments nehmen, sind zusätzliche Verfahren nötig, um den Inhalt eines Dokumentes seinem Layout entsprechen analysieren zu lassen. In dieser Arbeit wird ein Verfahren zur Analyse eines Dokumentes, das in Form eines Bildes vorliegt, entwickelt, welches Informationen über das Layout in dem Analyzed Layout and Text Object - Format ablegt. Dabei wird das Bild in ein neigungsfreies Binärbild umgewandelt, daraufhin dessen Pixel zur Unterscheidung von Text, Grafik und Strukturelementen klassifiziert und final zusammengehörige Regionen bestimmt, die das Layout beschreiben.

 

Formulierung von Zielen im Rahmen von Unternehmensarchitekturen

Masterarbeit, März 2015

Unternehmensarchitekturen (EA) gelten heute für viele Unternehmen als notwendiges Mittel, um die Geschäftsziele zu erreichen. Das Management der Unternehmensarchitektur (EAM) soll das Zusammenspiel der IT und der Geschäftsprozesse steuern. Gleichzeitig erhoffen sich alle Beteiligten ebenfalls einen Nutzen aus der Unternehmensarchitektur. Die Ziele dieser Stakeholder sollen deshalb transparent in der Unternehmensarchitektur abgebildet werden. Hierfür stehen lediglich Ansätze zur Verfügung, die jedoch nicht ausreichend sind. In dieser Arbeit werden auf Grundlage der Literatur notwendige Eigenschaften von Zielen und Kennzahlen ermittelt. Diese Attribute werden verwendet, um ein umfassendes Metamodell zu erstellen. Dieses Metamodell dient der Modellierung von persönlichen Zielen und Organisationszielen im Kontext einer Organisation, die über eine Unternehmensarchitektur verfügt.

 

Entwicklung eines integrierten Managementsystems zur Steigerung der Workflow-Effizienz

Bachelorarbeit, März 2015

In der Firma besteht ein enormer Verwaltungsaufwand in den Bereichen Provisionsabrechnung, Controlling und Rechnungswesen. Das Ziel dieser Bachelorarbeit ist die systematische und fundierte Durchführung von Requirements Engineering und die Erstellung einer Anforderungsspezifikation für eine Courtage-Verwaltungssoftware, die den Courtage-Verwaltungs- und Abrechnungsprozess teilautomatisiert sowie den Kosten- und Zeitaufwand erheblich senkt. Dafür wird zunächst die theoretische Grundlage geschaffen: Wichtige Begriffe werden definiert und die Entwicklung hin zum modernen Requirements Engineering beleuchtet. Anschließend werden typische Herausforderungen eines RE-Prozesses dargelegt und Herangehensweisen zum Ermitteln, Dokumentieren und Prüfen von Anforderungen vorgestellt. In der Folge wird die praktische Anwendung dieser theoretischen Grundlagen im Praxisprojekt in der Firma beschrieben. Dabei werden zunächst der Ist-Zustand und das Projektziel erläutert. Nach einer Zusammenfassung der aufgetretenen Herausforderungen wird das Vorgehen vor Ort beschrieben. Dies beinhaltet eine Analyse der Stakeholder, der Systemumgebung und der Prozesse sowie die eigentliche Erstellung der Anforderungsspezifikation. Die erreichten Vorteile für die Firma durch die zukünftige Software sind eine Teilautomatisierung und enorme Vereinfachung des relevanten Prozesses und die Verbesserung der Qualität und Flexibilität von Statistiken und den Auswertungen auf Basis der zu erfassenden Daten.

 

Evaluation and implementation of remote changes to features of installed software at runtime

Bachelorarbeit, März 2015

 

Sicherheitskonzept für Vollautomatisiertes Fahren

Bachelorarbeit, März 2015

 

Modellbasierter Test von Automotive Software

Masterarbeit, Februar 2015

In dieser Arbeit wird ein modellbasierter Test für Automotive Software entworfen. Ziel ist es zunächst eine Testmethodik zu gestalten, in der die Testerstellung auf leicht verständlichen und wiederverwendbaren Modellen beruht. Anschließend erfolgt eine prototypische Umsetzung zu einem Testmodellierungs-Framework. Im Fokus steht hier eine hohe Automatisierung des Testablaufes, von der Testfallerzeugung bis zur konkreten Testausführung. Dies wird unter anderem durch die Unterstützung des AUTOSAR Softwarestandards realisiert.

 

A Cloud-Based Data Management Platform for Impact Analysis

Masterarbeit, Februar 2015

 

Aggregation und Integration von Modelldaten in Unternehmensarchitekturen

Masterarbeit, Januar 2015

Unternehmensarchitekturen werden aufgrund steigender Verzahnung von Geschäft und IT und immer komplexer werdender Strukturen zu einer Notwendigkeit innerhalb einer Organisation. Obwohl eine Vielzahl von Frameworks diesbezüglich existiert, wird die Umsetzung bzw. Modellierung meist vernachlässigt und sich rein auf den Inhalt beschränkt. Oft verfügen Organisationen bereits über dokumentierte Prozesse oder Strukturen von Soft- und Hardware, die jedoch nicht integriert betrachtet werden können. Die Erkennung von Zusammenhängen ist somit nicht möglich. Außerdem verfügen diese Modelle meist über eine zu feine Detaillierung, sodass sie für eine Verwendung innerhalb einer Unternehmensarchitektur nicht geeignet sind. Von großem Vorteile wäre es jedoch, diese Modelle bzw. Elemente der Modelle in eine Unternehmensarchitektur integrieren zu können. Im Rahmen dieser Arbeit wird sich mit den Notationen BPMN, SoaML und UML beschäftigt und ihre Fähigkeit zur Darstellung und Integration in eine Unternehmensarchitektur untersucht. Die Notationen stehen für jeweils eine Teilarchitektur einer Unternehmensarchitektur (BPMN - Geschäftsarchitektur, SoaML - Anwendungsarchitektur, UML - Technologiearchitektur). Der Fokus richtet sich dabei zunächst auf den Detaillierungsgrad der Notationen. Stellt sich Detaillierung als zu hoch heraus werden Abstraktionsmöglichkeiten vorgestellt, um einen für eine Unternehmensarchitektur sinnvollen Abstraktionsgrad zu erreichen. Im Anschluss daran werden die wenn nötig abstrahierten Modelle anhand eines Fallbeispiels in die Unternehmensarchitektur nach ArchiMate integriert. Fokussiert wird dabei die Zuordnung der Elemente der Notationen zu denen des ArchiMate-Metamodells. Ergebnis der Arbeit ist eine Unternehmensarchitektur, die durch die Verwendung der (abstrahierten) Notationen und der anschließenden Integration dieser in das ArchiMate-Modell erstellt worden ist.

 

Potenziale und Möglichkeiten des Enterprise Architecture Managements bei der Softwaremessung im Kontext des Managements von IT Projekten

Masterarbeit, Januar 2015

Ergebnis der Masterthesis soll sein, einen Überblick zur Softwaremessung in Bezug auf das Management von IT-Projekten zu schaffen. Weiter werden die Potentiale des Enterprise Architecture Managements bei der Bewertung und Steuerung des IT-Projektportfolios innerhalb der Unternehmensstrategie erarbeitet und die Möglichkeiten zum Einsatz in einzelnen IT-Projekten erläutert. Hierbei wird beschrieben, wie sich das Enterprise Architecture Management in die jeweilige Entwicklungsmethode eines IT-Projektes einfügt und wie dadurch eine Verbesserung der Projektsteuerung erfolgt. Abschließend mit einer objektiven Bewertung der erzielten Erkenntnisse kann diese Arbeit als Grundlage für weitere Forschungen auf dem Gebiet des Enterprise Architecture Managements verwendet werden.

2014

Evaluation of model switching strategies for multi-resolution agent-based traffic simulation

Masterarbeit, November 2014

 

Automatisiertes Schnittstellenmanagement basierend auf projektspezifischen Anforderungen, optimiert durch projektübergreifende Informationen aus dem EAM unter Berücksichtigung von festen und variablen Projektzielgrößen

Masterarbeit, November 2014

 

Unternehmensarchitekturmanagement in einem mittelständischen Unternehmen: Herausforderungen und Lösungswege

Masterarbeit, November 2014

Durch die engere Verzahnung von Business und IT und die damit einhergehende wachsende Komplexität der Anwendungslandschaften wird es für Unternehmen immer wichtiger, ihre Unternehmensarchitektur zu dokumentieren und ein Mana- gement dieser zu betreiben. Das sogenannte Unternehmensarchitekturmanagement bzw. Enterprise Architecture Management (EAM) beschäftigt sich mit dieser Aufgabenstellung. Bislang findet das EAM vor allem in großen Unternehmen Anwendung, da aufgrund der Größe dieser Unternehmen die Komplexität viel höher ist. So sind die bekannten Methoden ebenfalls eher für große Unternehmen ausgelegt. Dennoch könnten aber auch mittelständische Unternehmen von den Zielen und dem Vorgehen des EAM profitieren, wenn es angepasst und im richtigen Umfang eingesetzt wird. In dieser Arbeit soll untersucht werden, ob und wie sich das EAM auch für mittelständische Unternehmen eignet. Hierfür werden zunächst die Grundlagen des EAMs erklärt. Im Anschluss wird in einem Beispielunternehmen eine dem EAM entsprechende IST-Analyse durchgeführt. Dabei werden die dabei auftretenden Herausforderungen geschildert und mögliche Lösungswege aufgezeigt. Neben diesem Eignungstest werden auch grundsätzliche Fragestellungen und Probleme des EAM diskutiert werden. So werden im dritten Teil der Arbeit Möglichkeiten erörtert, wie sich Unternehmens- und Architekturziele formalisieren und im Kontext des mittelständischen Unternehmens in das EAM integrieren lassen. Dabei werden verschiedene Methoden miteinander verglichen.

 

Entwicklung eines Kick-Start-Frameworks für Rails-Anwendungen

Masterarbeit, Oktober 2014

 

Software-Basierte Kundenfunktionseingabe für die Automatisierung

Masterarbeit, September 2014

Der in der Automobilindustrie seit einigen Jahren anhaltende Trend, dem Kunden ein überwältigendes Portfolio bereit zu stellen, bringt enorme Herausforderungen an den Entwicklungszyklus und dessen Methoden mit sich. Neben anderen Bereichen wird auch in der Softwareentwicklung verstärkt auf die Automatisierung von Prozessschritten gesetzt.
Im Rahmen dieser Arbeit wird daher die softwarebasierte Kundenfunktionseingabe am Gesamtsystem untersucht. Hierdurch können zeitintensive Schritte in der Absicherung automatisiert und dadurch deutlich verkürzt werden. Vor dem Hintergrund eines modellgetriebenen Testprozesses wird daher basierend auf der Embedded Architectures and Software Technologies - Architecture Description Language (EAST-ADL) ein angepasstes Metamodell entwickelt, worin alle relevanten Aspekte eines Systems dargestellt werden können. Ausgehend von der konkreten Modellierung eines exemplarischen Systems wird daher die toolgestützte Ermittlung von Testszenarien (Wirkketten) untersucht und die Grenzen der Toolunterstützung aufgezeigt.
Auf Basis der theoretischen Untersuchungen wird im Umfeld des Zentralsteuergerätes eine prototypische Umsetzung der Kundensimulationssoftware vorgenommen. Von besonderer Bedeutung ist dabei die Konzeption für das verteilte System, als auch eine ressourcensparende und an die bestehende Architektur adaptierte Umsetzung. Des weiteren werden die gewonnenen Ergebnisse am Gesamtsystem plausibilisiert und gegen die bestehende Implementierung getestet. Abschließend werden Ansätze zukünftiger Ausbaustufen aufgezeigt und die gewonnenen Erkenntnisse resümiert.

 

Automatisierte Analyse technischer Dokumentation

Diplomarbeit, September 2014

Für viele Bereiche in der Softwareentwicklung gibt es Tools die eine automatisierte Hilfestellung zur Qualitätssicherung bieten. Bei der Entwicklung des Quellcodes kommen beispielsweise Linting Tools zum Einsatz die durch statische Codeanalysen häufig auftretende Probleme finden. Aber auch Unittests werden zur Qualitätssicherung verwendet in dem automatisierte Tests die Korrektheit des Quellcodes überprüfen. Für die technische Dokumentation eines Programms, die einen notwendigen Teil eines Softwareprojekts darstellt, ist das Tooling zur Qualitätssicherung dagegen bisher kaum bis nicht existent. Vor allem die teils mangelhafte Qualität der Dokumentation von Open Source Bibliotheken ist Motivation genug diese Lücke zu schließen. Da die meisten Open Source Bibliotheken eher kleine Projekte sind die nur von wenigen Freiwilligen betreut werden, scheint es nachvollziehbar, dass keine professionellen Autoren und Editoren für die Erstellung der jeweiligen technischen Dokumentation zur Verfügung stehen. Ein entsprechendes Tool zur Qualitätssicherung kann so dasWissen über häufig gemachte Fehler beim erstellen von Dokumentation zusammenfassen. Auf diese Weise können die gefundenen Erkenntnisse allen interessierten Open Source Entwicklern ausführbar zur Verfügung gestellt werden. Ein solchesWerkzeug soll es erlauben automatisiert Richtlinien zu überprüfen, die innerhalb eines Projekts für die Erstellung von Dokumentation entwickelt wurden. So wird eine Konsistenz der Inhalte ermöglicht und erleichtert durch das automatisierte Feedback die Einarbeitung neuer Autoren die mit den Projektregeln noch nicht vertraut sind. In der vorliegenden Arbeit wird die Entwicklung von annotatedocs erläutert welches eine mögliche Variante eines solchen Tools darstellt. Der Hauptfokus liegt darauf ein modulares Framework zu schaffen, das leicht an die teilweise sehr unterschiedlichen Bedürfnisse eines Projekts angepasst werden kann. So soll einerseits die Prüfung der Dokumentation individualisierbar sein, andererseits soll es die Erstellung von wiederverwendbaren Tests fördern, die zwischen Open Source Projekten geteilt werden können. Ein weiteres Ziel ist es eine graphische Ausgabe der gefundenen Schwachstellen zu ermöglichen. So sollen gefundene Fehler direkt in die selbe Ansicht mit eingepflegt werden die auch der Autor der Dokumentation nutzt um die geschriebenen Texte gegen zu lesen. Das erlaubt eine nahtlose Integration in den bestehenden Arbeitsablauf eines Dokumentationsautors. Neben der Entwicklung des individualisierbaren Frameworks ist es auch ein Anliegen dieser Arbeit das entstandene Tool anzuwenden. So soll eine beispielhafte Zusammenstellung von Qualitätsprüfungen bereitgestellt werden die auf die Dokumentation eines typischen, kleinen Open Source Projekts anwendbar ist. So soll geprüft werden ob der Ansatz praxisnahe Verwendung finden kann.

 

Konzept und Implementierung einer intuitiven Abfragesprache zur Erhebung von Metriken in Unternehmensarchitekturen

Bachelorarbeit, August 2014

Every company has to adjust to steadily rising requirements from a globally extending market. Growth by business and IT integration is the main enabler for coping with this situation. This very complex field is a domain that is most influenced by enterprise architecture management (EAM). The capabilities of what EAM historically could do has been restricted to mere creation of architectural designs using different frameworks and according tools. However using those models could allow for more, such as the integration of data related to specific EA elements and retrieving appropriate indications of performance for any of these elements in a company. By providing new means of model persistence, enriched with metadata and an appropriate domain specific query language (DSL) this research aims to offer new capabilities in the EAM domain. The prototypical implementation of those components is derived directly from the specific requirements EAM has. As a result the offered solution puts architectural models of EAM in a completely new usecase scenario, furthermore enabling integration between different stakeholders of the EAM domain.

 

Multi-dimensional Classification of Driver Mental Workload

Masterarbeit, Juli 2014

Recent human factors and ergonomics research for driving safety is placing an increasing focus on questions related to drivers’ cognitive state. However, most of this research has used manual analyses of factors impacting cognitive workload, with only little automation. This thesis describes the architecture and implementation of a flexible machine learning framework for automated classification of cognitive workload. An evaluation drawing on a set of on-road driving studies uses this framework to examine promising algorithmic and parameter choices – especially the suitability of several meta-classification techniques in a driver workload detection context. Special focus lies on the generalizability of the approaches under evaluation, to assert their applicability for workload detection of a larger population beyond the training data. An illustration of two possible application scenarios puts the research conducted for this thesis in a broader context and shows opportunities for further improvement and research.

 

Kopplung eines Fertigungsleitsystems mit SAP zur Optimierung der Geschäftsprozesse - Ein Schritt Richtung Industrie 4.0

Masterarbeit, Juli 2014

 

Utilizing actors to crawl the web for broken links

Masterarbeit, Juli 2014

 

Concepts for Ontology Engineering and Model Derivation from Natural Language Requirements

Masterarbeit, Juni 2014

In today’s automotive system development processes, multidisciplinary stakeholders specialized in different domains need to collaborate on the foundation of a common system understanding. Current requirements engineering processes as part of the V-Model are based on natural language specifications and therefore lack the formal definition of domain knowledge. As a result, it becomes increasingly difficult to consistently document, review and trace requirements statements throughout an entire project’s life cycle. Since manual acquisition of domain knowledge is time-consuming and error prone, this thesis presents an ontology-driven requirements engineering process, with emphasis on approaches to (semi-)automatically extract knowledge from text corpora consisting of requirement specifications of the automotive industry. The resulting domain ontologies ensure commitment to consistent terminologies and allow the establishment of advanced (semantic) traceability. The evaluation of a case study specification shows that the novel taxonomy clustering method and its custom compound features outperforms common hierarchical clustering. Furthermore, a survey conducted on domain experts validates the extraction of conceptual relations using association mining. Finally, this thesis exemplifies how rule-based axioms and their reasoning capabilities can be employed to provide semantic traceability between single requirement statements and design model artefacts.

 

A Management Framework for Mobile Sensor Data

Masterarbeit, Juni 2014

 

Analyse der Auswirkungen von Veränderungen in Unternehmensarchitekturmodellen mit semantischen Technologien

Bachelorarbeit, Mai 2014

Unternehmensarchitekturen sind heutzutage ein essentielles Werkzeug für Firmen, welches dazu benutzt wird, um immer komplexer werdende IT-Infrastrukturen planen und modellieren, sowie Zusammenhänge einfacher verstehen zu können. Sie beschreiben verschiedenste Komponenten, die an wichtigen, geschäftskritischen Prozessen beteiligt sind und wie diese untereinander in Beziehung stehen. Da sich das wirtschaftliche Handeln eines Unternehmens laufend ändern kann, ist es wünschenswert, anhand eines Unternehmensarchitekturmodells herausfinden zu können, wie sich Änderungen an IT-Systemen bzw. Änderungen an Prozessen oder beliebigen anderen Komponenten des Modells auf das Unternehmen auswirken. Diese Arbeit möchte bestehende Ansätze zur Auswirkungsanalyse von Veränderungen anhand eines Beispiels erproben, diese zusammenführen und dahingehend erweitern, dass ein EA-Metamodell, welches als Ontologie formuliert ist, verwendet wird, um semantische Informationen eines EA-Modells extrahieren zu können.

 

Integrating Java Workflow Tooling with the Activiti process engine

Masterarbeit, Mai 2014

In this master's thesis we focus on how we will integrate Java Workflow Tooling with Activiti, and ensure that business processes defined within the Java Workflow Tooling tool stack will become executable by means of Activiti, and then on this basis implement monitoring aspects required for further analyses of business processes. As Java Workflow Tooling is a tool stack for developing business processes within Eclipse, the technological realization of integration aspects will be performed from a developer's point of view by extending the Eclipse plugins of Java Workflow Tooling and Activiti.

 

Implementierung eines eingebetteten Regelungssystems für die Faserverbundverarbeitung

Masterarbeit, März 2014

 

Finding parallelizable Function Calls in C Code by Analyzing Memory Access Dependencies

Masterarbeit, Februar 2014

The primary goal is to help a programmer to find function calls that are not dependent on each other in non-parallel programs written in the C Programming Language. Those function calls can be conceived as candidates for parallelization. The way how they are parallelized and also if they are parallelized needs to be decided by the programmer. As a part of this work a prototype is built which realizes the described primary goal. This prototype uses a static program analysis approach. Other methods such as symbolic execution or dynamic analysis of the program are not applied.

2013

Realisierung von serviceorientierten Architekturen in Unternehmensarchitekturen

Bachelorarbeit, November 2013

Das Ziel dieser Arbeit ist die Domänen Unternehmensarchitektur und Service-Orientierte Architektur genauer zu betrachten um festzustellen in wieweit Unternehmensarchitekturen das Konzept der Service-Orientierten-Architektur vertreten. Dazu werden die Standards aus den Enterprise Architecture Frameworks hinsichtlich ihres Verständnisses und Ihrer Umsetzung einer SOA analysiert und anschließend mit den Standards der Service-Orientierten-Architekturen verglichen.

 

Analysen in Unternehmensarchitekturen - Ziele, Techniken, Anwendungsbereiche

Bachelorarbeit, September 2013

In den letzten Jahren wurde das ganzheitliche Management der Unternehmensarchitekturen - Enterprise Architecture Management - zu einer immer bedeutsameren Disziplin der Unternehmensführung. Daher soll diese Arbeit Grundlagen vermitteln, einen Überblick über das Thema der Analysen und ihrer Funktionen verschaffen und zusätzlich soll ein Einblick auf die Motivation dieses Themengebiets gewährt werden. Des Weiteren werden wichtige Begriffe definiert und eine selbst entwickelte Definition einer Unternehmensarchitektur-Analyse aufgestellt. Im Zuge einer Literaturrecherche wurden alle momentan verfügbaren Analysen gesammelt. Hierbei wurden nur Analysen mitaufgenommen, die der dargelegten Definition einer Unternehmensarchitektur- Analyse entsprechen. Generell ausgeschlossen wurden Analysen der Bereiche Software-Architektur und Service-orientierte Architektur. Um ein besseres Verständnis für die verschiedenen Analysen zu erhalten, werden die unterschiedlichen Eigenschaften erläutert. Diese sind grundlegend für die Kriterien zur Kategorisierung der Analyseansätze. Die Hauptintention dieser Arbeit liegt auf der Beschreibung der Analysen und ihrer Techniken. Es werden die Ansätze vorgestellt und Hinweise auf mögliche Umsetzungsarten gegeben. Die Analysen werden in die Unternehmensebenen „Strategieebene“, „Informationsebene“, „Anwendungsebene“, „Infrastrukturebene“ und die Schnittstellen eingeordnet. So kann ein Überblick verschafft werden, welche Anwendungsbereiche bereits ausreichend abgedeckt wurden. Innerhalb der Kategorien wird nach weiteren Kriterien sortiert, wie beispielsweise dem Zeitbezug. Nach der ausführlichen Darstellung der Ansätze werden diese anschließend bewertet. Zum einen wird versucht einen Einblick in die Praxis zu gewähren, um eine Kosten und Nutzen Abwägung durchzuführen, wobei dies nur sehr bedingt möglich ist, da eine Umfrage nicht Bestandteil der Arbeit ist. Zum anderen wird die verwendete Kategorisierung bewertet und der Reifegrad der vorgestellten Analysen ermittelt. Hierbei konnte festgestellt werden, dass auf Grund mangelnder Veröffentlichungen, die meisten Analysen noch nicht einsatzfähig sind. Jedoch wurde ersichtlich, dass viele Analysen in der gesamten Unternehmensarchitektur zum Einsatz kommen könnten und somit das EAM unterstützen. Wiederum nachteilig ist die Verteilung der Analysen hinsichtlich des Zeitbezuges, da nur wenige Analysen geeignet sind, um beim Aufbau einer Unternehmensarchitektur behilflich zu sein. Abschließend werden Verbesserungsvorschläge genannt, ein Ausblick auf zukünftige potentielle Analyseansätze gegeben und mögliche weitere Forschungsfragen eröffnet.

 

Nutzenbasierte Konfliktlösung für Batch Request und Single Request in SON

Bachelorarbeit, September 2013

In Mobilfunknetzen werden zur Konfiguration, Optimierung und Fehlerbehebung verschiedene Parametern z.B. Antennenneigungswinkel, Downlink Sendeleistung in Self-Organising Networks (SON) Funktionen verwendet. Da mehrere Funktionen auf die gleichen Parameter zugreifen können und zum Teil gegensätzliche Ziele haben, stehen diese Aktionen im Konflikt miteinander. Mit Hilfe der SON Koordination werden diese Konflikte anhand der Nutzwerte, die jede Aktion besitzt aufgelöst. Die Batch Request (BR) Ansätze zur SON Konfliktlösung wählen aus jedem Konflikt die Aktion mit dem größten Nutzwert aus, und versuchen durch die Maximierung der einzelnen Konflikte den Gesamtnutzwert aller auszuführenden Aktionen zu optimieren. Durch diese isolierte Konfliktbetrachtung wird zwar der Nutzwert jedes einzelnen Konfliktes maximiert, aber nicht immer der Gesamtnutzwert aller auszuführenden Aktionen. Mit Hilfe der Constraint-Optimierung wird eine neue Methode zur SON Konfliktlosung ausgearbeitet, die den Gesamtnutzwert aller auszuführenden Aktionen optimiert. Ein anderer Ansatz zur Konfliktlösung ist die Single Request (SR) Methode, die ausführende SON Funktionen durch eine anfragende SON Funktionen unterbricht, wenn die anfragende Funktion mit den ausführenden Funktionen in Konflikt steht und einen höheren Nutzwert besitzt. Dabei wird nicht beachtet, dass der angegebene Nutzwert einer SON Funktion erst am Ende der Ausführungszeit erreicht wird. Die Konfliktlösung der SR Methode wird mit Hilfe der Barwertmethode verbessert, um einen höheren Gesamtnutzwert der ausgeführten SON Funktionen zu erzielen.

 

Generisches Android App Design & Implementation

Bachelorarbeit, September 2013

Diese Arbeit entstand im Rahmen von Mobile Maintenance, einem Teilpro- jekt des EU-Forschungsprojektes ComVantage. Hierbei geht es im Allgemeinen um die Entwicklung von generischen Android Apps für die Wartung von industriellen Maschinen. Unter Einbindung der anderen, innerhalb von ComVantage entworfenen, Technologien und Komponenten soll ein Prototyp entstehen, der anhand eines Anwendungsszenarios die Möglichkeiten der generischen App-Pogrammierung zeigt. Das Ziel ist dabei, Live-Daten einer realen Maschine über Sensoren und Aktuatoren zu lesen und zu schreiben. Bei fehlerhaften Werten können Testskripte gestartet werden, um die Maschinendefekte zu finden und genauer zu beschreiben.

 

Extending GMF to Enable Natural Language Controlled Applications

Diplomarbeit, August 2013

Nowadays, computers are able to accomplish certain tasks considerably faster and more efficiently than a human operator could do. In order to tell a computer tasks to be performed in a short and comprehensible textual form, controlled natural languages (CNL) has been developed. In this thesis an approach is presented which facilitates controlling of GMF applications by means of CNL commands. Therefore, such CNL commands have to be analyzed semantically, which is task of the SE-DSNL framework. This semantic analysis is executed under usage of a so-called analysis file containing the required knowledge, i.e., syntactic and semantic structures. Furthermore, modification of templates which are responsible for GMF’s code generator forms an essential part of the thesis. Thus, CNL commands can be entered, analyzed and finally, actions in GMF can be performed according to the result of the analysis.

 

Concept Study, Implementation and Assessment of a Method to Support Design Space Exploration in the Hardware Development Domain of Engine Management Systems

Masterarbeit, August 2013

The thesis presents a method to support design space exploration in the hardware development domain of engine management systems. The method explores an existing product and tries to integrate sets of components on ASICs to safe money. A running example is used to illustrate aspects of the developed parts of the following chapters. The methodology of the design space exploration bases on an experiment, which gets prepared, conducted and assessed by an engineer and works step by step towards usable ASIC solutions. With the AUTOSAR ECU Resource Template a formal language is presented to utilize the methodology. Parts of this de facto standard in the automotive industry are further investigated to discover and resolve problems which appear in the context of this thesis.

 

Entwicklungsmethodik für Multicore-Systeme

Masterarbeit, Juli 2013

Der stetig zunehmende Einsatz der Multicore-Prozessoren in den letzten Jahren erfordert neue Herangehensweisen bei der Softwareentwicklung. Wo bis vor kurzem parallele Verarbeitung nur bei High-End-Systemen zu wissenschaftlichen Zwecken genutzt wurde, wird dies heutzutage innerhalb einzelner Prozessoren erreicht. Ganze Softwareentwicklungsprozesse und insbesondere die zum Einsatz kommenden Methodiken müssen sich auf die neue Multicore-Ära einstellen. Unter anderem stellen sich folgende Fragen: Wie werden die parallelen Softwareteile innerhalb des zu entwickelnden Systems identifiziert? Wie wird bei der Aufteilung der Software-Architektur vorgegangen, so dass diese optimal auf die einzelnen Prozessoren/Kernen abgebildet werden kann? Welche Algorithmenstrukturen eignen sich für bestimmte Problemklassen? Bestehende Ansätze und Methodiken konzentrieren sich vor allem auf die Partitionierung und Parallelisierung von Algorithmen, was nur einen Teil des Entwicklungsprozess abdeckt. Praktiken und Ansätze zur Erstellung paralleler Software gibt es derzeit in unzähligen wissenschaftlichen Veröffentlichungen, allerdings abstrahieren diese meistens direkt auf der Implementierungsebene. Es sind durchgehende Methodiken gefragt, die den Entwickler/Designer bei der Erstellung Multicore-fähiger Software, beginnend mit den Anforderungen an das zu entwickelnde System bis hin zum Testen, unterstützen. Der Herausforderung des Mangels an bestehenden Methodiken wird in dieser Arbeit durch den Vorschlag einer Entwicklungsmethodik für Multicore-Software „entgegengesteuert“. Einzelne Ansätze des Software-Engineerings, der Modellierungsmethoden der UML2 und des Algo-rithmenentwurfs werden hierbei zu einer durchgehenden Methodik vereinigt. Basierend auf der Analysemodellierung ergibt sich eine Software-Architektur die sich für die Parallelisierung auf der höheren Architektur-Ebene eignet. Die Entwurfsphase ist für die feinere Parallelisierung und eine detailliertere Modellierung des Systems in Hinsicht des Kommunikation - und Synchronisationsverhaltens ausgelegt. Die zusammengestellte Methodik eignet sich für den Fall einer Neuentwicklung als auch der Portierung einer sequenziellen Software-Variante auf die Parallele. Abschließend werden einzelne Prozessteile der Methodik anhand einer Fallstudie veranschaulicht.

 

Design Patterns in Multicore Programming and their Application

Bachelorarbeit, Juli 2013

Parallel programming is now used in various application domains. Some of these application domains are in the field of simulations which run intensive computations to obtain accurate results like weather forecast simulations. Another application domain is in the field of medicine like DNA matching, which uses exhaustive string matching algorithms. One more application domain is cryptography where brute force algorithms are often used to crack passwords or decrypt certain encoded messages. Parallel programming is used in these fields and many others because of two main reasons. The first is that these fields run intensive computations that need powerful machines. The second reason is that single core development has reached its critical limit and single core machines can no longer keep with need to run those intensive algorithms in the least possible amount of time. Due to these two reasons, it can be speculated that Moore's law (which stated that the number of transistors per chip will double every 12 to 18 months) will be mapped to the number of cores per processor instead of transistors per chip. This paper discusses the reasons that led single core development reached its limit and also led to the change from single cores to multiple cores (or in general, to change from serial programming to parallel programming). However, the main part of the paper is concerned with explaining all the aspects of the parallelization process and illustrating the differences between the commonly used patterns of multicore programming and the currently used technologies.

 

Modellbasierte Analyse von Programmiersprachen

Diplomarbeit, März 2013

In dieser Arbeit wird gezeigt, wie man Programmiersprachen in eine Modelldarstellung übertragen und anschließend analysieren kann. Dabei unterteilt sich das Projekt vor allem in zwei Teile.

Zuerst wird besprochen, wie ein Modell erzeugt werden kann, anschließend, wie man eine Datenflussanalyse darauf ausführen kann. Bei der Erzeugung des Modells wird überlegt, wie ein Modell eines Java Programms, Java wurde als Beispiel für eine Programmiersprache gewählt, aussehen kann. Dabei wird auf die verschiedenen Konstellation eingegangen, die dabei auftreten können. Mit Hilfe des Eclipse Modeling Framework (EMF) wird eine Beschreibung eines Modell, ein sogenanntes Metamodell definiert. Danach wird beschrieben wie man ein Java Programm, welches durch einen abstrakten Syntaxbaum dargestellt wird, in ein Modell übertragen kann. Hat man ein gültiges Modell, kann darauf eine Datenflussanalyse angewandt werden. Es werden dabei mehrere verschiedene Analysen und Transformationen aufgezeigt und beispielhaft an einem Modell durchgeführt.

 

Konzeption und Implementierung eines DSL-Editors für modellbasierte Datenflussanalyse

Bachelorarbeit, Februar 2013

Diese Arbeit beschäftigt sich mit der Konzeption und Implementierung eines DSL-Editors für modellbasierte Datenflussanalyse. Dieser  Editor  basiert  auf dem "Model  Analysis  Framework", einem Tool, das vom Lehrstuhl "Softwaremethodik für verteilte Systeme" der  Universität  Augsburg  entwickelt und in verschiedenen Projekten angewandt wurde. Wir werden mit dieser Arbeit einen textuellen Editor  für  diese MAF-Sprache konzeptionieren und implementieren.

 

Analyse im modellbasierten Test

Bachelorarbeit, Februar 2013

Diese Arbeit beschäftigt sich mit dem Einsatz von Metriken zur qualitativen Bewertung von Testmodellen im Bereich des modellbasierten Testens (MBT).

 

Analyse, Konzeption und Implementierung eines Prototypen zur Qualitätskontrolle in Softwareprojekten

Masterarbeit, Januar 2013

 

Design and Implementation of a browser plugin for encryption of generic website contents

Bachelorarbeit, 2013

 

Analyse der I-Stufenkonsistenz in Abhängigkeit von Fahrzeugalter und weiteren Faktoren

Bachelorarbeit, 2013

 

Betrachtung und prototypische Implementierung einer Installations- und Aktualisierungsstrategie von modularen dreistufigen Enterprise Softwaresystemen

Masterarbeit, 2013

 

Heart rate variability metrics for use in applied environments

Masterarbeit, 2013

The purpose of this paper is to assess heart rate variability metrics for use in applied environments. More specically, we present a new method for handling common cardiac arrhythmia in order to evaluate whether heart rate variability metrics are sensitive enough for detecting cognitive demand while people are driving. For this analysis we reexamined an on-road experiment with 108 participants. During the driving period, we requested each subject to perform certain two-minute tasks, which diered in the level of cognitive demand. We conducted an experimental analysis to nd the best QRS detection method for our setting. We found two commonly used algorithms to have the best detection rates in a driving environment. R-peaks are further processed by our real-time algorithm to automatically detect common cardiac arrhythmia in the heart beat series. Based on this approach we found that 21 out of 108 participants recordings contained abnormal beats. For the correction both context-sensitive information and dierent types of arrhythmia are taken into consideration. The normalized IBI series is further processed. For comparison of HRV metrics we calculated common time- and frequency-domain measures. As a result we found out that time-domain metrics are more sensitive for detecting cognitive workload. Moreover, some frequency-domain metrics failed to dierentiate conditions at all. Applications can use this information in developing human computer interfaces or improving driver's safety.

 

Konzept für eine Portfolio Prozess und Portfolio Management Softwarelösung am Beispiel Fujitsu „Value4You“

Masterarbeit, 2013

Business Process modeling is becoming an increasingly important activity especially in early phases of software development projects. The purpose of this work is to examine the potential of process optimization by comparing current process workflow references V4Y Product Segment, which will further answer the question if a commercial enterprise application should be licensed or if it would be possible to build an application using in-house resources on behalf of V4Y processes. This work provides an overview of current processes for V4Y Product Segment whereby the focus has been on the optimization of business processes and modeling of a software solution concept which enables the fulfillment of business requirements regarding user needs.

 

Erstellung eines grafischen Editors zur modellbasierten Generierung von Artefakten in mobilen Applikationen

Masterarbeit, 2013

 

Model-driven Support for User Interface Evolution in Software Product Lines

Masterarbeit, 2013

 

Effizienzsteigerung durch Software Standards und Modularisierung

Masterarbeit, 2013

 

Design of a Workflow Description Language for Power Grid Load Shaping Systems

Masterarbeit, 2013

In the face of rising energy prices, ecient power usage is growing more important every year. By shaping the consumption of power in smart grids according to the current situation, demand response systems like Siemens DRMS can not only help to increase the cost-eciency of power generation but also foster the grid's reliability. The conditions that demand response systems react to as well as the processes which run within them are not only utility-specic but also dependent on the status of the power grid as well as environmental conditions. These systems need to be highly customizable in order to allow continuous optimization and evolution. To provide this exibility Siemens DRMS version 2 is designed for workow-based conguration of the system. In this thesis the requirements for a DRMS-specic workow- and conguration language are gathered. In addition, the constraints for an appropriate language are elicited from DRMS projectand demand response experts. In order to enable domain experts to optimize the system, they should be able to understand workows without special training and create custom workows after a short training period. Furthermore, the created workows must be executable in the DRMS without additional renement, still guaranteeing that the system's stability and security are not impaired. Because no existing language that fullls both the functional requirements as well as the constraints could be found a new language is designed: the DRMS Workow Description Language (DWDL). DWDL allows the specication of workows comprising conditions and reactions. When a described condition occurs, the belonging reaction is executed. Reactions are focused on executing operations in the DRMS. While the language only needs simple control ows mechanisms to fulll the DRMS's requirements, complex argument structures must be simple to describe. To this end DWDL has a textual syntax that is close to the English language and uses implicit information to simplify workows. DWDL workows do not contain technical information; however, they are still directly executable. Also, no manual checks need to be done before workows are executed in the system; still, undesired situations like endless loops or invalid workow states are prevented. For DWDL a formal syntax and semantics are provided in this thesis. The language's syntax is given as a grammar in a BNF-like notation. Its semantics is specied in rewriting logic. Besides the language denition this thesis also demonstrates how DWDL can be used to implement the DRMS version 2 project's workow-related user stories. Furthermore, the language is compared to existing workow languages. In addition, the design for a workow engine that can execute DWDL workows is given. DRMS version 2 is integrated with a prototype of the specied workow engine. It is in productive use at pilot customers. All utility-specic conguration is done in DWDL so that the same code base is used for all customers.

 

Models in the Development Process for Parallelizing Embedded Systems

Masterarbeit, 2013

Modern advanced driver assistance systems getting more and more sophisticated. Therefore, reference systems are needed which allow a reliable validation of their features. Multi-beam LiDAR sensors with an extensive field of view constitute a feasible technology that can enable such reference systems because software systems which are behavioral equivalent to particular advanced driver assistance systems can be built in a more simple manner on the basis of these sensors. However, before the sensors can be effectively used they have to be calibrated. This work presents a set of fully automated and unsupervised algorithms that allow to determine parameters for an extrinsic calibration to recover the rigid transformation between the multi-beam LiDAR sensor and an inertial navigation system, for an intrinsic calibration to ensure high accurate measurements as well as for an intensity calibration to provide consistent remittance measurement for all individual lasers.

 

Konzeption und prototypische Umsetzung eines lastgetriebenen, nicht blockierenden LoadBalancers mit Session-­Persistenz für Server-­Cluster mittlerer Größe

Masterarbeit, 2013

 

2012

Automated Refinement of High-Level Policies in Self-Organizing Networks

Diplomarbeit, November 2012

The increasing number of mobile devices as well as the resulting increased usage of the internet on these devices leads to a greater complexity of the mobile communications networks and the underlying systems managing these. To get this complexity under control self-organization helps to reduce the manual work. Thereby, policies play a decisive role. Policies can be called guidelines or constraints on a system. By specifying them on a high level of abstraction and refining them automatically to executable machine-oriented policies, the system’s behavior can be adapted at any time. In this thesis the model-driven approach for policy refinement is introduced and how it can be applied to five exemplary policies of a self-organizing long term evolution network. However, a multitude of such policies occur in complex systems. Thus, refinement code can not always be written manually for them. That’s why this thesis also deals with the automated code generation for further policies. A final chapter presents some methodologies extending the existing approach and achieving automation to a greater extent.

 

Models in the Development Process for Parallelizing Embedded Systems

Masterarbeit, Oktober 2012

Single core processors for embedded automotive systems are approaching their limits concerning clock speed, memory speed and temperature. Additional functionality and efforts to lower the number of Electronic Control Units (ECUs) increase the performance needs of each computational unit. Therefore, automotive companies are migrating to multi core architectures. Plus, the Automotive Open System Architecture (AUTOSAR) has been established as a standard to represent software models in the automotive industry. Hence, tools and methodologies are required that harness the advantages of AUTOSAR for supporting the migration to multi core architectures. In this master's thesis, the new challenges created by switching to multi core architectures are examined. The thesis shows that model analysis can be used for overcoming many of these challenges. Several such analyses coping with data dependencies and data consistency are described. A tool is presented that statically analyzes AUTOSAR models and writes back the results to these models. This tool analyzes the connection between data dependencies and possible execution sequences of runnable entities (functional block in AUTOSAR). It supports the software engineer in restricting the possible execution sequences to a set that provides all runnable entities with their required input data in time. Finally, a case study shows the applicability of the tool.

 

Model Driven Apporach for Open Distributed Systems using an Enterprise Architecture Framework

Masterarbeit, September 2012

Open distributed systems are complex systems, which contain a lot of components provided by different vendors and built with different technologies. The use of well-established and standardized modeling techniques is one way to deal with the problems that occur in the specification and development process of these systems. Enterprise Architecture Frameworks provide a good foundation to structure the various required modeling techniques. Existing modeling solutions in the context of Enterprise Architecture Frameworks like UML4ODP, UPDM and ArchiMate do not provide optimal support for the specification of open distributed systems. In this thesis a coherent modeling approach for open distributed systems using an enterprise architecture framework (MODEA) is presented. In the approach the latest OMG standards like UML, SoaML, BPMN and BMM are used. As enterprise architecture framework the Reference Model for Open Distributed Systems (RM-ODP) has been chosen. Finally MODEA is illustrated through the specification of two case studies.

 

Entwicklung einer Konfigurationsmethodik für ROOM Modelle basierend auf einer dom¨anenspezifischen Sprache und Codegeneration

Bachelorarbeit, September 2012

In dieser Arbeit wird eine Methodik zur Konfiguration von ROOM Modellen entwickelt. ROOM ist eine objektorientierte Modellierungssprache für eingebettete Systeme.

Es wird ein Modell, basierend auf einer domänenspezifischen Sprache, entworfen, um die Konfiguration zu erfassen. Konkret kann darin der Zustand eines ROOM Modells, wie Wert und Eigenschaften von Attributen, angegeben werden. Mittels Codegeneration wird diese Konfiguration in Java-Programmcode realisiert. Die Konfigurationsmethodik wird außerdem um eine dynamischeVariante mit einem ebenfalls generierten Laufzeitsystem erweitert. Die Arbeit ist in das eTrice Framework integriert, ein Open-Source Unterprojekt des Eclipse Modeling Frameworks.

 

Verwendung von OWL2 Ontologien in Linguistisch Motivierten Szenarien

Bachelorarbeit, August 2012

 

Automatische Überprüfung Ontologiespezifischer Ressourcen in Geschäftsprozessmodellen

Bachelorarbeit, August 2012

 

Automatische Überprüfung Ontologiespezifischer Ressourcen in Geschäftsprozessmodellen

Bachelorarbeit, August 2012

 

Erstellung eines kollaborativen EAM Tools mittels intuitiver Multitouch Bedienkonzepte

Masterarbeit, August 2012

In der Ihnen vorliegenden Arbeit werden zwei große Themengebiete zuammengebracht, die bisher in dieser Form nicht als eine Einheit angesehen wurden. Die Themengebiete sind das Enterprise Architecture Management(EAM) und Enterprise Architectures(EA), sowie Multitouch im Allgemeinen und Multi Touch Tables(MTT) im Speziellen. Zunächst sind dies zwei Themengebiete, die nichts miteinander gemein haben. Auf der einen Seite das aus der Wirtschaftswelt stammende EAM mit seinen EAs, welches sich aus der Notwendigkeit ergab immer größere Unternehmen mit immer größeren und undurchsichtigeren IT-Landschaften profitabel und agil zu gestalten. Auf der anderen Seite die Multitouchtechnologie, die spätestens seit Apples IPhone in aller Munde ist, eine neuartige Form der Mensch-Maschine-Kommunikation darstellt und mit MTTs nun versucht in neue Einsatzgebiete vorzudringen. Jedoch bei genauerer Betrachtung stellt sich heraus, dass abstrakt gesehen beide eine Gemeinsamkeit verbindet: Komplexe Gegebenheiten auf möglichst simple Weise in den Griff zu bekommen. Beim EAM ist dies das Verwalten und Weiterentwickeln von bestehenden Unternehmen und deren IT-Landschaften. Beim Multitouch ergibt sich dies aus der Notwendigkeit das Fehlen von Maus und Tastatur auszugleichen. Multitouch bietet dabei zudem die Möglichkeit die Interaktion mit Inhalten intuitiver zu gestalten, als bei der herkömmlichen Eingabe mit Maus und Tastatur, da der Nutzer in der Lage ist die Inhalte "anzufassen". MTTs gehen hier noch einen Schritt weiter und bringen den Aspekt der Kollaboration mit ein, da sie Platz für mehrere gleichzeitige Nutzer und deren Eingaben bieten. Auf dieser gemeinsamen Basis wird in der nachfolgenden Arbeit ein Tool entwickelt, das sämtliche Funktionen zum Bearbeiten von EAs bieten soll und diese Funktionen zudem mittels Multiouch besonders intuitiv gestalten soll. Der Aspekt der Kollaboration soll dabei zum einen durch den MTT, zum anderen durch die Oberfläche des EAM-Tools gewährleistet werden.

 

Ontology-based Resource Management for Software Engineering Processes

Bachelorarbeit, August 2012

Business processes and methodologies arise everyday in enterprises and have grabbed attention in research and industry. To start up with a process, enterprises have to match the process requirements with the already existing resources. This needs careful analysis so as to decide whether a process is executable or not. The skills of human resources and the capabilities of the tools are kept in a database, which is the Ontological Technical Space (OTS). Matching the process requirements to our Ontology of existing resources, is quite challenging and time consuming. Therefore, we plan on introducing an automatic approach of matching the requirements in the Metamodeling Technical Space (MMTS) with the already existing resources in the Ontological Technical Space. This matching approach is done through the integration of an Ontology-based Feature Model with the MMTS. This allows the semantic annotation of the process model with its requirements; where afterwards the Ontology is queried for the existence of such a resource satisfying those requirements selected.

 

 

Multi-concern modeling for safety and security

Bachelorarbeit, August 2012

During software development, modeling is used extensively due to its capabilities to provide an abstract overview of the software at different stages of its development as well as it's ability to simplify the communication process among the stakeholders. There is a wide number of modeling approaches, which are used nowadays. However each of these approaches handles concerns in a different way and focuses on certain challenges, leaving others. In this thesis, a number of modeling approaches is described and analysed to highlight which challenges do they address and which concerns do they focus on. Modeling approaches that focus on safety or security concerns were included in the thesis, due to the rising importance of these concerns in software development nowadays. This thesis would help the reader understand software development challenges and how are they addressed by different approaches, while providing a detailed comparison between the approaches discussed in this thesis.

 

Automatic Planning of Semantically Annotated Business Process Models Taking Resources Into Consideration

Bachelorarbeit, August 2012

In business process management, certain levels of automation are required to maintain a certain level of efficiency in the business process. Automated planning of process models was suggested to increase this degree of automation in business process management. Some approaches were made concerning the automatic planning of these process models, however, none of them puts in mind the the consideration of the resource requirements at design-time. In this paper, an ontology-based extension of an existing automated planning approach (the SEMPA algorithm) will be presented. This extended approach will simply allow selection of only those process models that have enough available resources to be executed. The selection will be done from a list of semantically annotated business process models. This paper provides information about semantic web technologies and ontologies. Moreover, it gives insight about Business Process Modelling (BPM) and semantic annotation. Finally, it presents an overview about the original SEMPA as well as the details of the implementation of the extended SEMPA we design after it gives an overview about all technologies used in this implementation.

 

Design und Implementierung einer EncFS-kompatiblen Verschlüsselungsschicht für mobile Apps und Browser

Bachelorarbeit, Juli 2012

Aktuell angebotene Cloudspeicherdienste bieten zur Sicherung ihrer Daten lediglich eine serverseitige Verschlüsselung an. Diese Vorgehensweise entzieht den Benutzern jedoch die Kontrolle über die Sicherheit ihrer Daten. Verfügbare lokale Verschlüsselungen lösen das Problem, benötigen aber die installierte Clientsoftware des Anbieters, und erfordern auch selbst Installationsrechte. Eine einheitliche Lösung, API-Zugriffe von mobilen Apps auf die Cloud zu verschlüsseln, existiert nicht. Ziel dieser Arbeit ist es, diese Lücken zu schließen. Dazu wird für Apps ein SDK entwickelt, das die Daten lokal ver- und entschlüsselt. Für den Zugriff ohne Installationsrechte wird eine Webapplikation unter dem Framework Grails entwickelt, die JavaScript zur Entschlüsselung nutzt. Beide Lösungen werden dabei kompatibel zum AES-basierten Dateisystem EncFS entworfen. In diesem theoretischen Teil der Arbeit wird die Entwicklung der Anwendungen über Analyse, Design und Implementierung nachvollzogen. Dabei wird auch auf JavaScript-spezifische Schwierigkeiten eingegangen. Zuletzt wird die Performance der potentiell langsamen JavaScript-Verschlüsselung gemessen, und unter der Voraussetzung von voll und effizient implementiertem HTML5 als brauchbar befunden.

 

Analyse und Bewertung von Automatisierungspotenzialen in Testprozessen

Bachelorarbeit, Juni 2012

This study deals with the analysis and evaluation of automation potential in test processes. The beginning of chapter 1 (Introduction) explains why automation of test activities is becoming a major issue in companies (which use, provide or produce software). Since a lot of companies are under pressure to run more and more complex systems which they have to adjust within increasingly shorter cycles, they raise the question to what extent the use of test automation is useful also with respects to economic considerations. Chapter 2 (Basics) explains several framework conditions in order to understand the starting situation. Here, it is initially a question of clarifying to what extent the use of distributed systems and service-oriented architecture has an impact on quality assurance of companies. At first it has to be defined what software quality actually is and which role software testing plays in this context to ensure it. It was therefore necessary to closely examine the concept of quality in regard to generally valid characteristics and to delineate the different software tests - aimed to check these characteristics - from each other. In addition, chapter 2 will provide a first assessment about the issue which testing phases are actually reasonably automatable within the software development lifecycle. Chapter 3 (Test automation in general) tries to define the concept of test automation more precisely and examines the different activities involved. It follows an analysis on what test automation can provide and in which sectors exaggerated expectations should be relativized a priori. Furthermore, chapter 3 deals with requirements that should be met in order to be able to generally begin with automation of test cases. With regard to the implementation, this chapter also describes various methods on how to generate and modify test scripts through the application of automation paradigms. Finally, several decisive factors for successful test automation are established and substantiated. Chapter 4 (Test automation in companies) deals with a concrete case study (carried out within the framework of this bachelor thesis). This study is about developing and expanding the automation within the test process of the "Augsburger Aktienbank". For this purpose a roadmap was created and potentials and risks caused by the implementation of test automation were discussed. The main objective of this chapter is the examination to what extent test automation can make a sustainably contribute to secure software quality and how it should be integrated in existing test processes. After describing the operations conducted in the company (within the framework of this bachelor thesis), test automation in general and its application in companies are subject to a final evaluation and a short prospect in chapter 5 (Evaluation and outlook).

 

A Multi-Agent Traffic Simulation -Evaluation of a Nature-InspiredSelf-Organizing Parking Guidance Systembased on Inter-Vehicle Communication

Masterarbeit, Mai 2012

In this thesis a decentralized, self-organizing parking spot allocation algorithm is proposed and simulated with an implemented multi-agent traffic simulation to measure the effect of the algorithm on traffic. Cars communicate directly via inter-vehicle communication. This is based on the recruitment behavior of foraging honey bees in a hive. To test the algorithm three experiments based on real parking demand taking place on a street network of Singapore are executed. The base experiment consists of cars that are not able to communicate to each other. This experiment is compared to two experiments where cars are able to communicate. These experiments differ in strategies of the cars on how to react to received messages and how often the message is forwarded or how long a message survives in the system. The algorithm is tested with the introduced framework for multi-agent traffic simulations. It is extended with smart parking features so that it is possible to measure cruising time and journey distance of cars searching for a parking spot as well as the throughput of parking stations. This thesis shows that the proposed algorithms can reduce traffic congestion signifficantly caused by cruising for a parking spot.

 

A Machine Learning Approach towards Online Detection of Driver Mental Workload

Masterarbeit, Mai 2012

The objective of this thesis was to develop a machine learning based approach towards online detection of driver mental workload. The majority of previous research on driver mental workload detection is subject to at least one of the following limitations: study data was collected in a simulator rather than in a naturalistic setting, the number of study participants was relatively small, post-analysis was employed instead of real-time detection. The supervised machine learning approach proposed in this thesis was evaluated based on vehicle, physiology and eyetracking data from 99 subjects collected in a naturalistic field study. Experimental results indicate a considerable performance of machine learning algorithms in distinguishing between normal workload and elevated workload levels. The realistic, yet conservative approach adopted in this thesis establishes a lower bound for classification. This thesis increases the confidence that machine learning is a viable approach towards online driver workload detection given appropriate data.

 

A Multi-Agent Traffic Simulation - Evaluation of a Traffic Information System based on Inter-Vehicle Communication

Masterarbeit, Mai 2012

Traffic congestions play a major role in our daily life and generate massive costs as tons of gallons are wasted. One of the reasons is that the existing streets are not used in an efficient way. A traffic simulation helps transportation engineers to measure the effects of a change in the traffic flow without changing the real system. This master's thesis introduces a traffic simulation framework for evaluating future traffic scenarios. It combines a micro simulation with a macro simulation and enables scenarios on a city scale. The design of the simulation is very flexible and provides interfaces for extending the framework. One scenario that has been evaluated with the help of the simulation framework is a traffic information system based on inter-vehicle communication. This traffic information system is able to prevent traffic congestions before they even emerge. Furthermore, the system comes with almost zero infrastructure costs and already existing traffic information systems can be migrated easily. The traffic simulation has been extended to simulate the traffic information system and multiple scenarios have been designed to measure the outcome. This master's thesis shows that the emergence of traffic congestions and the duration of traffic congestion can be reduced by the system.

 

Untersuchung und prototypische Umsetzung einer gesicherten Anbindung eines mobilen Endgeräts an ein Online-Portal

Bachelorarbeit, März 2012

Diese Bachelorarbeit beschäftigt sich mit Möglichkeiten einer gesicherten Anbindung eines Mobilgeräts, wie Smartphone oder Tablet-PC, an ein Online-Serviceportal und damit einhergehend mit der Bereitstellung diverser Dienste zur Kommunikation mit dem Mobilgerät. Dabei wird zu Beginn der Arbeit auf wichtige Grundlagen eingegangen, welche anschließend analysiert und durch die Erstellung einer prototypischen Anwendung (App) für das Android-Betriebssystem umgesetzt werden. Als Schwerpunkt werden die Kommunikation zwischen mobilem Client und Server (in Form der Bereitstellung eines WebServices), sowie systemspezifische Eigenschaften des Betriebssystems Android behandelt. Für einige Vorgänge und für eine abgeschlossene Sicherheitsbewertung des Gesamtsystems ist auÿerdem eine Analyse der Umsetzung des Online-Serviceportals von Bedeutung, welche allerdings in diesem Rahmen nur am Rande angeschnitten wird.

 

Metriken im Modellbasierten Test

Bachelorarbeit, Februar 2012

In dieser Bachelorarbeit wird versucht, anhand von Fallbeispielen, Metriken für den modellbasierten Test näher zu bringen. Dazu wird vor dem Testprozess Ziele festgelegt. Um diese Ziele zu erreichen, werden daraufhin Tests entwickelt. Diese werden durchgeführt, um das  Hauptziel, die Softwarequalität zu erhöhen. Die Qualität wird anhand von Qualitätsmodellen und den dadurch festgelegten Metriken messbar gemacht.  Hier wird ein zielorientiertes Qualitätsmodell (GQM) eingesetzt, um die richtige Metriken zu finden.

 

Modellbasiertes Testen in der embedded Softwareentwicklung

Masterarbeit, Januar 2012

In elektronischen Steuerungen steigt der Testaufwand bei Entwicklungsfreigaben bzw. bei Änderungen und Erweiterungen mit der Komplexität. Das modellbasierte Testen (MBT) ermöglicht den Nachweis von Systematik und Vollständigkeit bei Verringerung des Testaufwandes und gleichzeitiger Erhöhung der Transparenz und Qualität. Eine damit verbundene Testautomatisierung dient der Fehlerabdeckung unter reproduzierbaren Bedingungen sowie der Minimierung der Validierungskosten. Im Rahmen dieser Arbeit wurden aktuelle Technologien wie die United Modeling Language und die Transformationssprache XSLT evaluiert und verwendet um ablauffähige Testfälle im Bereich der embedded Softwareentwicklung zu generieren.

2011

Entwicklung einer konkreten Syntax für domänenspezifische ECA-Policies

Masterarbeit, Oktober 2011

Event-Condition-Action (ECA)-Policies werden als Reaktionsregeln eingesetzt, um dynamische Systeme automatisiert zu steuern. Die Domäne beinhaltet die Konzepte des dahinterliegenden Fachgebiets und deren Zusammenhänge. Um von konkreten Sprachen zu abstrahieren wurde ein Metamodell (abstrakte Syntax) für die Spezifikation von ECA-Policies und ihrer Domäne auf verschiedenen Abstraktionsstufen entwickelt. Um entsprechende Modelle zu erstellen ist eine Notation (konkrete Syntax) erforderlich, die z.B. textuell oder grafisch sein kann.

Ziel der Masterarbeit ist die Entwicklung einer möglichst geeigneten konkreten Syntax auf Grundlage der vorgegebenen abstrakten Syntax. Hierbei ist insbesondere abzuwägen, inwiefern eine kompakte Notation der Policies am besten durch eine grafische oder textuelle Syntax erreicht werden kann, oder durch eine Mischform beider. Im Rahmen der Arbeit soll auch eine prototypische Umsetzung in Form eines Editors erfolgen. Die entwickelte konkrete Syntax und der implementierte Editor sollen anhand einer Fallstudie demonstriert und evaluiert werden.

 

Prozessmodellontologien: Vor- und Nachteile sowie Transformationen von JWT

Diplomarbeit, Juli 2011

Der sich immer schneller verändernde Markt erfordert von den Unternehmen eine zunehmend flexible Anpassungsfähigkeit an die neuen Gegebenheiten und Anforderungen. Hierfür ist es notwendig, seine meist äußerst komplexen und vernetzten Prozesse bzw. Prozessmodelle bestmöglich im Überblick zu haben. Eine Möglichkeit in dieser Hinsicht Verbesserungen zu erreichen ist es, Prozessmodelle in Ontologien abzubilden. So werden in dieser Arbeit Prozessmodelle mit Hilfe von Modelltransformationssprachen in eine Ontologie übersetzt, die anschließend mit Werkzeugen und Methoden aus dem Umfeld des semantischen Webs bearbeitet werden können. Hierzu gehören Reasoner und semantische Abfragen.

 

Automatisiertes Server-Konfigurationsdeployment

Bachelorarbeit, August 2011

Die Nutzung von Webanwendungen über das Internet nimmt immer mehr zu. Auf Seiten der Anbieter erfordert dies eine solide Infrastruktur, die der steigenden Last gewachsen ist und ihre Dienste zuverlässig zur Verfügung stellt. Der Verwaltungsaufwand der Server-Infrastruktur nimmt dabei mit wachsender Serverzahl überproportional zu, da die Koordination zunehmend komplexer wird und zudem Abhängigkeiten zwischen Servern berücksichtigt werden müssen. Um einen Überblick über die verschiedenen Konfigurationen zu behalten und konsistente Administration sicherzustellen empfiehlt sich der Einsatz speziell für diesen Zweck entwickelter Software. Diese Arbeit setzt sich mit der Automatisierung von Serverkonfigurationen auseinander. Sie gibt zunächst eine allgemeine Einführung in die Einrichtung von Servern für statische Webseiten und für Webanwendungen. Anschließend wird das Configuration Management System Puppet vorgestellt, seine Funktionsweise detailliert erläutert, sowie in einem praktischen Teil die Anwendung der beschriebenen Maßnahmen auf eine konkrete Server-Infrastruktur beschrieben.

 

Test-getriebene Entwicklung in Ruby on Rails

Masterarbeit, September 2011

 

Semantic Resource Modeling in Business Processes

Bachelorarbeit, September 2011

 

Comparing Semantic Business Processes

Bacheloarbeit, September 2011

Bachelor-Thesis, September 2011 Comparing Semantic Business Processes Business process modeling represents the activities that undergo in a business organization. Comparing the similarity of two business process models is crucial in model maintenance when adding a process model to a repository thus checking for duplication and when two companies are merging and integrating their work. Many modern methods have been deployed to support the comparing business process models either syntactic, linguistic or semantic level, such as string edit distance and linguistic similarity measure. However, we argue that semantic approach when modeling process's is necessary when comparing business process models. This brings requirements such as business process ontologies that describe the business process knowledge domain. Semantic annotation is an approach to achieve the link between the models and the business process ontologies that capture the models semantically.

 

Transformation von ARIS-Modellen in eine Prozessbeschreibungsontologie

Diplomarbeit, September 2011

Transformation von ARIS-Modellen in eine Prozessbeschreibungsontologie.

 

 

Design und Entwicklung einer web-basierten generischen Workflowmodellierungsumgebung

Bachelorarbeit, September 2011

In dieser Arbeit wollen wir das Konzept vorstellen, wie eine web-basierte Workflowmodellierungsumgebung   realisiert   wird,   die   mit   unterschiedlichen   Workflow-Frameworks interagieren und die Erstellung von Workflows gemäß ihrer Workflow-Definitionen gewährleisten kann. In erster Linie wollen wir klären, wie die clientseitige Architektur der zu entwickelnden Workflowmodellierungsumgebung konzipiert werden muss,   damit   sowohl   Aspekte   der   Benutzerfreundlichkeit   als   auch   Aspekte   der Kommunikation   innerhalb   und   außerhalb   der   Komponenten   der   Workflowmodellierungsumgebung berücksichtigt werden. Außerdem wollen wir die serverseitige Architektur   konzipieren,       die   die   Aufgabe   übernehmen   soll,   vorgenommene Modellierungsschritte   des   Benutzers     mit   Workflow-Modellen   der   einzusetzenden Workflow-Frameworks zu synchronisieren.

 

Optimierung eines SAP-basierten Bonusprozesses mit Web UI-Komponenten für Beratungsunternehmen

Masterarbeit, September 2011

Ein Bonusprozess für fachliche Mitarbeiter von Beratungsunternehmen soll am Beispiel der conovum Beratung untersucht und optimiert werden. Der bestehende SAP-basiert Prozess und erfordert manuelle Eingaben und Verrechnungen, die zumeist zentral vorgenommen werden.

Ziel ist ein möglichst optimaler Prozess, der mit Web UI-Komponenten die Eingaben durch die Prozessbeteiligten dezentral ermöglicht und einen hohen Grad an Automatisierung erreicht. Es soll untersucht werden, in wie weit der bestehende Prozess automatisiert werden kann und wie die Datenströme dezentralisiert werden können. Im Rahmen der Arbeit soll eine prototypische Umsetzung erfolgen. Als UI Technik soll Web Dynpro für ABAP eingesetzt werden.

 

Developing a methodology for BRM-S

Diplomarbeit, Juli 2011

BRM-S is a framework with a graphical tool, the BRM-S Designer, for modeling business domains in a semantic as well as a syntactic way. At its current research level, a user is left alone in the decisions that lead to a BRM-S model, making this a complex and time-consuming procedure.The work at hand presents a methodology supporting the user with a semi-automatic process. First, concept candidates are extracted from domain specific documents and are being put into the Semantic and Syntactic Scope in BRM-S by expert’s acknowledgements as concepts. These concepts are then being brought into context by definitions and a full taxonomical hierarchy by linking it to an upper hierarchy, WordNet. Non-taxonomical relation candidates and their appearance in texts are extracted from domain specific documents and build the base for a heuristic which tries to give clear and manageable relation proposals to domain experts. In addition to proposing elements and relations for the Semantic and Syntactic Scope, automatic preparations are made to make modeling the Construction Scope as easy as possible for experts. Every element’s origin is stored allowing to keep the BRM-S model up-to-date following element’s creation, change and deletion. This supports traceability and by that supports a model’s lifecycle.

 

Aspektorientierte Metamodellerweiterung in Eclipse (AMIE)

Diplomarbeit, März 2011

 

Definition und Anwendung von Mustern in Ontologien

Diplomarbeit, März 2011

Das automatisierte Beantworten von Benutzeranfragen - wie sie in einer Supportabteilung gestellt werden - ist bislang noch ein unerreichtes Ziel. Probleme hierbei sind einmal das Verständnis der Bedeutung der Anfrage über eine semantische Interpretation, das Herausfinden des Zieles der Anfrage sowie das Erfassen und Auffinden der nötigen Informationen in einer Ontologie. Diese arbeit stellt einen Ansatz vor semantisch interpretierte Benutzeranfragen über Muster zu erkennen, welche über eine Ontologie definiert sind. Auf Basis des BRM Semantics Projekts und der darin vorgestellten Ontologie wiurde eine Definition für Muster entwickelt, über die sich der semantische inhalt von Anfragen beschreiben lässt. Diese muter werden über einen entworfenen Algorithmus unter Verwendung von Graph Matching in einer semantischen Interpretation ausgewertet. So kann der Typ der Anfrage erkannt und darauf reagiert werden. Damit kann eine vordefinierte Aktion wie zum Beispiel die Rückgabe einer Antwort auf die Anfrage erfolgen. Nach einer thematischen Einleitung und Grundlagen wird die entwickelte Definition von Mustern vorgestellt. Anschließend wird der Algorithmus zur Auswertung von Mustern gezeigt und es erfolgt eine Evaluation des Verfahrens.

 

Konzeption und Evaluation eines datenflussbasierten Algorithmus zur Clone Detection

Diplomarbeit, Februar 2011

Ein sogenanntes Anti-Pattern, also eine Art der Strukturierung von Quellcode die es in der Programmierung zu vermeiden gilt, stellt die Duplizierung dar. Auf Grund der mit einer Vervielfältigung einhergehenden Probleme wie beispielsweise erschwerter Wartbarkeit und erschwerter Übersicht stellt die textbasierte Duplikatsuche, auch Clone Detection genannt, ein wohl untersuchtes Feld der Informatik dar. Da in jüngerer Vergangenheit die Bedeutung von aus Modellen generiertem Quelltext zugenommen hat, steigt das Interesse an Methodiken, die derartige Strukturen bereits in den zu Grunde liegenden Modellen erkennen. In der nachfolgenden Arbeit wird ein derartiges Vorgehen erarbeitet, das auf einer Technik des Compilerbaus, namentlich der Datenflussanalyse, basiert. Die damit einhergehenden Vorteile liegen in den lokalen Attributierungen der Modellelemente sowie im korrekten Umgang, d.h. Terminierung mit dem richtigen Ergebnis, bei zyklischen Strukturen. Damit eine Vorstellung von den Charakteristiken des Vorgehens im Gegensatz zu anderen bereits bekannten Ansätzen möglich ist, wird das erarbeitete Vorgehen einem ausgewählten Verfahren das auf einer heuristischen Suche basiert, gegenübergestellt. Um den praktischen Nutzen der Methodik zu veranschaulichen wurden abschließend reale Anwendungsfälle mit einer prototypischen Implementierung auf Klone untersucht.

2010

Transformation der TIGER Treebank in ein konstruktionsbasiertes Format

Bachelorarbeit, September 2010

 

Semantisches Early Requirement Engineering und Management

Masterarbeit, August 2010

 

Evolution von Modelltransformationen

Diplomarbeit, April 2010

Mit der wachsenden Verbreitung von Modellgetriebenen Softwareentwicklungsansätzen im industriellen Umfeld steigen in gleichem Maße die Anforderungen an Entwicklungswerkzeuge. Diesem Trend folgend positionieren sich stetig neue Softwareanwendungen auf dem modellgetriebenen Anwendungsmarkt, wodurch dem Entwickler einerseits zwar immer mächtigere Softwaretools zur Verfügung stehen. Andererseits erschweren uneinheitliche Standards innerhalb der Modellgetriebenen Softwareentwicklung auf Projektebene die Etablierung und Aufrechterhaltung einer hochintegrierten Anwendungsentwicklungslandschaft, gerade im Hinblick auf die Erweiterbarkeit um neue Applikationen. Das Konzept, welches zu einer Relativierung der Problematik beiträgt, ist das der Modelltransformation. Sie gestattet eine automatische Konvertierung von Modellen zwischen unterschiedlichsten Formaten und damit einen anwendungsübergreifenden Einsatz von Modellen in komplexen Entwicklungsprozessen.Ein wiederkehrendes Szenario modellgetriebener Softwareentwicklungsprozesse ist die Evolution, d.h die Weiterentwicklung, von Metamodellen. Ursächlich hierfür sind sowohl außerplanmäßig auftretende, wie etwa fehlerkorrektive, Maßnahmen als auch solche, die den Funktionsumfang einer Softwareapplikation erweitern und regulärer Teil einer Produktlebenszyklusses sind. Bezogen auf ihr Ergebnis bedeutet eine Evolution von Metamodellen jedoch, dass die syntaktische und semantische Konsistenz mit den darauf aufbauenden Modelltransformationen gebrochen wird.Die Zielsetzung dieser Arbeit besteht darin, für jene Problematik eine konzeptuelle Lösungsmöglichkeit zu erarbeiten. Wie in den späteren Ausführungen nachgelesen werden kann, ist es hierfür zunächst notwendig, die evolutionären Veränderungen auf Metamodellebene zu bestimmen. Neben eines postevolutionären algorithmischen Vergleichs eines Metamodells mit seiner weiterentwickelten Version verspricht die evolutionsbegleitende Überwachung auf Modifikationen adäquate Ergebnisse. Mit COPE wird dabei auf einen Vertreter dieses Prinzips näher eingegangen, auch im Hinblick darauf, dass es als Basis für eine prototypische Implementierung verwendet wird. In einer zweiten Phase bedarf es der Adaption von Modelltransformationen an detektierte Metamodelländerungen. Anpassungen lassen sich hierbei einheitlich anhand von Ersetzungsanweisungen spezifizieren, welche sich den modularen Aufbau von Modelltransformationen zu Nutze machen, um fehlerhafte Referenzen und Konzepte zu korrigieren.

 

Real-time Control of Water Distribution Networks Using Self-organizing emergent Multi-Agent Systems

Diplomarbeit, Mai 2010

2009

Implementierung von Penetration Tests für Ruby-on-Rails-Anwendungen

Diplomarbeit, September 2009

Das Internet hält heute eine Vielzahl interaktiver Seiten und Anwendungen bereit. Da diese vielen potenziellen Angreifern ausgesetzt sind, sollten Sicherheitslücken be- reits während der Entwicklung vermieden werden. Ziel dieser Diplomarbeit war die Analyse verschiedenster Schwachstellen und die Implementierung einer Lösung, welche Entwickler bei der Vermeidung solcher Fehler unterstützt. Ein noch recht junges Werk- zeug zur Webentwicklung stellt das Framework Ruby on Rails dar. Bei der Entwicklung von Rails-Anwendungen wird stark auf Test-Driven Development (TDD) gesetzt, weshalb eine Bibliothek entwickelt wurde, welche Methoden für Tests bereitstellt, durch die ver- schiedene Sicherheitslücken aufgedeckt werden können.
Zum besseren Verständnis werden in dieser Arbeit Grundlagen von Webanwendung- en und Ruby on Rails sowie verschiedene Angriffsmöglichkeiten auf Webapplikationen vorgestellt und erläutert. Nach einer Betrachtung unterschiedlicher Konzepte zur Erken- nung von Sicherheitslücken wird die im Laufe der Arbeit entwickelte Lösung „Hades“ im Detail vorgestellt sowie auf die Implementierung der unterschiedlichen Angriffsfor- men eingegangen.

 

Regeln zur Effizienz- und Koordinationsverbesserung in selbst-organisierenden emergenten Systemen

Diplomarbeit, Juli 2009

 

Using Digital Infochemical Coordination for a Self-Organizing Emergent Solution to Open Shop Scheduling Problems

Masterarbeit, Juli 2009

This thesis introduces the concept of Infochemical Contracts (IC). Infochemical Contracts is a new Digital Infochemical Coordination (DIC) based decentralized coordination mechanism enabling self-organizing emergent multi-agent systems to solve open shop scheduling problems. Therefore two different concepts are combined: the abstract concepts of coordination inspired by olfactory stimuli found in nature (DIC) and the agent’s behavior found in market-based coordination approaches to scheduling problems. The abstract Digital Infochemical Coordination approach is initially adapted to scheduling problems in general. As a next step, the developed still abstract, approach for scheduling problems is instantiated to Infochemical Contracts for the computation of open shop scheduling problems. This instantiation uses infochemicals for communication and an agent behavior inspired by the Contract Net Protocol, which is an established coordination mechanism for scheduling problems.

 

Graphische Modellierung von Pickup und Delivery Problemen

Masterarbeit, Juni 2009

 

Prozessbewertung und Vergleich im Software and Systems Process Engineering Metamodel

Diplomarbeit, Mai 2009

The SPEM-metamodel, developed by OMG, is an standardized approach to model software developement processes and collect them in libraries. In its current developementstate however, the metamodel does not provide any functionallity to rate or compare those processes. This thesis develops a concept to rate software developement processes and fits those concepts into the SPEM-metamodel. Additionaly an approach to compare processes based on their ratings using special algorithms is developed. The results will be implemented in EPF and evaluated looking at the results of a case study.

 

Python-basierte PowerPoint-Dokument-Generierung

Diplomarbeit, April 2009

In dieser Diplomarbeit wird eine Bibliothek entwickelt mit der PowerPoint-Präsentationen erstellt werden können. Diese Präsentationen sollen zur Anzeige von Bildern genutzt und in dem Binärformat, das seit Microsoft Office 97 verwendet wird, gespeichert werden. Da die Bibliothek als Erweiterung für den an der Universität Augsburg eingesetzten Medienserver dient, musste diese Bibliothek in Python programmiert werden.

 

Integration semantischer Konzepte in die Requirement Traceability

Diplomarbeit, März 2009

Anforderungsverfolgung (engl. Requirement Traceability) ist eine Disziplin des Software Engineering. Requirement Traceability behandelt – wie der Name vermutenlässt – die Verfolgung von Software-Anforderungen. Diese Verfolgung umfasst von eben diesen Software-Anforderungen ausgehend auch Tests bis hin zu Programm-Code. Jedoch ist auch die Gegenrichtung von Interesse, bei der vom Source-Code zurück zu Anforderungen verfolgt wird. Requirement Traceability findet primär in umfangreichen Projekten Anwendung, da die Durchführung der Verfolgung hohen Aufwand verursacht und die damit erzielbaren positiven Aspekte in kleinen und mittleren Projekten nicht als gewinnbringend erachtet werden. Im Folgenden werden nach einer Einführung in die Requirement Traceability sowie semantischen Techniken die Möglichkeiten untersucht, die durch Forschungsergebnisse rund um das Semantic Web ermöglicht wurden. Dabei wird versucht, Computern die semantischen Zusammenhänge von Daten so zu beschreiben, dass diese selbstständig dazu in der Lage sind, Schlussfolgerungen zu ziehen und weiteres Wissen abzuleiten. Diese Arbeit untersucht die Möglichkeiten, die durch die Anwendung dieser neuen Techniken im Bereich der Requirement Traceability eröffnet werden können.

2008

Self-organizing Service Discovery: Applying Organic Computing Techniques to Service Oriented Architectures

Diplomarbeit, Oktober 2008

Present service discovery approaches are based on registries, whose design and matching shortcoming still curb the advantages of Service-oriented Architecture applications. Thus in this thesis, a decentralized and self-organizing service discovery approach by applying nature inspired Organic Computing techniques is presented that aims to overcome these shortcoming. Discovery agents of the Self-organizing Service Discovery model automatically locate service requesters and transport their service descriptions for matching purpose to specific service providers in the network in a total decentralized manner. Thereby discovery agents are coordinated in a stigmergic self-organizing way to those service providers, that apparently offer the requested kind of service. To enhance the efficiency of the service discovery and to improve the discovery precision and recall, service discovery model extensions are presented. In order to demonstrate the efficiency and performance of the Self-organizing Service Discovery and the improvements of its extensions, the model variations are evaluated based on a simulation, whose results are promising.

 

Avoidance of Inconsistencies during the Virtual Integration of Vehicle Software

Diplomarbeit, September 2008

 

A Model-driven Approach for generating the Web Service Modeling Ontology (WSMO)

Bachelorarbeit, September 2008

 

Process Mining für semantische Geschäftsprozessmodelle

Diplomarbeit, September 2008

 

Semantic Web Technologien zur automatischen Prozessmodellierung - Analyse und Realisierung

Bachelorarbeit, September 2008

 

Ein Verfahren zur Struktur- und Verhaltensanalyse von UML-Diagrammen durch Attribute

Diplomarbeit, September 2008

Kurzfassung

Metamodellierung ist ein konzeptioneller Ansatz zur Formalisierung der Objektstruktur einer Anwendungsdomäne, der aktuell in der Softwaretechnik, aber auch in anderen Bereichen der Informatik, große Verbreitung findet. Im Gegensatz zu der, durch das Metamodell festgelegten, abstrakten Syntax lässt sich die Semantik eines Modells durch die momentan zur Verfügung stehenden Methodiken jedoch nur unzureichend beschreiben und überprüfen.

Diese Arbeit entwickelt eine flexible und dynamische Technik zur statischen semantischen Analyse von Modellstrukturen, die auf einer Übertragung des auf kontextfreien Grammatiken definierten Attributierungskonzepts auf UML-Metamodelle beruht.

Basierend auf diesem Verfahren wird zudem eine Variante des Datenflussanalyse- Algorithmus vorgestellt, die den Informationsfluss zwischen Modellelementen ermittelt, wodurch Erkenntnisse über das Verhalten auf Instanzebene gewonnen werden können.

Der praktische Einsatz der beschriebenen Techniken wird anhand eines Anwendungsbeispiels und einer prototypischen Implementierung demonstriert.

Abstract

Meta modeling is a conceptual approach to the formalization of the object structure in an application domain and is currently gaining influence in software engineering as well as other areas of computer science. However, in contrast to the definition of the abstract syntax by a meta model, the currently available methods for description and validation of model semantics are not sufficient.

This thesis develops a flexible and dynamic technique for the semantic analysis of model structures that is based on an adaption of the concept used to attribute context-free grammars and is able to operate on UML meta models. Additionally, an attribute-based variant of the data flow analysis algorithm is presented, which allows to identify the information flow between model elements in order to study the model behavior on the instance level. The practical use of the described techniques will be demonstrated on the basis of an example use case and a prototypic implementation.

 

Improving Efficiency and Coordination in Self-Organizing Emergent Systems

Diplomarbeit, September 2008

The Efficiency and Coordination Advisor (ECA) has the ability to improve efficiency and coordination in self-organizing emergent systems by analysing their runtime behaviour and deducing simple rules that allow the agents of the advised system to solve a problem that includes recurring tasks in a way that is very close to the optimum. The proposed approach retains the self-organizing property and the autonomous nature of the advised system as it is not working as a control mechanism and does not interfere with the actual execution of the system. An abstract definition of the mechanism is given as well as an instantiation of the concepts for instances of the Pickup and Delivery Problem solved with an implementation of Digital Semiochemical Coordination, an approach to design self-organizing emergent systems. An evaluation of different scenarios of the PDP shows substantial improvements for scenarios with known sub-optimal behaviour as well as for random scenarios.

 

A SOAP stack for the Qt framework

Diplomarbeit, September 2008

SOAP is a protocol for enabling communication in a distributed system. This document evaluates the SOAP protocol and compares it to other distributed computing techniques like REST, Java RMI and AJAX. Furthermore, it evaluates the Qt framework as well as existing SOAP stacks (Apache Axis2, gSOAP, SOAP::Lite and .NET); after that, the design and implementation of a SOAP stack for the Qt framework is proposed. An analysis of this system will then show whether the requirements of a SOAP toolkit could be met.

 

Evolution von APIs

Diplomarbeit, Juli 2008

 

Identifying control structures for automatic planning of process models

Bachelorarbeit, Juni 2008

 

Patterns for Semantic Business Process Modeling

Diplomarbeit, März 2008

 

Integration von Semantic Web Services anhand von Prozessmodellen

Diplomarbeit, März 2008

 

Ein Ansatz zur Einhaltung von systemweiten Vorgaben in selbst-organisierenden emergenten Systemen

Diplomarbeit, März 2008

Die Entwicklung der Computer- und Softwaresysteme bringt den Fortschritt immer weiter. Die neuen Systeme werden aber immer komplexer und haben immer neue Herausforderungen: Sie sollen mehr autonom sein und dezentralisierte Kontrolle sowie die Selbt-Organisitation aufweisen. Die Systeme werden mehr von mehreren unabhängigen Komponenten aufgebaut, die mit einander interagieren. Die zunehmende Komplexität und solche Phänomene wie Emergenz macht es immer schwieriger die systemweiten Vorgaben in solchen Systemen zu kontrollieren und einzuhalten. In dieser Arbeit wird ein Ansatz zur Einhaltung von systemweiten Vorgaben in selbstorganisierenden emergenten Systemen mit dezentralisierten Koordinationsmechanismen ausgearbeitet. Anhand einer Fallstudie wird eine Realisierung des Ansatzes entwickelt und getestet.

 

Semantic Requirements - Ontologie-basierte Modellierung von Anforderungen im Software-Engineering

Masterarbeit, Januar 2008

 

Annotationen in Java-Code zur automatischen Generierung von Semantic Web Services

Diplomarbeit, Januar 2008

2007

Modellgetriebenes Enterprise Java Beans Deployment

Diplomarbeit, Oktober 2007

 

Konzepte für einen modellgetriebenen Ansatz zur Entwicklung von Policies

Diplomarbeit, September 2007

Die wachsende Komplexität heutiger Informationssysteme erschwert deren Entwicklung, Benutzung und Wartung erheblich. Für den Einsatz und den Betrieb solcher komplexer Systeme existiert mit dem Policy-based Management (PBM) ein vielversprechender Ansatz. Policy-basierte Systeme sollen es Administratoren ermöglichen, die Komplexität in den Griff zu bekommen, indem sie Richtlinien für das Systemverhalten vorgeben können und in gewissem Rahmen Änderungen am Systemverhalten ohne Eingriffe in den Quellcode ermöglichen.

Diese Diplomarbeit analysiert verschiedene Sprachen zur Spezifikation von Policies auf der Basis von zu erstellenden Metamodellen. Darauf aufbauend wird ein generisches Metamodell entwickelt, das als generisches Repräsentationsformat für Policies dient. Mit diesem sollen Policies später sprachunabhängig erfasst und in eine konkrete Spezifikationssprache übersetzen werden können. Außerdem wird gezeigt, wie solche Transformationen vom generischen Metamodell in die Metamodelle der analysierten Sprachen aussehen können.

 

Knowledge based Annotation of Requirements and Reuse of Components

Diplomarbeit, September 2007

Software engineering nowadays is most often a very complex, inefficient, not clearly schedulable and time consuming task. Most of these facts can be related to the software methods used. These have rarely been upscaled to the needs of modern software development. Although reuse has often been called one key in the solution to those problems no methods for an automatic detection of specific artefacts exist. The development of an automatic method which identifies suitable components based on specific requirements would greatly facilitate the requirements- / software engineer's life. Yet, the standard way is to use Google or any other search engine to find matching components.

This work describes an approach to search automatically for already existing components. One major requirement behind this goal is that the user doesn't have to incorporate a lot of additional work as he would have to in other approaches. This means that he simply enters the normal requirement text into the software, which, ideally, automatically analyzes the text and recognizes all kinds of information needed. These would then be marked with tags. In a next step, the so annotated text is inserted into an ontology, which is then compared to the ontology of one other artefact at a time. In the end, a similarity and satisfaction value are returned. Both of them should help the user to find matching components more efficiently than it would take him if he did the search manually. This should reduce the amount of time needed to finish the project as also improve the overall quality.

Starting with a basic introduction about semantic software engineering, the description of the algorithm and the architecture of the prototype is shown. It is then evaluated on different parameter settings, using different example ontologies.

 

Semantikbasiertes Planen von Prozessmodellen: Evaluation und Implementierung

Diplomarbeit, September 2007

 

Organic Computing in den Oracle Core-Technologien

Diplomarbeit, September 2007

In dieser Arbeit wird Organic Computing auf die IT-Infrastruktur in Unternehmen übertragen. Anhand von drei sehr verbreiteten Produkten der Firma Oracle, die auch als Core-Technologien bezeichnet werden, und einer Lösung der Firma Fujitsu Siemens Computers wird untersucht, ob und inwieweit darin bereits Eigenschaften von Organic Computing Systemen zu finden sind und es wird untersucht, wie die Produkte weiter in Richtung Organic Computing verändert werden könnten. Außerdem werden Faktoren genannt, die den Einsatz von Organic Computing Systemen in Unternehmen behindern können. Abschließend wird die Administration der Oracle-Datenbanken in der Zentralen IT der BMW Group untersucht und bewertet.

 

Transformation of graph-oriented process models to BPEL

Diplomarbeit, September 2007

 

Übersetzung der deklarativen Modelltransformationssprache QVT-Relations in Operational Mappings

Diplomarbeit, August 2007

Die Object Management Group (OMG) führte in den 90ern die Unified Modeling Language (UML) ein, welche zunächst in erster Linie der Unterstützung objektorientierter Softwareentwicklung dienen sollte. Inzwischen gilt Model Driven (Software) Development (MDD) als das zukünftige Vorgehensmodell für die Entwicklung von Software. Nach dem Prinzip "Alles ist ein Modell" sollen Softwaresysteme durchgängig mit Hilfe von Modellen beschrieben werden.

Durch QVT (Queries Views Transformations) gibt die OMG einen internationalen Standard für Modell-zu-Modell-Transformationen vor. Aufgrund der Vielzahl an existenten Modellen, welche verschiedene Sichten sowie unterschiedliche Abstraktionsniveaus beschreiben, bildet die Transformationssprache QVT die Verbindung zwischen den Modellen. Meta-Modelle definieren dabei die Modell-Syntax. QVT definiert zwei einerseits einen deklarativen Teil mit den Sprachen Relations und Core, zum anderen erweitert die Sprache Operational Mappings die deklarative Sprache um imperative Implementationsmöglichkeiten.

In dieser Diplomarbeit wurde ein Compiler entwickelt, der in Relations definierte Modell-Transformationen zu Operational Mappings übersetzt. So können beispielsweise im Falle von Änderungen in Quell- oder Zielmodell einer Transformation die erweiterten imperativen Implementations-Möglichkeiten genutzt werden, welche bis dahin nicht erforderlich waren. Zudem ist es meist einfacher, eine Transformation zunächst deklarativ auszudrücken, um sie später imperativ zu erweitern.

 

Sanierung von Altsysteme - Leitfaden zur Verbesserung der SW-Qualität am Beispiel "ATTower"

Diplomarbeit, August 2007

Die vorliegende Arbeit dokumentiert den geplanten Verlauf eines Software-Sanierungsprozesses mit dem Ziel der Erhöhung der Software-Qualität. Gegenstand der Untersuchung ist das Software-System ATTower zur Ausbildung von Fluglotsen, welches von der Firma ATCSim in Kaufbeuren entwickelt und weltweit eingesetzt wird. Das System wurde in den letzten Jahrzehnten (gemäß der damaligen Art und Weise wie Software entwickelt wurde) weder ingenieurmäßig noch evolutionär programmiert, d.h. die Wartung des Systems ist mittlerweilse sehr schwierig geworden, da leichte Änderungen einen meist enormen Aufwand zur Folge haben. Erweiterungen wurden häufig nach dem Grundsatz des geringst möglichen Widerstandes hinzugefügt und haben dadurch die Qualität der Software stetig verschlechtert. Die Wartungskosten übersteigen die derzeitigen Entwicklungskosten um ein Vielfaches. Das Unternehmen hat erkannt, dass es mit ihrem System ATTower an einem Punkt angelangt ist, an dem eine Sanierung oder vollständige Neuentwicklung des Systems unumgänglich ist.

Im Rahmen dieser Diplomarbeit wurden Vorschläge und Vorgehensweisen erarbeitet, wie eine Sanierung des Systems durchgeführt werden könnte. Die zu entwickelnde Strategie muss allerdings berücksichtigen, dass die Sanierung im laufenden Betrieb und von den Entwicklern selbst durchzuführen ist. Auf Grund der bestehenden Kundenanforderungen und den knappen Ressourcen kann es sich das Unternehmen weder leisten, die Weiterentwicklung des Systems für die Zeit der Sanierung einzufrieren, noch ein eigenes Team bereitzustellen, welches die einzelnen Sanierungsaktivitäten plant und durchführt.

Die Diplomarbeit besteht aus drei Teilen. Im ersten Teil wird das Unternehmen mit seinem System ATTower vorgestellt und eine allgemeine Einführung in die Grundlagen der Software-Sanierung gegeben. Der zweite Teil befasst sich mit dem eigentlichen Sanierungsprozess, in dem die einzelnen Schritte der Sanierung, wie System-Analyse, Restrukturierung, Test und Nachdokumentation am Beispiel von ATTower beschrieben werden. Der dritte und letzte Teil der Diplomarbeit fasst nochmals die Schwerpunkte der Sanierung des Systems ATTower zusammen und gibt einen Ausblick auf weitere Möglichkeiten zur Verbesserung der Software-Qualität. Die in dieser Ausarbeitung angeschnittenen Themen, wie Software-Sanierung, Software-Wartung, Qualitätssicherung und Software-Test geben nur einen Einblick in diese Bereiche und sind keinesfalls ein Ersatz für das Studium entsprechender Literatur.

 

Software-Versionsverwaltung und -Konfigurationsmanagement in der Elektronikentwicklung

Diplomarbeit, August 2007

 

Design und Realisierung eines regelbasierten ODX-Parsers in Java

Diplomarbeit, Juli 2007

 

Evaluation, Conception and Development of a Web-based Application supporting Eurocopter's technical helicopter documentation process for customers in the business centre Commercial Helicopters

Masterarbeit, Juli 2007

The following master work deals with the evaluation, conception and development of a web-based application supporting Eurocopter's technical helicopter documentation process for customers in the business centre of commercial helicopters. The first part of the work is a study of the main software architectures and web-application technologies. Subsequently, the helicopter documentation process will be evaluated. This evaluation consists in analysing and modelling the process mentioned above and presenting the technologies and solutions currently used. One of the results of the evaluation is that the current helicopter documentation system has to be extended with new features including for example more final assembly lines. The new system has also to fulfill requirements such as interoperability, availability, web ability, safety and so on. Many concepts can be used to achieve these requirements. The main candidates are: web services in a service oriented architecture and component based architectures such as Enterprise Java Beans. Based on the results of the evaluation, a three-tier architecture has been chosen to develop the new helicopter documentation system. The second part of the work explains how the system has been implemented and shows the results of the test phase.

 

SemAnOn Editor – Semantische Annotation und Visualisierung von Ontologien

Bachelorarbeit, Juni 2007

 

Modellgetriebene Software-Entwicklung für den Enterprise Service Bus

Diplomarbeit, Juni 2007

 

Metadatenrepository für Enterprise Application Integration

Diplomarbeit, Juni 2007

Das Information Retrieval beschäftigt sich mit der Suche nach Informationen in großen Datenmengen. Eine Form der Wissensgewinnung ist die Clusteranalyse, ein Verfahren des Data Mining, die automatisch Gruppen innerhalb von Daten bildet.

Im Rahmen dieser Diplomarbeit waren verschiedene Clutering-Algorithmen und Ähnlichkeitsmaße für semistrukturierte Dokumente zu vergleichen und exemplarisch in einem Clustering-Framework zu realisieren. Vor allem für den sich immer weiter verbreitenden XML-Standard sind bereits mehrere strukturelle Ähnlichkeitsmaße entwickelt, die genauer beleutet werden sollten. Es war auch zu untersuchen, inwiefern sich ein Zusammenhang zwischen strukturellen und inhaltlichen Informationen herstellen lässt. Außerdem galt es weitere Informationen aus den Metadaten und Daten der Enterprise Application Integration-Plattform der MAN Roland AG zu extrahieren und in einem zentralen Repository abzulegen, um eine Suche darin zu ermöglichen.

 

Metadatenrepository für Enterprise Application Integration

Diplomarbeit, Juni 2007

Das Information Retrieval beschäftigt sich mit der Suche nach Informationen in großen Datenmengen. Eine Form der Wissensgewinnung ist die Clusteranalyse, ein Verfahren des Data Mining, die automatisch Gruppen innerhalb von Daten bildet.

Im Rahmen dieser Diplomarbeit waren verschiedene Clutering-Algorithmen und Ähnlichkeitsmaße für semistrukturierte Dokumente zu vergleichen und exemplarisch in einem Clustering-Framework zu realisieren. Vor allem für den sich immer weiter verbreitenden XML-Standard sind bereits mehrere strukturelle Ähnlichkeitsmaße entwickelt, die genauer beleutet werden sollten. Es war auch zu untersuchen, inwiefern sich ein Zusammenhang zwischen strukturellen und inhaltlichen Informationen herstellen lässt. Außerdem galt es weitere Informationen aus den Metadaten und Daten der Enterprise Application Integration-Plattform der MAN Roland AG zu extrahieren und in einem zentralen Repository abzulegen, um eine Suche darin zu ermöglichen.

 

Entwicklung eines verteilten Verfahrens für semantisch angereicherte Servicebeschreibungen im Grid

Diplomarbeit, Mai 2007

Im Umfeld von Service Grids werden Services üblicherweise zentral auf einem bekannten Directory Service abgelegt und können anhand von hinterlegten Kriterien gesucht werden. Doch was passiert, wenn dieser zentrale Service ausfällt? Wäre eine verteilte Suche nicht fehlertoleranter und effizienter? Wäre außerdem eine semantisch angereicherte Suche, mit der passende alternative Services gefunden werden können, wünschenswert?

In dieser Diplomarbeit wurde ein Konzept entwickelt, mit dem Servicebeschreibungen durch semantische Informationen annotiert und auf Basis der Annotationen aufgefunden werden können. Das entwickelte Verfahren des Service Discovery basiert auf Peer-to-Peer-Technologie läuft vollständig verteilt ab. Ergebnis ist ein dezentraler Verzeichnisdienst, der ohne zentrale Einheit auskommt. Zusätzlich zum theoretischen Konzept wurde das entwickelte Verfahren prototypisch implementiert und evaluiert. Die Evaluation beinhaltet eine detaillierte Analyse von Vor- und Nachteilen sowie eine genaue Laufzeitanalyse.

 

Simulation und Evaluation künstlicher Blütenbestäubung

Diplomarbeit, Mai 2007

Einige Bereiche der Informatik sind bereits seit längerer Zeit bestrebt, Phänomene der Natur in künstliche Systeme zu übertragen. Dabei wird unter anderem versucht, das selbst-organisierende Verhalten eines Insektenschwarms künstlich zu erzeugen und effektiv zu nutzen. Ein selbst-organisierendes System in der Biologie ist beispielsweise die Wechselwirkung zwischen Bestäubern und deren Pflanzen. Dieses basiert auf dem Überlebensdrang einer Pflanze, die für ihr Fortbestehen Blüten mit Lockmitteln erzeugt, wie auch eines bestäubenden Insektes, das für sein Fortbestehen Nahrung in den Blüten der Pflanzen sucht. Die Symbiose, d.h. die Anstrengungen, die eine Pflanze für eine Bestäubung und ein Bestäuber für das Auffinden von Nahrung auf sich nimmt, sind Bestandteil des Modells der künstlichen Blütenbestäubung.

Die vorliegende Arbeit beschreibt für das Verständnis des Systems die biologischen Hintergründe wie auch das formale Modell der künstlichen Blütenbestäubung. Des Weiteren soll dieses Modell evaluiert werden, was die Suche einer geeigneten  Simulationsumgebung notwendig macht. Da trotz einer Menge an etablierten, bereits bestehenden Simulationsumgebungen kein geeignetes System gefunden wird, welches den Anforderungen des Modells gerecht wird, muss eine neue, für das Modell passende, Simulationsumgebung entwickelt werden. Nachdem die für die Evaluation relevanten Kriterien identifiziert sind, wird auf Basis des neu entwickelten Systems eine Bewertung des Modells der künstlichen Blütenbestäubung durchgeführt.

 

Entwicklung eines generischen Frameworks zur Integration von Web Services in eine OSGi-basierte Service Plattform

Diplomarbeit, April 2007

 

Algorithmic Planning of Process Models - A Semantic-Based Approach

Diplomarbeit, Februar 2007

Currently the design and modelling of process models is done manually. Process changes that are necessary due to dynamic market environments are therefore expensive in terms of cost and time. SEMPA, an algorithm that is capable of automatically creating process activities from given sets of semantically annotated actions, is developed and described in this thesis.

In this context process models can be regarded as conditional plans including sequences of actions as well as more complex control structures such as parallel split, synchronization, exclusive choice, simple merge, multi-choice and synchronizing merge. In contrast to other approaches in the domain of AI planning and web service composition, the algorithm does not only build conditional plans, but also recognizes all of the afore mentioned control structures. In a subsequent step, those resutling process activities may serve as a basis for concrete implementations in the form of composite web services.

 

Konzept zur Umsetzung von Geschäftsprozessen mit der SAP Enterprise Service Architecture

Diplomarbeit, Januar 2007

2006

Inversion von XSLT-Transformationen

Diplomarbeit, Dezember 2006

 

Tags als Instrument zur Strukturierung von Web-Content

Bachelorarbeit, November 2006

 

Aktiver Webapplikationsschutz durch autonome Agenten

Diplomarbeit, November 2006

 

Realisierung semantikbasierter Business Rules durch Semantic Web Services

Diplomarbeit, November 2006

 

Analyse und Umsetzung von Schedulingalgorithmen zur Optimierung des Produktionsplans eines Zeitungsunternehmens

Diplomarbeit, Oktober 2006

 

Business Rule Engine Framework in Time Tracking System

Diplomarbeit, Oktober 2006

 

Untersuchung, Konzeption und prototypische Realisierung zur automatisierten Generierung von Cross-Selling-Angeboten für die Serviceberatung im Autohaus

Diplomarbeit, September 2006

 

Business Process Management mit JBoss jBPM und vergleichende Darstellung zu Standards der Workflow Management Coalition

Bachelorarbeit, Juni 2006

 

Plug-and-Play Konfigurationsmanager

Diplomarbeit, April 2006

 

Ablösung des bisherigen Datenbanksystems auf Basis von dBase durch ein einheitliches Datenbanksystem auf Basis von Oracle im Glaswerk Augsburg der OSRAM GmbH

Diplomarbeit, März 2006

 

Analyse von Suchstrategien für eine effiziente Ablaufplanung dargestellt anhand eines Beispiels aus der Luftfahrtindustrie

Diplomarbeit, März 2006

 

Lifecyclemanagement von Lieferantenanbindungen

Masterarbeit, März 2006

Das Verwaltungssystem für das Lifecyclemanagement von Lieferantenanbindungen (VLL) ermöglicht es Prozesse modellieren und anschließend durchführen. Hierzu wird zunächst ein Prozess als eine Menge von Aktionen und Zuständen modelliert. Die konkrete Reihenfolge der Aktionen wird dabei nicht explizit festgelegt, sondern wird dynamisch zur Laufzeit berechnet. Dazu definiert jede Aktion Vor- und Nachbedingungen in Form von Zuständen. Sind alle Vorbedingungen einer Aktion erfüllt, so kann diese ausgeführt werden und die Nachbedingungen werden erfüllt. Die fertige Beschreibung eines Prozess kann dann in das System importiert werden, wo daraus ein konkreter Prozess erstellt wird. Bei der Durchführung dieses Prozess werden zunächst die ausführbaren Aktionen ermittelt. Jede dieser Aktionen kann nun von einem Akteur mit der entsprechenden Rolle ausgeführt werden. Dadurch werden neue Zustände erfüllt, was wiederum weitere Aktionen ausführbar macht. Akteure können Menschen oder Computersysteme sein und haben mindestens eine Rolle, die sie zum Ausführen entsprechender Aktionen berechtigt. Sollte ein Arbeitsschritt nicht innerhalb einer vorgegebenen Zeitspanne ausgeführt werden, so startet eine Eskalation. Wurde ein Lieferantenanbindungsprozess erfolgreich abgeschlossen, so kann die entstandene Anbindung weiter im System kontrolliert und beeinflusst werden.

 

Konzeption und Einbettung von Web Mining Verfahren auf den Internetseiten eines E-Commerce Unternehmens

Diplomarbeit, Februar 2006

 

Integration des Content Management Systems CONTENS in den IBM Websphere Portal Server unter Berücksichtigung des Java Content Repository Standards

Diplomarbeit, Februar 2006

Die vorliegende Arbeit befasst sich mit der Integration eines Content Management Systems in einen Portal Server. Als konkrete Systeme werden CONTENS 3.0 und der IBM Websphere Portal Server 5.1 verwendet. Im Zuge der Integration werden die wesentlichen Vorteile der beiden Systeme vereint: Der effiziente Umgang mit redaktionellen Web-Inhalten auf der Seite von CONTENS und eine hochperformante Plattform für die Integration von Geschäftsprozessen und Anwendungen auf der Seite des Websphere Portal Servers. Das nach der Java Specification Request 170 entwickelte Java Content Repository für CONTENS kann nicht nur im Rahmen der Integrationslösung verwendet werden, sondern erlaubt einer Vielzahl möglicher Anwendungen den standardisierten Zugriff auf die von CONTENS verwalteten Inhalte.

 

Development of a PHP Compiler for Mono

Diplomarbeit, Februar 2006

The goal of this diploma thesis is making PHP available as further programming language on the development platform Mono. Like that lots of new possibilities turn up. Developers can use PHP as a fully-fledged programming language for developing standalone applications outside of web pages.

In order to achieve this a compiler is developed which translates PHP scripts into Common Intermediate Language (CIL). CIL is a low level language, is entirely stack based and executed by Mono’s virtual machine. When performing the translation, PHP’s language elements need to be reproduced exactly using only CIL’s features.

PHP is a widely-used scripting language especially suited for web development. Usually scripts written in PHP aren’t standalone applications, but are embedded into HTML. Syntax and semantics are similar to the programming languages C and Perl. PHP also offers modern object oriented features. A recent survey indicates that PHP is used on more than 20 million domains worldwide, so it is the most widely used scripting language on the internet.

Mono is an open source implementation of Microsoft's .NET Framework available for Windows, Linux, UNIX, MacOS and Solaris. This is why applications developed on Mono can be used cross platform. The main focus is on the C# language, but more and more languages such as Java and Python are being supported. Libraries can also be shared between languages. Like that Mono allows developers to choose the programming language depending on the task to be solved.

Up to now PHP hasn’t been supported by Mono. This gap is closed with the compiler developed in this diploma thesis. The implementation is called PHP4Mono and can be downloaded at http://php4mono.sourceforge.net.

2005

Performance evaluation of a Network-Wide Subsystem for Configuration Data Management

Masterarbeit, Dezember 2005

Due to the introduction of more and more complex technologies in the area of mobile communication networks the required configuration management expenses have enormously increased. Therefore Siemens has developed a new configuration management approach that shall enable 'network wide configuration management' (i.e. widely automated creation and execution of configuration updates within a mobile network). The high degree of automation shall immensely reduce the operational expenses. To verify and demonstrate the approach a corresponding experimental system has been implemented.

The objective of the thesis was to perform a performance analysis of the experimental system. Hereby tests concerning the following areas have been executed: scalability (is it possible to configure a large number of different network elements), resilience (can the system cope with a relatively long network-traffic interruption period without any data being lost), parallelization effects (does the simultaneous execution of configuration changes noticeably reduce the corresponding execution time) as well as supplementary performance tests (efficiency of data transmission).

 

 

Einbettung von Datensprachfragmenten in Message Sequence Charts und ihre Syntax- und Semantikanalyse

Diplomarbeit, Dezember 2005, Zusammenarbeit mit ESG Elektroniksystem- und Logistik-GmbH

In der Automobilindustrie werden Message Sequence Charts (MSCs) eingesetzt, um die Kommunikationsabläufe der Steuergeräte in Fahrzeugen zu spezifizieren. Diese Spezifikations-MSCs können in der Testphase durch Analyseprogramme automatisch mit realen Kommunikationsabläufen verglichen werden, um Fehler zu identifizieren.

Im MSC-Standard ist die Möglichkeit vorgesehen, Datensprachfragmente in MSCs einzubetten. Um diese Datensprache später in Tests auswerten zu können, muss sie syntaktisch und semantisch überprüft werden. Dabei entstehen aufgrund der Diagrammstruktur Probleme bezüglich der Lokalisierung von Datendeklarationen und bezüglich der Berechnung von Sichtbarkeitsbereichen.

In dieser Arbeit wurden die möglichen Positionen von MSCs analysiert, an denen Datensprachfragmente auftreten können, eine geeignete Sprache festgelegt und ein Konzept für die Semantikanalyse entwickelt. Es wurde ein Modul, das Data Language Modul, zur Syntax- und Semantikanalyse zur Unterstützung eines Editors für MSCs implementiert.

 

Konzept eines hersteller- und technologieunabhängigen Konfigurationsmanagementsystems zur Konfiguration des O2 Mobilfunk-Access Netzes

Masterarbeit, Oktober 2005, Zusammenarbeit mit O2 Germany GmbH & Co. OHG, München

 

Fachkonzept für eine Schnittstelle zwischen den beiden Systemen ProPlanner (eMPlanner) und SAP R/3 bei der BMW Group

Masterarbeit, Oktober 2005, Zusammenarbeit mit der BMW Group, München

 

Ein MDA-basierter Ansatz für kollaborative Prozesse und dessen Umsetzung mit BPDM und WS-CDL

Diplomarbeit, September 2005

Im Zeitalter der Globalisierung sind Unternehmen immer stärker vernetzt. Die bereits vorhandene technische Infrastruktur des Internets erlaubt die weltweite Kooperation zwischen den IT-Systemen eines Unternehmens und denen seiner Kunden, Zulieferer oder sonstiger Geschäftspartner. Meist ist diese Zusammenarbeit von langer Dauer und muss technisch zuverlässig funktionieren. Lange Zeit war die Systemintegration mit einem hohen Aufwand verbunden. Die Web Services Choreography Description Language verfolgt das Ziel, diesen Aufwand und die damit verbundenen Kosten zu reduzieren sowie mittels eines globalen Modells die technische Zuverlässigkeit zu garantieren. Die vereinbarte Kommunikationsabfolge wird durch so genannte kollaborative Prozesse spezifiziert. Diese können mit dem Business Process Definition Metamodel (BPDM) plattformunabhängig modelliert werden. Die Zielsetzung lautet daher, mit Hilfe der Model Driven Architecture (MDA) einen Ansatz für die Übersetzung dieser Modelle in die Web Services Choreography Description Language zu entwickeln.

Diese Arbeit ist im Bereich der Geschäftsprozessmodellierung anzusiedeln. Sie beschreibt, wie die Zielsetzung durch zwei Transformationen erreicht wird und definiert die dazu notwendigen Transformationsregeln. Zudem beinhaltet sie die Spezifikation eines UML 2.0 Profils für die Web Services Choreography Description Language. Dadurch können die in einem BPDM-Modell noch unbekannten plattformspezifischen Informationen hinzugefügt und mit UML modelliert werden. Neben der Vorstellung relevanter Konzepte des Business Process Definition Metamodels und insbesondere der Web Services Choreography Description Language enthält die Arbeit ein Beispiel, anhand dessen die wichtigsten Transformationsregeln zusammenhängend angewendet werden. Zuletzt wird mit Hilfe des Eclipse Modeling Frameworks ein vereinfachtes Modell des Profils erstellt. Als praktischer Bestandteil der Arbeit erzeugt eine Java Implementierung aus den Modellinstanzen den entsprechenden Code in der Web Services Choreography Description Language.

 

Analyse und Umsetzung von Tourenplanungsalgorithmen zur Gestaltung einer effizienten Zeitungslogistik

Diplomarbeit, September 2005

 

Ontologie-basierte Modellierung und Synthese von Geschäftsprozessen

Diplomarbeit, Juli 2005

Die Modellierung von Geschäftsprozessen ist eine Aufgabe, die wichtige Entscheidungsträger von Firmen vornehmen und dabei ihr Fach- und Domänenwissen einbringen müssen, um ein Geschäftsfeld ausführlich und für andere verständlich darzustellen. Eine etwaige Änderung eines Teilprozesses bringt oft eine komplette Umstrukturierung der Geschäftsabläufe mit sich. Um das Geschäftsprozessmodell nicht manuell aktualisieren zu müssen, werden Methoden benötigt, die eine Unterstützung durch einen Computer ermöglichen. Die Modellierung von Geschäftsprozessen muss daher um semantische Informationen erweitert werden, die für eine Maschine verständlich und auswertbar sind. Aufbauend auf den momentan entstehenden Standards des Semantic Web und Semantic Web Services-Umfeld können einzelne Prozesse semantisch annotiert werden. Wurden alle Prozesse durch semantische Informationen verfeinert, kann eine optimale Ausführungsreihenfolge aller Prozesse berechnet werden. Dieser sogenannte Synthesevorgang kann sowohl bei der Erstellung als auch bei einer Änderung eines Modells durchgeführt werden und erleichtert dadurch die Arbeit des Modellierers.

Die vorliegende Arbeit beschreibt einen Ansatz, wie Geschäftsprozessmodelle um semantische Informationen angereichert werden können. Dafür werden zuerst die am häufigsten verwendeten Modelle zur Beschreibung von Geschäftsprozessen erklärt. Anschliessend werden die verschiedenen Standards des Semantic Web- und Semantic Web Services-Umfeld evaluiert und es wird beschrieben welche Ontologien für eine semantische Prozessmodellierung benötigt werden. Die vorhandenen Konzepte aus dem Semantic Web-Bereich werden für die speziellen Belange der Ontologie-basierten Erweiterung von Geschäftsprozessmodellen aufgegriffen und erweitert. Um eine Synthese der Prozesse zu erreichen, wurden verschiedene Algorithmen entwickelt. Deren Aufbau und die Ergebnisse, die nach Ausführung der Syntheseverfahren im Rahmen diverser Beispiele erzielt wurden, werden detailliert beschrieben.

Um die Algorithmen testen zu können, entstand eine prototypische Implementierung. In diesem Prototyp kann ein Geschäftsprozess durch ein UML2-Aktivitätsdiagramm modelliert werden. Nach Erstellen des Modells ist es möglich eine semantische Anreicherung der einzelnen Prozesse vorzunehmen und eine Synthese durchzuführen. Sowohl der Aufbau und die Konzepte des Programmes, als auch das zugrundeliegende Rahmenwerk und benötigte Komponenten des Prototyps werden erklärt. Abschliessend wird dessen Installation und Bedienung beschrieben, bevor ein kurzer Ausblick über mögliche Erweiterungen der semantischen Modellierung und des Prototyps die Arbeit abrundet.

 

Konzeption und Implementierung eines Monitoringtools zur Überwachung dezentraler Server-Systeme

Diplomarbeit, Juli 2005, Zusammenarbeit mit dem Rechenzentrum der Uni Augsburg

Unternehmensnetze wachsen schnell in ihrer Größe und ihrer Komplexität. Immer mehr Systeme und vernetzte Anwendungen werden integriert. Die Überwachung dieser Netzwerke auf Verfügbarkeit und Funktionsfähigkeit ist daher eine stetig wachsende Aufgabe für die Administratoren. Aus diesem Grunde ist der Einsatz eines Monitoringtools, welches diese Aufgabe erleichtert, für die Administratoren unentbehrlich. In dieser Diplomarbeit wird ein neuartiges Konzept für ein Monitoringtool entwickelt und ein Prototyp realisiert.

Ein komplexes Netzwerk kann in drei Ebenen unterteilt werden, die Netz-, Hardware- und Dienst-ebene. Die Elemente dieser Ebenen stehen sowohl schichtintern als auch schichtübergreifend in Abhängigkeit zueinander. Zum besseren Verständnis der Abhängigkeiten innerhalb der Dienstebene wird eine Einführung in das Mailsystem der Wirtschaftwissenschaftlichen Fakultät gegeben. Anhand dieses Beispiels werden die diversen Abhängigkeitsformen der Dienstebene veranschaulicht. Um eine sinnvolle Überwachung zu gewährleisten, müssen diese Abhängigkeitsstrukturen berücksichtigt werden. Auf dem Markt gibt es zum jetzigen Zeitpunkt kein Tool, welches diese Aufgabe zufrieden stellend löst.

Die vorliegende Diplomarbeit beschäftigt sich mit der Untersuchung ob und wie das Einbinden dieser Strukturen in solch ein Konzept möglich ist. Dabei ist darauf zu achten, dass der Konfigurationsaufwand des konzipierten Tools überschaubar bleibt. Das Ergebnis der Arbeit ist ein Konzept und dessen prototypische Implementierung, welches sowohl schichtübergreifende als auch schichtinterne Abhängigkeiten berücksichtigt und trotzdem -dank XML basierter Konfiguration- leicht verständlich ist.

Abschließend werden potenzielle Erweiterungen des entwickelten Prototypen diskutiert, die für den Einsatz notwendig sind bzw. von Vorteil wären.

 

Effizienzuntersuchungen und prototypische Realisierung eines mobilen Ortungssystems

Diplomarbeit, Juli 2005, Zusammenarbeit mit mobilise GmbH, Augsburg

Das Ziel dieser Diplomarbeit besteht aus der prototypischen Realisierung eines mobilen Ortungssystems und den zugehörigen Effizienzuntersuchungen. Am Besten lässt sich dies an einem möglichen Einsatzszenario veranschaulichen: Eine Firma hat mehrere Aussendienstmitarbeiter im Einsatz. Diese Aussendienstmitarbeiter verfügen über Pocket PCs mit GPS-Empfängern, um ihre Aufträge zu verwalten, als auch um die Pocket PCs zur Navigation einzusetzen. Zusätzlich sind diese Pocket PCs mit einem GPRS-Modul ausgestattet. Zur flexibleren Koordination zwischen den Aussendienstmitarbeitern und dder Firmenzentrale soll es nun von der Zentrale aus möglich sein, die aktuellen Positionen der einzelnen Mitarbeiter zu ermitteln und zu visualisieren. Die zu entwickelnde Lösung soll möglichst kostengünstig und bedienerfreundlich sein.

Der Umfang der Diplomarbeit lässt sich somit in vier Aufgabenbereiche unterteilen: Evaluation unterschiedlicher Übertragungsprotokolle und zugehörige Effizienzuntersuchungen, Konzeption und Entwicklung der PDA-Anwendung, Server-Anwendung und Client-Anwendung.

 

Intelligentes Customizing von Steuertabellen

Diplomarbeit, Juni 2005

 

Konzeption und Realisierung kontinuierlicher Schema- und Datenreplikationen zwischen Instanzen eines EAI-Servers und OLAP-Systemen

Diplomarbeit, Mai 2005, Zusammenarbeit mit dateITup GmbH, Augsburg

 

Erweiterung des Projektmanagements durch die Entwicklung einer webgestützten Versionsverwaltung der Projektdaten auf Basis von Subversion und Wiki

Diplomarbeit, April 2005, Zusammenarbeit mit Fujitsu Siemens Computers, Augsburg

 

Migration von ABAP nach Java basierend auf dem SAP Web Application Server der Netweaver Plattform

Diplomarbeit, April 2005, Zusammenarbeit mit ProSiebenSat.1 Media AG

 

Anbindung von Maschinenkomponenten an eine unternehmensweite Integrationsplattform

Diplomarbeit, März 2005, Zusammen mit KUKA Schweissanlagen GmbH, Augsburg

Unternehmen müssen sich künftig schneller an ein verändertes Marktumfeld anpassen und brauchen dazu eine leistungsfähige, flexible Möglichkeit, die sie bei der Konzeption, Entwicklung und der Laufzeit-Administration ihrer Produkte unterstützt und die Konzentration auf die Kernaufgaben der Produktentwicklung bietet. Die Firma KUKA Schweissanlagen GmbH als Anlagenbauer hat diesen Trend bereits frühzeitig erkannt und setzt im Rahmen der Digitalen Fabrik auf die Integration bestehender Konstruktions- und Planungsanwendungen in die neu entwickelte Integrationsplattform InfoBus. Diese Arbeit beschreibt die notwendigen Schritte für den Entwurf und eine prototypische Integration von Anlagenkomponenten über einen OPC Web Service der angeschlossenen Maschinen an die bestehende Software-Plattform der Firma KUKA, die als anpassungsfähige 3-Schicht-Architektur realisiert ist. Zur Visualisierung wurde die praktische Anbindung einer aufgebauten Testanlage der Firma KUKA an den InfoBus angestrebt. Aus der Problemstellung „Integration von Maschinenkomponenten in den InfoBus“ werden Lösungsansätze für folgende Anforderungen präsentiert und im entwickelten System umgesetzt. Die Aufgaben umfassen dabei die Erstellung eines Objektmodells, die Definition von Schnittstellen, die eine Kommunikation zwischen Anlagenkomponenten und BackEnd-System sowie eine Kommunikation zwischen BackEnd-System und InfoBus ermöglichen. Weiter wird eine Enterprise-Komponente (EJB) konzipiert und entwickelt, welche die Umsetzung der rohen Maschinendaten in die Programmier-APIs und das Objektmodell übernimmt. Abgeschlossen wird das Projekt mit dem Test und der Inbetriebnahme des entwickelten Prototypen.

Der zweite große Bereich der Arbeit geht auf die technischen Grundlagen und Rahmenbedingungen für die Implementierung des Prototypen ein. Es werden die daraus resultierenden Vorteile bei der Implementierung und die notwendige Vorgehensweise bei der Integration und Verwendung der Module beleuchtet. Der Prototyp aus dieser Arbeit, im speziellen die Abfrage und Auslieferung der OPC-Daten auf Präsentationsschichtebene mit einem Web Service zur Aktualisierung der Maschinendaten in ein angeschlossenes Data Warehouse, wird als Bestandteil des BMBF-Vorhabens PROSERV verwendet.

 

Ein MDA-basierter Ansatz zur Modellierung von Organic Computing Systemen

Diplomarbeit, Januar 2005

Die Komplexität heutiger IT-Systeme ist mit der Komplexität der IT-Systeme von vor 40 Jahren kaum mehr zu vergleichen. Schnellere Rechner, größere Speichermedien und höhere Übertragungsgeschwindigkeiten führen zu immer vielseitigeren und umfassenderen Applikationen, deren Komplexität noch weiter steigen wird. Die Anforderungen an die Administration dieser Systeme werden dabei so hoch sein, dass sie von keinem menschlichen Wesen mehr erfüllt werden können. Daher ist es das Ziel, die Administration den Systemen selber zu überlassen, um Eingriffe von außen vermeiden zu können und den Menschen zu entlasten. Solche selbstorganisierenden Systeme werden als Organic Computing Systeme (OCS) bezeichnet, welche durch so genannte Selbst-x Eigenschaften charakterisiert sind. Dazu gehören die Selbst-Konfiguration, die Selbst-Optimierung, die Selbst-Heilung und der Selbst-Schutz des Systems. Eine Schlüsselvoraussetzung für den erfolgreichen Einsatz von Organic Computing Systemen liegt dabei in ihrer Entwicklung. Aus diesem Grund wird eine konsistente und durchgängige Softwareentwicklungsmethodologie benötigt, welche es einem Entwickler ermöglicht, derartig komplexe Systeme zu entwerfen.

Diese Arbeit liefert einen Ansatz für einen modellbasierten Entwicklungsprozess als Grundlage für eine Softwareentwicklungsmethodologie für OCS. Der Ansatz basiert auf dem Framework der Model Driven Architecture, da dieses mit der Definition unterschiedlicher Abstraktionsgrade von Modellen und Modelltransformationen eine geeignete Basis für eine modellbasierte Entwicklung darstellt. Für den Ansatz werden zuerst die Prinzipien der Selbstorganisation an natürlichen, selbstorganisierenden Systemen untersucht, um ein Verständnis für Selbstorganisationsmechanismen zu erhalten. Mit der Analyse eines selbstorganisierenden Produktionsplanungs- und -kontrollsystems aus der Domäne der Fertigungssteuerung werden Anforderungen an die Architektur selbstorganisierender IT-Systeme gesammelt und durch die Untersuchung der technischen Erzeugung von Selbst-x Eigenschaften im Autonomic Computing um konzeptionelle Anforderungen ergänzt. Die gesammelten Anforderungen werden zur Erstellung eines Metamodells für OCS verwendet, in welches auch Konzepte aus Entwicklungsmethodologien für Multi-Agenten-Systeme einfließen. Das Metamodell dient als Fundament des Entwicklungsprozesses, dessen entstehende Modelle so weit wie möglich auf UML 2.0 basieren. Durch eine Evaluierung des Entwicklungsansatzes anhand einer Fallstudie werden abschließend Aspekte identifiziert, welche für die zukünftige Verwendung des erstellten Entwicklungsprozesses in einer Softwareentwicklungsmethodologie zu beachten sind.

2004

Modellgetriebene Geschäftsprozessautomatisierung

Diplomarbeit, September 2004

Die Überwachung, Steuerung und Optimierung von Geschäftsprozessen sind heutzutage kritische Erfolgsfaktoren eines Unternehmens. Darüber hinaus erfordern neue Anforderungen an ein Unternehmen, die beispielsweise durch die Anpassung an neue Kunden oder Geschäftspartner entstehen, oft eine schnelle Änderung von bestehenden komplexen Geschäftsprozessen. Ziel ist es daher, schnell ausführbare Prozesse bereitzustellen und schnell auf Prozessänderungen reagieren zu können. In dieser Arbeit wird als möglicher Lösungsansatz eine modellbasierte Entwicklung bzw. Architektur eingesetzt. In einer modellbasierten Entwicklung werden jedoch für die Abbildung der Geschäftsprozesse eines Unternehmens und der Modellierung eines Informations- und Kommunikationssystems oft unterschiedliche und nicht hinreichend integrierte Modellierungsansätze verwendet. Dies führt zu einem ‚Methodenbruch’ bei der Modellierung, so dass die Systemfunktionalität eines Informations- und Kommunikationssystems die Prozesse eines Unternehmens nicht korrekt oder unzureichend abbildet.
Diese Arbeit beschreibt, wie prozessorientierte Modelle eines Unternehmens auf business-level in möglichst äquivalente Modelle von Informations- und Kommunikationssystemen umgewandelt werden können. Dazu wird zunächst erläutert, wie mit dem Business Process Definition Metamodel, einer Erweiterung der Unified Modeling Language zur Geschäftsprozessbeschreibung, Unternehmensabläufe aus einer prozessorientierten Sicht beschrieben werden können. Als Hauptbeitrag dieser Arbeit wird anschließend eine Abbildung zwischen der Architektur integrierter Informationssysteme und dem Business Process Definition Metamodel entwickelt und mit 120 Abbildungsregeln formell spezifiziert. Schließlich illustriert eine Fallstudie die Anwendung der entwickelten Abbildung anhand eines Praxisbeispiels. Die in dieser Arbeit mit der Abbildung entwickelten Modelle stellen eine durchgängige und konsistente Prozessmodellierung von Fachabteilungen hin zu einem Informations- und Kommunikationssystem sicher und können eine Basis für eine maschinenlesbare Beschreibung von automatisierbaren Geschäftsprozessen bilden.

Suche