Nebeninhalt

Materialien

Abschlussarbeiten
(Bachelor/Master/Studienarbeiten)

Hier wollen wir einige Anregungen zu studentischen Arbeiten im Bereich unserer Forschungsthemen geben. Die Themen können jeweils auf die jeweiligen Rahmenbedingungen für Bachelor-, Studien- und Master-Arbeiten, sowie auf die speziellen Interessen der Bearbeitenden zugeschnitten werden. Die Zuordnung der einzelnen Themen zu Master- bzw. Studien-/Bachelor-Arbeiten ist deswegen auch nur als grobe Einstufung zu sehen und kann durch Kürzungen oder Erweiterungen des Themas gegebenenfalls auch angepasst werden.
Inhaltlich geht es dabei zum Beispiel um spannende Themen in den Bereichen Sicherheit, UML, Modell-basierte Entwicklung, E-Commerce, ... Gegebenfalls kann die Durchführung einer Abschlussarbeit mit der Tätigkeit im Rahmen einer Hiwi-Stelle verknüpft werden (siehe hier).

Weiterhin bestehen gute Kontakte zu Firmen, mit denen zusammen Abschlussarbeiten durchgeführt werden können.

Allgemeine Informationen zu den Themen unserer Arbeitsgruppe gibt es in der Lehrgebietsvorstellung.

Bei Interesse melden Sie sich bitte so bald wie möglich bei den angegebenen Ansprechpartnern. Bitte schicken Sie mit Ihrer Anfrage einen Lebenslauf und den bisherigen Studienverlauf inkl. aktuellem Notenspiegel.

Themenfelder

In den folgenden Themenfeldern können ständig Arbeiten geschrieben werden. Da die Themen sich in ständiger Weiterentwicklung befinden, sind die Ausschreibungen generisch und können auf Anfrage konkretisiert werden.

  • Spezifikation von IT-Sicherheitszielen für die Geschäftsprozessmodellierung
  • Integration von Sicherheitschecks in die Ausführung von Geschäftsprozessen
  • Formale Abbildung von regulatorischer Compliance auf Security Policies
  • Management von Compliance- und Sicherheitsanforderungen
  • Sicherheits-Risikomanagement und -bewertung
  • Werkzeuggestützte Modell-basierte Sicherheits-/Compliance-Analyse
  • Sicherheit evolutionierender Software und in evolutionierenden Softwareumgebungen
  • Sicherer Informationsfluss
  • Sicherheitsökonomische Analysen
  • (Automatisierte) Sicherheitsanalysen für Cloud Computing Umgebungen
  • Erweiterung der UMLsec Spezifikation für Sicherheitsanalysen
  • Implementierung von Analyse-Plugins in CARiSMA

Beispiele für abgeschlossene Arbeiten

Konzeption und Implementierung einer Schnittstelle zur Sicherheitsanalyse mit CARiSMA im Kontext von Serviceorientierten Architekturen (Bachelor)
Autor: Beckmann, Andreas
Beteiligt: Jürjens, Jan; Pape, Sebastian

Berechnung einer optimalen Strategie in allgemeinen Risikoanalysen mit ARA (Master)
Autor: Michel, Marcel
Beteiligt: Jürjens, Jan; Schmitz, Andreas

Erweiterung der Business Process Model and Notation für Return on Security Investment Analysen (Diplom)
Autor: Thalmann, Dominik
Beteiligt: Jürjens, Jan; Pape, Sebastian

Mehrparteien-Signaturen für elektronische Dokumente im Bereich der Telemedizin (Master)
Autor: Hartwecker, Jannic
Beteiligt: Jürjens, Jan; Deiters, Wolfgang

Entwicklung eines Eclipse-Plugins für Matlab-unterstützte Auswertungen des Return on Security Investment (Bachelor)
Autor: Schnitzler, Theodor
Beteiligt: Jürjens, Jan; Schmitz, Andreas

Anwendung von Process-Mining-Ansätzen auf Log-Daten aus SAP-Systemen (Diplom)
Autor: Blyufshteyn, Igor
Beteiligt: Jürjens, Jan; Rehof, Jakob

Formale Abbildung der regulatorischen Compliance auf Security Policies (Diplom)
Autor: Bostan, Elena-Crina
Beteiligt: Jürjens, Jan; Hirsch, Martin

Aktuelle Themen

Offene Ausschreibungen Open topics

Datenschutzbewusste Trusted-Konnektoren für kognitive Häfen (Master) #0196

Kontakt/Contact:
Dr. Amirshayan Ahmadian (ahmadian@uni-koblenz.de)

In the context of the DataPorts project, a data platform for the connection of cognitive ports will be developed in which transportation and logistics companies around a seaport will be able to manage data like any other company asset, in order to create the basis to offer cognitive services\footnotehttps://dataports-project.eu. An overview of the DataPorts platform with several functionalities and components is provided in Figure dataports. Ensuring security is an important aspect of the DataPorts data platform. A secure environment of data exchange in reliable and trustworthy manner has to be created, with access permits and contracts to allow data sharing and the exploration of new artificial intelligence and cognitive services.

 Zusammenfassung   PDF 

Privacy-Aware Trusted Connectors for Cognitive Ports (Master) #0196

Kontakt/Contact:
Dr. Amirshayan Ahmadian (ahmadian@uni-koblenz.de)

In the context of the DataPorts project, a data platform for the connection of cognitive ports will be developed in which transportation and logistics companies around a seaport will be able to manage data like any other company asset, in order to create the basis to offer cognitive services\footnotehttps://dataports-project.eu. An overview of the DataPorts platform with several functionalities and components is provided in Figure dataports. Ensuring security is an important aspect of the DataPorts data platform. A secure environment of data exchange in reliable and trustworthy manner has to be created, with access permits and contracts to allow data sharing and the exploration of new artificial intelligence and cognitive services.

 Abstract   PDF 

Datenschutzbewusste Systeme in industriellen Umgebungen (Master) #0195

Kontakt/Contact:
Dr. Amirshayan Ahmadian (ahmadian@uni-koblenz.de)

A main problem for IT service providers is to avoid data breaches and provide data protection. Article 25 of Regulation (EU) 2016/679 refers to Privacy by Design (PbD). PbD implies the design of a system must be analyzed with regard to privacy preferences and, where necessary, be improved to technically support privacy and data protection.

 Zusammenfassung   PDF 

Privacy-Aware Systems in Industrial Ecosystems (Master) #0195

Kontakt/Contact:
Dr. Amirshayan Ahmadian (ahmadian@uni-koblenz.de)

A main problem for IT service providers is to avoid data breaches and provide data protection. Article 25 of Regulation (EU) 2016/679 refers to Privacy by Design (PbD). PbD implies the design of a system must be analyzed with regard to privacy preferences and, where necessary, be improved to technically support privacy and data protection.

 Abstract   PDF 

Modellbasierte Konsistenzanalyse automatisierter Materialflusssysteme (Master) #0194

Kontakt:
Dr. Marco Konersmann

Cyber-physical production systems are production systems that are accompanied by digital assets that help to control and monitor them. Automated material flow systems (aMFS) are parts of cyber-physical production systems that handle the flow of material from workstation to workstation and how they are processed. Analyzing aMFS before building is important, because changing a prescriptive model is considerably cheaper than changing an aMFS that is already built physically. Specifications of aMFS based on model-based approaches from the software-engineering domain are promising for specifying and analyzing these systems for inconsistencies, that can lead to slower production rates than necessary or even to functional incorrectness. In our current project “Explainable AI for Automated Production Systems (XAPS)”, funded by the BMBF, we develop model-based abstractions for explaining the results of AI for finding issues in these systems. In preliminary work we developed a language “Flowscale” for specifying aMFS for a synthetic example use case (a sweets-on-demand system) and built the system in hardware and software. From the language, code is generated on ESP8266 controllers that drive the system. The language is neither built for, not has it been analyzed for consistency management. The goal of this thesis is to improve the development of automated material flow systems with an approach for analyzing model-based specification of aMFS for inconsistencies.

 Zusammenfassung   PDF 

Model-based consistency analysis of automated material flow systems (Master) #0194

Kontakt:
Dr. Marco Konersmann

Cyber-physical production systems are production systems that are accompanied by digital assets that help to control and monitor them. Automated material flow systems (aMFS) are parts of cyber-physical production systems that handle the flow of material from workstation to workstation and how they are processed. Analyzing aMFS before building is important, because changing a prescriptive model is considerably cheaper than changing an aMFS that is already built physically. Specifications of aMFS based on model-based approaches from the software-engineering domain are promising for specifying and analyzing these systems for inconsistencies, that can lead to slower production rates than necessary or even to functional incorrectness. In our current project “Explainable AI for Automated Production Systems (XAPS)”, funded by the BMBF, we develop model-based abstractions for explaining the results of AI for finding issues in these systems. In preliminary work we developed a language “Flowscale” for specifying aMFS for a synthetic example use case (a sweets-on-demand system) and built the system in hardware and software. From the language, code is generated on ESP8266 controllers that drive the system. The language is neither built for, not has it been analyzed for consistency management. The goal of this thesis is to improve the development of automated material flow systems with an approach for analyzing model-based specification of aMFS for inconsistencies.

 Abstract   PDF 

Spezifikation von Fairness-Anforderungen (Master) #0193

Kontakt:
Dr. Qusai Ramadan

Automated Decision-Making Software (DMS) became responsible for sensitive decisions with far-reaching societal impact in many areas of our lives. However, the risk that a falsely developed DMS may lead to unlawful discrimination against persons has raised public and legal awareness on software fairness. For instance, Recital 71 of the European General Data Protection Regulation (GDPR) prescribes to implement technical and organizational measures appropriate to prevent discriminatory effects on natural persons on the basis of racial or ethnic origin. Furthermore, software fairness is stipulated by Article 22, which forbids decisions based on special categories of data as defined in Article 9, such as ethnicity and gender. These data are known as protected characteristics. The works in the software fairness field can be classified into three broad categories based on their goals: First, \textitunderstanding fairness: works that aim at providing (un)formalized fairness definitions and help to understand how discrimination can happen in our systems such as. Second, \textitmitigating discrimination: works that aim at preventing discrimination. Approaches in this direction focus mainly on tackling discrimination in different stages of AI-based software development, namely, data preprocessing, inprocessing, and post-processing methods. Third, \textitdiscrimination detection: works that aim at test/verify whether a system is fair with respect to certain fairness measure. Despite the availability of many approaches in the field of software fairness, we have not found an existing approach that aim at supporting the specifying of fairness requirements at requirements engineering phase of the system development life cycle. According to Brun et al., as with software security, fairness needs to be a first-class entity in the software engineering process.

 Zusammenfassung   PDF 

Supporting the Specification of Fairness Requirements (Master) #0193

Kontakt:
Dr. Qusai Ramadan

Automated Decision-Making Software (DMS) became responsible for sensitive decisions with far-reaching societal impact in many areas of our lives. However, the risk that a falsely developed DMS may lead to unlawful discrimination against persons has raised public and legal awareness on software fairness. For instance, Recital 71 of the European General Data Protection Regulation (GDPR) prescribes to implement technical and organizational measures appropriate to prevent discriminatory effects on natural persons on the basis of racial or ethnic origin. Furthermore, software fairness is stipulated by Article 22, which forbids decisions based on special categories of data as defined in Article 9, such as ethnicity and gender. These data are known as protected characteristics. The works in the software fairness field can be classified into three broad categories based on their goals: First, \textitunderstanding fairness: works that aim at providing (un)formalized fairness definitions and help to understand how discrimination can happen in our systems such as. Second, \textitmitigating discrimination: works that aim at preventing discrimination. Approaches in this direction focus mainly on tackling discrimination in different stages of AI-based software development, namely, data preprocessing, inprocessing, and post-processing methods. Third, \textitdiscrimination detection: works that aim at test/verify whether a system is fair with respect to certain fairness measure. Despite the availability of many approaches in the field of software fairness, we have not found an existing approach that aim at supporting the specifying of fairness requirements at requirements engineering phase of the system development life cycle. According to Brun et al., as with software security, fairness needs to be a first-class entity in the software engineering process.

 Abstract   PDF 

Lösung von Konflikten zwischen Sicherheits-, Datenminimierungs- und Fairness-Requirements (Master) #0192

Kontakt:
Dr. Qusai Ramadan

Requirements are inherently prone to conflicts. Data protection requirements such security, data-minimization and fairness requirements are no exception. Conflicts need to be detected and resolved early during the business process modeling to avoid difficulties of detecting conflicts in later stages of system development. Failure to recognize and resolve conflicts will confuse the stakeholders during the system design and implementation, and may lead to a failure system. In a previous work, we proposed a BPMN-based data protection engineering framework that supports the detection of conflicts between the specified requirements in the BPMN models based on a catalog of domain-independent anti-patterns. A limitation is that our approach is currently does not support the resolution of conflicts. Although a fully automated process would be appreciated, the resolution of conflicts may require human intervention, a further challenging task that involves reasoning on the privacy impact of different solution strategies.

 Zusammenfassung   PDF 

Resolving Conflicts between Security, Data-minimization and Fairness Requirements (Master) #0192

Kontakt:
Dr. Qusai Ramadan

Requirements are inherently prone to conflicts. Data protection requirements such security, data-minimization and fairness requirements are no exception. Conflicts need to be detected and resolved early during the business process modeling to avoid difficulties of detecting conflicts in later stages of system development. Failure to recognize and resolve conflicts will confuse the stakeholders during the system design and implementation, and may lead to a failure system. In a previous work, we proposed a BPMN-based data protection engineering framework that supports the detection of conflicts between the specified requirements in the BPMN models based on a catalog of domain-independent anti-patterns. A limitation is that our approach is currently does not support the resolution of conflicts. Although a fully automated process would be appreciated, the resolution of conflicts may require human intervention, a further challenging task that involves reasoning on the privacy impact of different solution strategies.

 Abstract   PDF 

Synchronizing Software Design Models and Program Code with Concrete and Symbolic Mappings (Master) #0191

Kontakt:
Dr. Marco Konersmann

Unser Framework Codeling\footnote\labelcodelinghttps://codeling.de synchronisiert Modelle und Code, indem es die Notwendigkeit von Modellen als separates Artefakt eliminiert. Das Tool übersetzen Modelle in Quellcode-Muster und zurück. Dies ermöglicht es, bei Bedarf zuverlässig Modelle wie Zustandsautomaten aus dem Quellcode zu extrahieren und Änderungen in den extrahierten Modellen an den Code weiterzugeben. Der generierte Code hat wohldefinierte Schnittstellen für die Interaktion mit seinem kontextuellen Code, d.h. dem Rest des Systems. Das Framework beschreibt für Modell/Code-Mappings Übersetzungen, Code-Libraries und Stubs zur Ausführung der Modelle zur Laufzeit. Die Entwicklung dieser Artefakte ist in diesem Framework zeitaufwändig und fehleranfällig. Durch die Beschreibung von expliziten Mappings kann die Erzeugung der Artefakte automatisiert und damit wesentlich verbessert werden. In dieser Masterarbeit untersuchen Sie, wie Mappings zwischen Software Design-Modellen und Code-Strukturen für das Framework Codeling spezifiziert werden kann, sodass die genannten Artefakte automatisiert erzeugt weden können.

 Zusammenfassung   PDF 

Synchronisation von Software Design Modellen und Programmcode mit konkreten und symbolischen Mappings (Master) #0191

Kontakt:
Dr. Marco Konersmann

Our framework Codeling\footrefcodeling synchronizes models and code by eliminating the need for models as separate artifacts. The tool translates models into source code patterns and back. This allows models such as state machines to be reliably extracted from the source code when needed, and changes in the extracted models can be propagated to the code. The generated code has well-defined interfaces for interaction with its contextual code, i.e. the rest of the system. For model/code mappings, the framework describes translations, code libraries and stubs for executing the models at runtime. The development of these artifacts in this framework is time consuming and error-prone. By describing explicit mappings the generation of the artifacts can be automated and thus significantly improved. In this master thesis you will investigate how mappings between software design models and code structures can be specified for the framework Codeling, so that the mentioned artifacts can be generated automatically.

 Abstract   PDF 

Datenschutzkonformer Austausch und Analyse von Daten verschiedener Datenanbieter mit Techniken des International Data Spaces (Bachelor / Master) #0190

Kontakt:
Dipl.-Inf. Julian Flake

Die Initiative International Data Spaces verfolgt das Ziel, einen sicheren Austausch von Daten zwischen verschiedenen Akteuren zu ermöglichen und zu standardisieren. Zu diesem Zweck wurde ein Referenzarchitekturmodell entwickelt, das die relevanten Aspekte auf einem hohen Abstraktionsniveau beschreibt. Es bestehen bereits Beispiel-Implementierungen einzelner Komponenten des International Data Spaces Ökosystems, die zu einem Szenario verknüpft werden sollen, in dem es mehrere Datenanbieter, einzelne Datenverarbeiter und Datenabnehmer kooperieren. Der Datenaustausch zwischen diesen Akteuren zum Zweck von Analysen personenbezogener Daten soll unter Berücksichtigung von Datenschutzanforderungen ermöglicht werden.

 Zusammenfassung   PDF 

Data protection compliant exchange and analysis of data from different data providers using techniques of the International Data Spaces (Bachelor / Master) #0190

Kontakt:
Dipl.-Inf. Julian Flake

The International Data Spaces initiative aims to enable and to standardize the secure exchange of data between different actors. To this end, a reference architecture model has been developed that describes the relevant aspects on a high level of absraction. Existing example implementations of certain components should be connected to to a scenario in which several data providers, a few data processors and data consumers cooperate. Data exchange between these actors with the goal to analyze personal data should be made possible under consideraton of relevant data protection requirements.

 Abstract   PDF 

Evaluation und Verbesserung der Genauigkeit von Schätzungen der Anzahl von in der Nähe befindlichen Personen mittels WiFi-Signalen (Master / Bachelor) #0189

Contact:
Dipl.-Inf. Julian Flake

Viele WLan-fähige Mobilgeräte senden in regelmäßigen Abständen Signale aus, um z.B. verfügbare Access Points in der Nähe zu erkennen. Da solche Geräte typischerweise von Personen mit sich geführt werden, können diese Signale auch verwendet werden, um die Anzahl der in der Nähe befindlichen Personen zu schätzen. Eine Herausforderung besteht darin, die Signale richtig zu interpretieren und unterschiedliche Umgebungsbedingungen zu berücksichtigen um eine möglichst präzise Annäherung an die Anzahl der in der Nähe befindlichen Personen zu ermöglichen.

 Zusammenfassung   PDF 

Evaluation and improvement of accuracy of estimating the number of nearby persons via WiFi signals (Master / Bachelor) #0189

Contact:
Dipl.-Inf. Julian Flake

Most WiFi enabled mobile devices send signals on a regular basis, e.g. to recognize available access points. Since such mobile devices are typically carried by persons, those signals can also be used to estimate the number of nearby persons. One challenge is to correctly interpret those signals und different environmental conditions to enable the most precise approximation of the number of nearby persons.

 Abstract   PDF 

Kontinuierliche Extraktion und Analyse von Softwarearchitekturmodellen von Open Source Software (Master / Bachelor) #0188

Kontakt:
Dr. Marco Konersmann

Softwarearchitektur beschreibt die wichtigsten Designentscheidungen für ein Softwaresystem auf einer hohen Abstraktionsebene. Die Beschreibung der Softwarearchitektur ist ein wesentlicher Treiber für die Produktqualität. Viele Softwaresysteme, einschließlich Open-Source-Systeme, haben keine aktuellen Architekturbeschreibungen. In dieser Arbeit werden Sie den Quellcode und die Dokumentation von Open-Source-Softwaresystemen nach der zugrunde liegende Software-Architektur untersuchen. Sie werden Tools zur automatischen Generierung von Software-Architekturmodellen aus dem Quellcode entwickeln, basierend auf unserem Tool Codeling (https://codeling.de). Sie entwickeln Konzepte und Tools zum Vergleich der generierten Architektur mit einem normativen Architekturmodell und messen die Unterschiede. Die Modellgenerierung und der Vergleich werden in eine Continuous Integration Pipeline integriert, so dass die Softwarearchitektur in ihrer implementierten und spezifizierten Form kontinuierlich verglichen werden kann.

 Zusammenfassung   PDF 

Continuous Extraction and Analysis of Software Architecture Models in Open Source Software (Master / Bachelor) #0188

Kontakt:
Dr. Marco Konersmann

Software architecture describes the most relevant design decisions for a software system on a high abstraction level. The description of the software architecture is a main driver for the product quality. Many software systems, including open source systems, do not have current architecture descriptions. In this thesis you will analyze the source code and documentation of open source software systems for the underlying software architecture. You will develop tools for automatically generating software architecture models from the source code, based on our tool Codeling (https://codeling.de). You will develop concepts and tools for comparing the generated architecture with a normative architecture model and measure the differences. The model generation and comparison will be integrated into a continuous integration pipeline, so that a the software architecture as implemented and as specified can be compared continuously.

 Abstract   PDF 

Konfigurationsmanagement für Anforderungen
(Master) #0187

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Anforderungen an größere Projekte sind meist über viele untereinander abhängige Dokumente verteilt. Des Weiteren sind an solchen Projekten of mehrere kooperierende Partner beteiligt, die über die Kunden-Zulieferer-Kette (engl. Customer-Supplier-Chain) Verträge eingehen. Typischerweise stellen dabei Kunden ihren (potentiellen) Zulieferern eine Menge solcher abhängiger Anforderungsdokumente zur Verfügung. Besonders in eingebetteten Systemen (engl. Embedded Systems), wie in der Luft- und Raumfahrt, führt dies zu einer hohen Komplexität von Abhängigkeiten zwischen Funktionalitäten die über Hard- und Software auf verschiedene Subsysteme und ihre Spezifikationen verteilt sind. Diese Komplexität erfordert ein hohes Maß an Standardisierung. Für die Raumfahrt stellen die Standards der European Cooperation of Space Standardization (ECSS) wiederverwendbare Anforderungen zur Verfügung, welche in vielen Projekten angewendet werden. Für jedes dieser Projekte müssen diese Anforderungen angepasst (engl. tailored) werden um den projektspezifischen Randbedingungen zu entsprechen. Dabei Änderungen an den Anforderungen zu verwalten -- insbesondere bei wiederverwendeten Anforderungen -- erfordert eine Versionskontrolle, die zwischen semantischen Änderungen und rein redaktionellen Änderungen unterscheiden kann und die verschiedene Konfigurationen von Standards berücksichtigt. Ziel ist es die Konsistenz, Vollständigkeit und Korrektheit der gesamten Spezifikation sicherzustellen.

 Zusammenfassung   PDF 

Configuration Management for Requirements (Master) #0187

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Requirements for larger projects are usually distributed over several interrelated sources, as they mostly involve several cooperating partners. The contributing organizations are organized hierarchically in the so called customer-supplier chain. Typically, a customer provides a set of interrelated requirements documents to (potential) suppliers. Especially embedded systems, like in aerospace, introduce complex dependencies between several subsystems with functions distributed over software and hardware components within the requirements. To handle this complexity, there is a strong need for standardization. For the space business, standards of the European Cooperation of Space Standardization (ECSS) contain reusable requirements which are used in different similar projects. For each project these requirements have to be tailored to the individual needs. To handle change in requirements - especially if reused over several projects - a versioning that keeps track of semantic change operations and can distinguish pure editorial changes from content related ones would facilitate to maintain consistency, completeness and correctness of such dependent specifications and to consider different configurations of tailored standards.

 Abstract   PDF 

Kontexterkennung und Definition von Anforderungen
(Master) #0186

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Begriffe, die in der Formulierung von Anforderungen verwendet werden, können je nach Kontext eine unterschiedliche Bedeutung haben. Um Missverständnisse zu vermeiden, müssen die verwendeten Konzepte eindeutig identifiziert sein. Kontextsensitive Glossare oder Domänenmodelle, können diese Information liefern. Hier muss die Zuordnung zu den Begriffen in der Anforderung jedoch manuell erfolgen. Für eine automatisierte Unterstützung bei der Verlinkung der Konzepte muss auch der Kontext der Anforderung berücksichtigt werden, welcher auch für Qualitätsanalysen genutzt werden kann.

 Zusammenfassung   PDF 

Context dectection and definition for requirements (Master) #0186

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Terms that are used within the phrasing of requirements sentences can have very different meaning dependent on their context of usage. To avoid misunderstandings, these concepts have to be clearly identified. This information can be delivered by context sensitive glossaries or domain models. Yet, this identification has to be provided manually. To automate the linkage the context of the requirement has to be considered. These dependencies could potentially also be used for quality analysis.

 Abstract   PDF 

Untersuchung von Abhängigkeiten in mehrschichtiger Traceability
(Bachelor) #0184

M.Sc. Katharina Großer (grosser@uni-koblenz.de)
Dr. Volker Riediger (riediger@uni-koblenz.de)

Das Projekt T-Reqs, eine kooperation mit der European Space Agency (ESA), entwickelt Techniken zur Verbesserung der Qualität von System- und Software-Anforderungen bezüglich Präzision, Korrektheit und Vollständigkeit. Zwischen den Anforderungsdokumenten eines (Raumfahrt-) Projekts bestehen verschiedene Abhängigkeiten. Diese wechselwirken mit den Beziehungen zwischen den in diesen Dokumenten dargestellten Anforderungen, insbesondere wenn Anforderungsdokumente in verschiedenen Projekten wiederverwendet werden -- z.B. in Form eines Standards. Anfragen an und Bedingungen auf entsprechenden Tracability-Graphen können zur Verständlichkeit und Qualitätssicherung der Projekt-Spezifikation beitragen.

 Zusammenfassung   PDF 

Investigation of dependencies in layered traceability (Bachelor) #0184

M.Sc. Katharina Großer (grosser@uni-koblenz.de)
Dr. Volker Riediger (riediger@uni-koblenz.de)

The project T-Reqs, a cooperation with the European Space Agency (ESA), develops techniques to improve requirements quality regarding precision, correctness and completeness. There exist different dependencies between the specification documents of any (spaceflight) project. Those relations interact with the dependencies between the requirements represented in those documents. This is especially the case, if requirements documents are reused -- e.g. in the form of standards. Constraints on and anylysis of traceability graphs can enhance the understandability and quality of project specifications in system and software engineering.

 Abstract   PDF 

Implementation eines graph-basierten semantischen Wörterbuchs für ECSS
(Bachelor) #0183

M.Sc. Katharina Großer (grosser@uni-koblenz.de)
Dr. Volker Riediger (riediger@uni-koblenz.de)

Das Projekt T-Reqs, eine kooperation mit der European Space Agency (ESA), entwickelt Techniken zur Verbesserung der Qualität von System- und Software-Anforderungen bezüglich Präzision, Korrektheit und Vollständigkeit. Ein Kernbestandteil jeder Anforderungsdokumentation ist ein Glossar, welches alle relevanten Begriffe definiert. Als Unterstützung des T-Reqs-Framework und anderer ESA-Anwendungen soll ein prototypisches Wörterbuch entwickelt werden, welches sowohl ällgemein bekannte" Begriffe, als auch neue Domänenspezifische Definitionen abbilden kann. Besonders wichtig sin hier Begriffe, welche durch die European Cooperation of Space Standardization (ECSS) in ihren Standards definiert wurden. Graph-Technologien, wie z.B. T-Graphen, sind sehr effizient in Transformationen und Anfragen und daher gut für diese Daten geeignet.

 Zusammenfassung   PDF 

Implementation of graph-based semantic dictionary for ECSS (Bachelor) #0183

M.Sc. Katharina Großer (grosser@uni-koblenz.de)
Dr. Volker Riediger (riediger@uni-koblenz.de)

The project T-Reqs, a cooperation with the European Space Agency (ESA), develops techniques to improve requirements quality regarding precision, correctness and completeness. One important part of each requirements documentation is a glossary defining all relevant terms. As support for the T-Reqs project and other ESA applications a prototype dictionary shall be developed that allows to make use of existing ``common sense'' definitions and to define new domain specific terms. Especially relevant to this are terms defined in the context of the European Cooperation of Space Standardization (ECSS). Graph technologies, as e.g. T-Graph, are very efficient for queries and transformation and therefore very well suited for this task.

 Abstract   PDF 

Nutzungsmuster von Smart Contracts (Master / Bachelor) #0179

Kontakt:
Dipl.-Inf. Matthias Lohr (matthiaslohr@uni-koblenz.de),
M.Sc. Sven Peldszus (speldszus@uni-koblenz.de)

Blockchains sind ein Meilenstein im Design und der Funktionsweise verteilter Systeme. Neben einfachen Transaktionen wie z. B. auf der Bitcoin-Blockchain existiert auch die Möglichkeit zur Ausführung von sog. Smart Contracts, z. B. bei der Ethereum-Blockchain. Als Smart Contract wird dabei ein Programm bezeichnet, welches innerhalb des Ökosystems der jeweiligen Blockchain bestimmte, in Code formalisierte Regeln erzwingt, um z. B. Geschäftsprozesse automatisiert und sicher abwickeln zu lassen.

 Zusammenfassung   PDF 

Usage Patterns of Smart Contracts (Master / Bachelor) #0179

Kontakt:
Dipl.-Inf. Matthias Lohr (matthiaslohr@uni-koblenz.de),
M.Sc. Sven Peldszus (speldszus@uni-koblenz.de)

Blockchains are a milestone in the design and functionality of distributed systems. In addition to simple transactions, e.g. on the Bitcoin blockchain, it is also possible to execute so-called Smart Contracts, e.g. on the Ethereum blockchain. A Smart Contract is a program that enforces certain formalized rules within the ecosystem of the respective blockchain, e.g. in order to automate and securely execute business processes.

 Abstract   PDF 

Abbildung von ORM zu T-Graph
(Master) #0176

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Das Projekt ``T-Reqs'' in Kooperation mit der Europäischen Raumfahrtagentur (ESA) entwickelt Techniken, um die Qualität von Anforderungen bezüglich Präzision, Korrektheit und Vollständigkeit mit Hilfe von Ontologien zu verbessern. Ontologien sind Informations-Modelle, die Konzepte der realen Welt sowohl für Menschen als auch Maschinen lesbar beschreiben. So kann Wissen eines abgegrenzten Themengebiets formal dargestellt und für Computersysteme zugänglich gemacht werden. Dabei sind die definitorischen Grenzen zwischen Ontologien und konzeptuellen Modellen fließend. Object-Role Modelling (ORM) ist eine Sprache und Methode für die konzeptuelle Modellierung. Es ist ein Dialekt des Fact-Based Modelling (FBM), welches alle Fakten als attributlose Beziehungen behandelt. ORM basiert auf Prädikatenlogik erster Stufe und strukturiert Fakten als Mengen. ORM, in der aktuellen Version ORM2, besteht aus einer graphischen sowie mit der Formal ORM Language (FORML) einer textuellen Notation. ORM wird im Projekt ``T-Reqs'' eingesetzt, um ein Meta-Modell für Anforderungen und deren Qualitätsmerkmale zu erstellen. Historisch wurde ORM für den konzeptuellen Entwurf von Datenbanken entwickelt. Relationales Mapping von ORM Schemata auf Relationale Schemata ist daher ausführlich definiert. Instanzen eines ORM-Schemas werden üblicherweise in einer dem ORM-Schema entsprechenden Datenbank gehalten, Ableitungsregeln durch Views und Trigger umgesetzt. Ebenso müssen komplexere Constraints durch Trigger umgesetzt werden. Datenbanken haben jedoch Nachteile bei komplexen Abhängigkeiten und Ableitungen und eine geringe Flexibilität, besonders im Blick auf eine umgekehrte generierung von Schemata aus Instanzen. Eine Ableitung von Schemata aus Instanzen eines anderen Schemas ist für T-Reqs interessant, z.B. im Kontext der Erzeugung von Analysemodellen der Anwendungsdomäne aus den erfassten Anforderungen. Graphentechnologien, insbesondere T-Graphen, bieten sehr effiziente Datenstrukturen für Abfragen und Transformationen sowie die Möglichkeit der Modellierung auf verschiedenen Modellierungsebenen. Um die Datenhaltung von Instanzen eines ORM-Schemas durch Graphen zu ermöglichen, muss die Konsistenz zwischen Graph und Schema gewährleistet sein. Ein erstes Mapping existiert, welches die wesentlichen Konzepte von ORM in die Graphenwelt überträgt. Jedoch fehlen noch einige komplexere Bedingungen, Randfälle und Ableitungsregeln für implizietes Wissen. Das Ziel dieser Arbeit ist es diese Erweiterungen zu entwickeln und in das bestehende Framework zu integrieren

 Zusammenfassung   PDF 

Mapping ORM 2 T-Graph (Master) #0176

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

The project ``T-Reqs'', a cooperation with the European Space Agency (ESA), develops techniques to improve requirements quality regarding precision, correctness, and completeness by the means of ontology support. Ontologies are information models defining real world concepts in a human as well as machine readable and formal way. Thereby, knowledge of a specific domain can be made accessible by computer systems. The boundaries to classical conceptual models are blurred. Object-Role Modelling (ORM) is a language and methodology for conceptual modelling. It is a dialect of Fact-Based Modelling (FBM), where all facts are treated as attributeless relations. The logic is based in first order logic and set theory. ORM in its current version ORM2 consists of a graphical notation and the textual Formal ORM Language (FORML). In the context of the T-Reqs project ORM is used to define a requirements meta-model capturing the structure and quality properties of requirements. Traditionally ORM is used in conceptual modelling for relational databases. The mapping of ORM schemata to relational schemata is therefore well defined. Instances of a ORM schema are the population of corresponding relational databases, where derivation rules are implemented as views and triggers. Complex constraints can also be implemented as triggers. Yet, relational databases have some drawbacks, e.g. in handling complex constraints and derivations or regarding their low flexibility. Especially it is hard to generate schemata from instances. This is of special interest in the context of T-Reqs to enable the generation of domain knowledge models for requirements analysis. Graph technologies, as e.g. T-Graph, are very efficient for queries and transformation. Furthermore, they allow for modelling on different levels. A basic mapping definition from ORM to T-Graph translates the main concepts of ORM to graph schemas, but some more complex constraints, corner-cases, and support for derivations are missing. The goal of this thesis is to extend the mapping in these areas and integrate this to the existing framework.

 Abstract   PDF 

Modellbasierte Qualitätssicherung für Anforderungen
(Master / Bachelor) #0165

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Das Requirements Engineering (RE) befasst sich mit der Definition, Dokumentation, Validierung und Verwaltung von Anforderungen. Es ist eine der grundlegendsten Aufgaben in der Systementwicklung. Fehler die durch mangelhafte Anforderungen eingeführt werden, sind nur mit hohem Aufwand oder hohen Kosten später in der Entwicklung, oder sogar nach der Fertigstellung zu beheben. Dies gilt besonders für sicherheitskritische Anwendungsgebiete, wie beispielsweise die Luft- und Raumfahrtindustrie. Typische Probleme sind beispielsweise fehlende, ungenaue oder widersprüchliche Anforderungen. Das Projekt "`T-Reqs"' in Kooperation mit der Europäischen Raumfahrtagentur (ESA) entwickelt Techniken, um die Qualität von Anforderungen bezüglich Präzision, Korrektheit und Vollständigkeit mit Hilfe von Ontologien zu verbessern. Ontologien sind Informations-Modelle, die Konzepte der realen Welt sowohl für Menschen als auch Maschinen lesbar beschreiben. So kann Wissen eines abgegrenzten Themengebiets formal dargestellt und für Computersysteme zugänglich gemacht werden. Dabei wird ein template-basierter Ansatz verfolg. Mit Hilfe von Templates können Anforderungen präzise und strukturiert, jedoch trotzdem in natürlicher Sprache dargestellt werden. Dieser semi-formale Ansatz unterstützt die Ontologie-basierten Qualitätschecks, da Beziehungen zwischen den Bestandteilen einzelner Anforderungen hergestellt werden können. Basierend auf verschiedenen Qualitätschecks, die Mängel und Fehler in Anforderungen identifizieren, kann die Qualität eines Anforderungsdokuments durch verschiedene Metriken bewertet werden.

 Zusammenfassung   PDF 

Model based Requirements Quality Assurance (Master / Bachelor) #0165

M.Sc. Katharina Großer (grosser@uni-koblenz.de)

Requirements Engineering (RE) deals with the definition, documentation, validation, and management of requirements. It is a crucial task in system development. Errors introduced by poor requirements are hard to fix later in development or even after delivery, which is of high cost. This is particularly true for security and safety critical areas, as aerospace industry. Typical errors are missing, ambiguous, or contradicting requirements. In the project ``T-Reqs'' in cooperation with the European Space Agency (ESA) we develop techniques to improve requirements quality with respect to precision, correctness, and completeness by the means of ontology support. Ontologies are information models describing real world concepts in a human as well as machine readable way. Thereby, specific knowledge domains can be described and be made accessible by computer systems. For ``T-Reqs'' a template-based approach is used. By the means of templates requirements can be defined precise and structured, but still human readable. This semi-formal approach facilitates ontology supported quality checks, as relations between the building parts of the requirements sentences can be traced. Flaws and errors in requirements documents can be identified by several such quality checks. Based on that, the overall quality of the document can be evaluated by different metrics.

 Abstract   PDF 

Entwicklung eines UMLsec-Profils zur Darstellung von Sicherheitsmaßnahmen in Cloud-Umgebungen (Bachelorarbeit) #0157

Kontakt:
Prof. Dr. Jan Jürjens (http://jan.jurjens.de)

Die Unified Modeling Language (UML) hat sich zu einem anerkannten Standard in der Modellierung von Software und Systemen entwickelt. Mit Hilfe von angepassten Profilen kann die Mächtigkeit von UML erweitert werden, um für den jeweiligen Bereich benötigte Anforderungen abzudecken. Ein Beispiel hierfür ist UMLsec, das die UML um sicherheitsrelevante Eigenschaften erweitert. Im Rahmen des Projektes ClouDAT (https://www-secse.cs.tu-dortmund.de/secse/pages/research/projects/cloudat/index\_de.shtml) wurde mit den Cloud-Pattern ein Mechanismus entwickelt, mit dem sich komplexe Sachverhalte im Bereich des Cloud Computing darstellen lassen. Eine Abbildung der Pattern in die UML würde es erlauben, cloud-spezifische Sicherheitsmaßnahmen zu annotieren und existierende Werkzeuge (Modellierung, Analyse etc.) auf diese Pattern anzuwenden.

 Zusammenfassung   PDF 
Vorgemerkte Arbeiten Reserved theses
(Zur Zeit keine)(Currently none)
Laufende Arbeiten Ongoing theses
(Zur Zeit keine)(Currently none)