Institut für Programmstrukturen und Datenorganisation

Terminkalender

ABBRECHEN || neuen Vortrag anmelden | Vorträge durchsuchen
Monat zurück | Vorträge dieser Monat | Monat vor


Fr, 07.07.2017 Frau Rosina-Teodora Kazakova (Proposal) ID: 100314
Relevance-Driven Feature Engineering
Betreuer: Edouard Fouché
Kurzfassung:
Failure classification is challenging in predictive maintenance scenarios, since large data volumes are being generated continuously in modern factories. This thesis builds a classification model to detect faulty engines in BMW manufactures. In the first part of the work, we will focus on predicting engines deficiency status (binary classification problem). In the second part, we will extend our analysis to a multi class classification problem by predicting the exact failure kind. To some extent, this setting is similar to microarray analysis: Very high dimensional data with very few instances available. This thesis develops a relevance-driven Feature Engineering framework. We will study the integration of feature relevance evaluation in the construction process of new features and define our own criteria to determine the feature subsets relevance. These criteria will be integrated in the Feature Engineering process to accelerate it by pruning the search space, without significantly degrading the data quality.
Passwort:  
 
Herr Daniel Popovic (Proposal) ID: 100315
High-Dimensional Neural-Based Outlier Detection
Betreuer: Edouard Fouché
Kurzfassung:
Outlier detection in high-dimensional spaces is a challenging task because of consequences of the curse of dimensionality. Neural networks have recently gained in popularity for a wide range of applications due to the availability of computational power and large training data sets. Several studies examine the application of different neural network models, such an autoencoder, self-organising maps and restricted Boltzmann machines, for outlier detection in mainly low-dimensional data sets. In this diploma thesis we will investigate if these neural network models can scale to high-dimensional spaces, we will adapt the neural network-based algorithms to the task of high-dimensional outlier detection, we will examine data-driven parameter selection strategies for these algorithms and develop suitable outlier score metrics for these models.
Passwort:  
 
Herr Felix Hofmann (Bachelorthesis) ID: 100316
Constraint-bartie, iterative Workflowentwicklung mti Methoden der Prozessgenerierung am Beispiel einer Studienplanung
Betreuerin: Jutta Mülle
Kurzfassung:
Mit Einführung der Modulhandbücher am KIT gibt es für alle Lehrveranstaltungen vorab verbindliche Beschreibungen in einheitlicher Form an einem Ort. Durch die Fülle an Informationen und Abhängigkeiten von und zwischen Veranstaltungen gestaltet es sich für Studenten dennoch schwierig einen Studienplan zu erstellen oder zu verifizieren. In dieser Arbeit wird ein Werkzeug entwickelt, das einen sinnvollen und vor allem gültigen Studienplan auf Grundlage des bisherigen Studiums und der Vorlieben eines Studenten generiert. Die Struktur und die internen Zusammenhänge des, in den Modulhandbüchern definierten, Lehrangebots sowie die Regeln der Prüfungsordnungen des KIT und die Workflow-basierte Struktur eines Studienplans legen eine Constraint-basierte Modellierung nahe, die es ermöglicht auf Methoden und Definitionen aus dem Bereich der Workflowentwicklung zurückzugreifen. Das im Rahmen dieser Arbeit entwickelte System zur iterativen Generierung eines Studienplans wird in Form einer Software implementiert und durch diese evaluiert.
Passwort:  

Fr, 14.07.2017 Herr Christopher Hermann (Bachelorthesis) ID: 100308
Empirische Ableitung eines statistischen Modells zur Aufwandsplanung
Betreuerin: Anne Koziolek
Kurzfassung:
Für Projektmanager ist es unerlässlich zukünftige Projekte möglichst exakt zu schätzen und das Risiko angemessen zu planen. Das Ziel der vorliegenden Bachelorarbeit war es, ein statistisches Modell zu entwerfen, mit dessen Hilfe die Planung zukünftiger Projekte vereinfacht werden soll. In diesem Modell werden durch Analysieren von historischen Projektdaten Wahrscheinlichkeitsaussagen über zukünftige Projekte berechnet. Diese Wahrscheinlichkeitsaussagen ermöglichen eine einfache und realistische Modellierung des Projektverlaufs. Das vorgestellte Modell wurde mit in der Praxis aufgezeichneten Projektdaten entworfen und anschließend mit diesen Daten evaluiert. Bei der Evaluation zeigte sich, dass das vorgestellte Modell im Vergleich zu den bereits bekannten PERT-Modellen in mehr als der Hälfte der betrachteten Projekte bessere Ergebnisse liefert.
Passwort:  
 
Herr Antonino Simone Di Stefano (Masterthesis) ID: 100319
Lexical Substitution with Word Embeddings: A General Approach to Improve Short Text Classification
Betreuer: Martin Schäler
Kurzfassung:
Die Prädiktionsfähigkeit von Textklassifikations-Systemen beruht hauptsächlich auf der Quantität der Daten, mit denen diese trainiert werden. In vielen Fällen müssen diese Trainingsdaten manuell erzeugt werden, was häufig einen beträchtlichen zeitlichen und finanziellen Aufwand bedeutet. Oft ist es nicht praktikabel, die eigentlich optimale Anzahl an Trainingsdaten manuell zu erzeugen und es muss auf einen kleineren Trainingsdatensatz zurückgegriffen werden. In dieser Arbeit wird eine Methode vorgestellt, welche die Klassifizierungsgenauigkeit in solchen Szenarien verbessern kann. Erreicht wird dies durch eine neue semantisch-statistische Wort-Distanzmetrik. In Kombination mit Clustering-Algorithmen kann letztere verwendet werden, um den Merkmalsraum unter Beibehaltung der Semantik zu reduzieren. Eine besondere Eigenschaft des neuen Distanzmaßes ist die Kombination semantischer Information aus Word Embeddings mit intrinsischen, statistischen Eigenschaften der Trainingsdaten. Im Gegensatz zu existierenden Ansätzen konnten hier Verbesserungen in allen getesteten Datensätzen erzielt werden.
Passwort:  
 
Herr Simon Boob (Bachelorthesis) ID: 100322
Änderungsgetriebene Konsistenz von UML-Komponentenmodellen und UML-Klassenmodellen
Betreuer: Michael Langhammer
Kurzfassung:
Im Rahmen der modellgetriebenen Software-Entwicklung, können für Entwurf und Dokumentation UML-Klassen- und UML-Komponentendiagramme unterstützend verwendet werden. Sie bieten zwei Sichtweisen, die beide unterschiedliche Einsicht in die Architektur und Struktur eines Softwaresystems ermöglichen. Bei paralleler Verwendung beider sollten auftretende Änderungen der Modellierung miteinander konsistent gehalten werden. Dies manuell durchzuführen ist mit beträchtlichem Aufwand verbunden und wird mit erhöhter Komplexität der Modelle steigend unübersichtlicher. Änderungen an einem der Diagramme sollten möglichst automatisiert von einem integrierten Werkzeug gehandhabt werden. Das Framework Vitruvius bietet hier eine Lösung an: Es ermöglicht zwei darauf aufliegende Modelle automatisch miteinander konsistent zu halten. Das Ziel dieser Bachelorarbeit ist, dieses Framework auf UML-Klassen- und UML-Komponentenmodelle auszuweiten. Dazu werden in dieser Thesis Abbildungskonzepte zu verschiedenen Modellelementen diskutiert. Im Anschluss werden die letztlich implementierten, konkreten Konsistenztransformationen vorgestellt und begründet. Desweiteren werden in der Validierung verwendete Diagrammpaare vorgestellt, die als praxisbezogenes Musterexempel die Anwendung des Erarbeiteten vorzeigen.
Passwort:  

Fr, 28.07.2017 Herr Felix Eurich (Bachelorthesis) ID: 100326
Automatisiertes Erkennen und Erlernen neuer Programmabläufe im Kontext natürlichsprachlicher Beschreibungen von Algorithmen
Betreuer: Alexander Wachtel
Kurzfassung:
Im Forschungsgebiet der natürlichsprachlichen Programmierung angesiedelt, beschäftigt sich diese Arbeit mit der Fragestellung, wie neue Algorithmen anhand einer Ablaufbeschreibung in natürlicher Sprache erkannt und erlernt werden können. Ausgangspunkt und gleichzeitig Schnittstelle für die Interaktion mit dem Anwender ist das Dialogsystem JustLingo. Es wurde in vorangegangenen Arbeiten als Excel Add-in, mit der ursprünglichen Idee die komplexe Bedienung von Excel durch das Zulassen von natürlicher Sprache als zusätzliches Bedienwerkzeug zu vereinfachen, umgesetzt. Darauf aufbauend beschreibt die vorliegende Arbeit die Umsetzung und Integration einer naturlichsprachlichen Benutzerschnittestelle, welche die Funktion eines Kompilierers zwischen natürlicher und vom Computer verstandenen Sprache veranschaulicht. Für dessen Umsetzung, wurde eine linguistische Analyse entwickelt, welche in der Lage ist, grundlegenden Werkzeuge der Programmierung, wie z.B. Variablen, Kontrollstrukturen und Zuweisungen in natürlicher Sprache zu erkennen. Des Weiteren wurde ein Interpretationsprozess designt, welcher ein von der Ontologie erkanntes Konzept in eine, ebenfalls als Teil dieser Arbeit, entworfene Datenstruktur überführt.
Passwort: