Bachelor- und Masterarbeiten
Themen
Viele Aufgabenstellungen beschäftigen sich mit der Implementierung verschiedener Komponenten in eines der Websysteme, die am Fachgebiet betrieben werden, oder mit der Analyse der in solchen Systemen vorhandenen Daten. Darüber hinaus werden weitere Themen angeboten, die in der Regel einen inhaltlichen Bezug zu aktuellen Forschungsprojekten des Fachgebiets Wissensverarbeitung haben.
Die Themenstellung erfolgt in Absprache mit den Studierenden; die Ausrichtung und der Umfang der Arbeit richten sich nach dem jeweils angestrebten Anschluss. Prinzipiell liegt der Schwerpunkt bei Abschlussarbeiten auf der Methodik, während er bei Projektarbeiten auf der technischen Umsetzung liegt.
Zu folgenden Themengebieten können wir Arbeiten anbieten; zu konkreten Themen können die jeweiligen Betreuer*innen genauere Auskunft geben:
Investigate Formal Conceptual Views in Neural Networks
Mit Formal Conceptual Views ist ein neues Modell zur Erklärung von Neuralen Netzwerken vorgestellt worden. Ziel dieser Arbeit ist es die Methode auf weitere Modelle und Daten Domänen anzuwenden und die Formal Conceptual Views mit weiteren Methoden der symbolischen Wissensverarbeitung zu analysieren.
Informationen: Johannes Hirth
Web Framework for Interactive Visualizations of Hierarchical Data Structures
Visualizations of relationships among properties often rely on hierarchical structures that depict various combinations of properties. A problem of such structures is that they are often misinterpreted by inexperienced users, since closeness and similarity only arise through given edges and not through spatial proximity. Therefore it is necessary to support inexperienced users with possibilities for interaction. The goal of this project is to further develop a web framework for interactive visualization of hierarchical structures.
Informationen: Johannes Hirth
Informationen: Viktoria Horn (Fachgebiet GeDIS)
Knowledge Extraction from OpenStreetMap
Bei OpenStreetMap (OSM) handelt es sich um ein freies Projekt, dessen Ziel es ist, frei nutzbare Geodaten zu sammeln, zu strukturieren und für die Nutzung durch jedermann mittels einer (semantischen) Datenbank zur Verfügung zu stellen. Die Daten in OSM werden insbesondere durch eine Vielzahl von Tags [1] angereichert. Diese Tags können wiederum genutzt werden, um Orte oder Gebiete zu bechreiben. Im Projekt soll daher versucht werden, für gegebene Orte automatisch eine Beschreibung mittels Tags zu generieren. Für das Projekt soll eine Demonstrationsapplikation entwickelt werden, in Clojure oder Python3, welche es erlaubt, gegebene Orte automatisch anhand ihrer Beschreibung aus OSM zu vergleichen. Im Rahmen einer Abschlussarbeit kann darauf aufbauend ein ontologisches Rahmenwerk für diese Art von Ortsvergleichen angefangen werden.
[1] https://wiki.openstreetmap.org/wiki/Tags
Informationen: Tom Hanika
Causal AI — Implementing Causal Closure Operators
Eine große Herausforderung in der KI-Forschung ist es, kausale Zusammenhänge aus gelernten Modellen zu extrahieren. Die Formale Begriffsanalyse bietet dafür eine umfangreiche Palette an Werkzeugen, insbesondere die menschlich-nachvollziehbare Extraktion von Hüllenoperatoren und Hüllensystemen aus Daten. Ein interessanter Ansatz, dies für Kausale-KI zu nutzen, sind kausale Hüllenoperatoren, welche in diesem Projekt oder dieser Arbeit untersucht werden sollen. Dabei liegt für das Projekt der Schwerpunkt in einer effizienten Implementierung eines `Causal Closure Operators` aus der Literatur in Clojure oder Python3. Bei einer Abschlussarbeit liegt der Fokus auf einem Vergleich dieses Operators mit statistischen Ansätzen zu Kausalität in Daten.
Informationen: Tom Hanika
Analyse von WikiCite
Das WikiCite-Projekt [1] versucht, basierend auf der Infrastruktur von WikiData [2], (wissenschaftliche) Publikationen und deren jeweilige Zitationen abzubilden. Bis dato hat das Projekt 40 Mio. Publikationen und ca. 300 Mio Zitationen verlinkt. Ziel dieses Bachelor-/Master-Projektes bzw. einer möglichen Abschlussarbeit ist es, diese Daten hinsichtlich sozialer Netzwerkstrukturen zu analysieren.
[1] http://wikicite.org/
[2] https://www.wikidata.org/
Informationen: Tom Hanika
Core Numbers in Bipartite Networks
Core numbers are efficient valuations for nodes in networks. They are a measure to describe the structural integration of nodes. In this work, you should characterize and study core numbers for bipartite graphs.
Informationen: Johannes Hirth
Intrinsische Dimension und Knoteneinbettungen
In dieser Arbeit soll untersucht werden, wie hoch die intrinsische Dimension von Datensätzen ist, welche mit verschiedenen Knoteneinbettungsverfahren aus Graphen erstellt wurden.
Informationen: Maximilian Stubbemann
Stabilität der intrinsischen Dimension
Es gibt mehrere Maße, um die intrinsische Dimension von Datensätzen abzuschätzen. In dieser Arbeit soll untersucht werden, inwieweit diese Maße stabil gegenüber “kleinen” Manipulationen/Fehler in den Datensätzen sind.
Informationen: Maximilian Stubbemann
Operationen aus der Relationalen Algebra in der Begriffsanalyse
Operationen (Joins etc) aus der Relationalen Algebra werden häufig verwendet um Daten zu verbinden oder zu kombinieren. Dadurch ergeben sich neue Zusammenhänge zwischen Objekten oder deren Eigenschaften. Eine Methode, um solche Zusammenhänge zu analysieren, kommt aus der Begriffsanalyse. Hierbei werden Veränderungen in der Begrifflichen Struktur analysiert und herausgearbeitet. In dieser Arbeit studieren Sie, wie sich die Begriffliche Struktur eines Datensatzes unter Verwendung von Operationen aus der Relationalen Algebra verändert.
Informationen: Johannes Hirth
Community Detection in WikiData zur Datensatzgenerierung
Knowlegde Graphs wie WikiData enthalten sehr viel Wissen, das im Bereich der künstlichen Intelligenz in vielen Anwendungen eingesetzt werden kann. Der Umfang an Informationen ist aber auch ein Problem für viele Anwendungen. Ihre Aufgabe besteht darin, Methoden der Community Detection in sozialen Netzwerken auf die Struktur von WikiData zu übertragen. Des Weiteren sollen Sie untersuchen, wie diese Methoden genutzt werden können, um kleinere Teil-Datensätze aus WikiData zu extrahieren.
Informationen: Johannes Hirth
Evaluierung von Graphzeichnungen
Ziel dieser Arbeit ist es, zu evaluieren, welche “weichen” Kriterien für Graphzeichnungen in der Praxis wie stark mit als “schön” wahrgenommenen Zeichnungen korellieren. Außerdem soll untersucht werden, inwieweit die “wichtigen” Kriterien sich beim Zeichnen von Graphen und Ordnungsdiagrammen unterscheiden.
Informationen: Maximilian Stubbemann
Invarianten für Formale Kontexte
Es ist nicht einfach zu erkennen, ob zwei (reduzierte) Formale Kontexte isomorph sind, bzw. gegeben eine Menge Formaler Kontexte zu erkennen, wie viele verschiedene Formale Kontexte dort enthalten sind. Ein Hilfsmittel sind Invarianten, also abgeleitete Größen, die nicht von der konkreten Darstellung des Formalen Kontexts abhängen, beispielsweise die Anzahl der Attribute des Kontexts oder auch die Anzahl der Begriffe des Kontexts. Haben zwei Kontexte unterschiedliche Werte für eine Invariante, so sind die Kontexte nicht isomorph. Ziel ist es, Formale Kontexte hinsichtlich möglicher Invarianten zu untersuchen. Formale Kontexte können als bipartite Graphen dargestellt werden, daher sollen insbesondere bekannte Graph-Invarianten in Betracht gezogen werden.
Informationen: Maximilian Felde
Concept Neural Networks
Bei der Klassifikation in Graphen ist es üblich, mittels Graph Neuronalen Netzen (GNNs) die Struktur des Graphen zu nutzen, um die Klassifikation von Knoten zu verbessern. Ziel dieser Arbeit ist es, diesen Ansatz auf die Formale Begriffsanalyse zu übertragen, indem die “Faltungsoperation” anhand von Konzepten durchgeführt wird. Vergleichen Sie dieses Verfahren mit anderen Verfahren, die neuronale Netze basierend auf Begriffsverbänden nutzen!
Informationen: Maximilian Stubbemann
Erklärbarkeit von Klassifikatoren durch Surrogate
Viele der gegenwärtig genutzten Lernmodelle zur Klassifikation erzeugen sogenannte Blackbox-Funktionen/Relationen, z.B. Random Forests oder Neuronale Netze. Diese entziehen sich einer direkten Erklärbarkeit und sind daher für Nutzer:innen schwer nachvollzieh- und überprüfbar. Es gibt verschiedene numerische / kategorische/ statistische Ansätze, um diesem Problem zu begegnen. Ein besonderer Ansatz ist Surrogatlernen, d.h., das Trainieren eines erklärbaren Klassifikators basierend auf einer Blackbox. Je nach Ausrichtung (Projekt/Bachelorarbeit/Masterarbeit) soll versucht werden, bestehende Surrogat-Ansätze praktisch zu evaluieren oder theoretische Ansätze fortzusetzen.
Informationen: Tom Hanika
PCA auf formalen Kontexten
Principal Component Analysis dient dazu, Datensätze zu vereinfachen. Hierbei wird eine große Menge an (möglicherweise) korrelierten Variablen in eine möglichst aussagekräftige kleinere Menge transformiert. Dieses Vorgehen soll auf formale Kontexte übertragen werden, um ihre Merkmalsmenge einzuschränken.
Informationen: Maren Koyda
Sprechen Sie uns gern zu weiteren Themen an. Informationen zu den einzelnen Themen geben Ihnen gerne vorab die Betreuer*innen.
Aufgabenstellung und Termin
Nach Absprache mit der/dem jeweiligen Betreuer*in.
Vorkenntnisse
Informatik Grundstudium bzw. 30 absolvierte Credits des Masterstudiums
Angesprochener Hörer*innenkreis
Informatik Bachelor und Master, Math. NF Inf. Hauptstudium
Umfang
9 Wochen für Bachelor und 6 Monate für Master
Leistungsnachweis
In der Regel Implementierung, schriftliche Ausarbeitung und Vortrag
Veranstalter
Prof. Dr. Gerd Stumme, Dr. Tom Hanika, Dominik Dürrschnabel, M.Sc., Maximilian Felde, M.Sc., Johannes Hirth, M.Sc., Maren Koyda, M.Sc., Bastian Schäfermeier, M.Sc., Maximilian Stubbemann, M.Sc.