Bachelor- und Masterprojekt im Fachgebiet Wissensverarbeitung
Das Projekt behandelt aktuelle Themen des Fachgebiets Wissensverarbeitung:
Das Fachgebiet Wissensverarbeitung forscht an der Entwicklung von Methoden zur Wissensentdeckung und Wissensrepräsentation (Approximation und Exploration von Wissen, Ordnungsstrukturen in Wissen, Ontologieentwicklung) in Daten als auch in der Analyse von (sozialen) Netzwerkdaten und damit verbundenen Wissensprozessen (Metriken in Netzwerken, Anomalieerkennung, Charakterisierung von sozialen Netzwerken). Dabei liegt ein Schwerpunkt auf der exakten algebraischen Modellierung der verwendeten Strukturen und auf der Evaluierung und Neuentwicklung von Netzwerkmaßen. Neben der Erforschung von Grundlagen in den Gebieten Ordnungs- und Verbandstheorie, Beschreibungslogiken, Graphentheorie und Ontologie werden auch Anwendungen – bspw. in sozialen Medien sowie in der Szientometrie – erforscht.
In diesem Umfeld bietet das Fachgebiet regelmäßig eine Reihe von Projektthemen an. Informationen zu den einzelnen Themen geben Ihnen gerne vorab die Betreuer*innen. Die einzelnen Themen sind im Folgenden beschrieben:
Formale Begriffsanalyse mittels Pytorch
In diesem Projekt soll untersucht werden, inwiefern sich Strukturen aus dem Bereich der formalen Begriffsanalyse mittels Pytorch implementieren lassen. Desweiteren soll evaluiert werden, wie sich Aufgaben wie die Berechnung von Ableitungen und Begriffsverbände mittels optimierter Tensoroperationen effizient realisieren lassen.
Informationen: Maximilian Stubbemann
Intrinsische Dimension und Knoteneinbettungen
In dieser Arbeit soll untersucht werden, wie hoch die intrinsische Dimension von Datensätzen ist, welche mit verschiedenen Knoteneinbettungsverfahren aus Graphen erstellt wurden.
Informationen: Maximilian Stubbemann
Stabilität der intrinsischen Dimension
Es gibt mehrere Maße, um die intrinsische Dimension von Datensätzen abzuschätzen. In dieser Arbeit soll untersucht werden, inwieweit diese Maße stabil gegenüber “kleinen” Manipulationen/Fehler in den Datensätzen sind.
Informationen: Maximilian Stubbemann
Frontend-Entwicklung für Conexp-clj
Die Software conexp-clj implementiert viele Methoden der Formalen Begriffsanalyse, einem Teilgebiet der künstlichen Intelligenz. Dabei finden sowohl symbolische als auch hybride Konzepte Anwendung. Für einen Teil der Funktionalität von conexp-clj ist ein Web-Frontend, basierend auf Vue.js, entwickelt worden, welches im Rahmen des vorliegenden Projekts weiterentwickelt werden soll. Insbesondere sollen RuleMining-Methoden (z.B., Implikationen, Assoziationsregeln) Nutzer:innenfreundlich in der GUI abgebildet werden.
Informationen: Tom Hanika, Johannes Hirth
Operationen aus der Relationalen Algebra in der Begriffsanalyse
Operationen (Joins etc) aus der Relationalen Algebra werden häufig verwendet um Daten zu verbinden oder zu kombinieren. Dadurch ergeben sich neue Zusammenhänge zwischen Objekten oder deren Eigenschaften. Eine Methode, um solche Zusammenhänge zu analysieren, kommt aus der Begriffsanalyse. Hierbei werden Veränderungen in der Begrifflichen Struktur analysiert und herausgearbeitet. In dieser Arbeit studieren Sie, wie sich die Begriffliche Struktur eines Datensatzes unter Verwendung von Operationen aus der Relationalen Algebra verändert.
Informationen: Johannes Hirth
Community Detection in WikiData zur Datensatzgenerierung
Knowlegde Graphs wie WikiData enthalten sehr viel Wissen, das im Bereich der künstlichen Intelligenz in vielen Anwendungen eingesetzt werden kann. Der Umfang an Informationen ist aber auch ein Problem für viele Anwendungen. Ihre Aufgabe besteht darin, Methoden der Community Detection in sozialen Netzwerken auf die Struktur von WikiData zu übertragen. Des Weiteren sollen Sie untersuchen, wie diese Methoden genutzt werden können, um kleinere Teil-Datensätze aus WikiData zu extrahieren.
Informationen: Johannes Hirth
Logische Repräsentationen für Skalenmaße
Eine Methode der Datenskalierung in der Formalen Begriffsanalyse sind Skalenmaße. Das Skalenmaß-Framework bietet eine kanonische Repräsentation für jede mögliche Skalierung. Diese Repräsentation ist aber nicht gut im Sinne der Interpretierbarkeit der Attribute. Um dieses Problem zu lösen, gibt es eine Interpretation der kanonischen Attribute mittels konjunktiv verknüpfter Attribute des Originaldatensatzes. In dieser Arbeit sollen Sie weitere logische Repräsentation erarbeiten und miteinander auf deren Interpretierbarkeit, Ausdrucksstärke und Berechenbarkeit vergleichen.
Informationen: Johannes Hirth
Evaluierung von Graphzeichnungen
Ziel dieser Arbeit ist es, zu evaluieren, welche “weichen” Kriterien für Graphzeichnungen in der Praxis wie stark mit als “schön” wahrgenommenen Zeichnungen korellieren. Außerdem soll untersucht werden, inwieweit die “wichtigen” Kriterien sich beim Zeichnen von Graphen und Ordnungsdiagrammen unterscheiden.
Informationen: Maximilian Stubbemann
Einbettungsverfahren für Formale Kontexte
Ziel dieses Projektes ist es, Verfahren zur Einbettung von Gegenständen und Objekten in formalen Kontexten zu recherchieren und für conexp-clj zu implementieren.
Informationen: Maximilian Stubbemann
Automatisierte Themenbenennung
Topic Models berechnen i.d.R. Themen, aus denen sich ihre “wichtigsten” Wörter ableiten lassen. In der Forschung existieren bereits einige Ansätze zur automatisierten Benennung von Themen solcher Wortmengen. In dieser Arbeit sollen verschiedene bestehende sowie mindestens ein eigener Ansatz implementiert und miteinander verglichen werden.
Informationen: Bastian Schäfermeier
Planar polyline edge-length ratio on a fixed grid
The planar edge-length ratio of a straight-line drawing is defined as the ratio between the length of longest edge and the length of the shortest edge. There has been recent attention to this topic with several publications, for example. The planar polyline edge-length ratio is a generalization of the planar edge-length ratio where edges do not have to be straight-line segments, but can be polylines with a maximum number of bends per edge defined by the input.
The goal of this project is to develop an algorithm in order to minimize the planar polyline edge-length ratio.
Informationen: Dominik Dürrschnabel
Thematische Trajektorien mit Dynamischen Topic Models
Am Fachgebiet Wissensverarbeitung wird zur Zeit an thematischen Trajektorien von wissenschaftlichen Konferenzen und Journalen geforscht. In unserer Forschung wurden (statische) Themen durch die sogenannte Nonnegative Matrix Factorization (NMF) extrahiert. In dieser Arbeit sollen dynamische Verfahren, bei denen sich Themen über die Zeit ändern (z.Bsp. D-LDA), auf ihre Tauglichkeit überprüft werden.
Informationen: Bastian Schäfermeier
Heuristiken für das Sugiyama-Framework
Das Sugiyama Framework ist ein Framework für die automatische Generierung von Zeichnungen von Graphen und Netzwerken. Dabei müssen mehrere NP-schwere Probleme mit Hilfe von Heuristiken gelöst werden.
Das Ziel dieses Projektes ist es, die wichtigsten Heuristiken aufzuarbeiten und diese miteinander, sowie (wo möglich) mit einer exakten Lösung der Probleme zu vergleichen. Dafür soll eine User-Studie durchgeführt werden.
Informationen: Dominik Dürrschnabel
K-Means und FCA
K-means, oder genauer Lloyds-Algorithmus, ist eine Technik, durch welche Datenpunkte im Euklidischen Raum in eine Anzahl von k-Clustern zerlegt werden können. Durch wiederholtes Ausführen mit unterschiedlichem k entsteht eine Menge von sich teilweise überlappenden Clustern. Durch das Hinzufügen der Schnitte der einzelnen Cluster können diese zu einer Verbandsstruktur erweitert werden. Dieser Verband wiederum hat einen zugehörigen formalen Kontext.
Das Ziel dieses Projektes ist es zu untersuchen, inwiefern diese Cluster mit dem Hüllensystem des formalen Kontextes zusammenhängen.
Informationen: Dominik Dürrschnabel
Invarianten für Formale Kontexte
Es ist nicht einfach zu erkennen, ob zwei (reduzierte) Formale Kontexte isomorph sind, bzw. gegeben eine Menge Formaler Kontexte zu erkennen, wie viele verschiedene Formale Kontexte dort enthalten sind. Ein Hilfsmittel sind Invarianten, also abgeleitete Größen, die nicht von der konkreten Darstellung des Formalen Kontexts abhängen, beispielsweise die Anzahl der Attribute des Kontexts oder auch die Anzahl der Begriffe des Kontexts. Haben zwei Kontexte unterschiedliche Werte für eine Invariante, so sind die Kontexte nicht isomorph. Ziel ist es, Formale Kontexte hinsichtlich möglicher Invarianten zu untersuchen. Formale Kontexte können als bipartite Graphen dargestellt werden, daher sollen insbesondere bekannte Graph-Invarianten in Betracht gezogen werden.
Informationen: Maximilian Felde
Begriffliches Skalieren von Datensätzen
Begriffliches Skalieren ist eine Methode der Formalen Begriffsanalyse, um einen mehrwertigen Kontext (d.h. einen tabellarischen Datensatz) in einen (einwertigen) formalen Kontext zu überführen. Dazu wurde am Fachgebiet eine Anwendung entwickelt, die grundlegende Funktionalität zum Begrifflichen Skalieren bereitstellt. Ziel des Projekts ist es, diese Anwendung weiterzuentwickeln. Die Programmiersprache ist Clojurescript.
Informationen: Maximilian Felde
Eigenschaften von Knoteneinbettungen
In dieser Arbeit sollen verschiedene Einbettungsverfahren für Netzwerke dahingehend untersucht werden, inwiefern Eigenschaften wie “Nähe” im Ko-Autorengraphen mit der Nähe in der Einbettung korrespondiert. Bei welchen Verfahren werden Nachbarn “nahe” eingebettet? Korrespondiert die Pfadlänge von Knoten im Graphen zu ihrem Abstand im Graphen? Als weiterer Schritt kann hier untersucht werden, ob ein Klassifikator aus einem Graphen und einer Einbettung entscheiden kann, mit welchem Verfahren der Graph eingebettet wurde.
Informationen: Maximilian Stubbemann
Concept Neural Networks
Bei der Klassifikation in Graphen ist es üblich, mittels Graph Neuronalen Netzen (GNNs) die Struktur des Graphen zu nutzen, um die Klassifikation von Knoten zu verbessern. Ziel dieser Arbeit ist es, diesen Ansatz auf die Formale Begriffsanalyse zu übertragen, indem die “Faltungsoperation” anhand von Konzepten durchgeführt wird. Vergleichen Sie dieses Verfahren mit anderen Verfahren, die neuronale Netze basierend auf Begriffsverbänden nutzen!
Informationen: Maximilian Stubbemann
Reduktionstechniken in der Formalen Begriffsanalyse
Ein Problem für Algorithmen der Formalen Begriffsanalyse ist die Größe der Daten. In dieser Arbeit sollen verschiedene Techniken zur Größenreduktion oder Kompression zusammengetragen und gegenübergestellt werden. Dabei soll insbesondere auf den Informationsverlust in einem geeigneten Formalismus eingegangen werden.
Informationen: Johannes Hirth
PCA auf formalen Kontexten
Principal Component Analysis dient dazu, Datensätze zu vereinfachen. Hierbei wird eine große Menge an (möglicherweise) korrelierten Variablen in eine möglichst aussagekräftige kleinere Menge transformiert. Dieses Vorgehen soll auf formale Kontexte übertragen werden, um ihre Merkmalsmenge einzuschränken.
Informationen: Maren Koyda
Weitere Themen auf Nachfrage.
Aufgabenstellung und Termin
Nach Absprache mit der/dem jeweiligen Betreuer*in. Je nach Thema kann die Aufgabe in Kleingruppen oder einzeln bearbeitet werden.
Projektvorbesprechung
Montag, 25.10.2021, 16:15 Uhr, online.
Vorkenntnisse
Informatik Grundstudium
Angesprochener Hörer*innenkreis
Informatik Bachelor und Master, Math. NF Inf. Hauptstudium
Umfang
6 oder 12 Credits im Bachelor, bzw. 8 Credits im Master
Leistungsnachweis
Implementierung, schriftliche Ausarbeitung und zwei Vorträge (bei 6 Credits 20 min, bei 8/12 Credits 30 min, jeweils zzgl. ca 15 min Diskussion)
Veranstalter*in
Prof. Dr. Gerd Stumme, Dr. Tom Hanika, Bastian Schäfermeier, M.Sc., Dominik Dürrschnabel, M.Sc., Johannes Hirth, M.Sc., Maren Koyda, M.Sc., Maximilian Felde, M.Sc., Maximilian Stubbemann, M.Sc.,
Ablauf
In der Regel sollte die Projektarbeit mit Semesterbeginn begonnen werden. Nach 4-6 Wochen findet eine Zwischenpräsentation statt, in der der Stand der Projektarbeit vorgestellt wird. In der Regel in der ersten Vorlesungswoche des folgenden Semesters werden dann die Endergebnisse vorgestellt. Eine kurze Beschreibung der Arbeit (5 Seiten) ist 3 Tage vor dem Vortrag einzureichen.
Eine Woche nach der Annahme des Themas gibt die/der Studierende eine einseitige Beschreibung der Aufgabe, sowie einen Arbeitsplan für das Semester ab. Zur besseren Koordination und Kommunikation wird erwartet, dass die/der Studierende bei einem 6(8-12) Credits-Projekt regelmäßig an einem (zwei) Tagen in der Softwarewerkstatt anwesend ist. Der genaue Tag ist in Absprache mit der/m Betreuer*in festzulegen.
Als Richtlinie für die Erstellung einer guten Ausarbeitung wird das Buch
Markus Deininger and Horst Lichter and Jochen Ludewig and Kurt Schneider. Studien-Arbeiten: ein Leitfaden zur Vorbereitung, Durchführung und Betreuung von Studien-, Diplom- Abschluss- und Doktorarbeiten am Beispiel Informatik. 5. Auflage. vdf Hochschulverlag, Zürich, 2005.
empfohlen, welches in der Bibliothek im Semesterapparat des Fachgebiets Wissensverarbeitung ausliegt, und welches auch in einigen Exemplaren ausleihbar ist. Wir empfehlen die Anschaffung dieses Buchs (9,50 €), da es Sie bis zur Masterarbeit (und weiter) begleiten kann.
Alle verwendeten Referenzen sind zusätzlich zum Literaturverzeichnis der Ausarbeitung in BibSonomy einzugeben, mit den Tags “projekt kde < laufendes Semester in der Form ss20 bzw. ww20 > ” und weiteren sinnvollen Tags.