Forschungsschwerpunkte
Data Quality
Aufgrund schnell wachsender Mengen an strukturierten aber vor allem auch unstrukturierten Daten (Big Data) ist Datenqualit?t heute ein hoch relevantes Thema. So werden bspw. gro?e Mengen an unstrukturierten Daten aus unterschiedlichen, verteilten Quellen in diversen Formaten gesammelt und analysiert (oft in Echtzeit), um relevante Erkenntnisse abzuleiten und unternehmerische Entscheidungen zu unterstützen. Damit die abgeleiteten Ergebnisse valide und wertstiftend sind, ist die Sicherstellung der Qualit?t der zugrundeliegenden Daten unabdingbar.
Konkret werden im Rahmen der Forschungsarbeiten quantitative Methoden und Modelle zur Messung, Steuerung und Verbesserung der Datenqualit?t entwickelt und evaluiert. Dabei werden folgende Ziele verfolgt:
- Entwicklung von Ans?tzen zur Messung der Datenqualit?t strukturierter und unstrukturierter Daten: Es werden effiziente quantitative Ans?tze zur Messung der Datenqualit?t für datenwertorientierte Qualit?tsdimensionen (bspw. Korrektheit, Konsistenz, Aktualit?t, Vollst?ndigkeit, Eindeutigkeit) entwickelt. 百利宫_百利宫娱乐平台¥官网e sollen aufgrund der z. T. enormen Datenmengen automatisiert anwendbar und für unterschiedliche Datenformate (z. B. strukturierte und unstrukturierte Daten) sowie verteilte Daten (z. B. unternehmensinterne und -externe Daten) geeignet sein.
- Entwicklung maschineller Lernverfahren zur Berücksichtigung der Datenqualit?t: Zur Analyse strukturierter und unstrukturierter Daten werden maschinelle Lernverfahren (weiter)entwickelt, um das gemessene Datenqualit?tsniveau (vgl. 1.) methodeninh?rent zu berücksichtigen. 百利宫_百利宫娱乐平台¥官网e Einbeziehung der Datenqualit?t führt nicht nur dazu, dass sich die ermittelten Ergebnisse (z. B. Klassen- oder Clusterzuordnung) sehr stark ?ndern k?nnen. Vielmehr wird auch die Güte der Ergebnisse abh?ngig von der Qualit?t der Inputdaten ermittelt und ausgewiesen, um Entscheidungen wesentlich besser und transparenter als bisher unterstützen zu k?nnen.
- Entscheidungskalküle zur Bewertung der Datenqualit?t und zur Planung von Ma?nahmen: Es wird an Entscheidungskalkülen gearbeitet, die eine ?konomische Bewertung von Datenqualit?tsma?nahmen gerade auch im Kontext von Big Data erlauben. Dabei gilt es sowohl die Kosten als auch den Nutzen unter Berücksichtigung der Charakteristika von Big Data m?glichst automatisiert zu ermitteln. Der Nutzen von Datenqualit?tsma?nahmen resultiert prim?r aus der besseren Entscheidungsqualit?t, die mit h?herer Datenqualit?t einhergeht, wobei insbesondere der konkrete Anwendungsfall sowie die verwendeten maschinellen Lernverfahren zu berücksichtigen sind.
- Datenqualit?t in der Informationssicherheit: Die Bewertung und Verbesserung der Datenqualit?t ist im Kontext der Informationssicherheit besonders herausfordernd. Erstens sind die Auswirkungen einer guten versus schlechten Datenqualit?t speziell in der Informationssicherheit mit einer ungleich h?heren Entscheidungsunsicherheit behaftet. Zweitens kommt hinzu, dass die Qualit?t der Datenbasis für die Analysen und Entscheidungen auch gew?hrleistet sein muss, selbst oder gerade wenn diese Datenbasis mehrere Unternehmen mit (anonymisierten) Sicherheitsvorf?llen umfasst.
Einen ?berblick über die Fragestellungen gibt folgende Abbildung:

OSN & SoME
Online-Plattformen und Online-Reviews
Mit der steigenden Popularit?t von Online-Plattformen wie Yelp, Amazon oder Google ergeben sich neue Herausforderungen für Kunden, Unternehmen und die Plattformen selbst. Eine der gr??ten Herausforderungen dabei ist die riesige Menge an Daten, die Kunden zur Verfügung stehen, wie z.B. die angebotenen Artikel und Online-Reviews. So wurde beispielsweise gesch?tzt, dass Amazon im Jahr 2018 bereits rund 250 Millionen Reviews auf seiner Plattform gehostet hatte. Darüber hinaus fügen Nutzer von Google Maps t?glich mehr als 20 Millionen Informationen zur Plattform hinzu.
Um diese enorme Datenmenge für Kunden, Unternehmen und Plattformen zu analysieren und für Entscheidungen zu nutzen, spielen Recommender Systeme eine zentrale Rolle. Zudem helfen Text Analytics-Verfahren, um mit gro?en Mengen unstrukturierter Textdaten hoher Vielfalt umzugehen, beispielsweise um die Bewertungen in Millionen von Online-Reviews nutzbar zu machen. Hier ist die Feature-basierte Sentimentanalyse zu nennen, die eine automatisierte Analyse individueller Bewertungen in Texten zu bestimmten Aspekten eines Artikels anstrebt.

SEMPA
Unternehmen müssen ihre Prozesse heutzutage schnell restrukturieren bzw. neu entwickeln k?nnen. 百利宫_百利宫娱乐平台¥官网 betrifft sowohl die inner- als auch die zwischenbetrieblichen Prozesse (Lieferketten), um beispielsweise auf ge?nderte Kundenanforderungen, Lieferprobleme und Konkurrenzangebote mit eigenen Leistungen reagieren zu k?nnen. In vielen F?llen ist hier jedoch die flexible Erstellung, Anpassung und Realisierung der Prozessmodelle der Engpass. 百利宫_百利宫娱乐平台¥官网er Engpass wird sich mit Zunahme mobiler und ubiquit?rer Prozesse, die stark von endogenen (wie bspw. Nutzerpr?ferenzen) und exogenen (wie bspw. Umweltfaktoren) Einflüssen und damit Kontextinformationen beeinflusst werden, noch verst?rken.
Im Rahmen des Prozessmanagements wird hier unter anderem die Erh?hung des Automatisierungsgrads diskutiert, d. h. Prozessmodelle sollen (teil-)automatisiert erstellt bzw. angepasst werden. Die Aufgabe einer automatisierten Modellkonstruktion ist dabei als Planungsproblem zu verstehen. Deshalb wird von der Planung von Prozessmodellen gesprochen, die ihrerseits aus Aktionen (PA) erstellt werden. Im Rahmen der Arbeiten – gef?rdert z. B. in den DFG-Projekten SEMPRO und SEMPRO2 sowie dem FWF-Projekt ?Automated Planning of Process Models“ - wurde und wird für diese Planung von Prozessmodellen ein Ansatz - genannt SEMPA (SEMantic-based Planning Approach) - entwickelt. Bild 1 verdeutlicht die Idee: Basierend auf einer semantischen Beschreibung der Anwendungsdom?ne (Ontologie) und einer Bibliothek, in der Aktionen (PA) spezifiziert werden, erstellt der Planer zul?ssige Prozessmodelle (d. h. Abfolgen von Aktionen inklusive notwendiger Kontrollflussstrukturen wie ein Exclusive choice), die eine gegebene Problemstellung (bestehend aus einem Initial- und ein oder mehreren Zielzust?nden) erfüllen. Von teilautomatisiert wird deshalb gesprochen, da die erstellten Modelle als Vorschl?ge zu verstehen sind, die anschlie?end mit den Prozessbeteiligten abzustimmen und unter ?konomischen Aspekten zu bewerten sind. Als Modellierungssprache werden derzeit UML und BPMN genutzt, wobei geplant ist, zukünftig auch andere Sprachen (bspw. Petri-Netze) zu unterstützen.
Neben der automatisierten Planung und Anpassung von Prozessmodellen steht auch deren flexible Realisierung im Mittelpunkt der Forschung. Hier setzen die Konzepte und Technologien der Serviceorientierung (Web Services, Cloud Services oder mobile Services) an. Um hierbei ein hohes Ma? an Flexibilit?t erzielen zu k?nnen, ist die Selektion von Services auf Basis nicht-funktionaler Eigenschaften (Preis, Ausführungsdauer, etc.) für die sp?tere Prozessausführung von zentraler Bedeutung. Hier kann bspw. ein Austausch einzelner Services - insbesondere bei unerwarteten Ereignissen wie einem Serviceausfall - unweigerlich zu Reallokationszeiten und entsprechendem Aufwand führen. 百利宫_百利宫娱乐平台¥官网 steht wiederum der angestrebten Flexibilit?t bei der Umsetzung und Ausführung von Prozessen entgegen.
