Publikationen

2024

Hanreich M., Krauss O., Zwettler G.“Efficient classification of live sensor data on Low-Energy IoT devices with simple Machine Learning methods“, EUROCAST 2024.

Link: https://eurocast2024.fulp.ulpgc.es/documents/Eurocast_2024_Extended_Abstract_Book.pdf 

Abstrakt

Geräte des Internets der Dinge (IoT) sind allgegenwärtig, können aber oft nicht dauerhaft an das Stromnetz angeschlossen werden und sind daher auf Batterien und andere Energiequellen wie Solarstrom angewiesen. Diese mobilen Geräte sollten über einen langen Zeitraum laufen, ohne dass sie aufgeladen werden müssen, und dennoch in der Lage sein, vergleichsweise komplexe Aufgaben aus dem Bereich des maschinellen Lernens zu erfüllen, wie z. B. eine Klassifizierungsaufgabe für Live-Sensordaten. Der Stand der Technik, was die Genauigkeit betrifft, sind neuronale Netzwerkmodelle wie LSTM (Long short-term memory) oder CNN (Convolutional neural network). Diese Modelle beanspruchen jedoch in der Regel mehr Flash-Speicher, mehr Arbeitsspeicher der Geräte und mehr CPU-Zeit als herkömmliche maschinelle Lernansätze, was wiederum einen höheren Energiebedarf verursacht. Eine andere Möglichkeit besteht darin, die Zeitreihendaten an einen externen Server zu übertragen, um dort die Berechnungen durchzuführen und das Ergebnis zurückzusenden. Für eine kontinuierliche Klassifizierung von Sensordaten ist dieser Ansatz jedoch oft nicht praktikabel, da die ständige Übertragung einer großen Datenmenge über ein drahtloses Netzwerk erforderlich ist. Wir diskutieren eine Pipeline für eine effiziente Zeitreihenklassifizierung von Live-Sensordaten auf IoT-Geräten mit geringem Energieverbrauch und geräteinterner Verarbeitung. Wir stellen unsere Fallstudie zur Erkennung von Booten vor, die an einer IoT-fähigen Boje anlegen, die über mehrere Monate hinweg energieautark sein muss.

Mühle H., Krauss O., Stöckl A.“The Human-Centered AI-DATA Model for
Digital Customer Journeys in E-Commerce“, EUROCAST 2024.

Link: https://eurocast2024.fulp.ulpgc.es/documents/Eurocast_2024_Extended_Abstract_Book.pdf 

Abstrakt

In einer Zeit, die durch rasante technologische Fortschritte und immer komplexere soziotechnische Systeme gekennzeichnet ist, insbesondere im Hinblick auf die auf künstlicher Intelligenz (KI) basierende E-Commerce-Optimierung, war die Nachfrage nach einer umfassenden Methode zur Lösung von Problemen, die sich aus dem mangelnden Vertrauen in KI-Software-Systeme ergeben könnten, noch nie so groß wie heute. Das Systemdenken bietet einen robusten Rahmen für das Verständnis der komplexen Beziehungen zwischen den verschiedenen Komponenten eines Systems, was es in der heutigen digitalen und KI-basierten Softwarelandschaft besonders relevant macht. Gleichzeitig befindet sich der E-Commerce-Sektor im Umbruch, angetrieben von Fortschritten in der KI und der Datenanalytik, die auf rechtlichen Änderungen in Bezug auf die Allgemeine Datenschutzverordnung (GDPR) und das kommende EU-KI-Gesetz beruhen. Wir erforschen die Synergien zwischen KI-basiertem E-Commerce und Systemdenken, indem wir das AI-DATA-Modell vorstellen, einen menschenzentrierten Ansatz zur Optimierung der Customer Journey im Rahmen einer E-Commerce-Marketingstrategie auf der Grundlage von vertrauenswürdiger KI. AI-DATA ist ein Phasenmodell, das aus Awareness, Interest, Desire, Action, Trust und Again besteht und eine Erweiterung des AIDA-Modells darstellt, das auch den Kundenpfad berücksichtigt, der Aktivitäten nach Abschluss einer Transaktion und einen Zyklus von Wiederholungskunden beinhaltet

Sandler S., Krauss O., Stöckl A.“Using LLMs and Websearch in Order to Perform Fact Checking on Texts Generated by LLMs“, EUROCAST 2024.

Link: https://eurocast2024.fulp.ulpgc.es/documents/Eurocast_2024_Extended_Abstract_Book.pdf 

Abstrakt

Diese Arbeit befasst sich mit der Erkennung von Fehlinformationen in GPT3 generierten Texten und dem FEVER-Datensatz, unter Verwendung von Large Language Models (LLM) und der Google-Suche. Angesichts der Unsicherheit, die mit LLM-produzierten Texten verbunden ist, entsteht ein Bedarf an einem System zur Faktenüberprüfung, das auf nicht von Menschen geschriebene nicht-menschlich geschriebene Inhalte in unterschiedlichen Kontexten. Im Allgemeinen gibt es zwei verschiedene Ansätze zur Faktenüberprüfung: die manuelle Überprüfung, die von Einrichtungen wie politifact bevorzugt wird, und automatische oder halbautomatische Überprüfung, wie ProoFVer. Unsere Forschung befasst sich mit der vollautomatischen Überprüfung von LLM-produzierten Texten.

Praschl C., Dalkilic M., Bauernfeind S., Wakolbinger M., Zwettler G.“Customization and Analysis of Orthopedic Aids“, EUROCAST 2024.

Link: https://eurocast2024.fulp.ulpgc.es/documents/Eurocast_2024_Extended_Abstract_Book.pdf 

Abstrakt

Bei der Behandlung von angeborenen Fehlbildungen, chronischen Krankheiten und Verletzungen des Bewegungsapparats ist die Versorgung mit geeigneten orthopädischen Hilfsmitteln wie Prothesen und Orthesen eine zentrale Maßnahme. Diese Hilfsmittel müssen genau auf die Bedürfnisse und die Anatomie des Patienten zugeschnitten sein, eine Aufgabe, die traditionell von ausgebildeten Orthopäden oder Orthopädietechnikern übernommen wird. Dieser Prozess wurde jedoch überwiegend mit analogen Methoden durchgeführt. Mit dem Aufkommen adaptiver Fertigungstechniken, die die Entwicklung der Orthopädietechnik im Kontext von Industrie 4.0 vorantreiben, verschiebt sich die Landschaft jedoch. Dieser Transformationsprozess umfasst digitale Verfahren wie 3D-Scans des menschlichen Körpers, 2D-Pedobarografie-Scans, die bei der Empfehlung geeigneter orthopädischer Korrekturen helfen, und digital hergestellte orthopädische Hilfsmittel. Durch die Kombination dieser Prozesse – Modellerstellung durch Scans und patientenspezifische Anpassungen – wird es möglich, einen (halb-)automatisierten Ansatz in der Orthopädie zu implementieren. Dies wirft die Frage auf: Wie können orthopädische Hilfsmittel automatisch angepasst werden und gleichzeitig ihre strukturelle Integrität gewährleisten?

Praschl C., Schedl D., Stöckl A. „Modeling Wildlife Accident Risk with Gaussian
Mixture Models“, EUROCAST 2024.

Link: https://eurocast2024.fulp.ulpgc.es/documents/Eurocast_2024_Extended_Abstract_Book.pdf 

Abstrakt

Verkehrsunfälle, an denen Wildtiere beteiligt sind, stellen weltweit ein weit verbreitetes Problem dar und schaden sowohl den Menschen als auch der Natur. Außerdem führen diese Unfälle oft zu schweren Fahrzeugschäden, die teure Reparaturen und Versicherungsansprüche nach sich ziehen. Um diese Unfälle einzudämmen, gibt es Bestrebungen, die Wildtierpopulationen in der Nähe von Risikostraßen besser zu verstehen und Präventivmaßnahmen wie optische oder akustische Wildwarngeräte, teilweise unter Einsatz von künstlicher Intelligenz (KI), einzuführen. Um Wildunfälle zu vermeiden, müssen zunächst die Risikobereiche identifiziert werden. In dieser Arbeit schlagen wir ein Modell vor, das gefährliche Bereiche auf der Grundlage von Tiersichtungen vorhersagt und wenden es auf zwei Straßenabschnitte in Österreich an.

2023

Praschl, C., Krauss, O. „Extending 3D geometric file formats for geospatial applications“. Appl Geomat (2023).

DOI: https://doi.org/10.1007/s12518-023-00543-6

Abstrakt

Diese Studie befasst sich mit der Darstellung und dem Austausch raumbezogener geometrischer 3D-Modelle, die in verschiedenen Anwendungen wie Outdoor Mixed Reality, Stadtplanung und Katastrophenschutz eine häufige Anforderung darstellen. Im Laufe der Jahre wurden mehrere Dateiformate entwickelt, um den unterschiedlichen Anforderungen gerecht zu werden, und bieten eine breite Palette an unterstützten Funktionen und Anwendungsbereichen. Klassische Austauschformate wie die JavaScript Object Notation und die Extensible Markup Language wurden jedoch überwiegend als Grundlage für den Austausch von Geodaten bevorzugt, während gängige Formate für den Austausch geometrischer Informationen wie Wavefront OBJ, Stanford PLY und OFF nicht berücksichtigt wurden. Um diese Lücke zu schließen, schlägt unsere Forschung drei neuartige Erweiterungen für die genannten geometrischen Dateiformate vor, wobei der Schwerpunkt auf der Minimierung des Speicherbedarfs bei gleichzeitiger effektiver Darstellung von Geodaten und der Möglichkeit zur Speicherung semantischer Metainformationen liegt. Die Erweiterungen mit den Bezeichnungen GeoOBJ, GeoOFF und GeoPLY ermöglichen eine erhebliche Verringerung des Speicherbedarfs, der im Vergleich zu den Standarddateiformaten zwischen 14 und 823 % liegt, während gleichzeitig eine angemessene Anzahl semantischer Merkmale beibehalten wird. Anhand umfangreicher Evaluierungen demonstrieren wir die Eignung dieser vorgeschlagenen Erweiterungen für die Darstellung von Geodaten und zeigen, dass sie einen geringen Speicherplatzbedarf und die nahtlose Einbindung wichtiger semantischer Merkmale bieten. Die Ergebnisse unterstreichen das Potenzial von GeoOBJ, GeoOFF und GeoPLY als praktikable Lösungen.

Praschl C., Stöckl A., Fleischer M., Schedl D. “Assessment of Wildlife Accident Risk using a Drone-based Population Monitoring System”. EU Safety 2023.

Abstrakt

Diese Studie befasst sich mit dem drängenden Problem der wildtierbedingten Verkehrsunfälle in Österreich, indem ein innovativer Ansatz unter Verwendung georeferenzierter Drohnendaten und eines ausgefeilten statistischen Risikomodells entwickelt wird. Trotz des technologischen Fortschritts stellen Unfälle mit Wildtieren nach wie vor eine große Gefahr für die Verkehrssicherheit dar. Unsere Forschung konzentriert sich auf eine umfassende Datenerfassung mit Kameradrohnen, die mit visuellen und thermischen Sensoren ausgestattet sind. Durch umfangreiche Tests in Hochrisikogebieten in Ober- und Niederösterreich haben wir verschiedene Tiere, darunter Rehe, Hasen und Fasane, zu verschiedenen Tageszeiten identifiziert und gezählt. Die gesammelten Daten wurden analysiert, um ein robustes statistisches Risikomodell zu erstellen, das Aufschluss über mögliche Auswirkungen von Tieren auf Straßen gibt.

Praschl C., Zopf L., Kiemeyer E., Langthallner I., Ritzberger D., Slowak A., Weigl M., Blüml V., Nešić N., Stojmenović M., Kniewallner K.,Aigner L., Winkler S., Walter A. “U-Net based vessel segmentation for murine brains with small μMRI reference datasets“. Plos one (2023).

DOI: 10.1371/journal.pone.0291946

Abstrakt

Die Identifizierung und quantitative Segmentierung einzelner Blutgefäße in Mäusen, die mit präklinischen Bildgebungsverfahren visualisiert wurden, ist eine mühsame, manuelle oder halbautomatische Aufgabe, die die wochenlange Durchsicht von Hunderten von Ebenen einzelner Datensätze erfordern kann. Präklinische Bildgebungsverfahren wie die Mikro-Magnetresonanztomographie (µMRI) können tomographische Datensätze der Gefäße von Mäusen auf verschiedenen Längenskalen und in verschiedenen Organen erzeugen, was für die Untersuchung von Tumorwachstum, Angiogenese oder vaskulären Risikofaktoren für Krankheiten wie Alzheimer von größter Bedeutung ist. Das Training eines neuronalen Netzes, das genaue Segmentierungsergebnisse liefert, erfordert eine ausreichend große Menge an markierten Daten, deren Zusammenstellung viel Zeit in Anspruch nimmt. In jüngster Zeit sind im präklinischen Kontext mehrere einigermaßen automatisierte Ansätze entstanden, die jedoch immer noch erhebliche manuelle Eingaben erfordern und weniger genau sind als der in dieser Arbeit vorgestellte Deep-Learning-Ansatz – quantifiziert durch den Dice-Score. In dieser Arbeit wird die Implementierung einer flachen, dreidimensionalen U-Net-Architektur für die Segmentierung von Gefäßen in Mäusegehirnen vorgestellt, die (1) quelloffen ist, (2) mit einem kleinen Datensatz erreicht werden kann (in dieser Arbeit standen nur 8 μMRI-Bildstapel von Mäusegehirnen zur Verfügung) und (3) nur eine kleine Teilmenge von markierten Trainingsdaten benötigt. Das vorgestellte Modell wird zusammen mit zwei Nachbearbeitungsmethoden unter Verwendung einer Kreuzvalidierung evaluiert, was zu einem durchschnittlichen Dice-Score von 61,34 % in der besten Einstellung führt. Die Ergebnisse zeigen, dass die Methodik in der Lage ist, Blutgefäße schneller und zuverlässiger zu erkennen als moderne Vesselness-Filter mit einem durchschnittlichen Dice-Score von 43,88 % für den verwendeten Datensatz.

Christoph Praschl and David Schedl, „Towards an Automated Biodiversity Modelling Process for Forest Animals using Uncrewed Aerial Vehicles“ in Proceedings of the 11th International Workshop on Simulation for Energy, Sustainable Development & Environment (SESDE 2023), 2023.

DOI: https://doi.org/10.46354/i3m.2023.sesde.002

Abstrakt

Der Klimawandel stellt eine ernste Bedrohung für Lebensräume wie Wälder dar und gefährdet die Unversehrtheit und die biologische Vielfalt der globalen Flora und Fauna. Genaue Vermessungstechniken sind von entscheidender Bedeutung, um Populationen zu modellieren, Über- und Unterbestände zu erkennen und entsprechende Maßnahmen zu ergreifen.In dieser Arbeit wird ein Verfahren zur Erstellung eines Biodiversitätsmodells der Fauna eines Waldes mit Hilfe von unbemannten Luftfahrzeugen vorgeschlagen, die mit RGB- und Wärmebildkameras ausgestattet sind. Daten aus der realen Welt, kombiniert mit computergenerierten Bildern und Modellen der künstlichen Intelligenz, ermöglichen das Trainieren geeigneter Computer-Vision-Modelle. Diese Modelle werden als zuverlässige und objektive Datenquelle dienen und die Erstellung statistischer Modelle zur Beschreibung des Zustands der überwachten Wälder und der Artenvielfalt der dort lebenden Tiere ermöglichen.Die vorgeschlagene Methode wird voraussichtlich erhebliche Auswirkungen auf die Erhaltungsmaßnahmen haben. Sie sollte ein zuverlässiges und effizientes Verfahren zur Überwachung und Bewertung von Waldökosystemen darstellen, mit dem sich Problembereiche ermitteln und Prioritäten für die Erhaltungsmaßnahmen setzen lassen. Da sie ein umfassendes Verständnis der biologischen Vielfalt in einem Wald vermittelt, könnte sie politischen Entscheidungsträgern helfen, fundierte Entscheidungen zu treffen und wirksame Erhaltungsstrategien zu entwickeln. Letztlich soll diese Arbeit zur Erhaltung der biologischen Vielfalt unseres Planeten und zum Schutz seiner Lebensräume beitragen.

Gerald Adam Zwettler, Martin Trixner, Clemens Schartmüller, Sophie Bauernfeind, Thomas Stockinger and Christoph Praschl, „Towards an Automated Process for Adaptive Modelling of Orthoses and Shoe Insoles in Additive Manufacturing“ in Proceedings of the 12th International Workshop on Innovative Simulation for Healthcare (IWISH 2023), 2023.

DOI: https://doi.org/10.46354/i3m.2023.iwish.005 

Abstrakt

Obwohl die Orthopädie als medizinischer Bereich vor allem in Schwellenländern zunehmend an Bedeutung gewinnt, ist der Automatisierungsgrad noch marginal und es werden kaum Industrie 4.0-Paradigmen umgesetzt. In dieser wissenschaftlichen Arbeit werden Lösungskonzepte für eine ganzheitliche Prozessautomatisierung in der Orthopädie vorgestellt, so dass Prothesenbezüge und Orthesen für verschiedene Körperregionen mit Hilfe von KI automatisiert und mit Sensornetzwerken ausgewertet werden können. Dabei werden Bodyscan-Modelle an die Gegebenheiten der Anatomie bzw. Prothesenmodelle angepasst, so dass sowohl Stabilität als auch Passgenauigkeit im Vergleich zur anderen Körperhälfte gegeben sind.Die Automatisierung im Bereich der Orthopädie führt nicht nur zu einer deutlichen Kostenreduktion, sondern kann auch dazu beitragen, die Forschungslücke hinsichtlich der Objektivierbarkeit von Ergebnissen zu schließen. Erste Teilaspekte wurden bereits für Beinprothesen, Achselprothesen und Schuheinlagen mit Hilfe von maschinellen Lernverfahren und physikalischen Modellen zur elastischen Formanpassung erfolgreich umgesetzt. Sobald das Gesamtverfahren realisiert ist, wird im folgenden Projektjahr die Anwendbarkeit durch klinische Studien validiert und durch den Einsatz von Sensornetzwerken zur Druck- und Temperaturmessung evaluiert.

Andreas Pointner, Christoph Praschl and Oliver Krauss, „Enhancing Interoperability of HL7 Resources Using Namespaces in Graph Databases“ in Proceedings of the 12th International Workshop on Innovative Simulation for Healthcare (IWISH 2023), 2023.

DOI: https://doi.org/10.46354/i3m.2023.iwish.001 

Abstrakt

Die Einführung des FHIR-Standards (Fast Healthcare Interoperability Resources) hat zu einem exponentiellen Wachstum von modularen Gesundheitsdaten geführt, die effizient verwaltet werden müssen. Graphdatenbanken wie Neo4j bieten eine effektive Möglichkeit, diese Daten zu speichern und abzufragen, können aber beim Umgang mit FHIR-Ressourcen, die zahlreiche Erweiterungen enthalten, komplex werden. Wir untersuchen die Verwendung von Namespaces in Neo4j-Graphdatenbanken zur Verwaltung von FHIR-Ressourcen und vergleichen sie mit dem bestehenden Tool CyFHIR. Wir zeigen, dass durch die Einbettung von Erweiterungen mit Hilfe des Namespace-Konzepts die Komplexität des Graphen deutlich reduziert werden kann. Darüber hinaus evaluieren wir unseren Ansatz anhand eines generierten Datensatzes und zeigen, dass die Verwendung von Namespaces in Neo4j die konventionellen Methoden von CyFHIR zur Speicherung vonFHIR-Ressourcen in Graphdatenbanken übertrifft. Unsere Ergebnisse deuten darauf hin, dass die Verwendung von Namespaces eine wertvolle Ergänzung zu Neo4j Graphdatenbanken für die Verwaltung komplexer FHIR-Ressourcen sein kann.

Clara Diesenreiter, Oliver Krauss and Barbara Traxler, „Extending International Terminology Systems to Enhance Communication Between Nursing Services“ in Proceedings of the 12th International Workshop on Innovative Simulation for Healthcare (IWISH 2023), 2023.

DOI: https://doi.org/10.46354/i3m.2023.iwish.006 

Abstrakt

Die Pflege ist ein wesentlicher Bestandteil der Gesundheitsversorgung, insbesondere in unserer alternden Gesellschaft. Um dieses Problem anzugehen, wurden zwei Standards, die Internationale Klassifikation für die Pflegepraxis (ICNP) und die Systematized Nomenclature of MedicineClinical Terms (SNOMED CT), die durch Experteninterviews als sehr relevante Kodesysteme in diesem Bereich identifiziert wurden, analysiert. Die Ergebnisse zeigen, dass keines der beiden Codesysteme in der Lage war, viele der Begriffe ohne Erweiterung zu übersetzen, wobei ICMP 12,03 % und SNOMED CT 26,14 % abdeckte. Beide Systeme können jedoch erweitert werden, wobei SNOMED CT eine bessere Fähigkeit zur Unterstützung des Datenaustauschs in der Pflege aufweist.

Oliver Krauss, Andreas Schuler, „Identifying Energy Efficiency Patterns in Sorting Algorithms via Abstract Syntax Tree Mining“ in Proceedings of the 22nd International Conference on Modelling and Applied Simulation (MAS 2023), 2023.

DOI: https://doi.org/10.46354/i3m.2023.mas.003

Abstrakt

Energieeffizienz ist ein wichtiges Thema im Bereich der mobilen Datenverarbeitung. Entwickler sind sich oft nicht bewusst, welche Auswirkungen ihre Entscheidungen über die Verwendung von Datentypen und das Design von Algorithmen auf diese nicht-funktionale Eigenschaft haben. Die Erstellung von Software-Energieverbrauchsprofilen kann genutzt werden, um das Energieverhalten implementierter Methoden zu ermitteln, während das Pattern Mining genutzt werden kann, um wiederkehrende Muster in den ausgeführten Methoden zu identifizieren. Wir stellen eine Methode vor, die Energieverbrauchsprofiling und diskriminatives Pattern Mining kombiniert, um Muster für die Energieeffizienz zu identifizieren. In einer Studie von acht in Java implementierten Sortieralgorithmen mit den Datentypen int, double und Comparable, die auf der Android-Plattform profiliert wurden, gelingt es uns, signifikante Muster im Quellcode dieser 24 Implementierungen zu identifizieren. Die Ergebnisse zeigen, dass sowohl für den verwendeten Datentyp als auch für das Energieverhalten von effizienten oder ineffizienten Sortieralgorithmen Muster identifiziert werden können, die die beobachteten Energieprofile erklären.

Simone Sandler, Oliver Krauss, Elisabeth Mayrhuber, Andreas Stöckl, „Using An Event Hierarchy for İmproved Process Mining of Website User Behaviour“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

In dem Bestreben, Systeme zu verbessern, ist das Verständnis des Benutzerverhaltens ein entscheidender Schritt, um optimale Ergebnisse zu erzielen. Eine Technik, die dabei hilft, das Nutzerverhalten zu verstehen, ist das Process Mining, bei dem die Ereignisprotokolle eines Systems analysiert werden. Die Genauigkeit der Process Mining-Ergebnisse kann jedoch durch große Datenmengen oder sehr unstrukturierte Prozesse beeinträchtigt werden, was zu Verwirrung und Schwierigkeiten bei der Interpretation führt. Um diese Herausforderung zu überwinden, gibt es Vorverarbeitungstechniken, die die resultierenden Prozesslandkarten verbessern. In dieser Arbeit wird eine Vorverarbeitungsmethode vorgeschlagen, die eine Ereignishierarchie verwendet, um eine bereinigte Prozesskarte zu erstellen, die leichter zu interpretieren ist. Bei der vorgeschlagenen Methode werden die Ereignisprotokolle analysiert und eine hierarchische Struktur der Ereignisse erstellt. Diese Hierarchie ermöglicht die Identifizierung relevanter Ereignisse und ihrer entsprechenden Abhängigkeiten, was wiederum die Extraktion nützlicher Prozessinformationen ermöglicht. Diese Vorverarbeitungsmethode wurde an Ereignisdaten einer Online-Zeitung getestet und hat vielversprechende Ergebnisse bei der Verbesserung der Lesbarkeit der resultierenden Prozesslandkarten gezeigt. Durch die Verwendung einer Ereignishierarchie können relevante Informationen aus großen Datenmengen und unstrukturierten Prozessen extrahiert werden, was zu klareren Prozesslandkarten führt, die das Verständnis des Nutzerverhaltens unterstützen.

Sebastian Pritz, Martina Zeinzinger, Christoph Praschl, Oliver Krauss, Martin Harrer, „Performance Impact of Parallel Access of Time Series in the Context of Relational, NOSQL and NEWSQL Database Management Systems“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

Zeitreihendaten werden in verschiedenen Anwendungsbereichen erzeugt, z. B. in IoT-Geräten oder Sensoren in Fahrzeugen. Diese Art von Daten zeichnet sich häufig durch einen hohen Ressourcenbedarf aus, da die Intervalle, in denen die Informationen gemessen werden, von täglich bis hin zu Millisekunden reichen. Neben der Häufigkeit ist auch die Anzahl der Datenquellen, z. B. Hunderte von Sensoren in modernen Flugzeugen, die gleichzeitig Zeitreihen erzeugen, typisch für solche Big-Data-Szenarien. Solche Szenarien erfordern die Persistenz der Messungen für weitere Auswertungen. In dieser Arbeit führen wir einen künstlichen Datenbenchmark für relationale, NoSQL- und NewSQL-Datenbankmanagementsysteme im Kontext von Zeitreihen ein. Wir vergleichen diese Datenbanken, indem wir mehrere lesende und schreibende Datenquellen gleichzeitig auf die Datenbankmanagementsysteme zugreifen lassen. Die Auswertung zeigt, dass kein getestetes System alle anderen Systeme übertrifft. Während DolphinDB in Einzelnutzerszenarien die höchste Leseleistung aufweist, kann CrateDB seine Vorteile ausspielen, wenn mehrere Nutzer gleichzeitig auf die Daten zugreifen.

Christoph Praschl, Sophie Bauernfeind, Christian Leitner, Gerald Zwettler, „Domain-Driven Design as a Model Contract in Full-Stack Development“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

In dieser Arbeit wird ein domänengesteuerter Entwurfsprozess vorgeschlagen, der es ermöglicht, einen Vertrag über die Struktur der verwendeten Daten innerhalb einer mehrsprachigen Full-Stack-Anwendung unter Verwendung eines Modell-zu-Text-Transformationsansatzes zu definieren. Dieser Prozess basiert auf einem Metamodell, das die Implementierung sprachspezifischer Transformatoren ermöglicht, um Repräsentationen der Daten als Domänenmodelle für beliebige Programmiersprachen zu erzeugen. Es wird im Kontext einer modernen Full-Stack-Microservice-Architektur evaluiert, die ein C\#- und Python-basiertes Backend mit Zugriff auf eine Datenbank unter Verwendung von Object-Relational-Mapping-Prinzipien und ein TypeScript-basiertes Frontend umfasst, das über eine GraphQL-Schnittstelle verbunden ist. Die vorgeschlagene Methodik ist für einen agilen Modellierungsprozess gedacht, der automatische Anpassungen, aber auch die Beibehaltung von benutzerdefinierten Erweiterungen innerhalb der generierten Quellcode-Artefakte beinhaltet.

Andreas Pointner, Martin Harrer, „A Rule Based Data Cleansing Pipeline for Automated Data Import in the Context of Social Clubs“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

Die Verwaltung der Mitgliederdaten von Sozialclubs kann eine mühsame Aufgabe sein. Es gibt jedoch Softwarelösungen, die helfen können, diesen Prozess zu rationalisieren. Das bedeutet allerdings, dass vorhandene Mitgliederdaten, die oft in Form von textbasierten Datenformaten wie CSV oder halbstrukturierten Formaten wie XML oder Excel vorliegen, in diese Tools importiert werden müssen. Leider können die Daten in diesen Formaten Fehler, Inkonsistenzen und fehlende Werte enthalten, was die Nutzbarkeit dieser Daten beeinträchtigen kann. In dieser Arbeit wird eine regelbasierte Datenbereinigungspipeline zur Bereinigung, Anreicherung und Umwandlung von Mitgliederdaten sozialer Clubs in ein geeignetes Format für den Import in Softwarelösungen vorgestellt. Der Ansatz wird anhand einer kleinen Datenprobe evaluiert und zeigt vielversprechende Ergebnisse für ein solches Anwendungsszenario.

Elisabeth Mayrhuber, Oliver Krauss, Martin Hanreich, Andreas Stöckl, „Towards an Ontology and Process Mining-Based System for Targeted E-Commerce Marketing Strategy Suggestions“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

In diesem Beitrag wird ein auf Ontologie und Process Mining basierendes System vorgestellt, das semantische Technologien für gezielte Marketingstrategievorschläge im E-Commerce einsetzt. Der vorgeschlagene Ansatz nutzt Ontologien als Wissensrepräsentationsformalismus, um das Domänenwissen, die Produktbeschreibungen und die Website-Texte im E-Commerce-Bereich zu erfassen. Die Ontologie wird mit relevanten Attributen und entsprechenden Werten befüllt, was eine strukturierte und standardisierte Darstellung von Benutzern und Inhalten ermöglicht.

Um gezielte Marketingstrategien vorzuschlagen, setzt das System Techniken zur Berechnung von Interesse und Intensität ein, die das Konzept der Scrolltiefe und andere nutzen, um das Interesse an verschiedenen Inhalten und Kundenpräferenzen zu messen.

Mit Process-Mining-Techniken werden Momente der Wahrheit entlang der Customer Journey und glückliche Wege, die ein Kunde normalerweise durchläuft, identifiziert. Sobald die Ontologie mit den Ergebnissen des Process Mining kombiniert wird, kann ermittelt werden, in welcher Phase der Customer Journey sich ein Nutzer befindet, und es kann bestimmt werden, welche Marketingmaßnahmen er ergreifen muss, um in die nächste Phase eines Marketingmodells zu gelangen.

Insgesamt ist der vorgeschlagene Ansatz ein vielversprechender Ansatz, um die Herausforderungen von personalisierten E-Commerce-Marketing-Strategievorschlägen zu bewältigen, indem ontologiebasierte Wissensrepräsentation und Intensitätsberechnungstechniken eingesetzt werden. Das System hat das Potenzial, personalisierte und zielgerichtete Marketingstrategien für E-Commerce-Unternehmen bereitzustellen, was zu einer erhöhten Kundenbindung, Loyalität und Umsätzen führt.

Sophie Bauernfeind, Christoph Praschl, Markus Wakolbinger, Gerald Zwettler, „Classification of Footprints for Correctives in Orthopedics“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2023.

Abstrakt

Fußerkrankungen, ein häufig übersehenes Problem, sind in den entwickelten Gesellschaften weit verbreitet. Diese Erkrankungen können die Lebensqualität eines Menschen erheblich beeinträchtigen und sogar zu einer Schwächung führen, unabhängig vom Alter. Nicht-invasive pedobarographische Untersuchungen, bei denen die Druckfelder der Fußsohlenoberfläche und einer Auflagefläche ausgewertet werden, ermöglichen die Analyse des Gangs und der Haltung eines Patienten anhand von 2D-Fußabdrücken oder Scans. Diese Daten können dann von Orthopäden verwendet werden, um maßgefertigte Schuhe oder Einlagen als Korrektiv zu erstellen. Das Fehlen standardisierter Protokolle und Richtlinien sowie der Mangel an evidenzbasierten Informationen können jedoch zu einer subjektiven Bewertung und Auswahl von Korrekturmitteln durch den Orthopäden führen. In dieser Studie wird eine objektive und quantifizierbare Methode zur Klassifizierung von Fußabdrücken unter Verwendung von Computer-Vision-Paradigmen vorgeschlagen, um geeignetere Korrekturmittel zu entwickeln. Die Ergebnisse zeigen, dass die vorgeschlagenen Modelle des maschinellen Lernens in der Lage sind, mit einer Genauigkeit von 70 % für RGB-Scans und 49 % für Blaupausen das erforderliche Korrektiv zu identifizieren. Auf der Grundlage der aktuellen Ergebnisse sollte sich die künftige Arbeit nicht nur auf die Klassifizierung geeigneter Korrekturmittel konzentrieren, sondern auch auf die Bestimmung der Position des Korrekturmittels, um das bestmögliche Ergebnis für den Patienten zu erzielen.

Erhard, A., Arthofer, K., & Helm, E. (2023). Extending a Data Management Maturity Model for Process Mining in Healthcare. Studies in Health Technology and Informatics301, 192-197.

DOI: 10.3233/SHTI230038

Abstrakt

Hintergrund:
Bei der kontinuierlichen Verbesserung von Prozessen in Organisationen des Gesundheitswesens müssen viele Komponenten zusammenwirken. Process Mining hat sich in letzter Zeit zu einer Disziplin entwickelt, die hier einen wichtigen Beitrag leisten kann.

Zielsetzungen:
Wir wollen ein bestehendes Management-Tool erweitern, um die Fähigkeiten von Organisationen in diesem Bereich zu bewerten und zu verbessern.

Methode:
Wir fügen dem Reifegradmodell für gemeinsam nutzbare klinische Pfade eine Dimension hinzu, um die Qualität von Ereignisdaten zu bewerten und zu verbessern.

Ergebnisse:
Wir präsentieren verschiedene Ansätze für formale und Checkpoint-Bewertungen und eine Einbettung der Verbesserungsstrategie mit Beispielen.

Schlussfolgerung:
Die zusätzliche Dimension aus dem Bereich des Process Mining fügt sich in das bestehende Modell ein. Auf allen Ebenen können Verbindungen zwischen den verschiedenen Aspekten der Ereignisdatenqualität und den bestehenden Dimensionen hergestellt werden. Das Modell muss noch in einem realen Anwendungsfall getestet werden.

Pointner, A., Krauss, O., Erhard, A., Schuler, A., & Helm, E. (2023). Multi-Perspective Process Mining Interfaces for HL7 AuditEvent Repositories: XES and OCEL. In dHealth 2023 (pp. 168-173). IOS Press.

DOI: 10.3233/SHTI230034

Abstrakt

Hintergrund:
Medizinische Informationssysteme verwenden häufig eine Ereignisprotokollierung, aber diese Protokolle sind für das Process Mining nicht geeignet, da sie nicht in einem standardisierten Format protokolliert werden.

Zielsetzung:
Unser Ziel ist es, medizinische Ereignisprotokolle für den Einsatz im Process Mining anzureichern.

Methode:
Wir stellen einen Ansatz zur Konvertierung von Ereignissen aus standardbasierten Repositories in die im Process Mining gebräuchlichen Formate XES und OCEL vor.

Ergebnisse:
Wir haben diesen Ansatz mit simulierten Daten aus dem österreichischen Brustkrebs-Screening-Programm getestet.

Schlussfolgerung:
Wir beabsichtigen, diesen Ansatz in Zukunft zur Analyse von Versorgungsrichtlinien und zur Verbesserung von Krankenhausprozessen einzusetzen.

A. Pointner, „Mining Attributed Input Grammars and their Applications in Fuzzing,“ 2023 IEEE Conference on Software Testing, Verification and Validation (ICST), Dublin, Ireland, 2023, pp. 493-495

DOI: 10.1109/ICST57152.2023.00059

Abstrakt

Unentdeckte Fehler in Softwaresystemen sind eine häufige Ursache für Schwachstellen und Sicherheitslücken. Grammar Fuzzing ist eine wirksame Methode zum Testen dieser Systeme, hat aber Einschränkungen, wie z.B. fehlendes Wissen über die Semantik des Programms und die Schwierigkeit, eine Grammatik für diese Systeme zu erhalten. Um diese Einschränkungen zu beheben, schlagen wir einen Ansatz vor, um automatisch Grammatiken zu ermitteln und diese mit semantischen Regeln und kontextuellen Einschränkungen zu erweitern, um Attributgrammatiken zu erstellen. Diese Attributgrammatiken können dann für Fuzzing verwendet werden. Unsere vorläufigen Ergebnisse zeigen, dass dieser automatische Extraktionsprozess durchführbar ist, da wir ihn erfolgreich auf einen Ausdrucksparser angewandt haben und in der Lage waren, eine Attributgrammatik zu extrahieren, die die Funktionalität des Parsers darstellt.

Schuler S., Praschl C., Pointner A. (2023). Analysing and Transforming Graph Structures: The Graph Transformation Framework. In Software 2023.

DOI: https://doi.org/10.3390/software2020010

Abstrakt

Zusammenhängende Daten oder insbesondere Graphenstrukturen sind eine wertvolle Informationsquelle. Die Gewinnung von Erkenntnissen und Wissen aus Graphenstrukturen wird in einer Vielzahl von Anwendungsbereichen eingesetzt, für die effiziente Werkzeuge benötigt werden. In dieser Arbeit stellen wir ein quelloffenes Java-Framework zur Graphentransformation vor. Das Framework bietet ein einfaches, flüssiges Application Programming Interface (API), um eine bereitgestellte Graphenstruktur in ein gewünschtes Zielformat zu transformieren und damit eine weitere Analyse zu ermöglichen. Zunächst geben wir einen Überblick über die Architektur des Frameworks und seine Kernkomponenten. Anschließend wird anhand eines Beispiels gezeigt, wie die Kern-API des Frameworks für die Transformation und Verifizierung von Graphenstrukturen verwendet werden kann. Anschließend stellen wir eine Instanziierung des Frameworks im Kontext der Analyse von Abhängigkeiten zwischen Open-Source-Bibliotheken auf der Android-Plattform vor. Das Beispielszenario gibt Einblicke in ein typisches Szenario, in dem das Graphentransformations-Framework zur effizienten Verarbeitung komplexer Graphenstrukturen eingesetzt wird. Das Framework ist quelloffen und wird aktiv weiterentwickelt. Wir bieten außerdem Informationen darüber, wie man es von seiner offiziellen GitHub-Seite beziehen kann.

Praschl, C. , Kaiser, R., and Zwettler, G. (2023). Generative Adversarial Network Synthesis for Improved Deep Learning Model Training of Alpine Plants with Fuzzy Structures. In Proceedings of the 18th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications – VISAPP.

DOI: https://doi.org/10.5220/0011607100003417

Abstrakt

Deep-Learning-Ansätze werden in hohem Maße von zwei Faktoren beeinflusst, nämlich von der Komplexität der Aufgabe und der Größe des Trainingsdatensatzes. In Bezug auf beide Faktoren stellt die Extraktion von Merkmalen niedrigwüchsiger alpiner Pflanzen aufgrund ihres unscharfen Aussehens, der großen strukturellen Vielfalt der Pflanzenorgane und des hohen Aufwands, der mit der Beschaffung hochwertiger Trainingsdaten für solche Pflanzen verbunden ist, eine Herausforderung dar. Aus diesem Grund wird in dieser Studie ein Ansatz für das Training von Deep-Learning-Modellen im Kontext der alpinen Vegetation vorgeschlagen, der auf einer Kombination aus realen und künstlichen Daten basiert, die mit Hilfe von Generative Adversarial Networks synthetisiert wurden. Die Bewertung dieses Ansatzes zeigt, dass synthetische Daten verwendet werden können, um die Größe der Trainingsdatensätze zu erhöhen. Vor diesem Hintergrund werden die Ergebnisse und die Robustheit von Deep-Learning-Modellen anhand eines U-Netz-Segmentierungsmodells demonstriert. Die Bewertung erfolgt anhand einer Kreuzvalidierung für drei Alpenpflanzen, nämlich Soldanella pusilla, Gnaphalium supinum und Euphrasia minima. Für die beiden letztgenannten Arten wurde eine bessere Segmentierungsgenauigkeit erzielt. Für Gnaphalium wurden mit 100 realen Trainingsbildern Würfelergebnisse von 24,16 % gegenüber 26,18 % ermittelt. Bei Euphrasia verbesserten sich die Dice Scores von 33,56 % auf 42,96 % mit nur 20 realen Trainingsbildern.

2022

Krauss O., „Amaru: a framework for combining genetic improvement with pattern mining“ in Proceedings of the Genetic and Evolutionary Computation Conference Companion. 2022.

Abstrakt

Wir stellen Amaru vor, ein Framework für Genetic Improvement, das Abstract Syntax Trees direkt auf Interpreter- und Compiler-Ebene verwendet. Amaru ermöglicht auch die Suche nach häufigen, diskriminierenden Mustern aus Genetic Improvement-Populationen. Diese Muster können wiederum zur Verbesserung der Crossover- und Mutationsoperatoren verwendet werden, um die Diversität der Population zu erhöhen, die Anzahl der zur Laufzeit scheiternden Individuen zu reduzieren und die Anzahl der erfolgreichen Individuen in der Population zu erhöhen.

Krauss, Oliver, and Konstantin Papesh. „Analysis of Threat Intelligence Information Exchange via the STIX Standard.“ 2022 In International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME). IEEE, 2022.

Abstrakt

Der Austausch von Informationen über Bedrohungen ist in der heutigen Zeit, in der die Zahl der Datenschutzverletzungen, Hacks und Betrügereien zunimmt, ein äußerst wichtiges Thema. Es gibt standardisierte Formate für den Austausch solcher Informationen, aber ob und wie sie von einer aktiven Gemeinschaft verwendet werden, ist entscheidend für die Gewinnung von Informationen aus den bereitgestellten Informationen. Wir bieten eine eingehende Analyse des aktuellen Stands des Structured Threat Information Expression (STIX)-Standards, bestehend aus 5 verschiedenen Anbietern aktiver Bedrohungsinformationen. Auf der Grundlage einer Analyse von 480.867 Bedrohungsinformationsobjekten stellen wir fest, dass der STIX-Standard nicht in vollem Umfang genutzt wird und es ihm aufgrund der Qualität und Aktualität der Informationen an Nutzen mangelt. Wir machen Vorschläge für künftige Verbesserungen des standardbasierten Austauschs von Bedrohungsinformationen, wie z. B. eine stärkere Einhaltung des Kernstandards und die Förderung einer aktiven Gemeinschaft.

Mayrhuber E., Krauss O., „User Profile-Based Recommendation Engine Mitigating the Cold-Start Problem“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2022.

Abstrakt

Empfehlungssysteme können in vielen Situationen des täglichen Lebens eingesetzt werden. Die Empfehlung von Personen in sozialen Netzwerken, von Produkten in verschiedenen Online-Shops, von Musik oder Filmen sind nur einige Anwendungsfälle für diese Systeme. Das Problem des Kaltstarts, wenn keine Informationen über einen neuen oder seltenen Benutzer verfügbar sind, stellt eine Herausforderung für Empfehlungssysteme dar. Wir beschäftigen uns mit der Erstellung von Restaurant- und Kategorieempfehlungen für Restaurantbesucher. Die Empfehlungen werden mit verschiedenen Metriken und Technologien auf der Grundlage von Benutzerprofilen erstellt, um die Empfehlungen so individuell wie möglich zu gestalten. Wir verwenden k-Means und Mean-Shift zum Clustern von Nutzern, um eine Basis für Empfehlungen zu schaffen, die mit nutzer- und inhaltsbasierten kollaborativen Filtermethoden generiert werden. Diese Vorschläge berücksichtigen die Lage der Restaurants, die Ähnlichkeit zwischen Benutzern und Restaurants sowie die von den Benutzern abgegebenen Bewertungen. Wir entschärfen das Kaltstart-Problem, indem wir Matrixfaktorisierung und räumliche Informationen für Benutzer mit wenigen Restaurantbesuchen in der Vergangenheit verwenden. Die Empfehlungen werden auf der Grundlage des Verhaltens anderer Nutzer bewertet und angepasst, um bessere Ergebnisse zu erzielen. Als Ergebnis können wir Empfehlungen über eine Anwendungsprogrammierschnittstelle (API) abfragen, die aus einer Mischung aus orts- und benutzerbasierten Empfehlungen bestehen, um die Bedürfnisse der Benutzer durch die Kombination von Erkundung und Nutzung zu erfüllen.

Praschl C., Pritz S., Krauss O., Harrer M., „A Comparison Of Relational, NoSQL and NewSQL Database Management Systems For The Persistence Of Time Series Data“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2022.

Abstrakt

Zeitreihendaten werden in einer Vielzahl von Anwendungsbereichen wie Sensoren in Autos, Smartwatches oder IoT-Geräten erzeugt. Diese Art von Daten zeichnet sich häufig durch einen hohen Ressourcenbedarf aus, da die Informationen häufig gemessen werden, mit Datenpunkten pro Tag, pro Stunde und sogar bis hinunter zu Millisekunden. Während die Verarbeitung solcher Daten in Echtzeit oft ausreicht, gibt es auch viele Anwendungsfälle, in denen eine Stapelverarbeitung und folglich die Speicherung und der verwaltete Zugriff auf die Messwerte erforderlich sind. Aus diesem Grund werden in dieser Arbeit verschiedene Datenbankmanagementsysteme im Zusammenhang mit der Speicherung zeitbezogener Daten unter Verwendung verschiedener Datenmodelle wie klassischer relationaler Modelle, nicht-relationaler Modelle unter Verwendung von NoSQL-Datenbanksystemen und der kürzlich aufkommenden Gruppe der NewSQL-Datenbanken evaluiert. Die Auswertung zeigt, dass eine hochoptimierte Zeitreihendatenbank wie InfluxDB in der Lage ist, die anderen getesteten Systeme hinsichtlich des Schreibdurchsatzes und der RAM- sowie Festplattenauslastung in einem Einzelserver-Setup zu übertreffen.

Clara Diesenreiter, Oliver Krauss, Simone Sandler, Andreas Stöckl, „ProperBERT – Proactive Recognition of Offensive Phrasing for Effective Regulation“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2022.

Abstrakt

Dieses Werk diskutiert und enthält Inhalte, die beleidigend oder beunruhigend sein können. Hasskommunikation war schon immer Teil der menschlichen Interaktion, auch vor dem Aufkommen der sozialen Medien. Heutzutage verbreiten sich beleidigende Inhalte schneller und weiter über digitale Kommunikationskanäle. Um die Regulierung von Hassrede zu verbessern, stellen wir ProperBERT vor, ein fein abgestimmtes BERT-Modell für die Erkennung von Hassrede und beleidigender Sprache speziell auf Englisch. Um die Übertragbarkeit unseres Modells zu gewährleisten, wurden fünf Datensätze aus der Literatur kombiniert, um ProperBERT zu trainieren. Der gepoolte Datensatz enthält rassistische, homophobe, frauenfeindliche und allgemein beleidigende Aussagen. Aufgrund der Vielfalt der Äußerungen, die sich vor allem in der Zielrichtung des Hasses und der Offensichtlichkeit des Hasses unterscheiden, konnte ein ausreichend robustes Modell trainiert werden. ProperBERT zeigt Stabilität auf Datensätzen, die nicht für das Training verwendet wurden, und bleibt dabei aufgrund seiner kompakten Größe effizient nutzbar. Durch die Durchführung von Portabilitätstests auf Datensätzen, die nicht für die Feinabstimmung verwendet wurden, wird gezeigt, dass die Feinabstimmung auf großen und vielfältigen Daten zu einer erhöhten Modellportabilität führt.

Sandler Simone, Krauss Oliver, Diesenreiter Clara, Stöckl
Andreas, „Detecting Fake News and Performing Quality Ranking of German News Papers Using Machine Learning“ in Proceedings of International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), 2022.

Abstrakt

Heutzutage verbreiten sich Nachrichten schnell, und es ist für den Leser nicht immer klar, ob ein Artikel echt oder gefälscht ist. Außerdem nutzen die Leser nur einige wenige Quellen, um die Nachrichten zu lesen, ohne die Qualität der Quelle zu kennen. Dies ist auf einen Mangel an aktuellen
Nachrichten oder Medien-Rankings. Modelle des maschinellen Lernens können zur automatischen Erkennung von Fake News eingesetzt werden. In dieser Arbeit werden ein Passiv-Aggressiv-Klassifikator, ein Random-Forest und ein LSTM-Netzwerk trainiert, um zwischen gefälschten und nicht gefälschten (echten)
Nachrichten zu unterscheiden. Darüber hinaus werden diese Modelle verwendet, um Nachrichtenquellen nach der Menge möglicher Fake News zu klassifizieren, die sie verbreiten könnten. Die Modelle werden an englischen und übersetzten deutschen Artikeln getestet. Die besten Ergebnisse bei der Erkennung von Fake News in englischen Artikeln werden mit dem Passiv-Aggressiv-Klassifikator erzielt. Für die automatische Nachrichten-Ranking von übersetzten deutschen Artikeln liefert Random-Forest das beste Ergebnis. Die Korrelation von Random-Forest mit einem tatsächlichen Nachrichtenranking erreichte 0,68. Dies zeigt, dass die automatische Klassifizierung mit diesem Ansatz auf andere Sprachen als Englisch ausgeweitet werden kann. In Zukunft werden andere maschinelle Lernmodelle und Übersetzer verwendet werden, um den Ansatz zu erweitern.

A. Veichtlbauer, C. Praschl, L. Gaisberger, G. Steinmaurer and T. I. Strasser, „Toward an Effective Community Energy Management by Using a Cluster Storage,“ in IEEE Access, vol. 10, pp. 112286-112306, 2022.

DOI: 10.1109/ACCESS.2022.3216298.

Abstrakt

Die Integration der lokalen Energieerzeugung aus erneuerbaren Energieträgern in einzelnen Haushalten – wodurch der Haushalt zum „Prosumer“ wird – ist ein wichtiger Weg, um den ökologischen Wandel des Stromsystems zu unterstützen. Aufgrund der volatilen und dezentralen Natur der meisten erneuerbaren Energiequellen kann es jedoch zu Stabilitätsproblemen im Stromsystem kommen, wenn eine große Anzahl von erneuerbaren Energien integriert wird. Das vorliegende Papier beschreibt einen Ansatz zur Überwindung dieser Engpässe auf zweierlei Weise: Erstens sollen die Auswirkungen der installierten erneuerbaren Energien lokal auf eine Gruppe von Haushalten – eine sogenannte „Energiegemeinschaft“ – begrenzt werden. Dazu nutzen alle teilnehmenden Haushalte bestehende Instrumente zur Eigenverbrauchsoptimierung. Wenn ein Haushalt jedoch überschüssige Energie hat, die nicht lokal verbraucht werden kann, wird diese Energie mit Hilfe eines Clusterspeichers auf die anderen teilnehmenden Haushalte aufgeteilt, wodurch ein gemeinschaftlicher Eigenverbrauch vor der Einspeisung in das Niederspannungsnetz ermöglicht wird. Zweitens kann der angeschlossene Betreiber von den teilnehmenden Haushalten Flexibilität verlangen. Dazu werden vom anfragenden Netzbetreiber je nach aktueller Netzsituation zusätzliche Lasten oder Lastabwürfe ausgelöst. Die Haushalte entscheiden selbständig über die Höhe der gewährten Flexibilität und erhalten dafür entsprechende finanzielle Anreize. Diese Arbeit stellt ein Energiemanagementkonzept und eine prototypische Steuerungsinfrastruktur vor, die für die oben genannten Funktionalitäten verwendet werden. In einer Reihe von Simulationen und Feldtests wurde der vorgeschlagene Ansatz erfolgreich evaluiert. Der Artikel gibt einen umfassenden Überblick über die gewonnenen Ergebnisse und die daraus abgeleiteten Schlussfolgerungen.

Pritz S., Praschl C., Kaiser R., Zwettler, G. “Visual Change Detection in Multi-Temporal Transects of Alpine Plants”. Proceedings of the 10th International Workshop on Simulation for Energy, Sustainable Development & Environment SESDE2022, Rom, Italy (2022).

Abstrakt

Aufgrund der offensichtlichen Auswirkungen des Klimawandels auf die Ökosysteme der Erde ist es wichtiger denn je, die Flora und Fauna in den betroffenen Regionen, z. B. in den Berggebieten oberhalb der Baumgrenze, zu beobachten. Im alpinen Ökosystem, und nicht nur dort, spielt die Vegetation eine grundlegende Rolle und ist Gegenstand dieser Studie. Ziel der Arbeit ist die Entwicklung von Algorithmen zur Erkennung kleinwüchsiger alpiner Pflanzen aus Nahsichtbildern. Im Idealfall sollten automatisierte Algorithmen zur Bewertung der Pflanzendecke den Wissenschaftlern objektiv dabei helfen, den Zustand des Pflanzenökosystems über eine lange Zeitreihe zu beobachten und zu interpretieren. Ziel war es daher, Visualisierungen zu erstellen, die Pflanzenwachstum und -verschiebung (Translokation) genau beschreiben. Darüber hinaus war die Erfassung von Veränderungen der biologischen Vielfalt beabsichtigt. In dieser Arbeit werden multitemporale Daten, bestehend aus RGB-Bildern und Multilabel-Masken, verwendet, um die vorgenannte Aufgabe zu erfüllen. Die evaluierten Methoden umfassen den Maskenvergleich, die Schätzung des optischen Flusses, die Erkennung einzelner Pflanzen und die deskriptive statistische Analyse von Bildmerkmalen. Die Tests mit dem gegebenen Datensatz zeigen, dass alle Methoden mit Ausnahme der optischen Flussschätzung ein großes Potenzial haben. Die Methode des Maskenvergleichs hat das Wachstum und die Verlagerung von Pflanzen am zufriedenstellendsten erfasst. Die Erkennung einzelner Pflanzen und die statistische Analyse halfen außerdem bei der Bewertung von Veränderungen der biologischen Vielfalt. Kombiniert man die vorgeschlagenen Methoden, erhält man einen unmittelbaren Überblick über relevante Veränderungen in den multitemporalen Transekten, was bisher für Nahaufnahmen alpiner Pflanzen noch nicht der Fall war.

Krauss O., Aschauer A., Stöckl A. “Modelling shifting trends over time via topic analysis of text documents”. Proceedings of the 34rd European Modeling and Simulation Symposium EMSS2022, Rom, Italy (2022).

Pointner A., Praschl C., Krauss O. “Towards Modelling Namespaces in Graph Databases”. Proceedings of the 34rd European Modeling and Simulation Symposium EMSS2022, Rom, Italy (2022).

Abstrakt

Wir stellen einen neuen Ansatz vor, um Daten mit verschiedenen Kontexten in einem Eigenschaftsgraphenmodell zu speichern. Wir führen Namespaces ein, ähnlich den Namespaces in XML, und erweitern Knoten und Beziehungen mit Labels, um sie einem bestimmten Kontext, d.h. Namespace, zuzuordnen. Auch einzelne Eigenschaften eines Knotens oder einer Beziehung können in einen Namensraum gestellt werden. Diese Arbeit zielt speziell auf die Nutzung in Graphdatenbanken ab, wobei eine Referenzimplementierung über die Datenbank Neo4j bereitgestellt wird. Neben dem theoretischen Ansatz wird ein Object-to-Graph-Mapper für die Programmiersprache Java implementiert und zur Evaluierung des Ansatzes verwendet. Als Evaluierungsbeispiel wird eine Universitätsorganisation verwendet, die in zwei Domänen aufgeteilt ist. Die Experimente zeigen, dass Informationen verschiedener Domänen innerhalb desselben Modells unter Verwendung von Namespaces gespeichert werden können. Dadurch ist es möglich, gemeinsam genutzte Informationen über mehrere Kontexte hinweg wiederzuverwenden, was die Datenduplizierung in der Graphdatenbank reduziert, da ansonsten mehrere Knoten erforderlich wären.

Zwettler, G., Ono, Y., Stradner, M., & Praschl, C. “Strategies for Semi-Automated Registration of Historic Aerial Photographs Utilizing Street and Roof Segmentations as Durable Landmarks”. Proceedings of the 34th European Modeling and Simulation Symposium EMSS2022, Rom, Italy (2022).

Abstrakt

Historische und aktuelle Luftbilder sind nur dann von großem Wert, wenn auch die Geolokalisierung oder die Adresse der fotografierten Gebiete verfügbar ist. In Westeuropa, insbesondere in Österreich, Deutschland und der Tschechischen Republik, gibt es einen Markt für den Verkauf von Luftbildern des eigenen Wohnhauses. Die automatisierte Geolokalisierung ist ein gangbarer Weg, um den Verkäufern eine schnellere Zuordnung der Adressen für den Verkauf zu ermöglichen. Im Rahmen dieser Forschungsarbeit wird eine Prozesskette modelliert, die die Zuordnung von Luftbildern zu Wohnadressen mittels maschinellem Sehen ermöglicht. Nach einer modellbasierten Entzerrung der Luftbilder zur Kompensation perspektivischer Verzerrungen werden größere Bildblöcke mittels Image Stitching zusammengesetzt. Die Zuordnung zu einer 2D-Referenzkarte, wie z.B. Satellitenbilder über Google Maps, erfolgt durch Anwendung eines U-Net CNN nach Extraktion von dauerhaften Bildmerkmalen wie Straßen oder Gebäuden. Die Zuordnung von Luftbildern zur zweidimensionalen Kartographie erfolgt entweder automatisiert über Registrierungsansätze oder basierend auf manuell gesetzten entsprechenden Landmarken und Homographie. Testläufe mit Luftbildern aus den Jahren 1969 bis 2020 zeigen, dass der arbeitsintensive Prozess der Geolokalisierung von Luftbildern mit dem vorgeschlagenen Prozessmodell auf hybride Weise gelöst werden kann.

Meindl R., Sandler S., Mayrhuber E., and Krauss O. “Distributed Classification – A Scalable Approach to Semi SupervisedMachine Learning” Proceedings of the 34th European Modeling and Simulation Symposium EMSS2022, Rom, Italy (2022).

Abstrakt

Die Anpassung von realen Daten an ein Klassifizierungsmodell ist eine anspruchsvolle Aufgabe. Moderne Klassifizierungsansätze sind oft ressourcenintensiv und können zu Engpässen führen. In diesem Papier wird eine Microservice-Architektur vorgestellt, die es ermöglicht, ein Modell der realen Daten zu pflegen und neue Informationen hinzuzufügen, sobald sie verfügbar sind. Aktualisierungen des Modells werden über verschiedene Mikroservices abgewickelt. Die Architektur und die damit verbundenen Arbeitsabläufe werden in einem Anwendungsfall der Klassifizierung von Textdaten in einer Taxonomie, die durch einen gerichteten azyklischen Graphen (DAG) dargestellt wird, demonstriert. Die vorgestellte Architektur beseitigt den Engpass bei der Klassifizierung, da mehrere Datenpunkte unabhängig voneinander hinzugefügt werden können und der lesende Zugriff auf das Modell nicht eingeschränkt ist. Zusätzliche Microservices ermöglichen auch einen manuellen Eingriff zur Aktualisierung des Modells.

Praschl C., Pointner A., Krauss O., Helm E., Schuler A. “Model Verification in Graph Databases and its Application in Neo4j.” Proceedings of the 34th European Modeling and Simulation Symposium EMSS2022, Rom, Italy (2022).

Abstrakt

In dieser Arbeit wird ein Konzept zur regelbasierten Modellverifikation mit Hilfe einer Graphdatenbank am Beispiel von Neo4j und dessen Abfragesprache Cypher vorgestellt. Es wird ein Ansatz vorgestellt, der es erlaubt, mit Hilfe einer Graphenabfragesprache Verifikationsregeln zu definieren, um Transformationsfehler innerhalb eines gegebenen Domänenmodells zu erkennen. Der Ansatz wird anhand eines laufenden Beispiels vorgestellt, das seine Fähigkeit zeigt, zufällig erzeugte Fehler in einem Transformationsprozess zu erkennen. Zusätzlich wird die Leistung der Methode anhand mehrerer Teilmengen der IMDb-Filmdaten mit maximal 17.000.000 Knoten und 41.000.000 Beziehungen evaluiert. Diese Leistungsbewertung wird im Vergleich zur Object Constraint Language durchgeführt und zeigt Vorteile im Zusammenhang mit stark vernetzten Datensätzen mit einer hohen Anzahl von Knoten. Ein weiterer Vorteil ist die Nutzung einer etablierten Graphdatenbank als Verifikationswerkzeug, ohne dass eine Neuimplementierung der Graph- und Pattern-Matching-Logik erforderlich ist.

Kaiser R., Praschl C., Zwettler G. “Long-Term Monitoring of Alpine Plant Diversity in the National Park Hohe Tauern”. 7. Symposium for research in protected areas. Conference. Vol. 2. 2022.

Abstrakt

Der Nationalpark Hohe Tauern hat ein interdisziplinäres Monitoring- und Forschungsprogramm zur Langzeitbeobachtung von alpinen Ökosystemen ins Leben gerufen. Diese Initiative liefert unter anderem ein laufendes digitales Bildarchiv in Form von streng standardisierten (geostatisch, farbecht), hochauflösenden (1 px. ≈ 0,1mm) Nadir-Fotos (Blick senkrecht zum Boden) mit hohem Informationsgehalt und großer Dokumentationsrelevanz. Diese Daten, vergleichbar mit Erdorthofotos, bilden die Grundlage für das vorliegende Projekt. Es konzentriert sich auf die Entwicklung eines Software-Prototyps zur automatischen Erkennung von Pflanzen aus Bilddaten mit Hilfe von Computer Vision und maschinellem Lernen. Die Ziele sind dreifach. Erstens wird die zuverlässige Erkennung einzelner Pflanzenarten und ihrer Individuen trotz Überlappung mit anderen Pflanzen oder Vegetationsstrukturen angestrebt. Zweitens wird die Variation in der Natur und damit das abweichende Erscheinungsbild eines Exemplars angesprochen. Drittens soll es möglich sein, identische Pflanzen innerhalb einer Zeitreihe zu erkennen. Außerdem soll es möglich sein, die Modelle zu aktualisieren, wenn neue Daten verfügbar sind.

Pointner, A., Spitzer, EM., Krauss, O., Stöckl, A. (2023). Anomaly-Based Risk Detection Using Digital News Articles. In: Arai, K. (eds) Intelligent Systems and Applications. IntelliSys 2022. Lecture Notes in Networks and Systems, vol 542. Springer, Cham.

DOI: https://doi.org/10.1007/978-3-031-16072-1_1

Abstrakt

Das Risikomanagement in Unternehmen ist eine in der Industrie gut etablierte Methode. Dieser Bereich stützt sich in hohem Maße auf Risikoeigner und deren Expertenmeinung. In dieser Arbeit stellen wir einen Ansatz für eine halbautomatische Risikoerkennung für Unternehmen vor, bei der Anomalieerkennung zum Einsatz kommt. Wir stellen verschiedene Algorithmen zur Erkennung von Anomalien vor und präsentieren einen Ansatz, wie diese auf multidimensionale Datenquellen wie Nachrichtenartikel und Aktiendaten angewendet werden können, um mögliche Risiken automatisch zu extrahieren. Dazu werden NLP-Methoden, einschließlich Stimmungsanalyse, verwendet, um numerische Werte aus Nachrichtenartikeln zu extrahieren, die für die Anomalieanalyse benötigt werden. Der Ansatz wird durch die Durchführung von Fragebogeninterviews mit Domänenexperten evaluiert. Die Ergebnisse zeigen, dass der vorgestellte Ansatz ein nützliches Werkzeug ist, das Risikoverantwortlichen und Fachexperten hilft, potenzielle Risiken für ihre Unternehmen zu finden und zu erkennen.

Fernandez-Llatas, Carlos, et al. „Building Process-Oriented Data Science Solutions for Real-World Healthcare.“ International Journal of Environmental Research and Public Health 19.14 (2022): 8427.

DOI: https://doi.org/10.3390/ijerph19148427

Abstrakt

Die COVID-19-Pandemie hat einige der Möglichkeiten, Probleme und Hindernisse für die Anwendung von künstlicher Intelligenz im medizinischen Bereich aufgezeigt. Es wird immer wichtiger zu bestimmen, wie Künstliche Intelligenz den Leistungserbringern im Gesundheitswesen helfen kann, die tägliche medizinische Praxis zu verstehen und zu verbessern. Als Teil des Forschungsgebiets der Künstlichen Intelligenz hat sich die Gemeinschaft der prozessorientierten Datenwissenschaft aktiv an der Analyse dieser Situation und der Identifizierung aktueller Herausforderungen und verfügbarer Lösungen beteiligt. Wir haben festgestellt, dass es notwendig ist, die besten Bemühungen der Gemeinschaft zu integrieren, um sicherzustellen, dass die versprochenen Verbesserungen der Versorgungsprozesse in der realen Gesundheitsversorgung erreicht werden können. In diesem Papier argumentieren wir, dass es notwendig ist, geeignete Werkzeuge zur Unterstützung medizinischer Experten bereitzustellen und dass eine häufige, interaktive Kommunikation zwischen medizinischen Experten und Data Minern erforderlich ist, um gemeinsam Lösungen zu entwickeln. Die prozessorientierte Datenwissenschaft und insbesondere konkrete Techniken wie das Process Mining können ein einfach zu handhabendes Instrumentarium für die Entwicklung verständlicher und erklärbarer Lösungen der Künstlichen Intelligenz bieten. Process Mining bietet Werkzeuge, Methoden und einen datengesteuerten Ansatz, der medizinische Experten in den Prozess der interaktiven Mitentdeckung von Beweisen aus der realen Welt einbeziehen kann. Es ist an der Zeit, dass prozessorientierte Datenwissenschaftler enger mit medizinischen Fachkräften zusammenarbeiten, um nützliche und verständliche Lösungen zu entwickeln, die praktische Fragen aus der täglichen Praxis beantworten. Mit einer gemeinsamen Vision sollten wir besser darauf vorbereitet sein, die komplexen Herausforderungen zu meistern, die die Zukunft des Gesundheitswesens prägen werden.

Praschl C., Thiele E., Krauss O. „Utilization of Geographic Data for the Creation of Occlusion Models in the Context of Mixed Reality Applications“. Extended Reality, 1st ed. Lecture Notes in Computer Science. Volume 13446. (2022).

DOI: https://doi.org/10.1007/978-3-031-15553-6

Abstrakt

Die Ausbildung von Notfallhelfern kann von der Verwendung von Mixed-Reality-Geräten (MR) im Freien profitieren, um die Ausbildung realistischer zu gestalten und Simulationen zu ermöglichen, die sonst aufgrund von Sicherheitsrisiken oder Kosteneffizienz nicht möglich wären. Der Einsatz von MR im Freien erfordert jedoch Kenntnisse der Topografie und der Objekte in der Umgebung, um eine genaue Interaktion zwischen der realen Welt, die die Auszubildenden erleben, und den virtuellen Elementen, die in ihnen platziert werden, zu ermöglichen. Es wird ein Ansatz gezeigt, bei dem Höhendaten und geografische Informationssysteme verwendet werden, um effektive Verdeckungsmodelle zu erstellen, die in solchen Outdoor-Trainingssimulationen eingesetzt werden können. Die ersten Ergebnisse zeigen, dass dieser Ansatz eine genaue Verdeckung und Platzierung von virtuellen Objekten in einer städtischen Umgebung ermöglicht. Dies verbessert die Immersion und die räumliche Wahrnehmung der Lernenden. Für die Zukunft sind Verbesserungen des Ansatzes geplant, indem veraltete Informationen in den Okklusionsmodellen aktualisiert werden.

Callan, James, et al. „How do Android developers improve non-functional properties of software?.“ Empirical Software Engineering 27.5 (2022): 1-42.

DOI: https://doi.org/10.1007/s10664-022-10137-2

Abstrakt

Heutzutage stehen die Entwickler mobiler Anwendungen zunehmend unter dem Druck, auch nichtfunktionale Eigenschaften zu berücksichtigen. Eine App, die zu langsam ist oder viel Bandbreite verbraucht, verringert die Benutzerzufriedenheit und kann daher dazu führen, dass die Benutzer die App einfach aufgeben. Obwohl es für herkömmliche Software automatisierte Softwareverbesserungstechniken gibt, sind diese im mobilen Bereich nicht so weit verbreitet. Außerdem ist noch nicht bekannt, ob dieselben Softwareänderungen auch so effektiv wären. Vor diesem Hintergrund haben wir insgesamt 100 Android-Repositories untersucht, um herauszufinden, wie Entwickler die Ausführungszeit, den Speicherverbrauch, die Bandbreitennutzung und die Framerate von mobilen Apps verbessern. Wir kategorisierten die Commits zur Verbesserung der nicht-funktionalen Eigenschaften (NFP), die sich auf die Leistung beziehen, um herauszufinden, wie bestehende automatische Softwareverbesserungstechniken verbessert werden können. Unsere Ergebnisse zeigen, dass NFP-verbessernde Commits, die sich auf die Leistung beziehen, zwar selten sind, solche Verbesserungen aber während des gesamten Entwicklungszyklus auftreten. Wir fanden insgesamt 560 NFP-Commits von insgesamt 74.408 analysierten Commits. Der Speicherverbrauch wird am häufigsten geopfert, wenn die Ausführungszeit oder die Bandbreitennutzung verbessert wird, obwohl ähnliche Arten von Änderungen mehrere nicht-funktionale Eigenschaften auf einmal verbessern können. Das Löschen von Code ist die am häufigsten angewandte Strategie, mit Ausnahme der Framerate, bei der die Erhöhung der Gleichzeitigkeit die dominierende Strategie ist. Wir stellen fest, dass automatisierte Softwareverbesserungstechniken für den mobilen Bereich von der Verbesserung von SQL-Abfragen, Zwischenspeicherung und Asset-Manipulation profitieren können. Darüber hinaus stellen wir einen Klassifikator zur Verfügung, der den manuellen Aufwand für die Analyse von NFP-Verbesserungs-Commits drastisch reduzieren kann.

Meindl, Rainer, et al. „A Scalable Microservice Infrastructure for Fleet Data Management.“ International Conference on Database and Expert Systems Applications. Springer, Cham, 2022.

DOI: https://doi.org/10.1007/978-3-031-14343-4_37

Abstrakt

Moderne Internet-of-Things-Lösungen mit Edge-Geräten erzeugen große Mengen an Rohdaten. Um diese Daten nutzen zu können, müssen sie verarbeitet, aggregiert und kategorisiert werden, damit Management und Endnutzer Entscheidungen treffen können. Diese Datenverwaltung ist eine nicht triviale Aufgabe, da die Rechenlast direkt proportional zur Datenmenge ist. Um dieses Problem zu lösen, bieten wir eine erweiterbare und skalierbare Microservice-Architektur an, die Rohdaten empfangen, normalisieren und filtern kann und sie in verschiedenen Aggregationsstufen sowie für die Zeitreihenanalyse bereithält.

Spitzer, Eva-Maria, Oliver Krauss, and Andreas Stöckl. „Accurately Predicting User Registration in Highly Unbalanced Real-World Datasets from Online News Portals.“ International Conference on Database and Expert Systems Applications. Springer, Cham, 2022.

DOI: https://doi.org/10.1007/978-3-031-12423-5_23

Abstrakt

Besucher zur Registrierung zu bewegen, ist ein entscheidender Faktor im Marketing für Online-Nachrichtenportale. Aktuelle Ansätze sind regelbasiert, indem sie Punkte für bestimmte Aktionen vergeben [3]. Effiziente Regeln zu finden, kann eine Herausforderung sein und hängt von der jeweiligen Aufgabe ab. Die Registrierung ist im Allgemeinen seltener als der regelmäßige Besuch, was zu sehr unausgewogenen Daten führt.

Wir analysieren verschiedene Algorithmen des überwachten Lernens zur Klassifizierung unter Berücksichtigung des Datenungleichgewichts. Als Fallstudie verwenden wir anonymisierte reale Daten eines österreichischen Zeitungshauses, die das Sitzungsverhalten der Besucher mit etwa 0,1% Registrierungen über alle Besuche hinweg enthalten.

Wir identifizieren einen Ensemble-Ansatz, der den Balanced Random Forest Classifier und den RUSBoost Classifier kombiniert und 76% der Registrierungen über fünf unabhängige Datensätze korrekt identifiziert.

Praschl C., Stradner M., Ono Y., Zwettler G. „Towards an Automated System for Reverse Geocoding of Aerial Photographs“. WSCG 2022: proceedings: 30. International Conference in Central Europe on Computer Graphics, Visualization and Computer Vision, p. 296-301. (2022).

DOI: https://www.doi.org/10.24132/CSRN.3201.37

Abstrakt

Luftaufnahmen von Gebäuden werden oft als Erinnerungsstücke von Handelsunternehmen verkauft. Solche Fotos sind mit einem Problem bezüglich der Adresse der abgebildeten Gebäude verbunden, da der Aufnahmeort der Kamera zwar bekannt ist zwar bekannt ist, aber einen räumlichen Abstand zum eigentlichen Bildgegenstand aufweist. Hinzu kommt, dass auch dieser Aufnahmeort Aufnahmeort oft nicht im Detail, sondern nur grob in Form der Flugroute/Gebiet bekannt ist. Um dieses Problem zu lösen, wird eine Methode zur umgekehrten Geokodierung vorgeschlagen, die es ermöglicht, die Position von Gebäuden, die aus der Luft fotografiert wurden, zu identifizieren.
Luftfahrzeugen fotografiert wurden. Dies geschieht mit Hilfe eines Verfahrens zur Erweiterung der Aufnahmeorte und eines zweiten Verfahrens, das auf der der Registrierung unveränderlicher Merkmale in Luftaufnahmen im Vergleich zu Karten.

Egelkraut, Reinhard, et al. „Open Infrastructure for Standardization of HL7® FHIR® Implementation Guides in Austria.“ dHealth. 2022.

DOI: https://doi.org/10.3233/shti220372

Abstrakt

Hintergrund: HL7 Austria ist ein gemeinnütziger Verein, der sich für die Verbesserung der elektronischen Datenkommunikation und Interoperabilität im Gesundheitswesen unter unter Verwendung der internationalen HL7-Standards. Zielsetzungen: Unser Ziel ist die Bereitstellung einer offenen Infrastruktur zur Entwicklung, Verwaltung und Wartung von HL7 FHIR Implementierungsleitfäden bereitzustellen. Methoden: Wir verwenden modernste Open-Source-Werkzeuge, die von der FHIR Gemeinschaft entwickelt wurden, um eine kontinuierliche Integration zu unterstützen. Ergebnisse: Die Implementierungsleitfäden können als statische HTML-Webseiten veröffentlicht und über GitHub gepflegt werden. Schlussfolgerung: Die Lösung unterstützt alle Schritte des Lebenszyklus einer Norm, vom Entwurf und Überprüfung bis hin zur Abstimmung, Veröffentlichung und Pflege.

Praschl C. Auserperg-Castell P., Forster-Heinlein B., Zwettler G. (2021). Segmentation and Multi-Facet Classification of Individual Logs in Wooden Piles. In Computer Aided Systems Theory Extended Abstract.

Link: https://eurocast2022.fulp.ulpgc.es/sites/default/files/Eurocast_2022_Extended_Abstract_Book.pdf

Abstrakt

Die Prüfung von Produkten und die Bewertung der Qualität ist in vielen Bereichen der Industrie mit hohem Kosten- und Zeitaufwand verbunden. Dies gilt auch für die Forstwirtschaft. Der Einsatz modernster Deep-Learning-Modelle ermöglicht es, die Analyse von Holzpfählen auf visuellem Wege zu automatisieren. In dieser Arbeit wird ein paralleler zweistufiger Ansatz für die Segmentierung und facettenreiche Klassifizierung einzelner Stämme nach Holzart und -qualität vorgestellt. Der vorliegende Ansatz basiert auf einer vorgelagerten Stammlokalisierung und ermöglicht so die Bestimmung der Qualität, des Volumens und auch des Wertes einzelner Stämme bzw. des gesamten Holzstapels. Die Verwendung eines YOLOv4-Modells zur Holzartenklassifizierung für Douglasien, Kiefern und Lärchen führt zu einer Genauigkeit von 74,53%, während ein Qualitätsklassifizierungsmodell für Fichtenstämme 86,58% erreicht. Darüber hinaus erreicht das trainierte U-NET-Segmentierungsmodell eine Genauigkeit von 93\%. In Zukunft sollen der zugrunde liegende Datensatz und die Modelle weiter verbessert und in eine mobile Anwendung für die Vor-Ort-Analyse von Holzstapeln durch Förster integriert werden.

Jorge Munoz-Gama, Niels Martin, Carlos Fernandez-Llatas, Owen A. Johnson, Marcos Sepúlveda, Emmanuel Helm, Victor Galvez-Yanjari, Eric Rojas, Antonio Martinez-Millana, Davide Aloini, Ilaria Angela Amantea, Robert Andrews, Michael Arias, Iris Beerepoot, Elisabetta Benevento, Andrea Burattin, Daniel Capurro, Josep Carmona, Marco Comuzzi, Benjamin Dalmas, Rene de la Fuente, Chiara Di Francescomarino, Claudio Di Ciccio, Roberto Gatta, Chiara Ghidini, Fernanda Gonzalez-Lopez, Gema Ibanez-Sanchez, Hilda B. Klasky, Angelina Prima Kurniati, Xixi Lu, Felix Mannhardt, Ronny Mans, Mar Marcos, Renata Medeiros de Carvalho, Marco Pegoraro, Simon K. Poon, Luise Pufahl, Hajo A. Reijers, Simon Remy, Stefanie Rinderle-Ma, Lucia Sacchi, Fernando Seoane, Minseok Song, Alessandro Stefanini, Emilio Sulis, Arthur H.M. ter Hofstede, Pieter J. Toussaint, Vicente Traver, Zoe Valero-Ramon, Inge van de Weerd, Wil M.P. van der Aalst, Rob Vanwersch, Mathias Weske, Moe Thandar Wynn, Francesca Zerbato. Process Mining for Healthcare: Characteristics and Challenges, Journal of Biomedical Informatics. 2022.

DOI: https://doi.org/10.1016/j.jbi.2022.103994

Abstrakt

Process-Mining-Techniken können zur Analyse von Geschäftsprozessen anhand der während ihrer Ausführung aufgezeichneten Daten eingesetzt werden. Diese Techniken werden in einer Vielzahl von Bereichen eingesetzt, darunter auch im Gesundheitswesen, wo sie sich hauptsächlich auf die Analyse von Diagnose-, Behandlungs- und Organisationsprozessen konzentrieren. Trotz der riesigen Datenmengen, die in Krankenhäusern von Mitarbeitern und Maschinen erzeugt werden, die an Gesundheitsprozessen beteiligt sind, gibt es keine Anzeichen für eine systematische Anwendung von Process Mining, die über gezielte Fallstudien in einem Forschungskontext hinausgeht. Bei der Entwicklung und Anwendung von Process Mining im Gesundheitswesen müssen die besonderen Merkmale von Gesundheitsprozessen, wie ihre Variabilität und ihre patientenzentrierte Ausrichtung, gezielt berücksichtigt werden. Vor diesem Hintergrund wurde die Process-Oriented Data Science in Healthcare Alliance gegründet, um die Erforschung und Anwendung von Techniken zur datengesteuerten Verbesserung von Prozessen im Gesundheitswesen voranzutreiben. Dieses Paper, eine Initiative der Allianz, stellt die charakteristischen Merkmale des Gesundheitswesens vor, die für einen erfolgreichen Einsatz von Process Mining berücksichtigt werden müssen, sowie offene Herausforderungen, die von der Gemeinschaft in Zukunft angegangen werden müssen.

C. Praschl, O. Krauss. Geo-Referenced Occlusion Models for Mixed Reality Applications Using the Microsoft HoloLens. Proceedings of the 17th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, Volume 3: IVAPP. 2022.

DOI: https://doi.org/10.5220/0010775200003124

Abstrakt

Notfallhelfer oder Einsatzkräfte können von Mixed Reality (MR)-Trainings im Freien profitieren, da sie realistischere und erschwinglichere Simulationen von Notfällen in der realen Welt ermöglichen. Die Nutzung von MR-Geräten für Outdoor-Situationen erfordert die Kenntnis realer Objekte im Trainingsgebiet, um ein realistisches Eintauchen sowohl in die reale als auch in die virtuelle Welt auf der Grundlage visueller Verdeckungen zu ermöglichen. Aufgrund der räumlichen Beschränkungen moderner MR-Geräte bei der Erkennung von weit entfernten realen Objekten stellen wir einen Ansatz für die gemeinsame Nutzung georeferenzierter 3D-Geometrien auf mehreren Geräten vor, der das CityJSON-Format für Verdeckungszwecke im Kontext der georäumlichen MR-Visualisierung nutzt. Unsere Ergebnisse zeigen, dass die vorgestellte Methodik eine genaue Konvertierung von Okklusionsmodellen in georeferenzierte Darstellungen ermöglicht, basierend auf einer quantitativen Bewertung mit einem durchschnittlichen Fehler je nach Position der Scheitelpunkte von 1,30E-06 bis 2,79E-04 (Sub-Millimeter-Fehler) unter Verwendung einer normalisierten Summe der quadratischen Fehler. Für die Zukunft planen wir, auch 3D-Rekonstruktionen von Smartphones und Drohnen einzubeziehen, um die Anzahl der unterstützten Geräte zur Erstellung georeferenzierter Okklusionsmodelle zu erhöhen.

C. Praschl, G. Zwettler. Three-Step Approach for Localization, Instance Segmentation and Multi-Facet Classification of Individual Logs in Wooden Piles. Proceedings of the 11th International Conference on Pattern Recognition Applications and Methods. 2022.

DOI: https://doi.org/10.5220/0010892100003122

Abstrakt

Die Prüfung von Produkten und die Bewertung der Qualität ist in vielen Bereichen der Industrie mit hohem Kosten- und Zeitaufwand verbunden. Dies gilt auch für die Forstwirtschaft. Der Einsatz moderner Deep-Learning-Modelle ermöglicht die Automatisierung der Analyse von Holzpfählen auf visuellem Wege. In dieser Arbeit wird ein dreistufiger Ansatz zur Lokalisierung, Segmentierung und facettenreichen Klassifizierung einzelner Stämme auf Basis einer Client/Server-Architektur vorgestellt, der es ermöglicht, die Qualität, das Volumen und damit den Wert eines Holzpfahls auf Basis einer Smartphone-Applikation zu bestimmen. Die Verwendung mehrerer YOLOv4- und U-NET-Modelle führt zu einer client-seitigen Holzlokalisierungsgenauigkeit von 82,9% bei geringem Speicherbedarf von 23 MB und einer server-seitigen Holzerkennungsgenauigkeit von 94,1%, zusammen mit einer Holzartenklassifizierungsgenauigkeit von 95% und 96% bei der Qualitätsbewertung von Fichtenholz. Darüber hinaus erreicht das trainierte Segmentierungsmodell eine Genauigkeit von 89 %.

Helm, Emmanuel, et al. „FHIR2BPMN: Delivering Actionable Knowledge by Transforming Between Clinical Pathways and Executable Models.“ Healthcare of the Future 2022. IOS Press, 2022. 9-14.

DOI: https://doi.org/10.3233/SHTI220311

Abstrakt

Prozesse im Gesundheitswesen weisen viele Besonderheiten auf, die in Standards für den Austausch medizinischer Informationen wie HL7 FHIR erfasst und beschrieben werden. BPMN ist ein weit verbreiteter Standard zur Erstellung leicht verständlicher Prozessmodelle. Wir zeigen einen Ansatz zur Integration dieser beiden Standards über einen automatischen Transformationsmechanismus. Dies ermöglicht es uns, die verschiedenen für BPMN verfügbaren Werkzeuge zu nutzen, um Prozesse im Gesundheitswesen zu visualisieren und zu automatisieren. In Zukunft planen wir, diesen Ansatz zu erweitern, um das Mining und die Analyse von ausgeführten Prozessen zu ermöglichen.

2021

C. Praschl, A. Pointner, D. Baumgartner, G. Zwettler. Imaging framework: An interoperable and extendable connector for image-related Java frameworks. SoftwareX, Volume 16. 2021.

DOI: https://doi.org/10.1016/j.softx.2021.100863

Abstrakt

Die Zahl der Aufgaben in den Bereichen Computer Vision und Bildverarbeitung hat in den letzten Jahren zugenommen. Obwohl Python in diesem Bereich meist die erste Wahl ist, gibt es Situationen, in denen die Verwendung einer anderen Programmiersprache wie Java bevorzugt werden sollte. Aus diesem Grund gibt es mehrere Java-basierte Frameworks wie z.B. OpenIMAJ, ND4J oder mehrere OpenCV-Wrapper. Leider sind diese Frameworks nicht interoperabel. In dieser Arbeit wird das Open-Source Imaging Framework vorgestellt, um genau dieses Problem zu lösen. Das Projekt verfügt über ein Konzept zur Kombination mehrerer Frameworks und bietet eine interoperable und erweiterbare Grundlage für 9 bildbezogene Projekte mit 10 verschiedenen Bilddarstellungen in Java.

Helm, Emmanuel, and Oliver Krauss. „How can Interoperability Support Process Mining in Healthcare?.“ PODS4H.

Abstrakt

Eine Diskussion über die Beziehung zwischen dem Konzept der Interoperabilität von Informationssystemen im Gesundheitswesen und der prozessorientierten Datenanalyse. Ziel ist es zu zeigen, dass einige der aktuellen Herausforderungen des Process Mining im Gesundheitswesen auch Interoperabilitätsprobleme sind. Durch die Beteiligung bei der Lösung dieser Probleme können wir auch unsere Datenquellen verbessern.

A. Schuler and G. Kotsis, „Mining API Interactions to Analyze Software Revisions for the Evolution of Energy Consumption,“ in 2021 2021 IEEE/ACM 18th International Conference on Mining Software Repositories (MSR),, 2021 pp. 312-316.

DOI: https://doi.ieeecomputersociety.org/10.1109/MSR52588.2021.00043

Abstrakt

Mit der weit verbreiteten Nutzung und Einführung mobiler Plattformen wie Android ist ein neues Problem der Softwarequalität aufgetaucht – der Stromverbrauch. Die Entwicklung energieeffizienter Software und Anwendungen erfordert jedoch Wissen und entsprechende Werkzeuge zur Unterstützung von Entwicklern mobiler Geräte. Zu diesem Zweck präsentieren wir einen Ansatz zur Untersuchung der Energieentwicklung von Software-Revisionen auf der Grundlage ihrer API-Interaktionen. Der Ansatz beruht auf der Annahme, dass die Nutzung einer API direkte Auswirkungen auf den Energieverbrauch während der Laufzeit hat. Basierend auf einer empirischen Evaluierung zeigen wir erste Ergebnisse, dass API-Interaktionen als flexibles, leichtgewichtiges und effektives Mittel dienen, um Software-Revisionen hinsichtlich ihrer Energieentwicklung zu vergleichen. In Anbetracht unserer ersten Ergebnisse stellen wir uns vor, dass mobile Entwickler mit unserem Ansatz in Zukunft in der Lage sein werden, Einblicke in die energetischen Auswirkungen von Änderungen im Quellcode während des Lebenszyklus der Softwareentwicklung zu gewinnen.

Zwettler G., Reichhard A. Stradner M., Praschl C., Helm E.(2021). In Proceedings of 33rd European Modeling & Simulation Symposium.

DOI: https://doi.org/10.46354/i3m.2021.iwish.004

Abstrakt

Mit einer Prävalenz von fast 1% stellen potentielle epileptische Anfälle ein erhebliches Gesundheitsrisiko für viele jugendliche Patienten dar. Daher ist ein Monitoring unerlässlich, um frühzeitig gegensteuernde Maßnahmen zu setzen und Schäden zu vermeiden. Die sensorbasierten Überwachungssysteme adressieren hauptsächlich epileptische Anfälle, die durch eine Veränderung des Muskeltonus angezeigt werden, können aber nicht für Patienten eingesetzt werden, die nur das Prévost-Zeichen zeigen. Zur Überwachung des auslösenden Prévost-Zeichens mit geöffneten Augen als kritisches visuelles Merkmal wird in dieser Arbeit die Anwendbarkeit von Deep-Learning-Augenerkennungssystemen auf Nachtsichtbildern als Grundlage für die Modellierung und Klassifizierung des Augenzustandes (geschlossen, geöffnet, nicht sichtbar) evaluiert. Ein ganzheitlicher Forschungsprototyp wird als Proof of Concept vorgestellt, der die Anwendbarkeit von State-of-the-Art-Gesichtserkennung auf Nachtsichtbildern sowie multivariater Merkmalsanalyse auf Graphensegmentierung vor Fragmentierung zeigt, die zur Erkennung des Augenzustands auf robuste Weise anwendbar ist. Die Ergebnisse zeigen eine Einzelbildgenauigkeit bei der Gesichts-/Augenerkennung von 73,91% und 94,44% für die Klassifizierung der geöffneten Augen als Hinweis auf einen potenziell auslösenden epileptischen Anfall. Das Überwachungssystem basiert auf einer Raspberry-Recheneinheit mit zwei angeschlossenen ELP-Nachtsichtkameras und einer Smartphone-App für die Benutzerinteraktion und -konfiguration sowie die visuelle Überwachung auf Abruf. Zukünftige Arbeiten werden zeigen, dass die Einzelbild-Erkennungsrate ausreicht, um eine regelbasierte Überwachungs-Zustandsmaschine mit einer vom Benutzer vordefinierten Empfindlichkeit und Spezifität aufzubauen, indem der visuelle Inhalt als Zeitserie und nicht als Einzelbilder analysiert wird.

Jany J., Zwettler G. (2021). In Proceedings of 33rd European Modeling & Simulation Symposium.

DOI: https://doi.org/10.46354/i3m.2021.iwish.007

Abstrakt

Mit den jüngsten Verbesserungen bei Deep-Learning-Architekturen und der Verfügbarkeit von GPU-Hardware hat sich der Stand der Technik beim Deep Learning (DL) bereits als leistungsstarke Bildverarbeitungstechnologie in der klinischen Routine manifestiert, um Segmentierungsergebnisse mit hoher Genauigkeit zu liefern. Ein Nachteil ist, dass die Black-Box-Natur der Technologie keine natürliche Inspektion und Nachbearbeitung durch medizinische Experten zulässt. Wir präsentieren einen Ansatz zur Graphensegmentierung (GS), der seine Fitnessfunktion auf generische Weise aus beliebigen DL-Ergebnissen ableitet. Um ein effizientes und effektives Post-Processing durch die medizinischen Experten zu ermöglichen, werden in diesem Beitrag verschiedene Interaktionsparadigmen vorgestellt und evaluiert. Der Kompromiss von GS im Vergleich zu den initialen DL-Ergebnissen ist marginal (delta JI= 0,196%), dennoch können potentielle DL-Segmentierungsfehler zuverlässig korrigiert werden. Der intuitive Ansatz zeigt ein hohes Maß an Reproduzierbarkeit sowohl zwischen als auch innerhalb von Benutzern. Die Änderungspropagation der korrigierten Slices hält den Bedarf an Benutzerinteraktion bei der erfolgreichen Korrektur potentieller Schwächen in den DL-Segmentierungen auf ein Minimum. Dadurch werden die ehemals fehleranfälligen Slice-Mini-Batches automatisiert korrigiert, wobei die JI deutlich erhöht wird.

Praschl C. Auserperg-Castell P., Forster-Heinlein B., Zwettler G. (2021). In Proceedings of 33rd European Modeling & Simulation Symposium.

DOI: https://doi.org/10.46354/i3m.2021.emss.042

Abstrakt

In industriellen Bereichen mit zeit- und kostenintensiver manueller oder halbautomatischer Prüfung ist die Nachfrage nach Automatisierung hoch. Durch den Einsatz modernster Deep-Learning-Modelle für die Lokalisierung in bildverarbeitungsbasierten Bereichen wie der Holzstammanalyse kann die Präzision erhöht und gleichzeitig der Bedarf an manueller Inspektion reduziert werden. In dieser Arbeit wird ein YOLO-Netzwerk auf Holzstammbildern trainiert, um die Erkennung von einzelnen Holzstapeln in Bildern mit hunderten und tausenden Instanzen zu ermöglichen. Aufgrund der hohen Variabilität im Maßstab und der großen Menge an Holzstämmen in den Bildern sind herkömmliche YOLO-Architekturen nicht anwendbar. Daher ist eine Kachelung erforderlich, um implizit eine Bildpyramide mit mehreren Auflösungen zu bilden. Aufgrund des Mangels an Trainingsdaten wird neben der üblichen Datenerweiterung auch eine Modellierung der verschiedenen Jahreszeiten und Wetterbedingungen angewendet. Der Holzscheit-Erkennungsprozess kann auf einer Client/Server-Architektur ausgeführt werden, um sowohl eine Vorschau als auch verfeinerte Ergebnisse zu ermöglichen. Die Auswertung auf realen Datensätzen zeigt eine Holzscheit-Erkennungsgenauigkeit von 82,9% mit einem winzigen YOLO-Modell bzw. 94,1% mit einem vollständig verbundenen YOLO-Modell.

Helm E., Schwebach J., Pointner A., Lin A., Rothensteiner V., Keimel D. and Schuler A. (2021). In Proceedings of dHealth 2021 – Health Informatics Meets Digital Health.

Abstrakt

Es fehlt an sicheren offiziellen Kommunikationskanälen für Peer-Review und Peer-Feedback zu medizinischen Befunden. Zielsetzung: Unser Ziel war es, die bestehende österreichische eHealth-Infrastruktur zu nutzen, um Review- und Feedbackprozesse zu ermöglichen. Methoden: Wir erweiterten das IHE XDW Workflow-Dokument, um den Austausch von Textnachrichten (z.B. Kommentare zu Dokumenten oder Bildern) über eine XDS-Infrastruktur zu ermöglichen. Ergebnisse: Der Workflow ermöglichte den Austausch von Kommentaren zu bestimmten Abschnitten von CDA-Dokumenten oder radiologischen Bildern und wurde in einer XDS-Testumgebung verifiziert. Schlussfolgerung: Die vorgestellte Lösung ist ein Proof of Concept, der zur Spezifikation einer neuen IHE-Workflow-Definition führen könnte.

Helm E., Krauss O., Lin A., Pointner A., Schuler A. and Küng J. (2021). Process Mining on FHIR – An Open Standards-Based Process Analytics Approach for Healthcare. In Process Mining Workshops.

Abstrakt

Process Mining hat sich in den letzten Jahren zu einer eigenen Forschungsdisziplin entwickelt, die Möglichkeiten zur Analyse von Geschäftsprozessen auf Basis von Ereignisprotokollen bietet. Im Gesundheitswesen erschweren die Besonderheiten der Organisations- und Behandlungsprozesse, insbesondere im Hinblick auf heterogene Datenquellen, die Anwendung von Process-Mining-Techniken. Diese Arbeit stellt einen Ansatz vor, um etablierte Standards für den Zugriff auf die Audit-Trails von Informationssystemen im Gesundheitswesen zu nutzen und bietet ein automatisiertes Mapping in ein für Process Mining geeignetes Event-Log-Format. Außerdem wird eine Möglichkeit zur Simulation von Prozessen im Gesundheitswesen vorgestellt und zur Validierung des Ansatzes verwendet.

Weitere Informationen hier

Langdon W. and Krauss O. (2021). Genetic Improvement of Data for Maths Functions*. In Proceedings of the Genetic and Evolutionary Computation Conference Companion.

Abstrakt

Genetic Improvement (GI) kann verwendet werden, um eine bessere Qualität der Software zu erreichen und neue Funktionen zu schaffen. Wir zeigen, dass GI die PowerPC Open-Source GNU C Laufzeitbibliothek Quadratwurzel-Funktion in Kubikwurzel, binären Logarithmus log2 und reziproke Quadratwurzel weiterentwickeln kann. Die GI cbrt ist konkurrenzfähig in der Laufzeitleistung und unsere invertierte Quadratwurzel x**-0.5 ist weitaus genauer als die im Videospiel Quake verwendete Approximation. Wir verwenden CMA-ES, um Konstanten in einer Newton-Raphson-Tabelle, die ursprünglich aus glibc’s sqrt stammt, für andere mathematische Funktionen mit doppelter Genauigkeit anzupassen. Solche automatisch angepassten Mathe-Bibliotheken könnten für mobile oder ressourcenarme, IoT-, Mote-, Smart-Dust-, maßgeschneiderte cyber-physische Systeme verwendet werden. Evolutionary Computing (EC) kann nicht nur zur Anpassung von Quellcode, sondern auch von Daten, wie z. B. numerischen Konstanten, eingesetzt werden und könnte eine neue Art der Software-Datenpflege ermöglichen. Dies ist eine spannende Möglichkeit für die GECCO- und Optimierungs-Communities.

Weitere Informationen hier

Pointner A., Praschl C., Krauss O., Schuler A., Helm E., and Zwettler G. (2021). Line Clustering and Contour Extraction in the Context of 2D Building Plans. In Proceedings of 29. International Conference in Central Europe on Computer Graphics, Visualization and Computer Vision.

DOI: https://doi.org/10.24132/CSRN.2021.3101.2

Abstrakt

Für die Analyse eines Gebäudes hinsichtlich seiner Zugänglichkeit oder strukturellen Belastbarkeit sind ausgedruckte 2D-Grundrisse aufgrund der fehlenden Verknüpfung mit semantischen Informationen nicht ausreichend.
Die vorliegende Arbeit greift dieses Problem auf und stellt ein Konzept zur Clusterung klassifizierter Linien eines Grundrisses und zur Erzeugung semantisch angereicherter Konturelemente auf der Basis verschiedener Bildverarbeitungs-,
Algorithmen der Bildverarbeitung, des maschinellen Sehens und des maschinellen Lernens. Ausgehend von einem allgemeinen Ansatz zum Clustering von Linien werden typspezifische Verfahren für Wände, Fenster, Türen und Treppen eingeführt.
Die resultierenden Cluster werden wiederum für eine Konturerzeugung verwendet, die minimal gedrehte Rechtecke verwendet. Diese Rechtecke werden in Polygone transformiert, die durch Nachbearbeitungsschritte verfeinert werden.
Die Evaluierung des Ansatzes erfolgt über eine Positivprüfung anhand eines pixelbasierten Vergleichs des Verfahrensergebnisses. Hierfür werden sowohl automatisch generierte als auch reale Gebäudepläne verwendet.
Die abschließende Auswertung zeigt, dass das Konzept eine Sicherheit von >90% für Türen, Treppen und Fenster und nur etwa 10% für Treppen erreicht, wobei die Laufzeit linear mit der Größe der Eingabe skaliert.

Fernandez-Llatas, C., Munoz-Gama, J., Martin, N., Johnson, O., Sepulveda, M., & Helm, E. (2021). Process Mining in Healthcare. In Interactive Process Mining in Healthcare (pp. 41-52). Springer, Cham.

Abstrakt

Da medizinische Prozesse nur schwer durch einen Konsens von Experten entworfen werden können, ist die Verwendung von verfügbaren Daten zur Erstellung medizinischer Prozesse eine wiederkehrende Idee in der Literatur. Als praktikable Lösung in diesem Bereich werden datengetriebene Paradigmen genannt, die medizinische Experten bei ihren täglichen Entscheidungen unterstützen können. Hinter diesem Paradigma stehen Frameworks, die speziell für den Umgang mit prozessorientierten Problemen entwickelt wurden. Dies ist der Fall beim Process Mining.

Reithmeier, L.; Krauss, O. and Zwettler, G.;  (2021). Transfer Learning and Hyperparameter Optimization forInstance Segmentation with RGB-D Images in Reflective Elevator Environments. In Proceedings of the 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications – Volume 5: VISAPP, ISBN 978-989-758-488-6.

DOI: https://doi.org/10.24132/CSRN.2021.3101.30

Abstrakt

Aufzüge, ein lebenswichtiges Mittel für den städtischen Transport, verfügen in der Regel neben einem Notrufknopf über keine geeigneten Notrufsysteme. Im Falle von bewusstlosen oder anderweitig handlungsunfähigen Fahrgästen kann dies zu tödlichen Situationen führen. Ein kamerabasiertes Überwachungssystem mit KI-basierten Warnungen unter Verwendung einer Aufzugszustandsmaschine kann Fahrgästen helfen, die nicht in der Lage sind, einen Notruf auszulösen. In dieser Forschungsarbeit wird die Anwendbarkeit von RGB-D-Bildern als Input für die Objektsegmentierung in der stark reflektierenden Umgebung einer Aufzugskabine evaluiert. Für die Objektsegmentierung wird ein Region-based Convolution Neural Network (R-CNN) Deep-Learning-Modell so angepasst, dass es neben RGB auch Tiefen-Eingangsdaten verwenden kann, indem Transfer-Learning, Hyperparameter-Optimierung und Re-Training auf einem neu aufbereiteten Aufzugsbild-Datensatz angewendet werden. Auswertungen beweisen, dass mit der gewählten Strategie die Genauigkeit der R-CNN-Instanzsegmentierung auf RGB-D-Daten anwendbar ist, wodurch die mangelnde Bildqualität in den verrauschten und reflektierenden Aufzugskabinen behoben wird. Die mittlere durchschnittliche Genauigkeit (mAP) von 0,753 wird nach der Einbeziehung zusätzlicher Tiefendaten auf 0,768 erhöht und mit zusätzlichem FuseNet-FPN-Backbone auf RGB-D wird die mAP weiter auf 0,794 erhöht. Mit dem vorgeschlagenen Instanzsegmentierungsmodell wird eine zuverlässige Aufzugsüberwachung machbar, wie erste Prototypen und Praxistests beweisen.

Zwettler, G.; Praschl, C.; Baumgartner, D.; Zucali, T.; Turk, D.; Hanreich, M. and Schuler, A. (2021). Three-step Alignment Approach for Fitting a Normalized Mask of a Person Rotating in A-Pose or T-Pose Essential for 3D Reconstruction based on 2D Images and CGI Derived Reference Target Pose.In Proceedings of the 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications – Volume 5: VISAPP, ISBN 978-989-758-488-6, pages 281-292. DOI: 10.5220/0010194102810292

Abstrakt

Die Rekonstruktion von 3D-Silhouetten eines menschlichen Körpers, der sich vor einem monokularen Kamerasystem dreht, ist aufgrund der elastischen Verformung und der Positionsfehlanpassung durch die Körperbewegung eine sehr anspruchsvolle Aufgabe. Nichtsdestotrotz ist die Kenntnis der 3D-Körperform eine Schlüsselinformation zur präzisen Bestimmung der eigenen Konfektionsgrößen, z. B. für den präzisen Einkauf zur Reduzierung von Rücksendungen im Online-Handel. In diesem Beitrag wird ein neuartiger dreistufiger Ausrichtungsprozess vorgestellt, der As-Rigid-As-Possible (ARAP)-Transformationen verwendet, um das aus OpenPose abgeleitete Körpergelenkskelett mit einem CGI-gerenderten Referenzmodell in A- oder T-Position zu normalisieren. Mit weiteren distanzbasierten Registrierungsschritten werden Positionsfehlanpassungen und Ungenauigkeiten aus der OpenPose-Gelenkschätzung kompensiert, so dass eine 3D-Silhouettenrekonstruktion eines sich bewegenden und elastischen Objekts möglich ist, ohne dass statistische Formmodelle erforderlich sind. Tests sowohl mit künstlichen als auch mit realen Daten belegen die Einsatzbarkeit dieses Ansatzes, wobei alle drei Ausrichtungs-/Registrierungsschritte für die Datennormalisierung der 3D-Silhouetten-Rekonstruktion wesentlich und ausreichend sind.

2020

Baumgartner D., Jordens I., Wilfing D., Krauss O., Zwettler G. (2020). Automatic Detection of Objects Blocking Elevator Doors using Computer Vision. In Proceedings of the 23rd International Congress on Vertical Transportation Technologies.

Abstrakt

In diesem Beitrag stellen wir einen neuen Ansatz vor, der Computer-Vision-Methoden auf Bilddaten anwendet, die mit Tiefenwahrnehmungskameras erfasst wurden, um das Innere des Aufzugs abzubilden, die Position und den Zustand der Tür zu erkennen und Objekte im Türbereich zu erkennen. Die Tiefendaten werden verwendet, um die Aufzugskabine als Sicherheitswürfel zu bestimmen, d. h. die Position der Tür, die Anordnung des Aufzugs usw., während die Farbdaten die Erkennung neuer Objekte weiter verbessern. Der Ansatz kann den Zustand der Aufzugstür als entweder geöffnet oder geschlossen erkennen, während kein Objekt die Sicht auf die Tür versperrt, sowie erfolgreich Objekte identifizieren, die eine offene Tür blockieren. Diese Aufzugsüberwachung erweist sich als relevant für die Bestimmung des Aufzugszustands, die Sicherheit sowie Aspekte der vorausschauenden Wartung.

ACM/IEEE International Symposium on Empirical Software Engineering and Measurement (ESEM), 2020, Andreas Schuler and Gabriele Kotsis (Preprint) (Replication Package)

Int. J. Environ. Res. Public Health (Details)
Helm E., Lin M. A., Baumgartner D., Lin C. A., Küng J.

Proceedings of the 8th International Workshop on Genetic Improvement (Details)
Krauss O., Mössenböck H., Affenzeller M.

GECCO ’20: Proceedings of the Genetic and Evolutionary Computation Conference Companion (Details)
Langdon W., Krauss O.

Genetic Programming. EuroGP 2020. Lecture Notes in Computer Science, vol 12101. Springer, Cham (Details)
Krauss O., Langdon W.B.

Gerald Zwettler, David Holmes and Werner Backfrieder. „Strategies for Training Deep Learning Models in Medical Domains with Small Reference Datasets“. WSCG ’20.

Abstrakt

Mit dem stetigen Fortschritt von Deep Learning (DL)

stehen nun leistungsfähige Werkzeuge für anspruchsvolle Segmentierungsaufgaben zur Verfügung. Dennoch kann der allgemein sehr hohe Bedarf an Trainingsdaten und präzisen Referenzsegmentierungen im medizinischen Bereich bei der Bearbeitung kleiner und individueller Studien oder Erfassungsprotokolle oft nicht gedeckt werden. Als gängige Strategien sind Reinforcement Learning oder Transfer Learning anwendbar, aber aufgrund der domänenspezifischen Anpassung mit immensem Aufwand kohärent. In dieser Arbeit wird die Anwendbarkeit einer U-Netz-Kaskade für das Training auf einer sehr geringen Menge von abdominellen MRT-Datensätzen des Parenchyms evaluiert und Strategien zur Kompensation des Mangels an Trainingsdaten diskutiert. Obwohl die Modellgenauigkeit beim Training auf 13 MRT-Bändern mit erreichbarem JI=89,41 eher gering ist, sind die Ergebnisse immer noch gut genug für eine jährliche Nachbearbeitung unter Verwendung eines Graph-Cut (GC)-Ansatzes mit mittlerem Bedarf an Benutzerinteraktion. Auf diese Weise werden die DL-Modelle umgeschult, wenn zusätzliche Testdatensätze verfügbar werden, um die Klassifikationsgenauigkeit anschließend zu verbessern. Mit nur 2 zusätzlichen GC-Postprocessing-Datensätzen beträgt die Genauigkeit nach der Modellneuschulung JI= 89,87. Darüber hinaus wird die Anwendbarkeit von Generativen Adversialen Netzwerken (GAN) im medizinischen Bereich evaluiert, wobei diskutiert wird, axiale CT-Schnitte zusammen mit perfekten Ground-Truth-Referenz-Segmentierungen zu synthetisieren. Es wird für abdominale CT-Schnitte des Parenchyms gezeigt, dass bei fehlenden Trainingsdaten synthetisierte Schnitte, die in beliebiger Anzahl abgeleitet werden können, den DL-Trainingsprozess signifikant verbessern können, wenn nur eine unzureichende Datenmenge zur Verfügung steht. Während das Training auf 2.200 Realbildern nur zu einer Genauigkeit von JI=88,75 führt, führt die Anreicherung mit 2.200 zusätzlichen Bildern, die aus einer auf 5.000 Datensätzen trainierten GAN synthetisiert werden, zu einer Steigerung bis zu JI=92,02. Selbst wenn das DL-Modell ausschließlich auf 4.400 computergenerierten Bildern trainiert wird, ist die Klassifikationsgenauigkeit auf Realweltdaten mit JI=90,81 bemerkenswert.

 

G. Zwettler, D. Holmes III, W. Backfrieder – Pre- and Post-processing Strategies for Generic Slice-wise Segmentation of Tomographic 3D datasets Utilizing U-Net Deep Learning Models Trained for Specific Diagnostic Domains – Proceedings of the VISAPP 2020, Valetta, Malta, 2020, pp. 66-78

Abstrakt

Ein automatisiertes und allgemein anwendbares Verfahren zur Segmentierung steht nach wie vor im Fokus der medizinischen Bildverarbeitungsforschung. Seit einigen Jahren zeigen Methoden der künstlichen Intelligenz vielversprechende Ergebnisse, insbesondere mit weit verbreiteten skalierbaren Deep-Learning-Bibliotheken. In dieser Arbeit wird ein fünfschichtiges Hybrid-U-Netz zur scheibenweisen Segmentierung von Leber-Datensätzen entwickelt. Die Trainingsdaten stammen aus der Medical Segmentation Decathlon-Datenbank, die 131 vollständig segmentierte Bände umfasst. Es wird ein schichtorientiertes Segmentierungsmodell unter Verwendung von Algorithmen für Deep Learning mit Anpassungen für variable Parenchymform entlang der Stapelrichtung und Ähnlichkeiten zwischen benachbarten Schichten implementiert. Beide werden für koronale und sagittale Ansichten transformiert. Die Implementierung erfolgt auf einem GPU-Rack mit TensorFlow und Keras. Für ein quantitatives Maß der Segmentierungsgenauigkeit werden standardisierte Volumen- und Oberflächenmetriken verwendet. Die Ergebnisse DSC=97.59, JI=95.29 und NSD=99.37 zeigen eine korrekte Segmentierung, vergleichbar mit 3D-U-Netzen und anderen dem Stand der Technik entsprechenden U-Netzen. Die Entwicklung eines 2D-Schnittes orientierte Segmentierung wir durch die Vorteile kurzer Trainingszeiten und geringere Komplexität gerechtfertigt und reduziert auch massiv den Speicherverbrauch. Diese Arbeit manifestiert das hohe Potenzial von KI-Methoden für die allgemeine Anwendung in der Medizin. Segmentierung als voll- oder halbautomatisches Werkzeug unter Aufsicht des fachkundigen Benutzers.

Baumgartner,D., Praschl,C., Zucali,T., Zwettler,G.: 1. Hybrid Approach for Orientation-Estimation of Rotating Humans in Video Frames Acquired by Stationary Monocular Camera

Abstrakt

Die präzise Orientierungsschätzung des Menschen in Bezug auf die POSE eines monokularen Kamerasystems ist aufgrund allgemeiner Aspekte der Kamerakalibrierung und der Verformbarkeit eines sich bewegenden menschlichen Körpers eine anspruchsvolle Aufgabe. Daher sind neuartige Ansätze des Deep Learnings zur präzisen Bestimmung der Objektposition in der Robotik schwer für die Analyse des menschlichen Körpers zu adaptieren. In dieser Arbeit wird ein hybrider Ansatz für die genaue Schätzung eines menschlichen Körpers relativ zu einem Kamerasystem vorgestellt, wodurch die aus poseNet abgeleiteten Ergebnisse durch Anwendung der Analyse des optical Flows in einem Frame-zu-Frame-Vergleich deutlich verbessert werden. Der menschliche Körper, der sich vor Ort in T-Position dreht, wird dabei in der Mitte ausgerichtet, wobei Objektverfolgungsmethoden zur Kompensation von Translationen der Körperbewegung angewendet werden. Nach der 2D-Skelettextraktion wird der optical Flow für einen ROI-Bereich berechnet, der relativ zur vertikalen Skelettverbindung, die die Wirbelsäule darstellt, ausgerichtet ist, und Bild für Bild verglichen. Um die Eignung der Kleidung als Grundlage für gute Merkmale zu bewerten, wird die lokale Pixelhomogenität berücksichtigt, um den optical Flow auf heterogene Regionen mit Unterscheidungsmerkmalen wie Aufdruckmuster, Knöpfe oder Schnallen neben der lokalen Beleuchtungsänderung zu beschränken. Basierend auf dem mittleren optical Flow mit grober Annäherung an die axiale Körperform als Ellipse wird eine Genauigkeit zwischen 0,1° und 2,0° für die Orientierungsschätzung auf einem Frame-zu-Frame-Vergleich erreicht, der sowohl auf CGI-Renderings als auch auf realen Videos von Personen, die Kleidung mit unterschiedlichen Merkmalen tragen, ausgewertet und validiert wird.

International Journal of Simulation and Process Modelling

C. Praschl, O. Krauss, G. Zwettler

Abstrakt

Diese Forschungsarbeit umfasst generische Ansätze zur Bestimmung der Außenposition und -orientierung eines Augmented-Reality-Geräts aufgrund der mangelnden Außentauglichkeit der derzeit auf dem Markt erhältlichen tiefen- oder umgebungserkennungssensorbasierten Geräte. Die Bestimmung der Orientierung erfolgt primär mit einem Attitude Heading Reference System (AHRS) zur groben Abschätzung. Basierend auf einer angeschlossenen/eingebauten Videokamera wird die Genauigkeit bei geringfügigen Änderungen der Orientierung durch die Anwendung der Registrierung zur Bewertung der Orientierungsunterschiede zwischen zwei Videobildern verbessert, wodurch Gyroskop-Driftfehler kompensiert werden. Die Positionsbestimmung erfolgt mittels GPS mit einem kinematischen Echtzeit-Bakensystem mit Rover- und Basisstation, um eine verbesserte Genauigkeit zu erreichen. Die Ergebnisse zeigen, dass aufgrund der Sensoranwendung AR-Hardware, die für den Einsatz in Innenräumen in Betracht gezogen wird, so umgerüstet werden kann, dass sie im Freien, bei großen Entfernungen und sogar in fahrenden Fahrzeugen einwandfrei funktioniert. Dadurch wird die zukünftige Implementierung von Anwendungen in verschiedenen Bereichen erleichtert.

Daniel Dorfmeister, and Oliver Krauss. 2020. “Integrating HeuristicLab with Compilers and Interpreters for Non-Functional Code Optimization.” In Proceedings of the Genetic and Evolutionary Computation Conference Companion – GECCO ’20. Cancun, Mexico: ACM Press. (Details).

Emmanuel Helm, Anna M. Lin, David Baumgartner, Alvin C. Lin und Josef Küng. 2020. “Adopting Standard Clinical Descriptors for Process Mining Case Studies in Healthcare”.

Abstrakt

Process Mining kann einen besseren Einblick in medizinische Behandlungsprozesse und organisatorische Abläufe im Gesundheitswesen bieten. Eine Durchsicht der Fallstudien in der Literatur hat mehrere verschiedene gemeinsame Aspekte zum Vergleich identifiziert, zu denen Methoden, Algorithmen oder Techniken, medizinische Bereiche und Spezialgebiete des Gesundheitswesens gehören. Aus medizinischer Sicht werden die klinischen Begriffe jedoch nicht in einer einheitlich verwendet und folgen nicht einem standardisierten klinischen Kodierungsschema. Außerdem sind die Merkmale der Ereignisprotokolldaten nicht immer beschrieben. In dieser Abhandlung haben wir 38 klinisch relevante Fallstudien zum Thema Process Mining im Gesundheitswesen identifiziert, die zwischen 2016 und 2018 veröffentlicht wurden und die die verwendeten Tools, Algorithmen und Techniken sowie Einzelheiten zu den Ereignisprotokolldaten beschrieben. Anschließend ordneten wir die klinischen Aspekte der Patientenbegegnungsumgebung, des klinischen Fachgebiets und der medizinischen Diagnosen unter Verwendung der standardmäßigen klinischen Kodierungsschemata SNOMED CT und ICD-10 zu. Die möglichen Ergebnisse der Annahme ein Standardansatz für die Beschreibung von Ereignisprotokolldaten und die Klassifizierung medizinischer Terminologie unter Verwendung von standardmäßigen klinischen Kodierungsschemata werden diskutiert.

2019

Proceedings of the 16th EAI International Conference on Mobile and Ubiquitous Systems: Computing, Networking and Services, 2020, Andreas Schuler and Gabriele Kotsis (Paper Link)

IGSOFT Softw. Eng. Notes 44, 3 (July 2019) (Details)
William B. Langdon, Westley Weimer, Christopher Timperley, Oliver Krauss, Zhen Yu Ding, Yiwei Lyu, Nicolas Chausseau, Eric Schulte, Shin Hwei Tan, Kevin Leach, Yu Huang, and Gabin An

arXiv preprint arXiv:1907.03773

Process-Oriented Data Science for Healthcare (Details)
Emmanuel Helm, David Baumgartner, Anna M. Lin, Alvin Lin, Josef Küng

Proceedings of the 6th International Workshop on Genetic Improvement
Oliver Krauss, Hanspeter Mössenböck, Michael Affenzeller

ICT for Health Science Research
A. Lin, O. Krauss, E. Helm

Process Mining Conference 2019 – 1st International Conference on Process Mining, June 24-26, 2019, Aachen, Germany
Baumgartner D., Haghofer A., Limberger M., Helm E.

Information Systems and Neuroscience, p. 221 – 228, Springer Verlag
Baumgartner D., Fischer T. Riedl R., Dreiseitl S.

2018

Proc. 9th Intl. Conf. on Society and Information Technologies (ICSIT 2018), Orlando, Vereinigte Staaten von Amerika, 2018, pp. 126-131
Mayr, H.

Proceeding ISSTA ’18 Companion Proceedings for the ISSTA/ECOOP 2018 Workshops Pages 144-149 (Details)
Schuler, A. and Anderst-Kotsis G. – MANA

International journal of environmental research and public health (Details)
Rinner C., Helm E., Dunkl R., Kittler H., Rinderle-Ma S.

GECCO ’18: Proceedings of the Genetic and Evolutionary Computation Conference Companion (Details)
Krauss, O. Mössenböck, H. Affenzeller, M. – GCE

International Conference on Business Process Management (Details)
Rinner C., Helm E., Dunkl R., Kittler H., Rinderle-Ma S.

Proceedings of the 30th European Modeling and Simulation Symposium EMSS2018, Budapest, Ungarn, 2018
A. Pointner, O. Krauss, G. Freilinger, D. Strieder, G. Zwettler – GUIDE

Proceedings of the 30th European Modeling and Simulation Symposium EMSS2018, Budapest, Ungarn, 2018
C. Praschl, O. Krauss, G. Zwettler – Drive for Knowledge

International Journal of Privacy and Health Information Management (IJPHIM)
Traxler B., Helm E., Krauss O., Schuler A., Kueng J.

European Journal of Biomedical Informatics (Details)
Lackerbauer A., Lin A., Krauss O., Hearn J., Helm E.

Studies in health technology and informatics
Helm E., Schuler A., Mayr H.

2017

Proceedings of the International Workshop on Innovative Simulation for Health Care (IWISH), Barcelona, Spanien, 2017, pp. 26-31
W. Backfrieder, B. Kerschbaumer, G. Zwettler

Proceedings of the International Workshop on Innovative Simulation for Healthcare IWISH 2017, Barcelona, Spanien, 2017
W. Backfrieder, G. Zwettler, B. Kerschbaumer

Akkordeon InhaltaSPLASH / OOPSLA 2017 (Details)
O. Krauss

ITBAM 2017, 8th International Conference on Information Technology in Bio-and Medical Informatics, Lyon, France (Details)
González López De Murillas E., Helm E., Reijers HA., Küng J., Bursa M., Holzinger A., Elena Renda M., Khuri S.

6th International Workshop on Innovative Simulation for Health Care (IWISH 2017) (Details)
E. Helm, B. Franz, A. Schuler, O. Krauss, J. Küng

Studies in Health Technology and Informatics, 2017 – 236 (Details)
Krauss O, Holzer K, Schuler A, Egelkraut R, Franz B. – KIMBO

2016

Information Technology in Bio- and Medical Informatics, Porto, Portugal, 2016 (Details)
E. Helm, J. Küng

IEEE Advanced Information Management,Communicates,Electronic and Automation Control Conference, Xi’an, Xi’an, China, 2016 (Details)
D. Wilfing, O. Krauss, A. Schuler – ARISE

IEEE Advanced Information Management,Communicates,Electronic and Automation Control Conference, Xi’an, Xi’an, China, 2016 (Details)
O. Krauss, D. Wilfing, A. Schuler – ARISE

Information Technology in Bio- and Medical Informatics, Porto, Portugal, 2016 (Details)
O. Krauss, M. Angermaier, E. Helm – KIMBO

2015

International Journal of Electronics and Telecommunications, Vol. 61, No. 2, 2015, pp. 151-157
O. Krauss, B. Franz, A. Schuler

NIEREN-UND HOCHDRUCKKRANKHEITEN, Vol. 44, No. 10, 2015, pp. 9
S. Porta, G. Zwettler, W. Kurschl, C. Dinu, G. Juttla, K. Pichlkastner, H. Gell, B. Kaiser, K. Kisters

International Journal of Electronics and Telecommunications, Vol. 60, No. 6, 2015, pp. 1-8
G. Zwettler, W. Backfrieder

Proceedings of the 2015 I-WISH, The International Workshop on Innovative Simulation for Healthcare , Bergeggi, Italien, 2015, pp. 6
W. Backfrieder, G. Zwettler

Proceedings of the IEEE International conference on Computing and Communications Technologies (ICCCT’15), Chennai, Indien, 2015, pp. 1-7
G. Zwettler, W. Backfrieder

eHealth2015 – Health Informatics Meets eHealth, Wien, Österreich, 2015 (Details)
E. Helm, A. Schuler, O. Krauss, B. Franz

European Journal for Biomedical Informatics, Vol. 11, No. 2, 2015 (Details)
B. Franz, A. Schuler, O. Krauss

International Journal of Electronics and Telecommunications, Vol. 61, No. 2, 2015 (Details)
A. Schuler, B. Franz, O. Krauss

MIE, Digital Healthcare Empowering Europeans, Madrid, Spanien, 2015, pp. 40-44 (Details)
F. Paster, E. Helm

International Journal of Electronics and Telecommunications, Vol. 61, No. 2, 2015, pp. 137-142 (Details)
E. Helm, F. Paster

2014

Proceedings of the 3rd International Workshop on Innovative Simulation for Healthcare IWISH 2014, Bordeaux, Frankreich, 2014, pp. 26-35
G. Zwettler, W. Backfrieder

Proceedings of the 3rd International Workshop on Innovative Simulation for Healthcare IWISH 2014, Bordeaux, France, 2014, pp. 36-41
W. Backfrieder, G. Zwettler

California, USA, Vereinigte Staaten von Amerika, 2014, pp. 9
G. Zwettler, W. Backfrieder

Tagungsband des 8. Forschungsforum der österreichischen Fachhochschulen, Kufstein, Österreich, 2014, pp. 296-300
G. Zwettler, W. Backfrieder

Tagungsband des 8. Forschungsforum der österreichischen Fachhochschulen, Kufstein, Österreich, 2014, pp. 482-483
G. Zwettler, W. Backfrieder

Gesundheitswesen im Wandel – nationale und internationale Perspektiven (Editors: Erwin Gollner, Magdalena Thaller) – Leykam, 2014, pp. 30-35 (Details)
A. Schuler

2013

Cross-Cultural Conference 2013, Steyr, Österreich, 2013, pp. 253-263
M. Gaisch, C. Holzmann, W. Kurschl, H. Mayr, S. Selinger

LECTURE NOTES IN COMPUTER SCIENCE, Vol. 8112, No. 1, 2013, pp. 166-173 (Details)
G. Zwettler, W. Backfrieder

Proceedings of The International Workshop on Innovative Simulation for Healthcare IWISH 2013 , Athens, Greece, Griechenland, 2013, pp. 58-64
G. Zwettler, W. Backfrieder

Proceedings of The International Workshop on Innovative Simulation for Healthcare IWISH 2013 , Athens, Greece, Griechenland, 2013, pp. 28-33
W. Backfrieder, B. Kerschbaumer, G. Zwettler

Proceedings of the 8th International Conference on Computer Vision Theory and Applications, Barcelona, Spanien, 2013, pp. 104-108
G. Zwettler, W. Backfrieder

Computer Aided Systems Theory (Eurocast 2013), Las Palmas, Spanien, 2013, pp. 118-119
G. Zwettler, W. Backfrieder

Proceedings of the 10th International Conference on Information Technology: New Generations (ITNG 2013), Las Vegas, Nevada, USA, 2013 (Details)
A. Schuler, B. Franz

6. Deutscher AAL-Kongress, Berlin, Deutschland, 2013, pp. 1-7 (Details)
B. Franz, M. Buchmayr, A. Schuler, W. Kurschl

Database and Expert Systems Applications, Prague, Tschechische Republik, 2013, pp. 466-473 (Details)
B. Franz, A. Schuler, E. Helm

eHealth2013 – Von der Wissenschaft zur Anwendung und zurück. , Wien, Österreich, 2013, pp. 207-218 (Details)
E. Helm, A. Schuler, H. Mayr

2012

Proceedings of the 24th European Modeling and Simulation Symposium EMSS 2012, Vienna, Österreich, 2012, pp. 73-81
G. Zwettler, W. Backfrieder

Tagungsband FFH 2012, Graz, Österreich, 2012, pp. 185-189
G. Zwettler, S. Hinterholzer, P. Track, F. Waschaurek, E. Hagmann, R. Woschitz

MIE, Quality of Life through Quality of Information, Pisa, Italien, 2012 (Details)
M. Strasser, E. Helm, A. Schuler, M. Fuschlberger, B. Altendorfer

Proceedings of the 10th International Conference on Information Communication Technologies in Health, Samos, Greece, Griechenland, 2012, pp. 422-432 (Details)
M. Strasser, E. Helm, B. Franz, H. Mayr

eHealth2012 – Health Informatics meets eHealth – von der Wissenschaft zur Anwendung und zurück, Wien, Österreich, 2012, pp. 179-184 (Details)
M. Strasser, E. Helm, A. Schuler, B. Franz, H. Mayr, C. David

Proceedings IV Kongress 2012, Linz, Österreich, 2012
H. Mayr, B. Franz

2011

eHealth 2011, Wien, Österreich, 2011, pp. 209-214
F. Pfeifer, B. Franz, E. Helm, J. Altmann, B. Aichinger

Proccedings of 23rd IEEE European Modeling & Simulation Symposium EMSS 2011, Roma, Italien, 2011, pp. 195-200
B. Franz, H. Mayr

Proceedings of the 23rd European Modeling & Simulation Symposium, Rom, Italien, 2011, pp. 111-117
G. Zwettler, W. Backfrieder, R. Pichler

Proceedings of the 23rd European Modeling & Simulation Symposium, Rom, Italien, 2011, pp. 100-104
W. Backfrieder, G. Zwettler

Tagungsband FFH 2011 (5. Forschungsforum der österreichischen Fachhochschulen), Wien (Favoriten), Österreich, 2011, pp. 38-41
G. Zwettler, W. Backfrieder, R. Pichler

Proc. of the 3rd International ICST Conference on IT Revolutions , Cordoba, Spanien, 2011, pp. 20
G. Zwettler, S. Hinterholzer, P. Track, R. Woschitz, F. Waschaurek, E. Hagmann

Proceedings of International Conference on Computer Aided Systems Theory EUROCAST 2011, Las Palmas, Spanien, 2011, pp. 233-235
G. Zwettler, S. Hinterholzer, F. Waschaurek, R. Woschitz, E. Hagmann, P. Track

Proceedings of International Conference on Computer Aided Systems Theory EUROCAST 2011, Las Palmas, Spanien, 2011, pp. 363-365
G. Zwettler, W. Backfrieder, R. Pichler

Proceedings IADIS International Conference e-Health 2011 – EH 2011, Rom, Italien, 2011, pp. 4
B. Franz, H. Mayr

2010

ÖKZ Das österreichische Gesundheitswesen, Vol. 51, No. 7, 2010, pp. 9-11
B. Franz, M. Lehner, M. Mayr

ECOOP 2010 – 1st Workshop on Testing Object-Oriented Software Systems, Maribor, Slowenien, 2010, pp. 9-15
A. Strasser, H. Mayr, T. Naderhirn

22nd European Modeling and Simulation Symposium EMSS 2010, Fes, Marokko, 2010, pp. 49-58
G. Zwettler, S. Hinterholzer, E. Hagmann, R. Woschitz, P. Track, F. Waschaurek

Tagungsband des 4. Forschungsforum der österreichischen Fachhochschulen, Pinkafeld, Österreich, 2010, pp. 79-84
G. Zwettler, W. Backfrieder

Intelligente Objekte und Mobile Informationssysteme im Gesundheitswesen, Erlangen, Deutschland, 2010
B. Franz, H. Mayr, M. Mayr

Proceedings of 7th International Conference on Information Technology : New Generations, Las Vegas, Vereinigte Staaten von Amerika, 2010
B. Franz, H. Mayr, M. Mayr

2009

eHealth2009, Wien, Österreich, 2009, pp. 115-121
J. Altmann, B. FRANZ, D. Mörtenschlag, F. Pfeifer, M. Strasser, B. Aichinger, R. Koller

Proceedings of 21st European Modeling and Simulation Symposium EMSS 2009, Tenerife, Spanien, 2009, pp. 3
J. Altmann, F. Pfeifer, M. Strasser, B. Franz, H. Mayr

Proceedings of 21st European Modeling and Simulation Symposium EMSS 2009, Tenerife, Spanien, 2009, pp. 161-166
G. Zwettler, W. Backfrieder, R. Swoboda, F. Pfeifer

Proceedings of 21st European Modeling and Simulation Symposium EMSS 2009, Tenerife, Spanien, 2009, pp. 154-160
R. Swoboda, G. Zwettler, J. Scharinger, C. Steinwender, F. Leisch

Tagungsband des 3. Forschungsforums der österreichischen Fachhochschulen, Fachhochschule Kärnten, Villach, Österreich, 2009, pp. 6
G. Zwettler, W. Backfrieder, R. Swoboda, F. Pfeifer

Tagungsband des 3. Forschungsforums der österreichischen Fachhochschulen, Fachhochschule Kärnten, Villach, Österreich, 2009, pp. 2
G. Zwettler, W. Backfrieder

Master/Diploma Thesis, FH OÖ Fakultät Hagenberg, Österreich, 2009, pp. 104
G. Zwettler

Proceedings of 21st European Modeling and Simulation Symposium EMSS 2009, Tenerife, Spanien, 2009, pp. 8
B. Franz, H. Mayr, M. Mayr, F. Pfeifer, J. Altmann, M. Lehner

Proceedings of the 6th International Conference on Information Technology : New Generations, Las Vegas, Vereinigte Staaten von Amerika, 2009
B. Franz, M. Lehner, H. Mayr, M. Mayr

Proceedings Med-e-Tel 2009, Global Telemedicine and eHealth Updates: Knowledge Resources Vol. 2, Luxembourg, Luxemburg, 2009, pp. 452-455
H. Mayr, B. Franz

2008

The Insight Journal, Vol. 3, No. 2, 2008, pp. 36
R. Swoboda, W. Backfrieder, G. Zwettler, F. Pfeifer

IGRT Vienna 2008 , Wien, Österreich, 2008, pp. 14
W. Backfrieder, G. Zwettler, R. Swoboda, F. Pfeifer, H. Kratochwill, F. Fellner

Challenges in Biosciences: Image Analysis and Pattern Recognition Aspects, St. Magdalena, Linz, Austria, Österreich, 2008, pp. 91-102
G. Zwettler, W. Backfrieder, F. Pfeifer, R. Swoboda

Proceedings of FFH2008 Fachhochschul Forschungs Forum, Wels, Österreich, 2008, pp. 253-259
G. Zwettler, W. Backfrieder, F. Pfeifer, R. Swoboda, H. Kratochwill, F. Fellner

Proceedings 2009 Tagungsband Bericht 2008 Journal Tagungsband – 6 – of FFH2008 Fachhochschul Forschungs Forum, Wels, Österreich, 2008, pp. 2
F. Pfeifer, W. Backfrieder, G. Zwettler, R. Swoboda, H. Kratochwill, M. Malek, R. Hainisch

Proceedings of the 3rd International Conference on Computer Vision Theory and Applications, Funchal, Madeira – Portugal, Portugal, 2008, pp. 74-80
G. Zwettler, W. Backfrieder, F. Pfeifer, R. Swoboda

Proceedings of the 20th European Modeling and Simulation Symposium, Campora S. Giovanni, Italien, 2008
C. Novak, B. Franz, H. Mayr, M. Vesely

Proceedings of The 2008 Internationa Conference on Machine Learning; Models, Technologies and Applications, Las Vegas, Vereinigte Staaten von Amerika, 2008, pp. 787-793
M. Vesely, C. Novak, A. Reh, H. Mayr

Proc. 23. STEV-Österreich-Fachtagung IT-/Software-Qualitätsmanagement in der Praxis, Wien, Österreich, 2008, pp. 48-59
H. Mayr

Proceedings of FFH2008 Fachhochschul Forschungs Forum, Wels, Österreich, 2008, pp. 3
J. Altmann, H. Mayr, W. Steinbichl

2007

Proceedings of International Mediterranean Modelling Multiconference I3M2007, Genoa, Italien, 2007, pp. 289-293
H. Mayr

Tagungsband des ersten Forschungsforum der österreichischen Fachhochschulen, Fachhochschule Salzburg, Campus Urstein, Österreich, 2007, pp. 244-250
H. Mayr, M. Vesely

Proc. 14th IEEE International Conference and Workshop on the Engineering of Computer Based Systems (ECBS’ 07), Tucson, Vereinigte Staaten von Amerika, 2007, pp. 397-402
H. Mayr

Proceedings of International Conference Computer Aided Systems Theory EUROCAST 2007, Las Palmas, Spanien, 2007, pp. 1097-1104
M. Vesely, H. Mayr

International Journal of Computer Assisted Radiology and Surgery, Berlin, Deutschland, 2007, pp. 460-461
W. Backfrieder, G. Zwettler, R. Swoboda, F. Pfeifer, H. Kratochwill, F. Fellner

Tagungsband des ersten Forschungsforum der österreichischen Fachhochschulen, Fachhochschule Salzburg, Campus Urstein, Österreich, 2007, pp. 425-426
G. Zwettler, W. Backfrieder, R. Swoboda, F. Pfeifer, H. Kratochwill, F. Fellner

Tagungsband des ersten Forschungsforum der österreichischen Fachhochschulen, Fachhochschule Salzburg, Campus Urstein, Österreich, 2007, pp. 401-402
F. Pfeifer, W. Backfrieder, R. Swoboda, G. Zwettler, H. Kratochwill, F. Fellner, M. Malek, R. Hainisch

2006

Proceedings FH Science Day 2006, Hagenberg, Österreich, 2006, pp. 74-80
F. Pfeifer, W. Backfrieder, R. Swoboda, G. Zwettler

Proceedings of the International Mediterranean Modelling Multiconference (I3M 2015), Barcelona, Spanien, 2006, pp. 675-680
G. Zwettler, R. Swoboda, W. Backfrieder, C. Steinwender, F. Leisch, C. Gabriel

2005

Proceedings of Conceptual Modeling and Simulation Conference (CMS 2005), Marseille, Frankreich, 2005, pp. 185-191
R. Swoboda, W. Backfrieder, G. Zwettler, M. Carpella, C. Steinwender, F. Leisch, C. Gabriel

Master/Diploma Thesis, FH OÖ Fakultät Hagenberg, Österreich, 2005, pp. 94
G. Zwettler