Master, Vollzeit
- Campus Hagenberg
- E-Mail dse@fh-hagenberg.at
- Telefon +43 5 0804 22700
- Infoblatt downloaden Anfrage stellen
Studienplan
Module
Datenanalyse
1. | 2. | 3. | 4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Studienprojekt Praktische Datenanalyse |
3 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Studienprojekt Praktische DatenanalyseStudienprojekt Angewandte Datenanalyse
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Textmining |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TextminingDie Studierenden besitzen fundierte Kenntnisse über die Methoden des Information Retrieval und des Semantic Webs. Der erste Teil des Moduls vermittelt Kenntnisse über Methoden und Systeme für die Synthese von Wissensbasen (mit Standard-Frameworks), über Techniken der Wissensmodellierung, über die Synthese von Ontologien, und wissensbasierte Problemlösungstechniken. Nach Absolvierung des zweiten Teils des Moduls beherrschen sie Me-thoden für Information Retrieval, wie Indizierung, Kategorisierung und Klassifizierung von Texten mit Anwendungen im Semantik Web. Text Mining
Die Studierenden erlernen relevante Konzepte und Trends rund um semantische Technologien für die Analyse von unstrukturierten Texten und das Semantic Web beleuchtet. Die grundlegenden Techniken und Systeme zur Erstellung von Wissensbasen werden erläutert und neben der Informationsintegration und Wissensmodellie- rung durch Ontologien auch spezielle Technologien vermittelt. Folgende Themen werden präsentiert: Grundlagen, Architektur, Information Retrieval, Anforderungen und Nutzen in der Anwendung, Wissensmodellierung, Wissenserwerb, Wissensrepräsentation, Ontologien, Wissensverarbeitung/Reasoning, Technologische Bausteine des Semantic Web. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Studienprojekt Angewandte Datenanalyse |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Studienprojekt Angewandte DatenanalyseStudienprojekt Praktische Datenanalyse
Die Studierenden arbeiten in kleinen Arbeitsgruppen und lösen der Applikationsdomäne Produktion entsprechend aktuelle Aufgabenstellungen für Datenanalyse in Kooperation mit externen Auftraggebern. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Multivariate Statistik |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Multivariate StatistikDie Studierenden erwerben vertiefte Kenntnisse zu multivariaten statistischen Verfahren, so dass sie diese nicht nur in angemessener Weise anwenden, sondern bei Bedarf auch an die jeweils vorliegende Datensituation anpassen können. Multivariate Statistik
Grundlegende statistische Verteilungsfunktionen, Parametrische- und Nichtparametrische Statistiken, Multivariate Methoden: Korrelation/Covarianz, PC-Analysis, Lineare Diskriminanzanalyse Partial least squares, Lineare/logistische Regression Varimax, Faktoren-Analyse, Markov Ketten, Maximum-Likelihood Methoden, Bayesische Statistik und Techniken, Planung klinischer Studien, Diagnostische Tests, ROC Analyse, OLAP-Methoden mit SPSS Multivariate Statistik
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Numerische Methoden |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Numerische MethodenDie Studierenden erhalten einen Überblick über den “State of the Art“ der numerischen Methoden. Durch die Vermittlung charakteristischer Anwendungsfälle erhalten die Studierenden die Fähigkeit, selbständig neue Aufgabenstellungen zu analysieren und das vermittelte Wissen anzuwenden. Numerische Methoden
Einleitung: Problematik des Rechnens mit Gleitkommazahlen Wiederholung Skalarprodukt/Projektionen/Orthonormalbasen/Eigenwerte und Eigenvektoren als Vorbereitung zu Hauptkompontenanalyse und linearer Diskriminanzanalyse Globale und lokale polynomiale Interpolation Wiederholung Taylorreihenentwicklung, Anwendung in numerischem Differenzieren/Integrieren sowie numerischem Lösen von Differenzialgleichungen Grundlagen der Optimierung: goldenes-Schnitt-Verfahren, Grundbegriffe der Optimierung reellwertiger Funktionen, verschiedene Verfahren (Gradientenabstieg über Adam bis Levenberg-Marquardt), Optimierung unter Nebenbedin-gungen, dynamische Optimierung. Numerische Methoden
Begleitende Übung zur Vorlesung, praktische Anwendung des in der Vorlesung vermittelten Wissens. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computational Intelligence I |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computational Intelligence IDie Studierenden erhalten einen Überblick über den State of the Art der klassischen Ansätze des maschinellen Lernens sowie neuer Methoden, die von statistischer Lerntheorie beeinflusst wurden. Der praktische Einsatz der vermittelten Methoden wird begleitend zur Theorie anhand unterschiedlicher Datensätzen unter Verwendung von WEKA, Heuristic-Lab und SPSS/Clementine trainiert und vertieft. Computational Intelligence I
Maschinelles Lernen & Data Science Hypothesenraum, Begriffslernen, Feature Selection Bias-Variance Tradeoff, Cross-Validation Lineare Regression, K-Nearest Neighbor, Logistic Regression, Linear & Quadratic Discriminant Analysis Ensemble Learning, Bagging, Boosting, Decision Trees, Random Forest, Gradient Boosted Trees Support Vector Machines Artificial Neural Networks, Backpropagation Computational Intelligence I
Übungen mit Python, WEKA, HeuristicLab |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computational Intelligence II |
6 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computational Intelligence IIDie Studierenden erwerben praktische Erfahrung in der heuristischen Optimierung mit evolutionären Algorithmen (genetischen Algorithmen, Evolutionsstrategien und genetischer Programmierung) und deren Anwendungen. Sie werden in die Lage versetzt, die Auswahl, Adaption und Implementierung eines geeigneten Verfahrens für eine konkrete Aufgabenstellung zu treffen. Dabei werden insbesondere Problemstellungen aus den Domänen Bioinformatik, Medizininformatik und Business Data Analysis betrachtet. Der praktische Einsatz der metaheuristischen Optimierungsansätze wird begleitend zur Theorie anhand unterschiedlicher Optimierungsprobleme unter Verwendung von MATLAB, HeuristicLab und WEKA trainiert und vertieft. Computational Intelligence II
Theoretischer Teil: • Abgrenzung zwischen numerischer und heuristischer Optimierung • Taxonomie von heuristischen Optimierungsverfahren • Beispiele kombinatorischer Optimierungsprobleme und Komplexi-tätstheorie • Lösungsraumverhalten und P- und NP-Probleme • Heuristische Verfahren (Überblick): Problemspezifische Verfahren vs. Metaheuristiken • Konstruktions- vs. Verbesserungsheuristiken • Nachbarschaft und Distanz von Lösungen • Lokale Suche • Genetische Algorithmen (GA): Terminologie, Verfrühte Konvergenz, Selektionsstrategien, Ersetzungsstrategien, Verschiedene Problem-repräsentationen • Parallele Genetische Algorithmen • Evolutionsstrategien • Genetische Programmierung (GP) • Symbolische Regression und symbolische Klassifikation • Grundlagen von Support-Vektor-Maschinen: Lineare SVM, Soft-Margin-SVM, nichtlinear SVMs und der Kernel-Trick • SVMs zur Klassifikation biologischer Sequenzen • Multi-Klassen-SVM und Support-Vektor-Regression • Geschichte und Grundlagen neuronaler Netze • Der Backpropagation-Algorithmus • Tipps und Tricks für den praktischen Einsatz neuronaler Netze • Grundlagen von Deep Learning: Vanishing Gradients, Pre-Training, alternative Aktivierungsfunktionen, Drop- Out • Convolutional Neural Networks: Grundlagen, Transfer- Learning mit Hilfe vortrainierter Netze, Objekterkennung • Rekurrente neuronale Netze und Long Short-Term Memory (LSTM) und ihre Anwendung in der Sequenz- und Sprachverarbeitung • Grundidee von Generative Adversarial Networks (GANs), Neural Sty-le Transfer • Deep Fakes Praktischer Teil: • Entwicklung und Einsatz von evolutionären Algorithmen zur Lösung von unterschiedlichen Problemen • Implementierung von evolutionären Algorithmen zur Lösung von unterschiedlichen Problemen • Anwendung von Data Processing Pipelines: Data Cleaning, Feature Definition & Extraction, Model Selection, Tuning, Results Analysis • Einsatz von Regressions- und Klassifikationsalgorithmen zur Lösung unterschiedlicher Data Mining Aufgabenstellungen • Einsatz unterschiedlicher Methoden zur Lösungsfindung sowie Kombination von Methoden (Daten- Preprocessing, Clustering, Klassifiation / Regression) • Einsatz von bestehenden Frameworks (HeuristicLab, MATLAB, Py-thon Packages) sowie Implementierung eigener Preprocessing-Methoden • Einbindung Studierender in Forschungsprojekte der Forschungsgruppen Heuristische und Evolutionäre Algorithmen (HEAL) und Bioin-formatik (BIN) • Einsatz von linearen und nichtlinearen Support-Vektor- Maschinen zur Klassifikation und Regression • Hyperparameter-Selektion für SVMs mit Hilfe von Grid Search • Einsatz klassischer neuronaler Netze zur Klassifikation vektorieller Daten • Hyperparameter-Selektion für neuronale Netze mit Hilfe von Random Search • Einsatz von Convolutional Neural Networks zur Bildklassifikation • Einsatz vortrainierter Convolutional Neural Networks zur Bildklassifikation • Einsatz einer einfachen GAN-Architektur zur Erzeugung von Bilddaten Computational Intelligence II
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Modellbildung und Simulation |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Modellbildung und SimulationDie Studierenden besitzen fundierte Kenntnisse über Modellierungs- und Simulationsverfahren in unterschiedlichsten Anwendungen. Dabei werden Modelle für lineare und nicht-lineare Systeme sowie Methoden zu deren Simulation besprochen. Auf die Grundzüge von sowohl kontinuierlicher als auch diskreter Modellierung und Simulation wird ebenfalls eingegangen. Die Wichtigkeit der Thematik von Modellierung und Simulation wird durch zahlreiche Anwendungsbeispiele aus Technik, Medizin, Biologie, Soziologie, Wirtschaft, Regelung und Physik präsentiert. Modellbildung und Simulation
• kontinuierliche Modellierung • kontinuierliche Simulation (numerische Integration) • diskrete Modellierung • diskrete Simulation Diskrete Modellierung • diskrete Simulationstechniken (inkl. discrete event specified systems) • Systeme Ausbreitung von Krankheiten (Epidemiologie) • Räuber-Beute Modelle • Regelung (inkl. P-, PID-, Kaskaden-Regler) • Parameter-Optimierung und -Identifikation durch simulations-basierte Opti-mierung • Agenten-basierte Modellierung und Simulation Verwendete Software-Frameworks: • MATLAB / Simulink • AnyLogic Modellbildung und Simulation
Begleitende Übung zur Vorlesung, praktische Anwendung des in der Vorlesung vermittelten Wissens. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Datenschutz und Privatsphäre |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Datenschutz und PrivatsphäreDatenschutz und Privatsphäre
Ethische und politische Hintergründe für Datenschutz Richtlinien und Vorschriften für Datenschutz Strategien für Datenschutz in unternehmensweiten Managementsystemen für Informationssicherheit Sicherheitsaspekte für die Zugriffskontrolle und Datenübertragung Maßnahmen, um den physischen und logischen Schutz vertraulicher Daten zu gewährleisten (Offenlegungskontrolle). Entwicklung einfacher „differentially private algorithms“ Datenschutz und Privatsphäre
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computer Vision |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Computer VisionDie Studierenden erlernen konventionelle Computer-Vision-Ansätze mit Fokus auf SIFT, Multi-Resolution Ansätze und regionsbasierte Features. Aufbauend werden Strategien zur Normalisierung von Bildern betrachtet, die den Einsatz von 2D und 3D Bilddaten für Deep Learning ebnen. Für ausreichend große Datenmengen werden Bilddatenbanken sowie die Technik der Data Augmentation eingesetzt, um Big Visual Data als Input für die zu trainierenden Convolutional Neural Networks aufzubereiten. Computer Vision
Grundlagen der Computer Vision: Attribute von 2D, 3D Bildern sowie Videos, Visuelle Daten: Robotik, selbstfahrende Fahrzeuge, Vorverarbeitung: Feature-Analyse: geometrische Features, Farbeigenschaften, Texture-Features (Co-Occurrence, Haralick, Varianz, Mittelwert, Energie, Entropie Homogenität), Eigenwert-Analyse (Hesse-Matrix) Multi-Resolution Ansätze und deren Anwendung: Filterpyramiden, Laplacian of Gauss, Difference of Gauss, SIFT Detection und Trajektorie, Normalisierung: Resampling, PCA Whitening, Feature Standardization, Histogrammeinebnung, Visual Data Classification: Methodiken zur generischen und parameterfreien Vorsegmentierung (Fuzzy K- Means Clustering, Mean-Shift, Graph-Cut, Watershed), Statistische Feature-Modelle, Fehlermetriken, Hough-Transformation, PCA Klassifizierung, Kompression zur Klassifizierung, Big Data in Computer Vision: Grundlagen: Bedarf umfassender Trainingsdatenmenge, Bild-Datenbanken Data Augmentation (affine Transformationen, Random Crop, Farbadaption) Supervised and unsupervised learning Deep Learning for Visual Computing with Convolutional Neural Networks Computer Vision
|
Informatik
1. | 2. | 3. | 4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Big Data |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Big DataDie Studierenden lernen Herausforderungen und Probleme von Big Data hinsichtlich Indexing, Skalierbarkeit und der Verarbeitung über eine weite Reihe an Ressourcen-intensiven Settings, Big Data Komponenten, Big Data Stream Techniken und Algorithmen kennen, die die Analyse von großen Datenmengen in Streaming Environments ermöglichen. Sie sind in der Lage, aktuelle Werkzeuge und Komponenten wie Hadoop (MapReduce, HDFS, YARN, Spark, etc) zu verwenden, um große Datenmengen zu verarbeiten sowie wertvolles Wissen zu extrahieren. Big Data
Big Data Grundlagen (Herausforderungen/Auswirkungen von Big Data bzgl. Datenverarbeitung, Big Data Quellen, u.a. Social Media, Sensor-Netzwerke, Testreihen, Geodaten, Verkehrsdaten, Wetterdaten, Callcenter-Audiodaten, Überwachungsvideodaten; Methoden zur Komplexitätsreduktion für große Datenmengen, Big Data Stacks wie Apache Hadoop, Amazon Web Services, Anwendung von Werzeugen und Big Data Komponenten wie MapReduce, YARN, Pig, Hive; Stream-Processing Tools (z.B. Spark Streaming, Storm), Beispielanwendungen: Recommender- Systeme, Analyse von Sozialen-Netzwerk- Graphen, Sentiment-Analyse, Opinion Mining. Big Data
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Visualisierung |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
VisualisierungDie Studierenden erlernen den Umgang mit verschiedenen Visualisierungskonzepten, die den NutzerInnen die Struktur und die Zusammenhänge in komplexen Datenbeständen zugänglich und begreifbar machen. Aufbauend auf Kenntnissen der deskriptiven Statistik erhalten die Studierenden einen Überblick über die grafische Aufbereitung kontinuierlicher und kategorialer Daten. Die stark interdisziplinären Konzepte der visuellen Analytik stellen dem Nutzer interaktive Benutzerschnittstellen zu Verfügung zur Analyse und Visualisierung komplexer Zusammenhänge in großen Datenbeständen. Die Studierenden besitzen nach Absolvierung des Moduls die Fähigkeit Anforderungen an solche interaktive Systeme zu ermitteln, entsprechende Schnittstellen und Interaktionsmöglichkeiten zu konzipieren. Im Zuge der Lehrveranstaltung werden die Studierenden mit Vorgehensmodellen und Arbeitsweisen aus dem Usability Engineering sowie dem Interaktionsdesign vertraut gemacht und können diese in den Produktentwicklungsprozess einordnen. Sie erlangen des Weiteren die Fähigkeit, bestehende Benutzerschnittstellen und interaktive Systeme entsprechend einschlägiger Qualitätskriterien zu konzipieren und zu evaluieren. Visualisierung
Analyse kontextbezogener Anforderungen; Planung und Konzeption interaktiver Systeme unter Berücksichtigung verschiedener Ein- und Ausgabegeräte, Interaktionsformen und Interaktionspatterns; Grundlagen des Interaktionsdesigns; Standards und Guidelines, insbesondere bzgl. Ergonomie, Usability, Accessibility und Quality in Use; Qualitätskriterien interaktiver Systeme und Methoden bzw. Verfahren zur Evaluierung derselben. Einführung Information Visualisierung und Anwendungen, Übersicht über Grafiken (am Beispiel deskriptiver Statistik: Linien, Säulen, Boxplot, Punkte, Verteilungen, etc.), Graph Visualisierungen (Bäume, Graphen, Netzwerke inkl. diverser Varianten der Darstellung), Programme und Scripting zur Darstellung großer Datenmengen, insbesondere mit den Grafikbibliotheken von R (z.B. lattice, ggplot2), Interaktive Visualisierungs-Software (z.B. plotly, Tableau), Hochdimensionale Datenvisualisierung, Darstellungsformen für zeitabhängige Daten und Karten. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Process Mining |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Process MiningProcess Mining
Produktionssysteme Grundlagen der Produktions-, Fertigungsorganisation, AV, Produktionsplanung, DV-Systeme (ERP, PPS, MES), Toyota Produktionssystem, Shopfloor, Produktions-Controlling, Kennzahlensysteme. Grundlagen Industrial Engineering, Instandhaltung, Materialwirtschaft, Lagersysteme, innerbetrieblicher Transport, Logistik, Supply Chain Data Warehousing in der Produktion Grundlagen des Data Warehousing wie Datenbeschaffung, Datenvorverarbeitung, ETL-Prozess, OLAP (Online Analytical Processing), Datenbankdesign, Data Marts Big Data in der Produktion Einführung Sensorik und Sensorfusion Processmining Tools und Anwendungsbeispiele Process Mining
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scripting Fortgeschritten |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scripting FortgeschrittenFür viele Analysen müssen die Daten in geeigneter Weise aufbereitet werden. Sowohl diese Arbeiten als auch die Auswertungen selbst werden häufig mit einfachen Scriptsprachen durchgeführt. Die Studierenden erlernen solche Arbeiten – mit in der Praxis häufig eingesetzten Programmiersprachen – durchzuführen. Sie wissen, wie man schnell und effizient Daten aufbereiten und analysieren kann. Scripting Fortgeschritten
Python: Data Science mit Python, Plotting, Charting & Data Representation, Machine Learning, RAufbau und Anwendung von RStudio, grundlegende Elemente und Datenstrukturen, Arbeiten mit Datensätzen, Anwendung in der Interferenzstatistik, Elementare Grafikerstellung, Schnittstellen zu anderen Systemen (DBs, Webservices, etc.) Ausgabeformate (z.B. Markdown) Scripting Fortgeschritten
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Datenakquisition und -qualität |
6 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Datenakquisition und -qualitätDie Studierenden erlernen theoretische Konzepte, Grundlagen, Normen und praktische Anwendungsfälle im Bereich Datenqualität unter besonderer Berücksichtigung großer Datenmengen. Ziel dabei ist es aus unstrukturierten, strukturierte und vertrauenswürdige Daten aufzubereiten (Verwendung verschiedenster Datenmaterialen: Audio, Video, verschiedenste Bildformate, Text, Website Content). Anhand von praktischen Beispielen wird gezeigt, wie die Qualität und Sicherheit verschiedener Datenquellen bestimmt werden kann. Die Studierenden erlernen darüber hinaus verschiedenste Normen und Richtlinien im Bereich Software und Datenqualität. Insbesondere Problemstellungen aus den Domänen Biomedizinische Informatik und Business Analytics werden zur Problemlösung herangezogen. Für den praktischen Einsatz dieser Methoden werden Grundlagen in Datenbanken, Skriptsprachen bzw. höheren Programmiersprachen vorausgesetzt. Datenakquisition und -qualität
Einführung in Qualitätsmanagement, Risikomanagement und Konfigurationsmanagment (ISO 25000 ff. (Qualität), ISO 9000 ff. (Qualitätsmanagementsysteme), IEC/EN 62304 (Medizinpro- duktegesetz), ISO/IEC 31000 (Risikomanagement), ISO/IEC 20000 (Service Management) Konzepte zur Validierung von Daten Modelle, Normen und Verfahren für Qualitätsmanagement, Qualitätsentwicklung in Bezug auf Daten und Software Methoden zur Bestimmung der Qualität und zur Validierung von Daten (praktische Anwendung anhand von online Quellen und Daten aus internationalen Datenbanken) Problemstellungen, Auswirkungen, Herausforderungen und Methoden zur Datenaufbereitung (insbesondere auch großer Datenmengen) wie Data Mining, Diskretisierungsmethoden, „Missing Value“ Techniken und Strategien, statistische Auswertungen (Imputation, Regression), Clusteranalysen und Klassifikation Datenakquisition und -qualität
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Cloud Computing |
5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Cloud ComputingDie Studierenden kennen verschiedene Cloud-Computing Plattformen, deren Architektur, Modelle und Bereitstellungsstrategien. Mit dem Wissen über die Programmiermodelle, Skalierbarkeit und verfügbaren Dienste der wesentlichen Cloud-Computing-Anbieter sind sie befähigt zu entscheiden, welche Art von Services ihre Anforderungen erfüllen. Die Studierenden sind in der Lage, Cloud-Anwendungen für diese Plattformen zu konzipieren und effizient umzusetzen. Cloud Computing
Einführung in Cloud Computing (Anwendungsgebiete, Chancen und Risiken, Cloud- Geschäftsmodelle, Abhängigkeiten von Cloud Diensten, Eigenschaften von Clouds, Cloud Typen), Technische Grundlagen (Architektur, Cloud Computing Stack (IaaS, PaaS, SaaS), Bereitstellungsstrategien, Speichermodelle, Performanz, Skalierbarkeit, Verfügbarkeit, Security), Rechtliche Aspekte des Cloud Computings, Cloud- Lösungen im Open-Source- (z.B. OpenStack), sowie im kommerziellen Umfeld (z.B. Google App Engine, Microsoft Windows Azure, Amazon Web Services). Cloud Computing
|
Domänen Expertise
1. | 2. | 3. | 4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Anwendungsdomänen-Modul I |
10 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Anwendungsdomänen-Modul IDie Studierenden wissen, welches grundlegende Aufgabenspektrum das Marketingmanagements und die Marktforschung kennzeichnet. Die Studierenden können die wesentlichen Schritte des Marketing-Managementprozesses und die grundlegenden Entscheidungstatbestande des Marketing-Mix beschreiben Die Studierenden kennen und verstehen die Vorgangsweise zur Entwicklung eines Marketingkonzeptes. Die Studierenden verstehen Kaufentscheidungsprozesse im B2C und B2B Marketing und wie Marketing in diese Eingreifen kann; Die Studierenden kennen den Marketingforschung-Prozess und können Marktforschungsprojekte dementsprechend strukturieren. Die Studierenden kennen die Elemente des Markenmanagements und können Customer Value und Brand Value mittels adäquater Methoden bestimmen. Die Studierenden kennen die Bedeutung der Produktpositionierung und können Positionierungsmodelle erstellen. Die Studierenden kennen die Business Analytics Tools, die in Marketing und Marktforschung eingesetzt werden im Überblick und können ausgewählte Business Analytics Tools für konkrete Marketingfragestellungen anwenden. Im Rahmen dieses Projekts wird das erworbene Wissen aus den Bereichen Projektengineering, Datenanalyseverfahren, Softwareentwicklung sowie organisatorische Projektführung für Themen aus dem Bereich Marketing angewendet werden. Epidemiologische Studien
Analyse von Proteinen,insbesondere Massenspektrometrie-Daten, Protein-Sequenzierung und Identifikation, Protein-Quantifizierung und expressionsspezifische Analysen, Proteomweite Studien und Potential/Risiken öffentlich verfügbarer Daten, Identifikation und Auswertung posttranslationaler Modifikationen, Statistische Validierung der Resultate, Analyse der zugrundeliegenden Pathways und Protein-Netzwerke, Verwendete Tools/DBs: SearchGUI, PeptideShaker, Proteome Discoverer, Cytoscape, Reactome, PRIDE Marketing
Marketingmanagement, Grundlagen des Marketing, Grundelemente der Marketingkonzeption–Marketingprozess, Prinzipien des STP Marketings (Segmenting, Targeting, Positioning), Grundlagen Kaufverhalten auf B2B und B2C Märkten, Konsumenten- und Käuferpsychologie, Elemente des Marketing-Mix, Grundlagen der Marketingforschung, Marketingforschung-Prozess, Sekundarforschung vs. Primarforschung, Forschungsdesign, Stichprobenauswahl und Erhebungsmethoden, Business Analytics im Rahmen der Marketingforschung, Einsatz von BA für Segmentierungs- und Positionierungsentscheidungen, Einsatz von BA zur Gewinnung von Informationen zum Käuferverhalten insbesondere Produktkonzepttests und Werbewirkungstests Einsatz von BA für preispolitische Fragestellungen |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Anwendungsdomänen-Modul II |
10 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Anwendungsdomänen-Modul IIViele Analysen in der Medizin werden im Rahmen epidemiologischer Studien durchgeführt. Die Studierenden erlernen grundsätzliche Fragestellung zu verstehen und solche Studien zu bewerten. Insbesondere sollen große Datenmengen aus dem Bereich der Lebenswissenschaften (DNA- und Proteindaten) ausgewertet und interpretiert werden können. Die Studierenden sollen erkennen, wie mit solchen Daten Krankheiten diagnostiziert bzw. Phänotypen erforscht werden können. Die Studierenden erlernen/üben, die erworbenen Data Science-Kenntnisse in Projekten aus der Praxis (mit üblicherweise echten Auftraggebern, Kooperationspartnern) integrativ in Teams umzusetzen und vertiefen in projektspezifischen Bereichen das erworbene fachliche Wissen. Data Driven Drug Design
Analyse von Proteinen,insbesondere Massenspektrometrie-Daten, Protein-Sequenzierung und Identifikation, Protein-Quantifizierung und expressionsspezifische Analysen, Proteomweite Studien und Potential/Risiken öffentlich verfügbarer Daten, Identifikation und Auswertung posttranslationaler Modifikationen, Statistische Validierung der Resultate, Analyse der zugrundeliegenden Pathways und Protein-Netzwerke, Verwendete Tools/DBs: SearchGUI, PeptideShaker, Proteome Discoverer, Cytoscape, Reactome, PRIDE High Performance Computing
Motivation, Einführung und Überblick; Grundlagen des High-Performance-Computing in Bezug auf gängige Hardware- und Softwarearchitekturen; Parallel-Software- Engineering (PCAM); Werkzeuge für die Entwicklung, das Debuggen und die Performancemessung in Mehrprozessor- und Mehrrechnersystemen; allgemeine parallele Algorithmen (Fox); weitere ausgewählte Themen (Load-Balancing). |
Sozialkompetenz
1. | 2. | 3. | 4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Leadership Praxis |
2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Leadership PraxisIn Form eines Trainings in Kleingruppen wird die Fähigkeit der Studierenden zur Teamarbeit weiter ausgebaut und in konkreten Fallbeispielen umgesetzt. In verstärktem Ausmaß wird dabei der Führungsfunktion Aufmerksamkeit geschenkt. Leadership Praxis
Herstellung eines Bezugs auf SK-Grundlagen im Bakkalaureatsstudiengang. Merkmale in Teams (Gruppenkohäsion, Gruppennormen, motivationale Besonderheiten, gruppenpsychologische Phänomene, etc.). Phasen der Teamentwicklung (z.B. Blachard, Tuckman, Teamuhr von Francis/Young, etc.). Fokus auf die situationsbezogene Führung von Gruppen. Rollen in Teams (z.B. Schindler, Belbin, etc.). Konflikte in Teams, Motivation. Aspekte des interkulturellen Managements, zukünftige technische Herausforderungen, Vorgehensweisen bei der Erstellung von Projektanträgen im wissenschaftlichen Bereich und Networking werden behandelt. |
Wissenschaftliche Kompetenzen
1. | 2. | 3. | 4. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Masterarbeit Seminar |
2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Masterarbeit SeminarMasterarbeit Seminar
Forum zur Diskussion offener Fragen im Rahmen der Masterarbeit, Präsentation der Zwischenschritte bei der Erstellung der Masterarbeit (Vortrag) und Diskussion der Ergebnisse. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Wissenschaftliches Arbeiten |
2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Wissenschaftliches ArbeitenWissenschaftliches Arbeiten
Struktur u. Funktionen der Formen des wissenschaftlichen Arbeitens: Protokoll, Bericht, Thesenpapier, Masterarbeit. Techniken des wissenschaftlichen Arbeitens: Wissenschaftliches Material; Recherche (z. B. in Bibliotheken, Katalogen, bei Verlagen und in Bibliographien; Schneeballsystem, Suchstrategien); Karteisysteme; Techniken der Materialdarstellung; Fremdmaterial, Belegen; Abkürzungen; Literaturverzeichnis; Konzeptionelle Planung; Themenwahl und -reflexion, Zeitplanung, Material, Darstellung, Literaturverwaltungsprogramme. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Masterarbeit |
24 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MasterarbeitDie Studierenden erlernen wie problemspezifisch relevante Wissensquellen für die Masterarbeit auszuwählen und inhaltlich zu nützen sind. Durch Unterstützung und Feedback seitens des/der Betreuers/Betreuerin vom FH-Studiengang ist ein schrittweises Vorgehen mit kontinuierlicher Qualitätsverbesserung gesichert. Masterarbeit
Struktur u. Funktionen der Formen des wissenschaftlichen Arbeitens: Protokoll, Bericht, Thesenpapier, Masterarbeit. Techniken des wissenschaftlichen Arbeitens: Wis- senschaftliches Material; Recherche (z. B. in Bibliotheken, Katalogen, bei Verlagen und in Bibliographien; Schneeballsystem, Suchstrategien); Karteisysteme; Techniken der Materialdarstellung; Fremdmaterial, Belegen; Abkürzungen; Literaturverzeichnis; Konzeptionelle Planung; Themenwahl und -reflexion, Zeitplanung, Material, Darstellung, Literaturverwaltungsprogramme. Masterprüfung
|
Kontakt
E-MailE dse@fh-hagenberg.at
TelefonT +43 5 0804 22700