Effizientere Big-Data-Infrastrukturen

Big Data erfordert eine leistungsstarke Infrastruktur, insbesondere jene Low-Level-Prozesse, die als Rückgrat für die Datenanalyse auf höherer Ebene dienen. Diese Infrastruktur besteht aus Hardware und Software: Die Hardware umfasst Prozessoren wie CPUs, GPUs und TPUs (Central, Graphical sowie Tensor Processing Units), Transient und Persistent Memory, Kommunikationskomponenten, Stromversorgungs- und Kühlelemente usw. Die Software-Infrastruktur ermöglicht den Datenzugriff und die Vorverarbeitung, die Programmierung, die Überwachung von Datenströmen oder Hardware usw. Die Verbesserung der Infrastruktur für Big Data erfordert daher Fortschritte sowohl bei der Hardware als auch bei der Software. Während die Industrie den Fortschritt bei der Hardware vorantreibt, trägt die akademische Forschung massgeblich zu neuer Software bei, die eine schnellere und effizientere Verarbeitung grosser Datenmengen ermöglicht.

Rechenzentren: effiziente Leistungsüberwachung

In diesem Projekt wurden neue Wege zur Auswertung der Leistung in Cloud-Rechenzentren entwickelt, eine wichtige Aufgabe bei der effizienten Verwaltung von Rechenressourcen bei gleichzeitiger Minimierung des Energieverbrauchs.

Graph Analytics und Mining

Dieses Projekt extrahierte Inferenzen aus einem Netzwerk und untersuchte die Graphen-Analytik auf verschiedenen Plattformen – einschliesslich Kombinationen von In-Core- und Out-of-Core-Verarbeitung.

In-Network-Computing: Lösungen für Graph Analytics

Dieses Projekt hat mehrere Fortschritte bei der Analyse grosser Graphen (Netzwerke) mit Hilfe von In-Network-Computing gemacht, d.h. der Verarbeitung von Daten während der Übertragung und vor der Speicherung.

Wenig strukturierte Daten: neue Techniken für die Datenintegration

Ziel dieses Projekts war es, neue Techniken für die automatische oder halbautomatische Integration von Daten zu entwickeln.

Scala-Programmiersprache: Big-Data-Analytik ermöglichen

Das Ziel des Projekts war es, die Kombination von Programmiersprachen und Datenbanken zu verbessern. Die Resultate wurden in Scala 3 integriert.
Big Data Monitoring

Datenströme: Überwachung in Echtzeit

Das Ziel des Projekts «Big Data Monitoring» war es, Algorithmen zu entwickeln, die eingehende Daten kontinuierlich auf Regelverstösse überprüfen.