Neuartige Ansätze für Big-Data-Analytik

Die Analytik ist die sichtbarste Komponente von Big-Data-Anwendungen. Sie schafft aus den Daten einen Wert, indem sie Wissen und Erkenntnisse extrahiert, die für Benutzer:innen oder Kund:innen wertvoll sind. Moderne Algorithmen für Datenanalyse, Data Mining und multidimensionale analytische Abfragen kombinieren fortschrittliche statistische Methoden und maschinelle Lernalgorithmen wie Deep Learning. Die Herausforderung für solche Algorithmen besteht darin, riesige Datensätze zuverlässig, genau und in angemessener Zeit zu analysieren. Trotz der Verarbeitungsleistung, die durch verteilte Rechenleistungen und spezielle Prozessoren bereitgestellt wird, kann es immer noch Tage dauern, bis Algorithmen aus Trainingsdaten lernen. Um diesen Schritt zu beschleunigen, bedarf es entweder effizienterer Algorithmen oder cleverer Methoden, die Eingabedatensätze beschneiden oder komprimieren und so mit weniger Trainingsdaten gute Ergebnisse zu erzielen.

Sprachmodelle: neue Methoden für dialogfähige Agenten

Im Rahmen dieses Projekts wurden mehrere theoretische Fortschritte im Bereich der Sprachmodelle erzielt, insbesondere für dialogfähige Agenten oder Dialogsysteme, die zur Beantwortung von Anfragen eingesetzt werden.

Rechenzentren: effiziente Leistungsüberwachung

In diesem Projekt wurden neue Wege zur Auswertung der Leistung in Cloud-Rechenzentren entwickelt, eine wichtige Aufgabe bei der effizienten Verwaltung von Rechenressourcen bei gleichzeitiger Minimierung des Energieverbrauchs.

Modelle maschinellen Lernens: Robustheit und Verallgemeinerung

Schwerpunkt des Projekts war die Entwicklung von Theorie und Methodik für maschinelles Lernen von lernenden Systemen.

Datenstromanalytik: Tools zur schnellen und datenschutzgerechten Verarbeitung

Ziel war, ein Analysesystem im Petabyte-Bereich zu entwickeln, das es auch Nicht-Fachleuten ermöglicht, hochleistungsfähige Datenströme zu analysieren.

Coresets: Big Data mit weniger Daten

In diesem NFP75-Projekt wurden neuartige Algorithmen für die effiziente Analyse grosser Datensätze entwickelt.
The algorithm should itself learn the notion of intuitive physics

Schnelle Vorhersagealgorithmen

Dieses Projekt konzentrierte sich auf einen neuen Ansatz zur Entwicklung von Algorithmen, die sowohl maximale Leistung als auch Geschwindigkeit liefern.