Nouvelles approches pour l’analyse du big data

L’analytique représente la composante la plus visible des applications du big data, créant de la valeur à partir des données. Les algorithmes modernes d’exploration des données et de requêtes analytiques multidimensionnelles combinent des méthodes statistiques avancées et des méthodes d’apprentissage automatique tels que l’apprentissage profond. Le défi est d’analyser de très grands jeux de données de manière fiable, précise et dans un temps raisonnable. Malgré la puissance des systèmes informatique distribués et des processeurs dédiés, l’entraînement d’un algorithme avec des données d’apprentissage peut encore prendre des jours. Accélérer cette étape exige des algorithmes plus efficaces, ou des moyens d’élaguer les jeux de données d’entraînement, ou de les compresser sans réduire la qualité des résultats.

Modèles de langage: nouvelles méthodes pour agents conversationnels

Ce projet a réalisé plusieurs avancées théoriques dans le domaine des modèles de langage, notamment pour les agents conversationnels et les systèmes répondant à des requêtes.

Data centres: monitoring efficace des performances

Ce projet a conçu de nouvelles méthodes d’analyse des performances dans les centres de données du cloud, une tâche importante pour gérer efficacement les ressources informatiques et minimiser la consommation d’énergie.

Apprentissage automatique: robustesse et généralisabilité

Le projet s'est concentré sur le développement de la théorie et de la méthodologie de l'apprentissage automatique des systèmes d'apprentissage.

Algorithmes de prédiction rapide

Ce projet PNR 75 s'est concentré sur une nouvelle approche de développement d'algorithmes qui fournissent un maximum de puissance et de rapidité.

Coresets: du big data avec moins de données

Ce projet PNR 75 a permis de développer de nouveaux algorithmes pour l'analyse efficace de grands ensembles de données.

Analyse de flux: traitement rapide et préservation de la vie privée

L'objectif était de développer un système d'analyse à l’échelle du pétaoctet permettant à des non-spécialistes d’effectuer une analyse des flux de données.