Deep Learning architectures for generating rehabilitation human motion

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIMAS, équipe MSD. Université de Haute Alsace
Durée : 6 months
Contact : maxime.devanne@uha.fr
Date limite de publication : 2024-04-01

Contexte :
Human motion analysis is crucial for studying people and understanding how they behave, communicate and interact with real world environments. Due to the complex nature of body movements as well as the high cost of motion capture systems, acquisition of human motion is not straightforward and thus constraints data production. Hopefully, recent approaches estimating human poses from videos offer new opportunities to analyze skeleton-based human motion. While skeleton-based human motion analysis has been extensively studied for behavior understanding like action recognition, some efforts are yet to be done for the task of human motion generation. Particularly, the automatic generation of motion sequences is beneficial for rapidly increasing the amount of data and improving Deep Learning-based analysis algorithms. In particular, this is crucial in a medical context like in physical rehabilitation where acquiring data is challenging. Rehabilitation human motions are corresponding to rehabilitation exercises proposed by physiotherapists.
Unlike classification tasks, the targeted task in human rehabilitation assessment is often a regression problem, where given a motion sequence, the goal is to predict the associated performance score given by physiotherapists.
Since several years, human motion generation paradigms have been possible thanks to the appearance of Generative Adversarial Networks (GAN), Variational AutoEncoder (VAE) or Diffusion models. While most of these works have considered motion capture (mocap) data, we consider noisy skeleton data estimated from videos as it is easily applicable in real-world scenarios for the general public.

Sujet :
The goal of this internship is to investigate deep generative models for skeleton-based human motion sequences with a particular focus on rehabilitation data. Inspiring from recent effective Deep Learning-based approaches, the aim is to generate full skeleton-based rehabilitation motion sequences. It is therefore crucial to investigate how deep generative models can handle such noisy and possibly incomplete data in order to generate novel rehabilitation motion sequences as natural and variable as possible.

In particular, the candidate will work on the following tasks:
-Deep generative models adapted to rehabilitation data: based on studies from existing works, the goal is to build generative models for rehabilitation sequences. Therefore, the candidate will investigate different generative models, like GAN, VAE and Diffusion models, in order to propose and develop a complete Deep Learning model for generating skeleton-based human motions. These models will be trained using publicly available datasets such as the Kimore dataset.
-Evaluation of deep generative models: in order to validate the proposed model, experimental evaluation is crucial. In comparison to motion recognition where classification accuracy is a natural way to assess an approach, evaluating the task of motion generation is not as straightforward. Dedicated metrics evaluating both naturalness and diversity of generated sequences as well as the impact of new generated sequences in a classification task will be considered.
-Text to rehabilitation motion: The generated models will be then adapted to take as input text sequences corresponding to rehabilitation exercises’ descriptions. This will be particularly useful to create new rehabilitation exercises.

Profil du candidat :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated

Formation et compétences requises :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated

Adresse d’emploi :
ENSISA, Université de Haute Alsace
12 rue des frères Lumière
68093 Mulhouse, France

Document attaché : 202310050750_internship_position_delegation_2024.pdf

Détection de Fraudes dans les Transactions Financières

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6 (CNRS et Sorbonne Université)
Durée : 12 mois
Contact : Matthieu.Latapy@lip6.fr
Date limite de publication : 2024-04-01

Contexte :
Détecter les fraudes dans les transactions financières est un sujet applicatif crucial : les pertes dûes aux fraudes sont colossales, et l’argent souvent utilisé pour financer des activités nocives. C’est aussi un sujet qui nécessite des travaux de recherche fontamentale importants, par exemple concernant l’analyse de dynamiques de graphes, l’algorithmique en streaming ou la définition de métriques capturant la nature à la fois structurelle et temporelle des données.

Sujet :
Le plus souvent, l’information disponible consiste en un enregistrement de transferts d’argent, comme des virements ou des paiements par carte. On connaît l’origine de l’argent, sa destination, le moment de la transaction et son montant, mais relativement peu d’autres informations (parfois le type de compte ou de carte, le pays de la transaction, etc). Les données sont alors très bien modélisées par des flots de liens (link streams).

Avec cette vision, les fraudes sont des sous-séquences de liens dans un flot de liens, dont on s’attend à ce qu’elles aient des caractéristiques particulières. Tout l’enjeu consiste à identifier ces caractéristiques, à les modéliser par des métriques calculables en temps et espace raisonnables, et enfin à s’en servir pour détecter les fraudes. L’évaluation des méthodes pose également question, face au manque de vérités de terrain, c’est-à-dire de données dans lesquelles les fraudes réelles sont connues.

Ce postdoc propose une approche orientée graphes et données pour répondre à ces problématiques et améliorer drastiquement l’état-de-l’art sur ces sujets. Voir le pdf pour plus de détails.

Profil du candidat :
À titre indicatif, nous sommes particulièrement intéressés par des compétences en analyse de grands graphes et de réseaux, utilisation de machine learning (en particulier scikit-learn), programmation python, graphes aléatoires, manipulation de grandes données en streaming, expérimentations à grande échelle, cybersécurité et traitement du signal.

Une expérience de rédaction d’articles pour des conférences internationales sélectives est également souhaitée. Enfin, un équilibre entre les aspects théoriques et pratiques de la recherche, très présent dans le sujet, serait un plus.

Formation et compétences requises :
Doctorat en informatique, compétences en programmation et algorithmique, utilisation de machine learning (scikit-learn). Ou volonté de s’y former.

Adresse d’emploi :
Paris centre

Document attaché : 202310050726_postdoc_fraudes.pdf

L’Université PSL recrute 2 ingénieurs en science des données pour les sciences sociales

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université de Paris-Dauphine – PSL
Durée : 1 an renouvelable
Contact : bruno.chavesferreira@dauphine.fr
Date limite de publication : 2024-04-01

Contexte :
Dans le cadre du développement de l’Institut ACSS, l’Université PSL recrute un ingénieur d’études (IE) et un ingénieur de recherche (IR) en science des données. Ils seront chargés de mettre en œuvre des méthodes et outils de collecte et traitement de données issues de sources variées (Web, bases de données institutionnelles, archives, etc.). Ils auront également la responsabilité de veiller au respect des bonnes pratiques en matière de développement et de gestion du code et des données. Enfin, ils contribueront au développement de modèles statistiques ou d’apprentissage automatique (notamment dans le domaine du traitement automatisé de la langue naturelle).

Créé au sein de l’Université Paris Sciences et Lettres (PSL) et hébergé à Paris Dauphine, l’Institut « Applied Computational Social Sciences » a pour vocation de renforcer la recherche sur les grandes problématiques sociétales (cohésion politique et sociale, transition écologique, transformation numérique, efficacité et compétitivité économique) en articulant sciences des données et sciences sociales.

Sujet :
L’Institut collecte et traite à larges échelle des données hétérogènes tant pour permettre des avancées scientifiques que pour contribuer à éclairer le débat public et la décision. Il réunit sur une équipe pluridisciplinaire de chercheurs et s’appuie sur une équipe d’ingénieurs qui apportent leurs expertises pour constituer des bases de données originales et opérer des traitements complexes. Ces projets sont initiés et portés par des laboratoires du CNRS, de Dauphine, de l’ENS, de l’INSP, et des MinesParis-Tech. Les résultats des travaux ont vocation à être largement diffusés auprès de partenaires institutionnels et du monde économique.

Profil du candidat :
Ingénieur de recherches : Diplôme d’ingénieur en informatique (ou mathématiques/statistiques) avec au moins 3 ans d’expérience ou titulaire d’un doctorat avec une thèse dans le domaine.

Ingénieur d’études : Titulaire d’un master informatique, maths-info ou d’un diplôme d’école d’ingénieur.

Formation et compétences requises :
Expérience dans le développement de réseaux de neurones profonds et autres modèles statiques avancés appliqués au traitement automatisé du langage sur de larges corpus.
Maîtrise des écosystèmes Python et R dédiés à la science des données.
Plus spécifiquement en Python, maîtrise de numpy, pandas, spacy, ntlk et connaissance pratique de tensorflow, keras et pytoch.
En R, maîtrise du tidyverse, de tidymodels et des bibliothèques associées, ainsi que de torch
Maîtrise des bases de données relationnelles et NoSQL.
Compréhension des méthodes scientifiques des sciences humaines et sociales.

Adresse d’emploi :
Pl. du Maréchal de Lattre de Tassigny, 75016 Paris

Document attaché : 202310041017_IngenieursACCS_2023_fr.pdf

2 open PhD positions in AI and databases

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Télecom SudParis and Université d’Artois
Durée : 3 ans
Contact : aikaterini.tzompanaki@cyu.fr
Date limite de publication : 2023-12-01

Contexte :
The ANR project EXPIDA (EXplainable and parsimonious Preference models
to get the most out of Inconsistent DAtabases) (Project website: https://www.cril.univ-artois.fr/expida/index.html) aims to develop principled and
rigorous explainable techniques for dealing with imperfect data. More precisely,
EXPIDA aims to design tractable methods for dealing with conflicts in databases
by efficiently exploring novel inconsistency-tolerant semantics and quantifying
contradictions [6] to answer queries and to draw (high level) explanatory information.
While the set of repairs (maximal consistent datasets) is often large for
real databases, we aim to explore preference mechanisms (e.g., [4]) in order to
retrieve meaningful answers and explanations to identify the reasons of query answers,
and to assist end-users to “realize” query outputs. The EXPIDA project
aims in addition to be useful for applications intensively relying on multiple
heterogeneous data sources. Many such applications are nowadays developed
in various domains such as transportation control, health management, social
network analysis, data journalism, etc. This research project will advance the
state-of-the-art in two major ways: innovations in inconsistency management,
preferences and explanation for databases, and developing practical Artificial
Intelligence tools for managing inconsistent databases with validations on real
data. In this context we are proposing two PhD positions.

Sujet :
1st PhD position: This PhD thesis will focus on the following two main aspects. The first one
concerns query answering semantics with inconsistent databases. Despite the
fact that various methods have been studied, for drawing useful information in
presence of conflicts in the propositional and description logic settings [2, 5], we
are not aware of any existing work studying rich conflict-tolerant relations in
the context of databases equipped with flexible preference relations [7], such as
the partially ordered relation (e.g., [1, 3]). Then, investigating database query
answering under such varying conflict-tolerant methods should be accompanied
by studying the computational complexity of the different related problems,
which is among the main objectives of this thesis.
The second objective of the thesis is how to handle preferences in conflicting
databases. In fact, to answer queries over conflicting databases, it is crucial
to express priority among potential repairs in order to select the most optimal
candidates. As the number of potential repairs can be (very) large, one may
choose to rank repairs according to some preference criteria, and select a small
number of the most desirable repairs. Moreover, we note that the preference
among the sources of data could be of different nature. Often, conflict-tolerant
methods aim to find a stratification inducing a total preorder among all pieces
of information. Such a stratification allows to handle more easily inconsistencies
in data sources. Nonetheless, this can lead to a comparison of incomparable and
independent pieces of information. The main objective here is then to develop
a new framework to handle preferences in conflicting databases in order to draw
meaningful answers to user queries.
Applications should be submitted via email to Said Jabbour (jabbour@cril.fr),
Badran Raddaoui (badran.raddaoui@telecom-sudparis.eu) and Yue Ma (ma@lri.fr)
with the subject “Application for EXPIDA PhD 1”.

2nd PhD position: This PhD thesis will focus on the aspect of explainability in two ways, as
presented in what follows.
First, we will consider explanations for query results over inconsistent databases
with different conflict-tolerant semantics (e.g., consistent, brave, intersection repair,
intersection closed repair, non-objection, nonconsensus based semantics,
etc.). To this end, we will adapt the notion of lineage (or provenance) [2] in the
context of uncertain/inconsistent data and devise mathematical formalisations
that will provide the necessary properties for characterising and measuring the
‘quality’ of the explanations. Through the study of causality [7] and argumentation
[4, 9, 8, 3] in our setting, we further aim at improving the acceptability and
usefulness of the provided explanations by the end-user. Second, we will investigate
the complementary problem of explaining missing query results, widely
known as Why-Not explanations, which has not been yet addressed in the context
of inconsistent databases. In the setting of consistent databases, Why-Not
explanations ‘explain’ why certain results are not generated by a query (or a
workflow) by means of instance-based (i.e., source tuples), query-based (i.e.,
query operators) or refinement-based explanations (i.e., corrected query). Close
to our problem, [1] has proposed Why-Not provenance polynomials, which may
account for probabilistic tuples. It would be interesting to check how such formalisations
can be revisited to fit the inconsistent database’s different conflict tolerant semantics. Applications should be submitted via email to Badran RADDAOUI badran.raddaoui@telecomsudparis.
eu and Aikaterini TZOMPANAKI aikaterini.tzompanaki@cyu.fr, with
the subject “Application for EXPIDA PhD 2”.

Profil du candidat :
The PhD candidate should have a background on computer science and on at least on of the following domains: databases, logics, artificial intelligence, algorithms and complexity. They should be excellent students, self-motivated and eager learners.

Formation et compétences requises :
Engineering degree or Bachelor and Master’s degree in Computer science or (applied) mathematics.

Adresse d’emploi :
1st PhD: Université d’Artois, Lens-France
2nd PhD: Télécom SudParis, Paleseau-France

Document attaché : 202310032054_EXPIDA_PhD_subjects.pdf

Dynamic Neural Network compression

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 3 ans
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2023-11-30

Contexte :
Research on machine learning and Deep Neural Networks (DNN) has made considerable progress in the past decades. State-of-the-art DNN models usually require large amounts of data to be trained and contain a tremendous number of parameters leading to overall high resource requirements, in terms of computation and memory and thus energy. In the past years, this gave rise to approaches to reduce these requirements, where, for example, during or after training, parts of the model are removed (pruning) or stored with lower precision (quantisation) or surrogate models are trained (knowledge distillation) or where the best configuration is searched by testing different parameters (Neural Architecture Search, NAS). Also, concerning the hardware, many optimisations have been proposed to accelerate the inference of DNNs on different architectures.
But these accelerators are usually specific to a given hardware and are optimised to satisfy certain static performance criteria. However, for many applications, the performance requirements of a DNN model deployed on a given hardware platform are not static but evolving dynamically as its operating conditions and environment change. In the context of this ANR-funded project we propose an original interdisciplinary approach that allows DNN models to be dynamically configurable at run-time on a given reconfigurable hardware accelerator architecture, depending on the external environment, following an approach based on feedback loops and control theory.

Sujet :
At software (SW) level, for a given DNN model, different variants with incremental precision levels can be obtained by setting parameters along different dimensions: (i) data precision or quantization (increasing/decreasing bit-width of activations and/or weights), (ii) degree of sparsification (e.g., pruning, tensor decomposition), (iii) depth of the NN (number and type of network layers to execute). Depending on the chosen SW precision level, the mean output accuracy will change, as well as energy consumption and timing. The key observation is that, for some particularly “easy” inputs, using high-precision energy-hungry computations is an “overkill”. Conversely, for “hard” inputs, low-precision energy-efficient computations are not enough. Therefore, being able to dynamically change the SW precision is key to enable energy-efficient and accurate NN computations.
At the same time, at the hardware (HW) level, the DNN accelerator needs to be configurable at runtime to satisfy SW processing requirements. Different degrees of existing HW strategies have an impact on energy consumption and runtime, which need to be taken into account when designing NN architectures and SW compression schemes.
This PhD thesis will concentrate on the SW (i.e. machine learning) side. There are two major challenges that need to be addressed. First, an effective method is required to train different DNN model variants for the same task but responding to different performance criteria, i.e., providing different levels of classification accuracy, throughput, energy consumption etc. Also, to reduce memory requirements, the more complex variants should be able to mutualize as much parameters as possible with the simpler models. Based on existing approaches and results on structured pruning and multi-exit models, one objective is to develop new algorithms and DNN architectures that can be parameterized at inference time to execute only the parts of the model that are really needed. For some layers, different parameter or activation precisions (8, 16, 32-bit) may be necessary and should be able to be switched at run time depending on the sensitivity of the different parts of the model, that should be quantified. The second challenge concerns the influence of these architectural changes on the performance. The impact of different possible SW configurations must be assessed in terms of final accuracy of the obtained results and in terms of the corresponding effort (e.g., in terms of number of operations, their datatype, potential computational over-head etc.).

Profil du candidat :
– A strong background in machine learning and in particular neural networks
– Capacity to work autonomously and within a research team
– Scientific curiosity and creativity
– Very good English proficiency

Formation et compétences requises :
A Master degree in computer science or applied mathematics or similar.

Adresse d’emploi :
INSA Lyon, laboratoire LIRIS, Lyon

Document attaché : 202310032028_thesis_proposal_insa_lyon.pdf

Calcul multipartie sécurisé pour l’amélioration de l’informatique décisionnelle dans le projet BI4people

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ERIC
Durée : 5-6 mois
Contact : mohamed-lamine.messai@univ-lyon2.fr
Date limite de publication : 2023-11-30

Contexte :
Calcul multipartie sécurisé (MPC), BI sécurisée

Sujet :
La sécurité des données est un sujet crucial dans la plupart des applications informatiques actuelles. Le projet ANR BI4people (https://eric.univ-lyon2.fr/bi4people/) vise à développer un système de business intelligence (BI) accessible à des utilisateurs novices. Un des enjeux importants de ce projet est de garantir la confidentialité des données utilisateurs. Le sujet du stage proposé s’inscrit dans ce cadre.
Une analyse du problème de la confidentialité des données a été réalisée au cours de la première partie de ce projet. Les cryptosystèmes homomorphes (Homomorphic encryption) permettant d’effectuer des calculs sur des données cryptées sont particulièrement adaptés à cette problématique. Une étude approfondie de ces outils et de leur implémentation a été réalisée [1].
L’objectif de ce stage est de proposer différents scenarii, de les analyser et de les implémenter en utilisant les cryptosystèmes homomorphes les plus adaptés. Plus précisément, vous serez impliqué(e) dans les activités suivantes :
1. Découverte des cryptosystèmes homomorphes et prise en main des bibliothèques analysées au début du projet [1].
2. Étude des protocoles de calcul multipartie sécurisé : Vous explorerez les différents protocoles de MPC, en vous concentrant sur leur applicabilité dans le contexte du projet BI4people [2].
3. Développement de scénarii de BI collaborative et construction de protocoles de calcul multi-parties pour les sécuriser [3].
4. Évaluation des performances et de la sécurité de ces protocoles en termes de temps de calcul, d’utilisation des ressources
5. Analyse de sécurité de ces protocoles pour évaluer les vulnérabilités potentielles et proposer des mesures d’amélioration.
6. Intégration dans le projet BI4people : Vous travaillerez en étroite collaboration avec les autres membres de l’équipe du projet BI4people, en participant aux réunions et en partageant les résultats et les avancées de votre recherche.

– Merci d’adresser, avant le 31 décembre 2023, votre candidature avec un CV, une lettre de motivation, ainsi que vos notes de l’année universitaire en cours et de l’année dernière à mohamed-lamine.messai@univ-lyon2.fr et gerald.gavin@univ-lyon1.fr
Références
[1] T. V. T Doan, M-L. Messai, G. Gavin & J. Darmont. A survey on implementations of homomorphic encryption schemes. The Journal of Supercomputing, 2023, p. 1-42.
[2] Y. Wu, X. Wang, W. Susilo, G. Yang, Z. L. Jiang, S. M. Yiu, & H. Wang. Generic server-aided secure multi-party computation in cloud computing. Computer Standards & Interfaces, 2022, vol. 79, p. 103552.
[3] Tran, H. Y.. Privacy-preserving schemes for electricity data analytics in smart grids. 2023. Thèse de doctorat. UNSW Sydney.

Profil du candidat :
Profil du/de la stagiaire : Compétences avancées (niveau M2) en informatique.

Formation et compétences requises :
sécurité informatique, cryptographie fortement souhaitées). Compétences en programmation (par exemple, Python).

Adresse d’emploi :
5 Av. Pierre Mendès France, 69500 Bron

Document attaché : 202310021456_Stage de Master 2 (5-6 mois).pdf

PostDoc on

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube laboratory
Durée : 2 years
Contact : Lafabregue@unistra.fr
Date limite de publication : 2023-11-30

Contexte :
We consider sequential data and want to predict a property such as the remaining useful life. There are many applications, in industry 4.0 or in personalized medicine.
Predictive maintenance is an arising issue due to reduced cost of sensor deployment and improvement of machine learning techniques capacity. This research topic is particularly important in the medical and industrial fields, and is the subject of numerous studies [1] .
In Intensive Care Units (ICU), it is useful to predict the length of stay of a patient to organize care.
However, even if obtained predictions are reliable, it is essential to be able to explain them, as the information provided could enable the user to better understand the causes of future failures. Numerous explainability methods are already proposed in the literature that already take into account the time dimension. Nevertheless, only few studies have been conducted on methods such as LSTM. Moreover, we could focus on mispredictions and investigate where they come from and propose ways to improve our algorithm.

Sujet :
Main tasks :
● Evaluation of state-of-the art methods on two application datasets in health and industry.
● Proposition of methods to improve existing method

Collaboration and supervision :
The person recruited will be co-directed by Nicolas Lachiche, specialist of complex data mining, and Baptiste Lafabrègue (50%), time series analysis specialist. He or she will actively collaborate with the SDC team at ICube in Strasbourg, and more particularly with Nassime Mountasir, a 2nd-year PhD student working on predictive maintenance issues and Ben Cissoko a 4th-year PhD student working on ICU data.

Profil du candidat :
● Solid knowledge of Data Science and more particularly of explainability methods.
Experience in time series analysis and/or predictive maintenance would be also valuable.
● Good verbal (English or French) and written (English) communication skills.
● Interpersonal skills and the ability to work individually or as part of a project team.

Formation et compétences requises :
PhD in Computer Science, specializing in machine learning/explainability.

Adresse d’emploi :
Illkirch, south of Strasbourg (Pôle API, 300 Bd Sébastien Brant, 67400 Illkirch-Graffenstaden)

Document attaché : 202310020938_XAI_Offer.pdf

Internship proposal: Development of a SPD-autoencoder with time series analysis application for remote sensing data

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : LISTIC (Annecy) or L2S (Paris)
Durée : 4-6 months
Contact : guillaume.ginolhac@univ-smb.fr
Date limite de publication : 2023-11-30

Contexte :
In machine learning problems, it is well known that it is unwise to apply classification algorithms directly to large-scale data because of the curse of high dimensionality. To solve this problem, a popular solution is to look for a new data space with a lower dimension, while keeping a good representation of the data. The most common tool is the simple PCA algorithm, which works very well in most applications. Nevertheless, this algorithm can fail, especially when the data is very complex and/or belongs to a large number of classes. Thanks to supervised approaches, new algorithms, known as auto-encoders, have been developed to solve this problem. Numerous architectures have been proposed in recent years, particularly for vector data. There are still architectures to be built, especially when the data are not vectors. In particular, this internship will focus on covariance matrices which have the property of being Symmetric Positive Definite (SPD). Covariance matrices combined with Riemannian geometry [Boumal, 2023] have enabled the development
of high-performance machine learning algorithms on EEG [Barachant et al., 2012] or remote sensing data [Collas et al., 2022]. Moreover, these algorithms have shown good robustness in the presence of labeling errors or shits between training and test data. The application of this internship concerns the analysis of time series from remote sensing data. These data obviously have the characteristics discussed above, in particular they often suffer from large datashifts between training and test (due to strong correlated noise, class variability, …). In addition, the various frameworks proposed in the literature have shown that covariance matrices are good features for classification. The work will focus on the following datasets [Rußwurm et al., 2020,
Sainte Fare Garnot et al., 2022].

Sujet :
Seminal work has been done to build a deep learning SPD architecture [Li et al., 2017, Huang and Gool, 2017] by developing specific layers for covariance matrices. These networks are based on various Riemannian geometry tools and have shown good performance in computer vision. With the help of these
articles, the first task of the internship will be to develop an SPD auto-encoder adapted to covariance matrices.
Our goal is then to develop new learning methods for studying multivariate image time series in remote sensing, more precisely multispectral images containing several frequencies. The main
objective of the application is to classify agricultural fields, which is practically impossible without temporal information, as shown in Fig. 1. More specifically, we will adapt the networks used
in [Rußwurm et al., 2020] by adding the developed auto-encoder, which should enable to maintain performances with a training set of reduced size. Finally, we will focus on the dataset [Sainte Fare Garnot et al., 2022], which contains time series
of optical and SAR images over the same period. Our goal will then be to adapt the previously developed approach to SAR RADAR data. Indeed, these data are very interesting in that they provide better periodicity and relevant information even at night or in the presence of clouds. However, the properties of SAR images are more complex than those of multispectral images, as they are much noisier and more difficult for non-specialists to analyze.

Profil du candidat :
Master/Engineering student with knowledge in statistics and machine learning (having followed courses on these topics is strongly advised). Good coding skills in Python.

Formation et compétences requises :
Master/Engineering student with knowledge in statistics and machine learning (having followed courses on these topics is strongly advised). Good coding skills in Python.

Adresse d’emploi :
L2S laboratory in CentraleSupelec, Paris and/or LISTIC laboratory in Univ. Savoie Mont-Blanc, Annecy.

Document attaché : 202310020838_Stage_Autoencodeur_SPD.pdf

BDA 2023 – 2eme Appel à Participation

Date : 2023-10-23 => 2023-10-26
Lieu : Montpellier

BDA 2023 – 2eme Appel à Participation

Date limite d’inscription pour bénéficier du tarif préférentiel : 30 septembre 2023

Site d’inscription : https://bda2023.sciencesconf.org/resource/page/id/5

Le programme de la conférence est disponible ici :
https://bda2023.sciencesconf.org/resource/page/id/11

Conférenciers invités :
– Privacy-preserving publishing of Knowledge Graphs
Elena Ferrari (University of Insubria, Italy) :

– Data Management for Deep Learning
Lei Chen (The Hong Kong University of Science and Technology, China)

– Towards Practical, Scalable and Private Management of Cloud Data
Amr El Abbadi (University of California Santa Barbara, USA)

N’hésitez pas à diffuser.

Nous vous attendons nombreux !


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Stage M2 au CEA : Nouvelles approches par réseaux de neurones profonds pour le traitement des données de spectrométrie de masse en santé

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEA
Durée : 6 mois
Contact : etienne.thevenot@cea.fr
Date limite de publication : 2023-11-30

Contexte :
La métabolomique par spectrométrie de masse (LC-MS) est une technologie puissante en santé pour découvrir de nouveaux marqueurs permettant de prédire la survenue d’une maladie ou la réponse à un traitement. Les données LC-MS, composées de deux dimensions (masse et temps de rétention des molécules), sont de grande taille, parcimonieuses et bruitées. Leur prétraitement (détection et quantification des signaux) est une étape clé. Les algorithmes existants (par transformée en ondelette continue dans les deux dimensions successivement [1]), génèrent de nombreux faux positifs et négatifs. Ces dernières années, l’apparition des approches d’apprentissage profond ouvre de nouvelles perspectives de traitement des données MS plus robustes directement à partir des données 2D [2].

[1] Tautenhahn,R. et al. (2008) Highly sensitive feature detection for high resolution LC/MS. BMC Bioinformatics, 9, 504.
[2] Skarysz et al. (2018) Convolutional neural networks for automated targeted analysis of raw gas chromatography-mass spectrometry data. International Joint Conference on Neural Networks (IJCNN).

Sujet :
L’objectif du stage est de développer de nouvelles architectures profondes pour la détection et la quantification de l’ensemble des signaux et motifs présents dans les données d’un échantillon biologique. La première partie (traitement du signal et des images) sera consacrée à la construction de la base d’entraînement pour étiqueter les signaux connus dans les données disponibles au laboratoire. Des approches de simulation réalistes seront mises en œuvre pour augmenter la base d’apprentissage. La seconde partie (apprentissage profond) portera sur le développement d’architectures multitâches pour la segmentation de nuages de points, la détermination de contours, et le regroupement de signaux associés (e.g. par des mécanismes d’attention). L’ensemble des algorithmes seront implémentés en Python et appliqués au traitement des données de cohortes cliniques.

Profil du candidat :
Nous recherchons un.e candidat.e avec un très bon dossier en mathématiques appliquées (traitement d’images, statistiques, informatique), et motivé.e par les applications multidisciplinaires (chimie, physique, biologie). Le master pourra se prolonger par une thèse.

Formation et compétences requises :
traitement d’images, deep learning

Adresse d’emploi :
Lieu du stage : Le stage s’effectuera au centre CEA de Saclay, dans l’équipe science des données métabolomiques (Unité Médicaments et Technologies pour la Santé ; https://odisce.github.io), en partenariat avec l’équipe imagerie génétique (NeuroSpin ; https://brainomics.org).

Durée du stage : 6 mois à partir de mars 2024

Date limite de candidature : 30 novembre 2023

Contact : Merci d’adresser votre candidature (CV détaillé, lettre de motivation, notes de licence et master et nom de deux référents) à :
Etienne Thévenot (etienne.thevenot@cea.fr)
Equipe sciences des données (https://odisce.github.io)
Unité Médicaments et Technologies pour la Santé
CEA, Centre de Saclay, F-91191 Gif sur Yvette, France

Document attaché : 202309211124_230914_stage_M2_cea_ai-ms_EThevenot.pdf