Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Dates importantes :

  • Date limite d’inscription : 30 avril 2026 7 mai 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Apr
15
Fri
2022
Apprentissage profond de la qualité de maillages 3D
Apr 15 – Apr 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire GREYC – Caen
Durée : 6 mois
Contact : olivier.lezoray@unicaen.fr
Date limite de publication : 2022-04-15

Contexte :
Stage Master 2/Ingénieur – Laboratoire GREYC – Équipe Image – 2022
Sujet : Apprentissage profond de la qualité de maillages 3D
Mots clés : Apprentissage Profond, maillages, estimation de la qualité.
Équipe et laboratoire : Équipe IMAGE, Laboratoire GREYC (UMR CNRS 6072).
Encadrants : Christophe Charrier (MC UNICAEN), Olivier Lézoray (PR UNICAEN).
Adresses email : {christophe.charrier,olivier.lezoray}@unicaen.fr
Stage : durée de 5-6 mois, à Caen, au Campus 2, Bâtiment F de l’ENSICAEN

Sujet :
Les technologies 3D ont très fortement évolué ces dernières années au point d’être largement utilisées dans plusieurs applications grand public, notamment les jeux 3D en réseau, les applications de visualisation 3D, et les mondes virtuels et immersifs 3D (avec l’apparition du MetaVerse). Dans ces applications, les modèles 3D sont la principale forme de média utilisée, généralement représentés sous la forme de maillages 3D triangulés. Les maillages 3D sont habituellement composés d’un grand ensemble de sommets et de faces connectés qui doivent diffusés en temps réel. L’utilisation d’un grand nombre de sommets/faces permet une représentation très détaillée d’un modèle et améliore sa qualité visuelle mais cela au détriment d’une augmentation conséquente des temps de calculs requis pour effectuer un rendu du maillage. Par conséquent, un compromis apparaît souvent nécessaire entre la qualité visuelle des maillages 3D et le temps de traitement associé, d’où le besoin de pouvoir évaluer la qualité des maillages 3D.

L’objectif d’une méthode d’évaluation de la qualité des maillage (MQA pour Mesh Quality Assessment) est alors de déterminer automatiquement, en utilisant ou non le maillage de référence, un score de qualité pour le maillage 3D donné. Si les méthodes d’évaluation de la qualité des images (IQA pour Image Quality Assessment) [1] ont connu un très fort développement et on été intégrées dans de nombreuses applications de VOD (avec VMAF [2] pour Netix par exemple), ce n’est pas encore le cas des méthodes de MQA qui sont encore peu développées [3, 4]. Si certaines sont apparues récemment [5, 3, 6, 7, 8, 9], peu d’entre-elles (à l’exception de [10, 11]) font usage de l’apprentissage profond. Pourtant, là où les méthodes classiques exploitent des caractéristiques géométriques locales telles que la saillance ou la courbure, une méthode par apprentissage profond de MQA pourrait fortement bénéficier de l’intégration de caractéristiques de plus haut niveau et apprises de manière supervisée.
L’objectif du stage est de faire un bilan des approches existantes, d’implémenter les plus représentatives, et de les comparer sur des données de référence pour lesquelles la qualité de référence des maillages 3D est connue. Une partie du stage sera également dédié à la conception d’un nouvelle méthode profonde de MQA, qui prendra en entrée des descripteurs locaux extraits du maillage (patchs, matrice de covariances, ou sous graphes) et exploitera un apprentissage faiblement supervisé avec le formalisme MIL (Multiple Instance Learning).

Plan de travail :
— Bibliographie sur les méthodes de MQA (Mesh Quality Assessment),
— Implémentation de méthodes de l’état de l’art, en particulier de [10]
— Proposition d’une nouvelle méthode profonde reposant sur des descripteurs locaux du maillage,
— Comparaisons sur les bases Liris/EPFL et Liris Masking

Références
[1] Lanjiang. Wang, “A survey on iqa,” 2021.
[2] Reza Rassool, “VMAF reproducibility : Validating a perceptual practical video quality metric,” in 2017 IEEE International
Symposium on Broadband Multimedia Systems and Broadcasting, BMSB 2017, Cagliari, Italy, June 7-9, 2017. 2017, pp. 1–2,
IEEE.
[3] Abdullah Bulbul, Tolga K. Çapin, Guillaume Lavoué, and Marius Preda, “Assessing visual quality of 3-d polygonal models,”
IEEE Signal Process. Mag., vol. 28, no. 6, pp. 80–90, 2011.
[4] Guillaume Lavoué and Massimiliano Corsini, “A comparison of perceptually-based metrics for objective evaluation of
geometry processing,” IEEE Transactions on Multimedia, vol. 12, no. 7, pp. 636–649, 2010.
[5] Ilyass Abouelaziz, Mohammed El Hassouni, and Hocine Cheri, “Blind 3d mesh visual quality assessment using support
vector regression,” Multim. Tools Appl., vol. 77, no. 18, pp. 24365–24386, 2018.
[6] Guillaume Lavoué, “A multiscale metric for 3d mesh visual quality assessment,” Comput. Graph. Forum, vol. 30, no. 5, pp.
1427–1437, 2011.
[7] Anass Nouri, Christophe Charrier, and Olivier Lézoray, “3d blind mesh quality assessment index,” in 3D Image Processing,
Measurement (3DIPM), and Applications 2017, Burlingame, CA, USA, 29 January 2017 – 2 February 2017, William Puech and
Robert Sitnik, Eds. 2017, pp. 9–16, Ingenta.
[8] Fakhri Torkhani, KaiWang, and Jean-Marc Chassery, “Perceptual quality assessment of 3d dynamic meshes : Subjective
and objective studies,” Signal Process. Image Commun., vol. 31, pp. 185–204, 2015.
[9] Kai Wang, Fakhri Torkhani, and Annick Montanvert, “A fast roughness-based approach to the assessment of 3d mesh
visual quality,” Comput. Graph., vol. 36, no. 7, pp. 808–818, 2012.
[10] Ilyass Abouelaziz, Aladine Chetouani, Mohammed El Hassouni, Longin Jan Latecki, and Hocine Cheri, “3d visual saliency
and convolutional neural network for blind mesh quality assessment,” Neural Comput. Appl., vol. 32, no. 21, pp. 16589–
16603, 2020.
[11] Ilyass Abouelaziz, Aladine Chetouani, Mohammed El Hassouni, Hocine Cheri, and Longin Jan Latecki, “Learning graph
convolutional network for blind mesh visual quality assessment,” IEEE Access, vol. 9, pp. 108200–108211, 2021.

Profil du candidat :
Prol recherché :
— Etudiant.e en Master 2 Recherche ou en dernière année d’école d’ingénieur spécialisé en informatique, image et/ou intelligence artificielle .
— Une solide formation en machine learning est indispensable.
— Des connaissances et expériences solides en traitement d’images, apprentissage profond et programmation (Python, TensorFlow/PyTorch) sont nécessaires.
— La maîtrise de l’anglais scientique et des qualités rédactionnelles sont importantes.
— Autonomie et curiosité pour la recherche scientique.

Formation et compétences requises :
Candidature : Pour postuler, envoyer par email aux encadrants un dossier avec CV, lettre de motivation, relevés de notes des deux dernières années de formation, ainsi que toute pièce susceptible de renforcer la candidature (lettre de recommandation, etc.).

Adresse d’emploi :
Laboratoire GREYC UMR CNRS 6072, Caen

Document attaché : 202201110915_sujetMasterDeepMQA2022.pdf

Apprentissage profond de superpixels
Apr 15 – Apr 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC
Durée : 6 mois
Contact : olivier.lezoray@unicaen.fr
Date limite de publication : 2022-04-15

Contexte :
Sujet de stage Master 2/Ingénieur – Laboratoire GREYC – Équipe Image – 2022
Apprentissage profond de superpixels
Mots clés : Apprentissage profond, Traitement d’images, Vision par ordinateur, Segmentation, Superpixels.
Équipe et laboratoire : Équipe IMAGE, Laboratoire GREYC (UMR CNRS 6072).
Encadrants : Olivier Lézoray (PR UNICAEN), Sébastien Bougleux (MC UNICAEN).
Adresses email : {olivier.lezoray,sebastien.bougleux}@unicaen.fr
Stage : durée de 5-6 mois, à Caen, au Campus 2, ENSICAEN, Bâtiment F.

Sujet :
En traitement et analyse d’images, un superpixel désigne une région formée de pixels ayant des caractéristiques bas niveau similaires, typiquement perceptuelles comme la couleur. Le partitionnement d’une image en superpixels fournit généralement une sur-segmentation dont la taille et la forme des régions dépendent du choix des caractéristiques, de la mesure de similarité, et de la façon dont les pixels sont regroupés. Les différentes méthodes de segmentation en superpixels se distinguent par ces choix, souvent guidés par le contexte, l’application sous-jacente. Parmi les méthodes de sur-segmentation, celles basées sur les superpixels assurent une simplification des images perceptuellement plus cohérente, s’avérant plus performant dans de nombreuses problématiques, par exemple la stylisation, la vectorisation, la compression, l’estimation de la saillance, la détection d’objets, la segmentation sémantique, ou l’estimation du flux optique dans des vidéos.

Ces dernières années, on a pu assister à une augmentation spectaculaire de l’adoption de l’apprentissage profond pour un large éventail de problèmes de traitement et analyse d’images. À l’exception de quelques méthodes (par exemple [1, 2, 3, 4]), les superpixels sont rarement utilisés en conjonction avec les réseaux profonds modernes. Une formulation par apprentissage profond de superpixels qui puisse être effectuée de bout-en-bout (une image en entrée, une segmentation en superpixels en sortie) serait pourtant très intéressante. En effet, les algorithmes classiques tels que SLIC [5] opèrent uniquement sur des caractéristiques de couleur, ce qui peut limiter leur adaptation à des domaines d’images spécifiques, médicales par exemple. Une segmentation en superpixels pourrait fortement bénéficier de l’intégration de caractéristiques de plus haut niveau et apprises de manière supervisée. L’objectif du stage est de faire un bilan des approches existantes, d’implémenter les plus représentatives, et de les comparer sur des données pour lesquelles la segmentation de référence est connue. Une partie du stage sera également dédiée à la conception d’une nouvelle méthode profonde de superpixels, en s’inspirant des avantages des méthodes existantes.

Plan de travail :
— Bibliographie sur les méthodes de superpixels par apprentissage profond,
— Implémentation de méthodes de l’état de l’art,
— Proposition d’une nouvelle méthode,
— Comparaisons sur la Berkeley Segmentation Data Base et autres bases.

Références
[1] Varun Jampani, Deqing Sun, Ming-Yu Liu, Ming-Hsuan Yang, and Jan Kautz, “Superpixel sampling networks,” in Computer
Vision – ECCV 2018 – 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part VII, Vittorio
Ferrari, Martial Hebert, Cristian Sminchisescu, and Yair Weiss, Eds. 2018, vol. 11211 of Lecture Notes in Computer Science,
pp. 363–380, Springer.
[2] Wei-Chih Tu, Ming-Yu Liu, Varun Jampani, Deqing Sun, Shao-Yi Chien, Ming-Hsuan Yang, and Jan Kautz, “Learning superpixels
with segmentation-aware afnity loss,” in 2018 IEEE Conference on Computer Vision and Pattern Recognition, CVPR
2018, Salt Lake City, UT, USA, June 18-22, 2018. 2018, pp. 568–576, Computer Vision Foundation / IEEE Computer Society.
[3] Thomas Verelst, Matthew B. Blaschko, and Maxim Berman, “Generating superpixels using deep image representations,”
CoRR, vol. abs/1903.04586, 2019.
[4] Fengting Yang, Qian Sun, Hailin Jin, and Zihan Zhou, “Superpixel segmentation with fully convolutional networks,” in 2020
IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020. 2020,
pp. 13961–13970, Computer Vision Foundation / IEEE.
[5] Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurélien Lucchi, Pascal Fua, and Sabine Süsstrunk, “SLIC superpixels
compared to state-of-the-art superpixel methods,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 11, pp. 2274–2282,
2012.

Profil du candidat :
Prol recherché :
— Etudiant.e en Master 2 Recherche ou en dernière année d’école d’ingénieur, spécialisé en informatique, image et/ou intelligence artificielle.
— Une solide formation en machine learning est indispensable.
— Des connaissances et expériences en traitement d’images, apprentissage profond et programmation (Python, TensorFlow/PyTorch) sont nécessaires.
— La maîtrise de l’anglais scientique et des qualités rédactionnelles sont importantes.
— Autonomie et curiosité pour la recherche scientique.

Formation et compétences requises :
Candidature : Pour postuler, envoyer par email aux encadrants un dossier avec CV, lettre de motivation, relevés
de notes des deux dernières années de formation, ainsi que toute pièce susceptible de renforcer la candidature
(lettre de recommandation, etc.).

Adresse d’emploi :
Laboratoire GREYC UMR CNRS 6072, Caen

Document attaché : 202201110909_sujetMasterDeepSuperPixels2022.pdf

Apr
17
Sun
2022
Commonsense Reasoning For Question Answering
Apr 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Télécom SudParis, Laboratoire SAMOVAR, Carian Soft
Durée : 6 mois
Contact : julien.romero@telecom-sudparis.eu
Date limite de publication : 2022-04-17

Contexte :
Commonsense is a skill every human has but that is hard to get for computers. A simple observation can convince us: When we write a text, we rarely state the obvious, what is commonsense. For example, we will rarely say that at night, the sun is not visible!

We can divide the problem of commonsense into two parts. First, there is commonsense knowledge, i.e. statements that we intuitively know are true. For example, the fact that elephants have a trunk. It is opposed to encyclopedic knowledge that is acquired by studying. For example, we learn that Paris is the capital of France at school. The second part is commonsense reasoning, i.e. using reasoning over commonsense knowledge. This kind of reasoning is particularly useful when it comes to question-answering. For example, to the question “where would I not want a fox?”, I could answer a hen house as foxes eat hens and hens are found in hen houses.

Sujet :
The goal of this project is to study the limitations of the current approaches. In particular, we will be interested in the CommonsenseQA dataset. State-of-the-art algorithms rely on a knowledge base called ConceptNet. This is a problem for several reasons:

* CommonsenseQA is partially built from ConceptNet, which biased the results.
* It is not clear if the approaches would generalize to other knowledge bases.
* They rely on a clear path between the question and the answer in the knowledge graph.
end{enumerate}

In the first part of this internship, we will study the existing methods such as MHGRN or QA-GNN. We will compare them by changing the knowledge base they use to see how they generalize. Then, we will see how we can leverage the weaknesses to propose a new approach.

Profil du candidat :
* English (French can be useful for daily life).
* Good knowledge of Python.
* Experience with machine learning and deep learning, in particular with frameworks like Pytorch.
* Basic knowledge about knowledge bases/ontologies.

Formation et compétences requises :
Master internship

Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau
or
9 Rue Charles Fourier, 91000 Evry

Document attaché : 202201170857_internship_commonsense_reasoning.pdf

Apr
29
Fri
2022
ACDC with deep learning : Automatic Crater Detection and Characterization
Apr 29 – Apr 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Université Paris-Saclay, Centrale SUPELEC
Durée : 4-6 months + 3 years
Contact : frederic.schmidt@universite-paris-saclay.fr
Date limite de publication : 2022-04-29

Contexte :
This study takes place in the data deluge from the numerous space missions across the Solar System. The project proposes to develop a tool to automatically detect and characterize the most ubiquitous feature on planetary body : craters.
The aim is to developed a tool to define precise size and position of all craters in the scene, whatever the illumination conditions, the type of sensor and the scale. As a second goal, the project will have to determine the crater characteristics, such primary / secondary (ejecta from a previous impact, not from a direct impactor), presence / absence of rays, erosion level…

Sujet :
This study will take advantage of the machine learning and deep learning libraries available as open source to propose the most versatile and robust detection method. We propose to develop a new tool dedicated to this task. Such software pipeline is required to tackle fundamental questions in planetary science to study the surface processes across the Solar System. It will be a crucial tool to precisely date the surface and open a new era for onboard decisions on landing or targeting, to maximize the science return of future deep space missions.

The internship subject should continue in PhD and will take place in collaboration between planetary scientist and IA expert within University Paris-Saclay/Centrale SUPELEC.

Profil du candidat :
The candidate must have a engineer or master grade in machine learning/data mining or in astronomy/planetary science. Double competence in both fields will be encouraged.

Formation et compétences requises :
An excellent level of programming skills is required (Python, Linux). We expect the candidate to have a good level of communication in English (written and oral).

Adresse d’emploi :
Campus Université Paris-Saclay
91400 ORSAY, FRANCE

Apr
30
Sat
2022
Deep neural network compression using tensor methods
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : laboratoire d’informatique et systèmes (LIS) UMR
Durée : 5 to 6 months
Contact : zniyed@univ-tln.fr
Date limite de publication : 2022-04-30

Contexte :
Deep Neural Networks (DNNs) demonstrate good prediction performances in numerous applications. However, the architectures of neural networks are very large, reaching several million parameters, and running them on systems with limited computing capacity (embedded systems) becomes a difficult task. For this reason, we will focus in this internship project on the compression of DNNs by tensor methods.

Sujet :
This internship project deals with the study of new compression techniques for deep neural networks, by resorting to tensor decompositions to model and factorize the DNN weights. Recent studies show that DNN weight matrices are often redundant, and by restricting their ranks, it is possible to significantly reduce the number of parameters without a significant drop in performance. In this project, we propose to convert these matrices to a tensorial format and to use multidimensional data processing methods to compress them. The goal of this internship is to study different tensor representations, such as the canonical polyadic decomposition (CPD) or Tucker decomposition (TD), for the compression of the converted multidimensional weights. Specifically, we will study the compactness of these representations and their impact on the predictive accuracy of DNNs. In a first stage, the intern student will review the existing state-of-the-art tensor-based compression techniques and will get familiar with the tensor decompositions. Then, we will compare different representations with the goal to improve them and propose new tensor-based scheme for DNN compression.

This internship can be followed by a Ph.D research project, starting October, 2022, at LIS, Toulon

Profil du candidat :
M2R or engineering school students with major in signal processing, machine learning or applied mathematics.

Formation et compétences requises :
Good python programming skills are required. The knowledge of deep learning frameworks is a desirable plus. The candidate should have good writing and oral communication skills.

Adresse d’emploi :
The intern student will join the Signal and Image (SIIM) research team at the LIS laboratory, Toulon.
The internship will be supervised by Yassine Zniyed (Associate Professor at Université de Toulon) and Thanh Phuong Nguyen (Associate Professor/HDR at Université de Toulon).

Document attaché : 202202210815_Stage_M2R_2022.pdf

La fouille de données et l’analyse informatique de réactions chimiques
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC (Groupe de recherche en informatique, image
Durée : six mois
Contact : bertrand.cuissart@unicaen.fr
Date limite de publication : 2022-04-30

Contexte :
Le projet AMPERE (stAtistically Motivated oPtimizations for ElectRosynthEsis) est porté par les laboratoires GREYC (UMR6072, INS2I) et LIMA (UMR7042, INC). Il rassemble une communauté d’informaticiens et de chimistes afin de développer des processus d’aide à la décision facilitant la découverte et l’optimisation de transformations chimiques innovantes s’inscrivant dans le contexte du développement durable. Le consortium du projet AMPERE souhaite mettre au point un outil d’optimisation adapté aux transformations électrochimiques, réactions répondant par définition aux critères de soutenabilité des processus réactionnels. Dans le domaine de l’électrochimie, il est difficile de développer ce type d’outil informatique en raison de la multiplicité des paramètres expérimentaux, de la diversité de leurs natures (continus et discontinus) et de la complexité de leurs interactions. Des efforts isolés pour lever ce verrou apparaissent depuis 2018 mais le développement d’un outil d’aide à la décision, puissant et versatile, permettra de démocratiser l’utilisation de l’électrochimie dans les laboratoires académiques et industriels, et d’accélérer la mise au point de processus chimiques sobres en ressources et énergie. Cet enjeu majeur fait l’objet de recherches actives dans les meilleurs laboratoires aux États-Unis et en Allemagne.

Sujet :
Le stage s’inscrit dans le projet mentionné au-dessus. Il a pour objectif de produire une première analyse des réactions produites par les chimistes du projet. Dans un premier temps, en collaboration avec l’encadrement, le stagiaire s’appropriera les méthodes actuelles de représentation et d’analyses des réactions chimiques. Ensuite, il donnera les éléments qui permettront aux scientifiques impliqués de faire les choix concernant la représentation des réactions, les techniques d’analyse adoptées.
Enfin, il implémentera ces choix et les évaluera pratiquement sur les données produites par le projet.

Profil du candidat :
Le stage s’adresse à un étudiant en Informatique dans le cadre du M2 ou de la cinquième année d’école d’ingénieur.

Le stage sera encadré par par deux chercheurs en informatique qui portent le projet, Jean-Luc Lamotte et Bertrand Cuissart.
Pour candidater, envoyez votre CV, vos relevés de notes et une lettre de motivation aux deux encadrants (prenom.nom@unicaen.fr).

Formation et compétences requises :
Le travail s’intégrant dans un projet de recherche informatique et orienté vers le traitement de données chimiques, le stagiaire devra assimiler des travaux récents de ce domaine, en étudiant les textes associés.
Il participera aux discussions sur les choix techniques, il aura la responsabilité de mettre en oeuvre un flot de traitement des réaction chimiques et d’en évaluer expérimentalement l’intérêt pratique.
La mission nécessite des connaissances informatiques concernant l’algorithmie des graphes, la fouille de données, un intérêt pour l’étude de la littérature scientifique ainsi que les compétences techniques pour réaliser un nouveau processus d’analyse de données.

Adresse d’emploi :
6 Boulevard du Maréchal Juin
Bâtiment Sciences 3
CS 14032, 14032 CAEN cedex 5

Performance of tensor-based machine learning methods for large-scale data
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de Recherche en Informatique de Toulouse
Durée : 5 to 6 months
Contact : henrique.goulart@irit.fr
Date limite de publication : 2022-04-30

Contexte :
Several machine learning problems can be addressed by leveraging
tensor methods, especially in unsupervised settings. This approach typically relies on estimating a low-rank tensor model from a noisy dataset, which is usually a challenging task. In general, it is difficult to anticipate the best (or the actual) estimation performance that can be attained. Nevertheless, recent years saw substantial progress in this direction, with many authors studying the attainable performance of estimators of such models under the assumption that the dimensions of the observed data tensor are large. This setting is particularly relevant for large-scale (also known as “big data”) scenarios, where a large number of observations is available.

Sujet :
The primary goal of this internship is to explore the implications of these recent results for some selected practical machine learning problems such as community detection in hyper-graphs, latent variable model estimation and high-order co-clustering. The intern will thus perform computer simulations aimed at understanding the behavior of estimation algorithms in these target problems, whose performance will be confronted to the existing theoretical predictions. New algorithms and strategies for dealing with these problems may be developed based on the the experimental findings. Scientific dissemination of these developments will be encouraged, via publication of papers and/or participation in scientific events.

Please see the attached file for more information.

Profil du candidat :
We look for strongly motivated candidates with a solid background on mathematics and statistics, having good programming skills in scientific computing languages (Python, Matlab, Julia).

Formation et compétences requises :
Optimization theory, linear algebra, probability and statistics. Knowledge/interest in tensors is a strong plus.

Adresse d’emploi :
2 rue Charles Camichel, 31071 Toulouse

Document attaché : 202112231624_sujet-stage.pdf

Stage M2 : Algorithme pour la prédiction de structures 3D des ARN
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IBISC. Université d’Evry, Université Paris-Saclay
Durée : 6 mois
Contact : fariza.tahi@univ-evry.fr
Date limite de publication : 2022-04-30

Contexte :
Les ARN non codants sont des macro-molécules du vivant dont la fonction est liée à leur structure 3D (résultat du repliement de la séquence de nucléotides dans l’espace). La prise de conscience lors de la dernière décennie de la grande variété de ces ARN et des rôles importants qu’ils jouent à différents niveaux de la vie de la cellule, ainsi que de leur implication dans un grand nombre de maladies telles que le cancer donne lieu à un regain d’intérêt pour leur étude structurale. Par exemple, ils sont maintenant envisagés comme de possibles cibles thérapeutiques, comme le sont déjà différentes classes de protéines.

Notre équipe de recherche s’intéresse à la prédiction in-silico de la structure des ARN non codants. Récemment, un outil appelé MOARNA [1], a été développé, basé sur un algorithme multi-objectif, combinant différents critères ou objectifs : l’énergie de la structure 3D (modélisée en gros grain), l’énergie de la structure secondaire (structure intermédiaire composée uniquement de liaisons canoniques), des données expérimentales de type SHAPE, et des données statistiques sur les distances entres les nucléotides dans la structure, données générées notamment à partir de notre base de données RNANet [2], disponible sur la plateforme EvryRNA (http://EvryRNA.ibisc.univ-evry.fr.

Sujet :
L’objectif de ce stage est d’apporter des extensions et améliorations à cet outil. Notamment, deux aspects seront abordés :

1- L’outil utilise l’algorithme génétique multiobjectif classique NSGA-III, mais les solutions générées ne sont pas suffisamment uniformément réparties le long de l’ensemble de Pareto.
Il s’agit ici de réaliser une étude bibliographique sur les différentes techniques permettant d’améliorer la diversité des solutions générées, et de tester expérimentalement ces approches. Plusieurs articles [3,4,5] serviront de point de départ. La méthode la plus adéquate sera ensuite éventuellement adaptée, puis implémentée.

2- De nombreux algorithmes d’optimisation sont basés sur l’utilisation de voisinages pour explorer l’espace de solutions d’un problème. Dans la version actuelle de MOARNA, cet espace est exploré en effectuant des modifications des liaisons atomiques au niveau de la structure 3D, rendant l’espace d’exploration trop important et conduisant souvent à des solutions non réalistes. Dans ce stage nous souhaitons implémenter une méthode basée sur l’exploration de l’espace de solutions en effectuant des modifications sur la structure secondaire, et plus précisément sur ses appariements canoniques.

Il s’agira ensuite d’effectuer des benchmarks de l’outil final obtenu, en vue d’une publication dans une conférence ou revue internationale. L’outil obtenue sera mis à disposition de la communauté scientifique sur la plateforme EvryRNA (http://EvryRNA.ibisc.univ-evry.fr).

Bibliographie
[1] Louis Becquey, Algorithmes multicritères pour la prédiction de structures d’ARN, thèse de doctorat de l’université Paris-Saclay, 2021.

[2] L. Becquey, E. Angel et F. Tahi. RNANet: An automatically built dual-source dataset integrating homologous sequences and RNA structures, , Bioinformatics, 2020. https://doi.org/10.1093/bioinformatics/btaa944

Profil du candidat :
Etudiant en Master 2 (ou équivalent) en informatique ou bioinformatique

Formation et compétences requises :
Formation en informatique requise. Des connaissances en bioinformatique ou biologie sont les bienvenus.

Adresse d’emploi :
IBGBI. 23 bv. de France. 91000 Evry.

May
1
Sun
2022
Exploiter les formats compacts pour concevoir un moteur d’inférence pour Internet des objets
May 1 – May 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Hubert Curien, St-Etienne
Durée : 6 mois
Contact : singh.d.kamal@gmail.com
Date limite de publication : 2022-05-01

Contexte :
Le Web des Objets (WoT) est le résultat de l’intégration dans le Web, d’objets communicants de l’Internet des Objets pouvant présenter des capacités limitées. Les applications du WoT concernent l’agriculture numérique, le bâtiment intelligent, les villes intelligentes, la santé, etc [Raw14]. Le Web sémantique forme un socle théorique privilégié pour les graphes de connaissances émergeant de l’échange, du stockage, du traitement et du raisonnement sur des données dans le WoT.

Nous focalisons à donner aux objets connectés une capacité de raisonnement sur les graphes de connaissances en embarquant les traitements au plus près de ces objets. Il s’agit pour cela de définir une architecture logicielle compatible à la fois avec la nature contrainte de ces objets et avec les standards du WoT – et notamment la notion de servient [WoT20] – et d’y intégrer un moteur d’inférences incrémental à base de règles. L’objectif de ce stage est de proposer une évolution de ce moteur en y intégrant des optimisations non prévues dans notre projet CoSWoT pour le parsing et l’échange de données compressées.

Les enjeux majeurs de l’utilisation des technologies du Web sémantique dans un environnement embarqué sont la verbosité des syntaxes concrètes de graphes de connaissances (e.g. Turtle ou JSON-LD) [Cha18] et la complexité du traitement sémantique de ces graphes [Ben21]. L’autre problématique est liée à la complexité du raisonnement différentiel sur données arrivant en flux : au fil du temps, les données peuvent évoluer, modifiant le graphe de connaissances sur lequel s’effectue le raisonnement.

Sujet :
Nous souhaitons exploiter les formats compacts de connaissances formelles pour concevoir un moteur d’inférence différentiel capable de raisonner de manière efficace en termes de mémoire, de calcul (bien adapté au type de processeur ou microcontrôleur), d’utilisation de la bande passante et de l’énergie.

Les tâches à réaliser sont les suivants :

i) L’étude des formats compacts de la littérature (notamment CBOR-LD et HDT) [CBOR-LD] [https://www.rdfhdt.org/]

ii) Concevoir et réaliser un parseur/serialiseur différentiel qui transforme efficacement les faits RDF dans une représentation compacte, qui sera fournie en entrée du raisonneur.

iii) Nous allons aussi adapter l’algorithme de RSP4J [Tom21] aux environnements embarqués pour parser les données à la volée.
L’implémentation du prototype sera réalisée en C pour avoir un code au plus proche des contraintes matérielles sur Arduino, ESP32, etc.

iv) Nous évaluerons l’efficacité de ces propositions via des expérimentations sur divers matériels et dans divers scénarios correspondant à des cas d’usage du raisonnement dans le WoT.

Références :

[Ben21] Bento, A., Médini, L., Singh, K., & Laforest, F. (2021, June). Raisonnement embarqué et distribué pour le Web des Objets: un état de l’art. In Journées Francophones d’Ingénierie des Connaissances (IC) Plate-Forme Intelligence Artificielle (PFIA’21) (pp. pp-48).
[Bon19] Bonte, P., Tommasini, R., De Turck, F., Ongenae, F., & Valle, E. D. (2019, June). C-sprite: efficient hierarchical reasoning for rapid RDF stream processing. In Proceedings of the 13th ACM International Conference on Distributed and Event-based Systems (pp. 103-114).
[CBOR-LD] Sporny, M. & Longley, D.. CBOR-LD 1.0 – A CBOR-based Serialization for Linked Data. W3C Member Submission, 2021. URL : https://digitalbazaar.github.io/cbor-ld-spec/
[Cha18] Charpenay, Victor, Sebastian Käbisch, and Harald Kosch. “Towards a binary object notation for RDF.” European Semantic Web Conference. Springer, Cham, 2018.
[Raw14] Rawat, P., Singh, K. D., Chaouchi, H., & Bonnin, J. M. (2014). Wireless sensor networks: a survey on recent developments and potential synergies. The Journal of supercomputing, 68(1), 1-48.
[Roj16] Rojas, R., Médini, L., Cordier, A. Toward Constrained Semantic WoT. In WoT 2016.
[Tom21] Tommasini, R., Bonte, P., Ongenae, F., & Della Valle, E. (2021). RSP4J: An api for rdf stream processing. In European Semantic Web Conference (pp. 565-581). Springer, Cham.
[WoT20] Kovatsch & al. (2020), Web of Things (WoT) Architecture, W3C Recommendation, https://www.w3.org/TR/2020/REC-wot-architecture-20200409/

Profil du candidat :
Niveau 5A ou M2 (en cours)

Modalités de candidature :
Les candidats doivent envoyer les documents suivants :
une lettre de motivation
un CV
le dernier relevé de notes
Ces documents doivent être envoyées à : singh.d.kamal@gmail.com

Formation et compétences requises :
Des compétences en représentation des connaissances du Web sémantique.
Des compétences en programmation en C.

Adresse d’emploi :
Le stagiaire serait un/une membre du laboratoire LabHC, St-Etienne, France. Le Laboratoire Hubert Curien (https://laboratoirehubertcurien.univ-st-etienne.fr/en/index.html) est une unité mixte de recherche CNRS (UMR 5516) de l’Université Jean Monnet à Saint-Etienne, et de l’Institut d’Optique Graduate Ecole, travaillant sur des thématiques liées à l’optique, la photonique et les hyperfréquences, l’informatique, les télécoms et l’image. Les membres du LaHC impliqués dans le projet CoSWoT sont des chercheurs d’équipe nommée Data Intelligence. Ils sont spécialisés dans l’IA et le traitement des données.

Encadrants : Kamal Singh (LaHC), Riccardo Tommasini (LIRIS), Victor Charpenay (LIMOS)

Optimisation d’un moteur d’inférences embarqué
May 1 – May 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS, Université Claude Bernard Lyon 1, Campus de
Durée : 6 mois
Contact : lionel.medini@liris.cnrs.fr
Date limite de publication : 2022-05-01

Contexte :
Le Web des Objets (WoT) est le résultat de l’intégration dans le Web, d’objets communicants de l’Internet des Objets pouvant présenter des capacités limitées. Les applications du WoT concernent l’agriculture numérique, le bâtiment intelligent, les villes intelligentes, la santé, etc [Raw14]. Le Web sémantique forme un socle théorique privilégié pour les graphes de connaissances émergeant de l’échange, du stockage, du traitement et du raisonnement sur des données dans le WoT.

Nous focalisons à donner aux objets connectés une capacité de raisonnement sur les graphes de connaissances en embarquant les traitements au plus près de ces objets. Il s’agit pour cela de définir une architecture logicielle compatible à la fois avec la nature contrainte de ces objets et avec les standards du WoT – et notamment la notion de servient [WoT20] – et d’y intégrer un moteur d’inférence incrémental à base de règles. Une première version de moteur d’inférences a été développée en C et fonctionne notamment sur architecture Arduino Due. L’objectif de ce stage est de proposer une évolution de ce moteur en y intégrant des optimisations non prévues dans CoSWoT pour le parsing et l’échange de données compressées.

Sujet :
Dans ce stage, nous nous focalisons sur le moteur d’inférence intégré au servient. Nous partons du principe que les données échangées entre les différents modules logiciels sont déjà compressées en CBOR-LD ou bien en HDT.
L’objectif principal de ce stage est de modifier le moteur d’inférence du projet CoSWoT pour tirer parti de cette compression en ré-indexant plus efficacement les triplets et leurs termes. Autrement dit, il s’agit de substituer la bibliothèque de stockage de faits actuelle pour la remplacer par des structures de données plus légères, afin de réduire l’empreinte mémoire du moteur d’inférence et d’optimiser sa vitesse de traitement. Différentes solutions pourront être envisagées pour cela, qui devront être compatibles avec le fonctionnement de l’algorithme, les capacités du dispositif sur lequel il est déployé et l’arrivée des données sous forme de flux.

Dans un second temps, ces améliorations devront être évaluées en termes d’espace mémoire et de temps de traitement sur différents jeux de données, différents scénarios et différents appareils. L’objectif est de déterminer les limites de cette approche par rapport aux autres moteurs du marché, et également de caractériser les capacités de raisonnement des différents dispositifs utilisés.

En fonction du temps restant, l’automatisation du déploiement sur différents appareils pourra également être réalisée.

Le code réalisé sera déposé en open source.

Références :

[Ben21] Bento, A., Médini, L., Singh, K., & Laforest, F. (2021, June). Raisonnement embarqué et distribué pour le Web des Objets: un état de l’art. In Journées Francophones d’Ingénierie des Connaissances (IC) Plate-Forme Intelligence Artificielle (PFIA’21) (pp. pp-48).
[Bon19] Bonte, P., Tommasini, R., De Turck, F., Ongenae, F., & Valle, E. D. (2019, June). C-sprite: efficient hierarchical reasoning for rapid RDF stream processing. In Proceedings of the 13th ACM International Conference on Distributed and Event-based Systems (pp. 103-114).
[CBOR-LD] Sporny, M. & Longley, D.. CBOR-LD 1.0 – A CBOR-based Serialization for Linked Data. W3C Member Submission, 2021. URL : https://digitalbazaar.github.io/cbor-ld-spec/
[Cha18] Charpenay, Victor, Sebastian Käbisch, and Harald Kosch. “Towards a binary object notation for RDF.” European Semantic Web Conference. Springer, Cham, 2018.
[Fer10] Fernandez, J.D., Martinez-Prieto, M.A. & Gutierrez, C.. Compact Representation of Large RDF Data Sets for Publishing and Exchange. In: The Semantic Web ISWC 2010, vol. 6496, pp. 193–208. Springer Berlin Heidelberg, Berlin, Heidelberg, 2010.
[Med16] Médini, L. An Avatar-based Workflow for the Semantic Web of Things. In WWW 2016 W3C Track.
[Mot12] Motik, B., Horrocks, I., Kim, S.M. Delta-reasoner: a semantic web reasoner for an intelligent mobile platform. In WWW 2012 companion volume.
[Mri15] Mrissa, M., Médini, L., Jamont, J.-P., Le Sommer, N., Laplace, J. An Avatar Architecture for the Web of Things. Internet Computing 19(2). IEEE, 2015.
[Raw14] Rawat, P., Singh, K. D., Chaouchi, H., & Bonnin, J. M. (2014). Wireless sensor networks: a survey on recent developments and potential synergies. The Journal of supercomputing, 68(1), 1-48.
[Roj16] Rojas, R., Médini, L., Cordier, A. Toward Constrained Semantic WoT. In WoT 2016.
[Sub16] Subercaze, J., Gravier, C., Chevalier, J., Laforest, F. Inferray: fast in-memory RDF inference. PVLDB 9(6). VLDB Endowment, 2016.
[Ter16] Terdjimi, M., Médini, L., Mrissa, M. HyLAR+: Improving Hybrid Location-Agnostic Reasoning with Incremental Rule-based Update. In WWW 2016, companion volume.
[Tom21] Tommasini, R., Bonte, P., Ongenae, F., & Della Valle, E. (2021). RSP4J: An api for rdf stream processing. In European Semantic Web Conference (pp. 565-581). Springer, Cham.
[WoT20] Kovatsch & al. (2020), Web of Things (WoT) Architecture, W3C Recommendation, https://www.w3.org/TR/2020/REC-wot-architecture-20200409/

Profil du candidat :
5A ingénierie ou master 2

Formation et compétences requises :
Programmation en C (éventuellement embarquée)
Représentation et raisonnement sur des graphes de connaissances
Programmation Web en JavaScript (facultatif)

Adresse d’emploi :
Université Claude Bernard Lyon 1, Campus de la Doua, Villeurbanne.

Le stagiaire sera rattaché au Laboratoire d’InfoRmatique en Image et Systèmes d’information (LIRIS). Le LIRIS est une unité mixte de recherche (UMR 5205) du CNRS, de l’INSA de Lyon, de l’Université Claude Bernard Lyon 1, de l’Université Lumière Lyon 2 et de l’Ecole Centrale de Lyon. Il compte 330 membres. Les recherches du LIRIS concernent un large spectre de la science informatique au sein de ses douze équipes de recherche structurées en six pôles de compétences.

Encadrants :
Lionel Médini, Pierre-Antoine Champin, Frédérique Laforest

Modalités de candidature :

Les candidats doivent envoyer les documents suivants :
-un CV
-une lettre de motivation
-le dernier relevé de notes

Ces documents doivent être envoyés à lionel.medini à liris.cnrs.fr

May
31
Tue
2022
Prédiction des Concentrations de Polluants Atmosphériques en zone Aéroportuaire par Apprentissage Automatique
May 31 – Jun 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IBISC/LMEE, Université Paris-Saclay, Univ. Evry
Durée : 4 à 6 mois
Contact : Khalifa.Djemal@ibisc.univ-evry.fr
Date limite de publication : 2022-05-31

Contexte :
Dans le cadre des études d’impact et de maîtrise des risques environnementaux en zone aéroportuaire, des modèles numériques sont utilisés pour simuler, expliquer et prédire les transferts de polluants. Le choix d’une action de protection des populations est réalisé en tenant compte de l’importance des émissions potentielles de façon à minimiser les concentrations reçues par chaque individu sur la totalité de la zone.

Sujet :
Dans le cadre des études d’impact et de maîtrise des risques environnementaux en zone aéroportuaire, des modèles numériques sont utilisés pour simuler, expliquer et prédire les transferts de polluants. Le choix d’une action de protection des populations est réalisé en tenant compte de l’importance des émissions potentielles de façon à minimiser les concentrations reçues par chaque individu sur la totalité de la zone.
Les données atmosphériques (météorologiques, topographiques, etc.) sont devenues de plus en plus croissantes et gourmandes en temps de traitement (Big data), l’exploitation de ces données par des approches d’intelligence artificielle semble une évidence en particulier dans le cadre de l’estimation et la prédiction des transferts de polluants.
L’objectif du stage est de développer un modèle de prédiction des concentrations de polluants issues d’un réseau de capteurs fixes ou mobiles dans une zone aéroportuaire. Le modèle à développer se basera sur les techniques d’apprentissage automatique, en particulier l’apprentissage profond (deep learning). Le stagiaire aura pour principales tâches de :
– faire une étude bibliographique exhaustive sur les approches de prédiction,
– prendre en main et d’exploiter des données atmosphériques à partir de l’existant dont une grande partie est disponible aux laboratoires IBISC/LMEE,
– développer un modèle de prédiction adapté aux différents types de données.

Mots-clés (en français) : Intelligence artificielle, Apprentissage automatique, Optimisation, Prediction et Identification, Dispersion atmosphérique, Réseau de capteurs, Zone aéroportuaire

Keywords (in english):
Artificial intelligence, Machine learning, Optimization, Prediction and identification, Atmospheric dispersion, Sensors network, Airport area

Références bibliographiques :
[1] Abdelli A., Saouli R., Djemal K., Youkana I., Multiple instance learning for classifying histopathological images of the breast cancer using residual neural network, Inernational Journal of Imaging Systems and Technology, 2022.
[2] Boulemnadjel A., Hachouf F., Hebboul A., Djemal K., Active learning for improving a soft subspace clustering algorithm. Journal of Engineering Applications of Artificial Intelligence, 46, Part A, 196-208, 2015.
[3] Hacini M., Hachouf F., Djemal K., A new speckle filtering method for ultrasound images based on a weighted multiplicative total variation, Signal Processing, 103, 214-229, 2014.
[4] Horch A., Djemal K., Gafour A., Taleb N., Supervised fusion approach of local features extracted from SAR images for detecting deforestation changes. IET Image Processing, doi:10.1049/iet-ipr.2019.0122, 2019.
[5] Kouichi, H., Sensors networks optimization for the characterization of atmospheric releases source, Theses, Université Paris Saclay, France, https://hal.archives-ouvertes.fr/tel-01593834, 2017.
[6] Kouichi, H., Ngae, P., Kumar, P., Feiz, A.-A., Bekka, N., Optimization of an Urban Monitoring Network for Retrieving an Unknown Point Source Emission, Geosci. Model Dev. Discuss., doi.org/10.5194/gmd-2018-6, 2018.
[7] Kumar, P., Singh S. K., Feiz A. A., Ngae P., An urban scale inverse modelling for retrieving unknown elevated emissions with building-resolving simulations, Atmospheric environment 140, 135-146, 2016
[8] Larroque S., Sedgh gooya E., Gripon V., Pastor D., Using Tags to Improve Diversity of Sparse Associative Memories. Proceedings of Cognitive, 1-7, 2015.
[9] Ngae, P., Kouichi, H., Kumar, P., Feiz, A.-A., Chpoun, A., Optimization of an urban monitoring network for emergency response applications: An approach for characterizing the source of hazardous releases, Quarterly Journal of the Royal Meteorological Society, doi.org/10.1002/qj.3471, 2019.
[10] Sedgh Gooya E., Al Falou A., Kaddah W., Robust and discriminating face recognition system based on a neural network and correlation techniques, 2020 Tenth International Conference on Image Processing Theory, Tools and Applications (IPTA), Paris, 2020, pp. 1-5, doi: 10.1109/IPTA50016.2020.9286617.

Profil du candidat :
De niveau Master 2 ou équivalent, de préférence dans les spécialités suivantes :
– Intelligence artificielle
– Traitement de données
– Informatique
– Mathématiques appliquées (modélisation et calculs scientifiques)

Formation et compétences requises :
– Programmation Python, outils de traitement de données.
– Méthodes d’apprentissage automatique.
– Des connaissances de base en sciences de l’environnement atmosphérique seront également très appréciées.

Adresse d’emploi :
Laboratoires IBISC-LMEE
UFR-ST, Université d’Evry Val d’Essonne
40 rue du Pelvoux
91020 Evry.

Document attaché : 202204131204_Sujet_Stage_PSIA2.pdf

Jun
1
Wed
2022
Analysis of SAR images of the Sundarban region for deforestation detection
Jun 1 – Jun 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IBISC/LMEE, Université Paris-Saclay, Univ. Evry
Durée : 4 à 6 mois
Contact : Khalifa.Djemal@ibisc.univ-evry.fr
Date limite de publication : 2022-06-01

Contexte :
Sundarbans, UNESCO world heritage site, is a mangrove area in the delta formed by the confluence of the Ganga, Padma, Brahmaputra and Meghna Rivers in the Bay of Bengal. The site is intersected by a complex network of tidal waterways, mudflats and small islands of salt-tolerant mangrove forests.
This is also home to many endangered species like the Royal Bengal Tiger, Crocodile and numerous faunae. This is one of the most cyclone prone region of India where presence of this mangrove safeguards eastern part of India from the effect of cyclone. These forests also act as protection from soil erosion in the coastal region.
The sundari tree that populates the region is important for survival of various fauna of this region especially big mammals like royal Bengal tiger and spotted deer due to the characteristic of the tree. Other mangroves trees are relatively smaller in nature and grow in saline water, creating a bush type low height canopy near the canals, causing a hindrance to the movement of wild animals.
However, for the past couple of decades the mangroves of Sundarban are facing threats due to several natural and manmade causes. Due to global warming the number of cyclones and their intensity has increased in the Bay of Bengal. Cyclone Sidr (2007), Aila (2009), Amphan (2020) destroyed almost 40% of the forest.
Developing a strategy of active monitoring of the Sundarban forest, would allow to follow in real time the evolution of its state. Detecting the deforestation, would allow to identify the cause and to plan a remedy to finally protect the fauna but also the flora.

Sujet :
Internship proposal and main tasks to be carried out:

The candidate will carry out an appropriate survey of the state of the art on SAR image processing approaches in a deforestation context. The candidate will then investigate relevant classical features extraction methods and those based on machine learning techniques. The last step will focus on the development of a method that combines classical features from a SAR image with a deep learning architecture to characterize the state of the forest.

References:

[1] Abdelkader Horch, Khalifa Djemal, Abdelkader Gafour and Nasreddine Taleb, Supervised fusion approach of local features extracted from SAR images for detecting deforestation changes. IET Image Processing, 13 pages, DOI: 10.1049/iet-ipr.2019.0122, september 2019.

[2] Sahana, M., Rehman, S., Patel, P.P. et al. Assessing the degree of soil salinity in the Indian Sundarban Biosphere Reserve using measured soil electrical conductivity and remote sensing data–derived salinity indices. Arab J Geosci 13, 1289 (2020). https://doi.org/10.1007/s12517-020-06310-w

[3] Samanta, S.; Hazra, S.; Mondal, P.P.; Chanda, A.; Giri, S.; French, J.R.; Nicholls, R.J. Assessment and Attribution of Mangrove Forest Changes in the Indian Sundarbans from 2000 to 2020. Remote Sens. 2021, 13, 4957. https://doi.org/10.3390/rs13244957

Profil du candidat :
Required skills: To carry out this research work, the candidate need to have the following skills:
– Artificial intelligence, machine learning
– Data and image processing
– Computer science
– Applied mathematics (modeling and scientific calculations)

Internship supervision:
Khalifa DJEMAL and Amir FEIZ: University of Paris Saclay, France
Soham SARKAR: RCC Institute of Information Technology, Kolkata, India
Sheli Sinha CHAUDHURI: University of Jadavpur, Kolkata, India

Internship contacts:
Khalifa DJEMAL: khalifa.djemal@univ-evry.fr
Amir FEIZ: amirali.feiz@univ-evry.fr

Formation et compétences requises :
Python programming, data and image processing tools.
Machine learning methods. Basic knowledge in environmental sciences will also be highly appreciated.

Please send us your CV and Motivation letter.

Adresse d’emploi :
Université Paris-Saclay, Univ. Evry
IBISC, 40 rue du Pelvoux
91020 Evry.

Document attaché : 202205031006_Proposal-Inernship-deforestation.pdf

Navigation dans des règles d’implication extraites de connaissances agroécologiques en santé animale
Jun 1 – Jun 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRMM, CNRS et Univ Montpellier
Durée : 6 mois
Contact : marianne.huchard@lirmm.fr
Date limite de publication : 2022-06-01

Contexte :
Le stage est financé par l’institut de convergence #Digitag (https://www.hdigitag.fr/fr/) et pourra être complété par un mois de CDD.

Sujet :
Pour un producteur agricole, implémenter les pratiques agroécologiques au sein de son exploitation lui impose de disposer d’un système d’aide à la décision (SAD) pour les identifier, ce SAD comportant une base de connaissances suffisamment étoffée et un système de navigation adapté à ses besoins. La base de connaissances Knomana, par exemple, rassemble plus de 46000 descriptions d’usage de plantes à effet pesticide et antibiotique en santé végétale, animale et humaine (Silvie et al. 2021). La plateforme de visualisation RCAviz (https://info-demo.lirmm.fr/rcaviz/) permet de naviguer dans ce type de base de connaissances. Basé sur l’Analyse de Concepts Relationnels (RCA), une méthode de classification de données relationnelles, RCAviz permet de naviguer dans des structures conceptuelles de type graphe et d’identifier facilement, par exemple, une plante locale susceptible de protéger une culture contre un bioagresseur invasif, ou des plantes en partie équivalentes pour un problème sanitaire donné.
Outre les structures conceptuelles, RCA propose de représenter les connaissances sous forme de règles d’implication, un formalisme qui, proche du langage naturel, est bien adapté aux utilisateurs du monde rural (e.g. « F_Meliaceae => no-food » : les plantes de la famillle Meliaceae ne sont pas consommées). Pour autant, identifier la règle la mieux appropriée dans un grand ensemble de règles est difficile.

L’objectif du stage est de développer un prototype logiciel de visualisation de connaissances, exprimées sous forme de règles d’implications produites par la librairie FCA4J (http://www.lirmm.fr/fca4j). Cette application présentera les règles en regard de mesures d’intérêt ou d’après une formulation symbolique donnée par l’utilisateur, e.g. les règles relatives à un certain ensemble de conditions, pour les exploiter facilement.

Profil du candidat :
Etudiant de Master 2 (informatique ou bioinformatique) avec un intérêt pour l’ingénierie des connaissances, l’analyse visuelle (visual analytics), et à trouver des solutions alternatives aux pesticides et antibiotiques de synthèse pour l’agriculture biologique.

Formation et compétences requises :
Compétences solides en programmation d’application web (notamment javascript) et connaissances en ingénierie des connaissances.

Adresse d’emploi :
LIRMM, Univ. Montpellier, CNRS
161 rue Ada
35095 Montpellier Cedex 5
France

Document attaché : 202112111817_SujetDigitag2022_diffusion.pdf

Jun
15
Wed
2022
Analyze and integrate multi-modal data (sequencing, imaging, spatial profiling, treatment response and clinical data) for translational outcomes to cancer patients
Jun 15 – Jun 16 all-day

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : Bioinformatics Institute, A*STAR
Durée : 6 months
Contact : woo_xing_yi@bii.a-star.edu.sg
Date limite de publication : 2022-06-15

Contexte :
This offer is proposed by Xing Yi Woo, Head of Research Data Integration and Senior Principal Investigator at Bioinformatics Institute, A*STAR.
We work closely with clinicians to explore personalized treatment options for cancer patients using multi-omic and spatial profiling, and therapeutic screening in patient-derived models. Data of multiple modalities are generated in the process, and we are developing systematic workflows to integrate and analyze the data to enable clinical-decision-making and drive translation research. This project is looking for candidates to develop computational methods, including big-data analytics and AI/ML approaches, to analyze and integrate the multi-modal data (sequencing, imaging, spatial profiling, treatment response and clinical data) that can deliver translational outcomes to cancer patients. The candidate will have the opportunity to work in a multi-disciplinary team led by a senior Principal Investigator highly experienced in cancer computational biology and clinician-scientists specializing in oncology. Eventually, the candidate will receive training in both computational biology and translation oncology disciplines.

Sujet :
The intern is expected to work on any of these tasks, depending on field of study and interests.
1. Develop, implement and benchmark executable workflows for variant (SNP, Indels, SV, CNV) calling from WES/WGS data, transcriptome profiling from RNASeq data and image processing of histology images.
2. Write scripts to output data in a format that can be integrated with publicly available cancer datasets
3. Organize and analyze publicly available cancer datasets
4. Develop visualization tools to visualize results in a meaningful way
5. Organize all data in a structured manner using relational databases
6. Curation of cancer treatment and biomarkers, and patient clinical data.

Profil du candidat :
• The candidate should have basic programming skills (e.g. Python, R, RStudio, Jupyter Notebook, RShiny, SQL), except for curation tasks.
• Familiarity with Unix/Linux environment or cloud architecture would be an advantage
• Strong analytical and problem-solving skills.
• Excellent oral and written communication and presentation skills.
• Able to work independently, and as part of a team

Formation et compétences requises :
Computer science, any field of Science and Engineering, Pharmacy, Medicine, Public Health

Adresse d’emploi :
BII, A*STAR, Singapore

Jun
30
Thu
2022
IOT-ML : Secure Machine Learning on IOT Traces for Daily Activity Discovery
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Equipe PETRUS INRIA / UVSQ
Durée : 6 mois
Contact : luc.bouganim@inria.fr
Date limite de publication : 2022-06-30

Contexte :
The PETRUS team (Inria/UVSQ), in association with the Hippocad company and the Yvelines Departmental Council, is currently deploying secure home boxes for 10,000 patients in the Yvelines region. These boxes, based on the team’s research results (DBMS embedded in secure hardware), include a personal medical-social database to improve care coordination for dependent people at home. Medical and social workers interact with these secure boxes via a smartphone application. Our objective is to enhance these boxes with the ability to communicate with IOT sensors measuring e.g., luminosity, movement, temperature, to improve patient monitoring. The raw data from the sensors are analyzed by Machine Learning (ML) techniques to identify the patient activities and thus, detect the evolution of patients towards risk situations like depression or illness. Because of their precision, these raw data are however very intrusive. The originality of our approach is to allow a local processing of these data in each box which includes hardware security elements, in order to externalize only the relevant information: alerts, aggregated values on patient dashboards.

Sujet :
ML algorithms build a model based on a training dataset in order to make predictions, in our case, to discover the activity of an individual based on her IOT traces. Beside the classical issues of data representations (from IOT traces to a dataset that can feed an ML algorithm), our approach faces two challenges:
First, we have no possibility to obtain a training dataset for each targeted home-box user. Indeed, we cannot ask elderly people to label their activities during some weeks in order to build the corresponding training datasets: It would be too complex, costly and error prone without a personal assistant. We can however use existing datasets labelled for daily activity discovery (e.g., [1]) and use semi-supervised ML approaches [3] to dynamically adapt the produced model to the targeted home-box user. Indeed semi-supervised approaches use un-labelled data to refine an existing model obtained on labelled data. Other strategies could be defined based on a minimal feedback from the user or on some questionnaires describing the typical activities of the user.
Second, the ML algorithms must be computed inside the home-box, and more precisely in the secure part of the home-box which is composed by a microcontroller with limited RAM resource and a trusted platform module (TPM). Thus the algorithms must be efficient despite limited RAM resources. This may imply to define specific data structures adapted to this environment.

Profil du candidat :
The applicant could be willing to do a Master2 internship or a part-time trainee (Master2 level), or having completed a Master2 and willing to do a PhD

Formation et compétences requises :
• ML algorithm knowledge
• Python (knowledge in C or Rust will be appreciated)

Adresse d’emploi :
UVSQ – Versailles – 45 avenue des états unis.

Document attaché : 202202141426_Master-internship-2022-IOT-ML.pdf

Jul
31
Sun
2022
Migration et intégration de données hétérogènes et multi-sources
Jul 31 – Aug 1 all-day

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : CERI Systèmes Numériques – IMT Nord Europe
Durée : 5 mois
Contact : jerry.lonlac@imt-nord-europe.fr
Date limite de publication : 2022-07-31

Contexte :
L’objectif de travail du stage est de concevoir et de mettre en place un outil permettant la migration et l’intégration d’un ensemble de données issues de diverses sources et représentées sous différents modèles (données relationnelles, données liées, données XML, etc.) dans une base de données communes. Pour effectuer cette tâche, des règles de migration devront être établies pour s’adapter à la structure de la base de données qui contient préalablement quelques données. Afin de limiter la duplication des données dans la base de données après l’intégration, un travail préliminaire d’alignement de données devra être réalisé. Pour garantir une migration efficace des données, l’intégration des données importées devrait satisfaire quelques contraintes parmi lesquelles : le maintien de la cohérence de la base données ; le maching/l’appariement entre les champs de données provenant de différentes sources et ceux de la base de données, phase préalable essentielle à la migration.

Sujet :
L’objectif de travail du stage est de concevoir et de mettre en place un outil permettant la migration et l’intégration d’un ensemble de données issues de diverses sources et représentées sous différents modèles (données relationnelles, données liées, données XML, etc.) dans une base de données communes. Pour effectuer cette tâche, des règles de migration devront être établies pour s’adapter à la structure de la base de données qui contient préalablement quelques données. Afin de limiter la duplication des données dans la base de données après l’intégration, un travail préliminaire d’alignement de données devra être réalisé. Pour garantir une migration efficace des données, l’intégration des données importées devrait satisfaire quelques contraintes parmi lesquelles : le maintien de la cohérence de la base données ; le maching/l’appariement entre les champs de données provenant de différentes sources et ceux de la base de données, phase préalable essentielle à la migration.

Profil du candidat :
– M2 ou dernière année d’école d’ingénieurs sur un cursus informatique
– Connaissances en Intelligence Artificielle (Data mining, Machine Learning)

Formation et compétences requises :
– Connaissances en intégration/analyse de données massives, ETL
– Connaissances en développement d’applications web
– Bon niveau en programmation (SQL, XML, C++, python)
– Bon niveau en communication (écrit/oral) en français et/ou en anglais.

Adresse d’emploi :
IMT Nord Europe
941, rue Charles Bourseul
CS 10838
59508 DOUAI Cedex – France

Document attaché : 202205200849_Proposal_for_internship_IMT_Nord_Europe-Data_integration.pdf

Vers des données ouvertes de microscopie fonctionnelle en neurosciences
Jul 31 – Aug 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de Neurosciences de la Timone, INT, Marse
Durée : 4-6 mois
Contact : sylvain.takerkart@univ-amu.fr
Date limite de publication : 2022-07-31

Contexte :
L’Institut de Neurosciences de la Timone (INT, http://www.int.univ-amu.fr ) est une unité mixte de recherche qui a pour objectif de développer des recherches interdisciplinaires en neuroscience. Situé sur le Campus de la Faculté de Médecine d’Aix Marseille Université, il est doté de plateformes technologiques de haut niveau au service d’équipes de recherche en neurosciences théoriques et expérimentales.

Sujet :
Dans le cadre du plan national pour la science ouverte (https://www.ouvrirlascience.fr/plan-national-pour-la-science-ouverte/), la mise en place de procédures d’ouverture des données scientifiques récoltées en neurosciences reste un challenge. En effet, ces données sont complexes et la mise en place de standards basés sur des formats de données ouverts sont des initiatives récentes. En particulier, les microscopes de dernières génération qui permettent d’enregistrer l’activité cérébrale en temps réel fournissent des gros volumes de données qu’il est important de gérer de manière efficace afin d’obtenir des données FAIR (Faciles à trouver, Accessibles, Intéropérables, Réutilisables : https://www.go-fair.org/fair-principles/). L’objectif de ce stage est de développer des composants logiciels open source qui permettront la production de données FAIR-by-design en partant des données brutes acquises sur les microscopes récemment acquis dans le laboratoire.

Profil du candidat :
Nous recherchons un.e candidat.e qui soit:
– curieux.se pour les applications en imagerie biomédicale;
– volontaire et sachant avancer de manière autonome;
– bon.ne communiquant.e et sachant partager ses progrès et les obstacles rencontrés;
– motivé.e pour coder dans un environnement “open source”.

Le stage peut se dérouler sur toute l’année 2022, suivant le calendrier des stages du cursus suivi par le.la candidat.e.

Formation et compétences requises :
Formation: bac + 4 ou bac + 5, cursus « Sciences des données » ou « Développement logiciel »

Compétences requises:
– bonne connaissance de l’écosystème des sciences des données
– maitrise des concepts avancés en développement logiciel (test unitaires, gestion de version avec des outils de type GIT, intégration continue, etc.)
– maitrise du langage python
– connaissances en mathématiques appliquées et en algorithmie
– intérêt pour la biologie et/ou les neurosciences et/ou l’imagerie médicale

Adresse d’emploi :
Institut de Neurosciences de la Timone, INT
27 boulevard Jean Moulin
13005 Marseille

Sep
15
Thu
2022
Stage de M2 : Algorithmes asynchrones pour l’inférence bayésienne
Sep 15 – Sep 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CRIStAL UMR 9189, Lille
Durée : 6 mois
Contact : pierre.chainais@centralelille.fr
Date limite de publication : 2022-09-15

Contexte :
Centre de Recherche en Informatique, Signal et Automatique de Lille (UMR 9189 CRIStAL), Villeneuve d’Ascq, France.

Dates: Starting date between March and April 2022, 4 to 6 months internship.

Pierre-Antoine THOUVENIN (pierre-antoine.thouvenin@centralelille.fr), € https://pthouvenin.github.io/
Pierre CHAINAIS (pierre.chainais@centralelille.fr),
€ pierre.chainais@centralelille.fr

The intern will be jointly supervised by Pierre Chainais, professor at Centrale Lille, and Pierre-Antoine Thouvenin, assitant professor at Centrale Lille. The internship will take place in the Centre de Recherche en Informatique, Signal et Automatique de Lille (CRIStAL, UMR 9189), France, within the SigMA team.
This project is part of the ANR Chaire IA SHERLOCK (Fast inference with controlled uncertainty: application to astrophysical observations) led by Pierre Chainais (co-funded by Agence Nationale de la Recherche (ANR), ISITE, Centrale Lille Institut and Région Haut-de-France). Participation to a national or international workshop is considered.
Period and continuation in PhD
This 4 to 6-months internship will start between March and April 2022. The precise start and end dates will be adjusted depending on the availability of the candidate. The intern will be granted the usual stipend of ∼ 600 euros/month (3,90 euros/hour).
This M.Sc. project may be continued as a PhD thesis, for which a grant is already secured for the period 2022-2025 thanks to the ANR Chaire IA SHERLOCK.

Keywords. Bayesian inference, continuous optimization, distributed asynchronous algorithms, MCMC methods.

Sujet :
Bayesian inference is a usual approach to estimate parameters from a dataset, a typical setting underlying the resolution of inverse problems. An inverse problem consists in estimating a collection of parameters involved in a physical model from degraded and noisy observations, e.g., reconstucting an image from noisy incomplete observations of the sky in radio- astronomy. In many signal and image processing applications, especially in astronomy (Abdulaziz et al. 2019; Cai et al. 2018) and remote sensing (Ghamisi et al. 2019), no ground truth is available. Fast parameter inference under controlled uncertainty is thus critical to guarantee the quality of the resulting predictions. Indeed, different values of a parameter can be associated to different physical processes, for instance in remote sensing source separation in presence of outliers.
Inference cost can be large, and increases significantly with both the number of observations (large dataset) and param- eters to be inferred (high dimensional problem). Typical signal and image processing applications lead to the resolution of high-dimensional inverse problems, relying on large datasets. Asynchronous (parallel or distributed) optimization al- gorithms have recently regained interest due to their potential of acceleration to form an estimator, in comparison with their synchronous counterparts (Hannah et al. 2017).
The project is aimed at investigating the potential of asynchrony to accelerate distributed optimization algorithms amenable to a Single Program Multiple Data (SPMD) implementation. We will study several aspects, such as the algo- rithm convergence, the resulting estimation quality and inference time. Applications to the resolution of inverse problems in remote sensing or astronomy will be considered.
Depending on the evolution of the project, the study will be extended to a few selected Markov-chain Monte Carlo (MCMC) methods (Durmus et al. 2018; Simsekli et al. 2018; Terenin et al. 2020) to provide estimators with quantified uncertainty, beyond the point estimate provided by optimization algorithms.
This M.Sc. project may be continued as a PhD thesis, for which a grant is already secured for the period 2022-2025 thanks to the ANR Chaire IA SHERLOCK.

Profil du candidat :
Master 2 or last year engineering school students with major in applied mathematics, computer science or electrical engineering. The project requires a strong background in data science and/or machine learning (statistics, optimization), signal & image processing. Very good Python coding skills are expected.

Application procedure
Applicants are invited to send the following documents in .pdf format to both co-advisors:
• a detailed curriculum;
• official transcripts from the institutions you have attended over the last 2 years (in French or in English);
• references: letters of recommendation or names of two researchers/professors willing to recommend your applica- tion.
For further information, please contact both co-advisors of the project:
• Pierre-Antoine Thouvenin, pierre-antoine.thouvenin@centralelille.fr • Pierre Chainais, pierre.chainais@centralelille.fr.

Formation et compétences requises :
A B2 English level is mandatory.
Knowledge in C++ programming, as well as experience or interest in parallel/distributed code development (MPI, OpenMP, CUDA, …) will be appreciated.

Adresse d’emploi :
CRIStAL, Cité Scientifique, 59651 Villeneuve d’Ascq Cedex

Document attaché : 202201242012_msc_proposal_2022_CRIStAL.pdf

Nov
24
Thu
2022
Stage M2 : Driver scene monitoring / analyse de l’environnement de conducteur
Nov 24 – Nov 25 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ImViA
Durée : 6 months
Contact : yannick.benezeth@u-bourgogne.fr
Date limite de publication : 2022-11-24

Contexte :
Titre : Driver scene monitoring / analyse de l’environnement de conducteur
Laboratoire ImViA (Univ. Bourgogne)
Location: Dijon France
Supervisor:
Yannick Benezeth – yannick.benezeth@u-bourgogne.fr – https://sites.google.com/view/ybenezeth
Cédric Demonceaux (cedric.demonceaux@u-bourgogne.fr) https://sites.google.com/view/cedricdemonceaux/home
Houda Rafi (houda.rafi@renault.com)
Keywords: Image and signal analysis, deep learning, scene understanding
If you are interested, send CV and motivation letter to yannick.benezeth@u-bourgogne.fr, cedric.demonceaux@u-bourgogne.fr and houda.rafi@renault.com.

Sujet :
(english below)
Le domaine des systèmes d’aide à la conduite s’intéresse de plus en plus à la manière dont l’environnement de conduite affecte l’état émotionnel du conducteur. Alors que certaines études de cas spécifiques montrent une corrélation entre le stress des conducteurs et l’environnement de la voiture, comme les types de routes (ville, autoroute et parking) [1, 2, 3] et les conditions de circulation [4], d’autres recherches ont exploré plus en profondeur la possibilité d’estimer directement le stress ressenti des conducteurs à partir des informations trouvées dans la scène entourant la voiture [5]. L’identification et l’analyse des objets de la scène visuelle et de leur emplacement sont essentielles pour comprendre comment la scène routière affecte le stress du conducteur. Pour atteindre cet objectif, diverses architectures de segmentation sémantique doivent être exploitées afin de surmonter les multiples problèmes qui peuvent survenir lors de l’identification d’objets dans différentes scènes enregistrées dans différents environnements. Les architectures de segmentation sémantique les plus récentes sont SFNet-R18 [6] , PSPNet-101 [7], HRNetV2 + OCR + [8] etc…
L’objectif de ce projet est de rechercher différentes architectures de segmentation sémantique, d’évaluer leur efficacité et d’utiliser les résultats de la segmentation pour déduire et estimer le stress perçu par le conducteur.
Le projet s’inscrit dans le cadre d’une collaboration avec la société Renault. Les travaux seront menés au sein du laboratoire ImViA sur le campus de Dijon.

*******************
The field of driver-assistance systems is increasingly interested in determining how the driving environment affects the driver’s emotional state. While some specific case studies show a correlation between the drivers’ stress and the car environment like the types of roads (e.g. city, highway, and parking) [1, 2, 3] and traffic circumstances [4], other research explored more in-depth the possibility of estimating directly the drivers’ subjective stress from the information found in the scene surrounding the car [5]. Identification and analysis of the objects in the visual scene and their locations are crucial to understanding how the road scene affects the driver’s stress. For this goal, various architectures of semantic segmentation should be exploited to upsample multiple issues that can occur while identifying objects in different scenes recorded in different environments. Some up-to-date semantic segmentation architectures are SFNet-R18 [6] , PSPNet-101 [7], HRNetV2 + OCR + [8] etc… This project’s objective is to research various semantic segmentation architectures, assess their effectiveness, and use the segmentation result to infer and estimate the perceived stress of the driver.
The project is part of a collaboration with the Renault company. The work will be carried out within the ImViA lab on the Dijon campus.

********************
[1] O. V. Bitkina et al. “Identifying traffic context using driving stress: A longitudinal preliminary case study,” Sensors, 2019.
[2] J. A. Healey and R. W. Picard, “Detecting stress during real-world driving tasks using physiological sensors,” IEEE Trans. on Intelligent Transportation Systems, vol. 6, no. 2, pp. 156–166, 2005.
[3] N. Elhaouij, J.-M. Poggi, S. Sevestre-Ghalila, R. Ghozi, and M. Ja¨ıdane, “AffectiveROAD system and database to assess driver’s attention,” in Proc. of the 33rd Annual ACM Symposium on Applied Computing, 2018, pp. 800–803.
[4] W.-Y. Chung, T.-W. Chong, and B.-G. Lee, “Methods to detect and reduce driver stress: a review,” Int. Journal of Automotive Technology, vol. 20, no. 5, pp. 1051–1063, 2019
[5] Bustos, Cristina, et al. “Predicting driver self-reported stress by analyzing the road scene.” 2021 9th International Conference on Affective Computing and Intelligent Interaction (ACII). IEEE, 2021.
[6] LI, Xiangtai, YOU, Ansheng, ZHU, Zhen, et al. Semantic flow for fast and accurate scene parsing. In : European Conference on Computer Vision. Springer, Cham, 2020. p. 775-793.
[7] ZHAO, Hengshuang, SHI, Jianping, QI, Xiaojuan, et al. Pyramid scene parsing network. In : Proceedings of the IEEE conference on computer vision and pattern recognition. 2017. p. 2881-2890.
[8] YUAN, Yuhui, CHEN, Xiaokang, CHEN, Xilin, et al. Segmentation transformer: Object-contextual representations for semantic segmentation. arXiv preprint arXiv:1909.11065, 2019.

Profil du candidat :
The recruited student should have strong computer science background, applied mathematics or programming.

Formation et compétences requises :
computer science

Adresse d’emploi :
Dijon

Nov
30
Wed
2022
Managing the variability of complex software families using Polyadic Concept Analysis
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DISP, Université Lyon 2
Durée : 6 mois
Contact : giacomo.kahn@univ-lyon2.fr
Date limite de publication : 2022-11-30

Contexte :
Des études menées au sein de plusieurs industries montrent que les éditeurs de logiciels ont tendance à produire des variantes de systèmes logiciels en réutilisant de manière ad-hoc des clones de projets précédents, aboutissant ainsi à des familles de logiciels similaires où chaque produit est géré et maintenu séparément. L’ingénierie des lignes de produits logiciels regroupe un ensemble de méthodes basées sur la réutilisation systématique d’artefacts logiciels afin de développer, maintenir et faire évoluer en parallèle un ensemble de variantes d’une même famille de logiciels. Cela permet de réduire le temps et le coût de développement et de maintenance de la famille de logiciels tout en augmentant sa qualité. La migration depuis une famille de produits logiciels vers une ligne de produits est donc une problématique essentielle partagée par de nombreux éditeurs de logiciels. La modélisation et la gestion de la variabilité, i.e., quels artefacts varient entre les variantes logicielles et comment, est un point central de ces méthodes.

Sujet :
L’ingénierie des lignes de produits multiples est un domaine émergeant qui se consacre à la représentation et la gestion de la variabilité dans des familles de logiciels qui sont considérés comme complexes du fait de leur hétérogénéité, de leur taille ou encore de leur architecture. Cette complexité donne lieu à des données pouvant inclure de multiples dimensions (e.g., caractéristiques logicielles, contexte et environnement, équipe de développement, dépendances avec d’autres systèmes) ce qui présente un réel défi lorsque l’on cherche à les analyser avec les techniques actuelles. La migration depuis une famille de logiciels complexes vers une ligne de produits multiples nécessite donc de reconsidérer et d’adapter les techniques traditionnelles de rétro-ingénierie de la variabilité afin de manipuler des données plus complexes.

L’objectif de ce stage est d’utiliser une extension de l’analyse formelle de concepts, l’analyse polyadique (PCA), qui permet d’extraire des motifs et des informations de données multi-dimensionnelles, afin d’extraire la variabilité d’un ensemble de familles de logiciels complexes.

Profil du candidat :
Master 2 informatique, avec des penchants pour le génie logiciel et les approches de représentation et d’extraction de connaissance.

Formation et compétences requises :
Ingénierie logicielle, représentation des connaissances

Adresse d’emploi :
Laboratoire Disp, pôle RTI, Université Lyon 2

Document attaché : 202210280931_23PropPCADISP_Fiche-appel-à-candidature.pdf