CIFRE – Apprentissage faiblement supervisé à grande échelle pour le diagnostic différentiel basé sur la parole

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ECHO & Inria Nancy
Durée : 36 mois
Contact : emmanuel.vincent@inria.fr
Date limite de publication : 2024-12-04

Contexte :

Sujet :
Détails et formulaire de candidature: https://jobs.inria.fr/public/classic/fr/offres/2024-08317

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Paris & Nancy

Synthèse de la parole multilingue appliquée aux langues régionales

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Inria Nancy & LiLPa
Durée : 36 mois
Contact : emmanuel.vincent@inria.fr
Date limite de publication : 2024-12-04

Contexte :

Sujet :
Détails et formulaire de candidature: https://jobs.inria.fr/public/classic/fr/offres/2024-08319

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Nancy

Identification de la sévérité cognitive d’un patient atteint de la maladie d’Alzheimer par apprentissage automatique de données

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire IBISC, Université d’Evry Paris-Saclay
Durée : 6 mois
Contact : Khalifa.Djemal@ibisc.univ-evry.fr
Date limite de publication : 2025-02-28

Contexte :

Sujet :
La détection de signes des pathologies d’Alzheimer qui est une maladie neurodégénérative est une tâche très importante dans un système d’aide au diagnostic médical. En effet, les techniques d’apprentissage automatique offrent aujourd’hui des perspectives pour détecter et identifier des troubles liés à la maladie, évaluer son avancement et à terme pouvoir rééduquer le patient. Dans un premier temps, le candidat fera une étude de l’état de l’art sur les troubles cognitives de la maladie et sur les techniques récentes employées pour reconnaitre la sévérité des patients. Il procèdera ensuite à la mise en place d’un modèle d’apprentissage à partir de bases de données qui permettra l’analyse de ces troubles cognitives conduisant ainsi à la classification et l’identification de la sévérité de la maladie.

[1] Hyun-Soo Choi, Jin Yeong Choe, HanjooKim, Ji Won Han, Yeon Kyung Chi, KayoungKim, Jongwoo Hong, Taehyun Kim, Tae Hui Kim, Sungroh Yoon and Ki Woong Kim. Deep learning based low-cost high-accuracy diagnostic framework for dementia using comprehensive neuropsychological assessment profiles, BMC Geriatrics, 18:234 (2018).

[2] Valeria Manera, Pierre-David Petit, Alexandre Derreumaux, Ivan Orvieto, Matteo Romagnoli, Graham Lyttle, Renaud David, and Philippe H. Robert, ’Kitchen and cooking’, a serious game for mild cognitive impairment and Alzheimer’s disease: a pilot study, Frontiers in Aging Neuroscience, 7: 24, 2015.

[3] Boaz Levy1, Samuel Gable, Elena Tsoy, Nurit Haspel, Brianna Wadler, Rand Wilcox, Courtney Hess, Jacqueline Hogan, Daniel Driscoll and Ardeshir Hashmi. Machine Learning Detection of Cognitive Impairment in Primary Care, Alzheimers Dis Dement, 1(2):38-46, 2017.

[4] Werner P, Rabinowitz S., Klinger E., Korczyn A. D., Josman N., Use of the virtual action planning supermarket for the diagnosis of mild cognitive impairment: a preliminary study, Dement Geriatr Cogn Disord, 27(4):301-9, 2009.

[5] Déborah A. Foloppe, Paul Richard, Takehiko Yamaguchi, Frédérique Etcharry-Bouyx & Philippe Allain, The potential of virtual reality-based training to enhance the functional autonomy of Alzheimer’s disease patients in cooking activities: A single case study, Neuropsychological Rehabilitation, October 2015.

[6] Khalifa Djemal and Hichem Maaref, Intelligent Information Description and Recognition in Biomedical Image Databases, In:Computational Modeling and Simulation of Intellect: Current State and Future Perspectives, Book Edited by Boris Igelnik, pages: 52-80, Publisher IGI Global, ISBN: 978-1-60960-551-3, February 2011.

[7] Florian Maronnat, Margaux Seguin, Khalifa Djemal, Cognitive tasks modelization and description in VR environment for Alzheimer’s disease state identification, in International conference on Image Processing Theory, Tools and Applications (IPTA 2020), November 09-12, 2020, Paris, France.

Profil du candidat :
Master 2 ou équivalent, de préférence des spécialités suivantes :
– Apprentissage automatique (Machine Learning),
– Imagerie Biomédicale
– Informatique Biomédicale,
– Informatique, Réalité Virtuelle et Systèmes Intelligents

Formation et compétences requises :

– Programmation Python, Matlab,
– Machine Learning
– Des connaissances de base en traitement d’images

Adresse d’emploi :
Laboratoire Informatique, Biologie Intégrative et Systèmes Complexes – IBISC 40 rue du Pelvoux, 91020 Evry, France

Document attaché : 202411151746_Sujet-stage-Master2-Djemal-2024-2025.pdf

Inférence de Réseaux à Partir des Données Hétérogènes

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CIRAD – UMR TETIS
Durée : 6 mois
Contact : roberto.interdonato@cirad.fr
Date limite de publication : 2025-02-28

Contexte :

Sujet :
Bonjour à tous,

Nous avons le plaisir de vous annoncer une offre de stage de 6 mois au laboratoire TETIS à Montpellier, axée sur le problème d’inférence de réseaux à partir des données hétérogènes epidémiologiques en utilisant des méthodes de Graph Neural Networks.

La date de début est prévue pour février 2025 (flexible). Vous trouverez la description détaillée de l’offre en français et en anglais ici :

https://nubes.teledetection.fr/s/mTiDsdxCPHbNid3

Pour toute question, n’hésitez pas à contacter Nejat Arınık (nejat.arinik@univ-artois.fr) ou moi-même (roberto.interdonato@cirad.fr).

Pour candidater, merci d’envoyer un mail à nejat.arinik@univ-artois.fr et roberto.interdonato@cirad.fr avec sujet “CANDIDATURE STAGE MOOD 2025” en ajoutant les éléments suivants:
– lettre de motivation expliquant vos qualifications, expériences et motivation pour ce sujet (1-2 pages)
— curriculum vitae (1-2 pages)
— relevé de notes de 1ère année de master et les notes de 2ème année de master disponibles ou équivalent pour les écoles
d’ingénieurs
— un lien vers des dépôts de projets personnels (par exemple GitHub ou GitLab)
— toute autre information que vous estimerez utile

N’hésitez pas à transmettre ces offres à des étudiants qui pourraient être intéressés.

Cordialement,

Roberto et Nejat
Roberto and Nejat

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
500 rue Jean Francois Breton, Montpellier

Document attaché : 202411151304_Stage – Inférence de Réseaux à Partir des Données Hétérogènes.pdf

Stage M2 (poursuite en thèse possible) – Machine Learning / Optimisation / Santé – Equipe ORKAD – Lille

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Equipe ORKAD / Laboratoire CRIStAL Lille
Durée : 6 mois
Contact : julie.jacques@univ-lille.fr
Date limite de publication : 2025-02-28

Contexte :
ORKAD est une équipe de recherche du groupe thématique OPTIMA du laboratoire CRIStAL (Centre de Recherche en Informatique, Signal et Automatique de Lille) (UMR CNRS 9189) de l’Université de Lille. L’objectif principal de l’équipe ORKAD est d’exploiter simultanément l’optimisation combinatoire et l’extraction de connaissances pour résoudre des problèmes d’optimisation. Les métaheuristiques ont souvent été utilisées avec succès pour résoudre différentes tâches de machine learning [DhaenensJourdan2022]. En particulier, l’algorithme MOCA-I [Jacques2013-a], permet de classifier des données hétérogènes et mal réparties par méthode d’optimisation, sur des données médicales [Jacques2020]. L’équipe ORKAD a des partenariats avec le CHU de Lille ; notamment dans le cadre du projet européen PATHACOV pour la détection du cancer du poumon à partir de la concentration en composés organiques volatils dans l’air expiré [Hulo2023]. Dans ce stage, nous nous intéressons à l’extension de ces travaux aux données du projet ALCOVE, suite du projet PATHACOV, où l’objectif est de distinguer différentes classes de sujets: sain / malade (avec le stade : I, II, III, IV) ; opérable / non opérable.

Sujet :
Dans le problème de classification multi-label, un enregistrement du jeu de données peut être associé à plusieurs labels : par exemple « cancer du poumon » et « opérable ». Des approches à base de métaheuristiques ont été proposées par le passé pour gérer ce problème, comme par exemple les colonies de fourmis [Otero2010]. La classification multi-label est souvent associée à une répartition déséquilibrée des différents labels à prédire [Tarekegn2021] et une des spécificités de l’algorithme MOCA-I est justement sa capacité à gérer ce déséquilibre [Jacques2013-a]. Dans MOCA-I, la modélisation est adaptée pour la classification binaire partielle (représentation de la solution, opérateurs d’initialisation et de voisinage,…). L’objectif de ce stage est de proposer une nouvelle représentation et opérateurs adaptés au problème de classification multi-label. Des méthodes de configuration automatique d’algorithmes comme irace [López-Ibáñez2016] seront utilisées pour identifier si les nouveaux opérateurs et stratégies proposés sont efficaces sur les benchmarks sélectionnés.

Profil du candidat :
Programmation Objet (Python ou C++) ; Connaissances en machine learning
Des connaissances en C++ et recherche opérationnelle, optimisation combinatoire seraient un plus.

Formation et compétences requises :
M2 en informatique

Adresse d’emploi :
Lieu : Laboratoire CRISTAL, Equipe ORKAD (Université de Lille, France)

Document attaché : 202411141558_Sujet_stage_M2.pdf

workshop Econom’IA 2025

Date : 2025-05-19 => 2025-05-20
Lieu : Nanterre, France

We are proud to announce the second Econom’IA workshop !

 At Economix (Université Paris Nanterre) !

Nanterre, France

On May 19-20, 2025.

This workshop aims to explore and foster cutting-edge applications of Artificial Intelligence (AI), Data Analysis Methods, Data Visualization,

and other innovative techniques across all fields of Economics. Econom’IA brings together researchers

from academia and entrepreneurs who use advanced techniques to analyse economic data.

For this second edition, we are honoured to have César Hidalgo (TSE, Toulouse School of Economics) on May 19th

and Christophe Bénavent (PSL, Paris-Dauphine) on May 20th as our keynote speakers.

More details:

This 2-day workshop includes:

  •  morning sessions with formal lectures and practical workshops led by established scholars introducing new tools and techniques,
  •         afternoon sessions dedicated to presentations and discussions of papers using at least one of these innovative techniques.

 

Econom’IA 2025 workshop will focus on the following topics

 

  • Graph analysis methods, with a special training given by Lionel Villard on CorText, a publicly available web platform providing data analysis methods.
  • Large Language Models (LLM), with a special lecture given by Hatim Bourfoune (IDRIS – CNRS).
  • Innovative Methods Applied to Economics: leveraging AI or data science methods.

 

Application and deadlines:

 

Authors wishing to attend the workshop can apply by submitting a single pdf document in English, introducing a research proposal (2-4 pages maximum) or a published paper for presentation.

Submissions must include at least one application of innovative techniques in Economics and will undergo a peer-review process.

Research papers using graph analysis and LLMs are particularly encouraged.

 

Applications can be submitted at the following link: https://economia.sciencesconf.org/

 

It is also possible to attend the workshop as an auditor by filling out the form on the workshop website. A confirmation will be sent to you via email.

 

Deadline for application: January 15, 2025

Notification of acceptance: February 28, 2025

Reduced fee registration and accommodation payment: March 10 – April 11, 2025

Full fee registration and accommodation payment: April 12 – April 25, 2025

 

 

Participation fees:

The reduced workshop fee is 150 Euros for registrations before April 11, 2025, and increases to 250 Euros after this date (participants and auditors). Fees include the registration to the workshop (access to lectures and presentations), breaks, lunches and gala dinner. Researchers without financial workshop assistance from their home institutions should contact the organizing committee.

 

Contact Information:

For inquiries and further information, please contact the workshop organizing committee at economia_orga@groupes.renater.fr

 

Organizing Committee

Rim Bahroun (Economix, université Paris Nanterre)

Maxime Lucet (LIP6, Sorbonne Université)

François Maublanc (Thema, CY Cergy Paris Université)

Olha Nahorna (Bordeaux School of Economics, université de Bordeaux, CNRS)

Guillaume Pouyanne (Bordeaux School of Economics, université de Bordeaux)

Mickael Temporão (Centre Emile Durkheim, Sciences Po Bordeaux, université de Bordeaux)

Messaoud Zouikri (Economix, université Paris Nanterre)

 

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Multi-modal explainable machine learning for exploring consciousness recovery of coma patients

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 6 mois
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2025-02-28

Contexte :

Sujet :
The first objective of this internship is to study and improve multi-modal Machine Learning models, for the fusion of video and EEG but potentially also EKG data, to predict the situations of our healthy control group. Based on our pre-liminary work on multi-modal LSTM and Transformer models, the aim would be to find characteristic patterns and correlations in the data that represent the different emotional or interactive situations, using eXplainable AI (XAI) techniques such as Integrated Gradient or SHAP.
The second objective would be to adapt these models and methods to DOC patients.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
INSA Lyon – LIRIS
7 Avenue Jean Capelle
69621 Villeurbanne

Document attaché : 202411111700_sujet_stage_M2_agoracoma_fusion1.pdf

Semi-Automatic Annotation of Conversations in Audio-Visual Documents

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Interdisciplinaire des Sciences du Num
Durée : 5 ou 6 mois
Contact : guinaudeau@limsi.fr
Date limite de publication : 2025-02-28

Contexte :
Most human interactions occur through spoken conversations. If this interaction mode seems so natural and easy for humans, it remains a challenge for spoken language processing models as conversational speech raises critical issues. First, non-verbal information can be essential to understand a message. For example a smiling face and a joyful voice can help detecting irony or humor in a message. Second, visual grounding between participants is often needed during a conversation to integrate posture and body gesture as well as references to the surrounding world. For example, a speaker can talk about an object on a table and refer to it as this object by designing it with her hand. Finally, semantic grounding between participants of a conversation to establish mutual knowledge is essential for communicating with each other.

Sujet :
In this context, the MINERAL project aims to train a multimodal conversation representation model for communicative acts and to study communicative structures of audiovisual conversation.
As part of this project, we are offering a 5- to 6-month internship focused on semi-automatic annotation of conversations in audio-visual documents. The intern’s first task will be to extend the existing annotation ontology for dialog acts, currently available for audio documents (through the Switchboard corpus for example), to incorporate the visual modality. In a second step, the intern will develop an automatic process for transferring annotations to new audiovisual datasets (such as meeting videos and TV series or movies) using transfer or few-shot learning approaches.

Practicalities:
The internship will be funded ~500 euros per month for a duration of 5 or 6 months and will take place at LISN within the LIPS team. This internship can potentially be followed by a funded PhD, based on performance and interest in continuing research in this area.

To apply, please send your CV, a cover letter and your M1 and M2 transcripts (if available) by email to Camille Guinaudeau camille.guinaudeau@universite-paris-saclay.fr and Sahar Ghannay sahar.ghannay@universite-paris-saclay.fr

Profil du candidat :

Formation et compétences requises :
Required Qualifications:
● Master’s degree (M2) in Computer Science or related field.
● Experience with deep learning frameworks such as Keras or PyTorch.
● Knowledge of image processing would be an advantage.

Adresse d’emploi :
LISN – Équipe LIPS
Campus Universitaire bâtiment 507
Rue du Belvédère
91400 Orsay

Document attaché : 202411111659_Stage_MINERAL.pdf

3D Human Motion Diffusion Model

Offre en lien avec l’Action/le Réseau : TIDS/– — –

Laboratoire/Entreprise : Laboratoire ICube, Strasbourg
Durée : 6 mois
Contact : seo@unistra.fr
Date limite de publication : 2025-03-31

Contexte :
Human motion generation is a key task in computer graphics, crucial for applications involving virtual characters, such as film production or virtual reality experiences. Recent deep learning methods, particularly generative models, started to make significant contributions in this domain. While early neural methods focused on the unconditional generation of vivid and realistic human motion sequences, more recent methods guide the motion generation using various conditioning signals, including action class, text, and audio. Among them, the diffusion-based model has shown significant success, dominating research frontiers.

Sujet :
Motivated by these recent successes, we will develop action-conditioned human motion generator based on a diffusion model. In particular, we will aim at the generation of daily actions in residential settings, in the view of augmenting training data for the action recognition models. To achieve this goal, we will deploy a diffusion-based motion generation, based on our previous works. To condition the generation using an action class or a text description, we will adopt CLIP as a text encoder to embed the text prompt and use a trainable tensor as embeddings for different action classes.

Profil du candidat :
− Solid programming skills in Python
− Working skills in Blender for 3D modeling and animation
− Experience in Deep Learning (Diffusion model)
− Good communication skills

Formation et compétences requises :

Adresse d’emploi :
2 Rue Marie Hamm
67000 Strasbourg

Document attaché : 202411071348_Stage-3D Human Motion Diffusion Model.pdf

Action Recognition by Knowledge Augmentation in Vision Language Model

Offre en lien avec l’Action/le Réseau : TIDS/– — –

Laboratoire/Entreprise : Laboratoire ICube, Strasbourg
Durée : 6 mois
Contact : seo@unistra.fr
Date limite de publication : 2025-03-31

Contexte :
Action recognition from video is highly important for assistive care robots, as it enables them to understand and respond appropriately to the needs and activities of the people they assist. Recent DL models for action recognition are moving toward more data-efficient, interpretable, and computationally optimized frameworks: The combination of transformer architectures, spatio-temporal attention, multimodal fusion, and self-supervised learning, just to mention a few. Meanwhile, the recent emergence of large-scale pre-trained vision-language models (VLMs) has demonstrated remarkable performance and transferability to different types of visual recognition tasks, thanks to their generalizable visual and textual representations. It has been confirmed by our recent study, where our developed model learns and improves visual, textual, and numerical representations of patient gait videos based on a large-scale pre-trained Vision Language Model (VLM), for several classification tasks.

Sujet :
Motivated by these recent successes, we will extend our previous developed model and the multimodal representation for a new classification task – action recognition from video. Similarly to our previous method, we will adopt the prompt learning strategy, keeping the pre-trained VLM frozen to preserve its general representation and leverage the pre-aligned multi-modal latent space the prompt’s context with learnable vectors, which is initialized with domain-specific knowledge.

Profil du candidat :
− Solid programming skills in Python/C++
− Experience in Deep Learning (Transformer, CLIP, etc.)
− Good communication skills

Formation et compétences requises :

Adresse d’emploi :
2 Rue Marie Hamm
67000 Strasbourg

Document attaché : 202411071346_Stage-ActionRecognition.pdf