Analyze and integrate multi-modal data (sequencing, imaging, spatial profiling, treatment response and clinical data) for translational outcomes to cancer patients

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : Bioinformatics Institute, A*STAR
Durée : 6 months
Contact : woo_xing_yi@bii.a-star.edu.sg
Date limite de publication : 2022-06-15

Contexte :
This offer is proposed by Xing Yi Woo, Head of Research Data Integration and Senior Principal Investigator at Bioinformatics Institute, A*STAR.
We work closely with clinicians to explore personalized treatment options for cancer patients using multi-omic and spatial profiling, and therapeutic screening in patient-derived models. Data of multiple modalities are generated in the process, and we are developing systematic workflows to integrate and analyze the data to enable clinical-decision-making and drive translation research. This project is looking for candidates to develop computational methods, including big-data analytics and AI/ML approaches, to analyze and integrate the multi-modal data (sequencing, imaging, spatial profiling, treatment response and clinical data) that can deliver translational outcomes to cancer patients. The candidate will have the opportunity to work in a multi-disciplinary team led by a senior Principal Investigator highly experienced in cancer computational biology and clinician-scientists specializing in oncology. Eventually, the candidate will receive training in both computational biology and translation oncology disciplines.

Sujet :
The intern is expected to work on any of these tasks, depending on field of study and interests.
1. Develop, implement and benchmark executable workflows for variant (SNP, Indels, SV, CNV) calling from WES/WGS data, transcriptome profiling from RNASeq data and image processing of histology images.
2. Write scripts to output data in a format that can be integrated with publicly available cancer datasets
3. Organize and analyze publicly available cancer datasets
4. Develop visualization tools to visualize results in a meaningful way
5. Organize all data in a structured manner using relational databases
6. Curation of cancer treatment and biomarkers, and patient clinical data.

Profil du candidat :
• The candidate should have basic programming skills (e.g. Python, R, RStudio, Jupyter Notebook, RShiny, SQL), except for curation tasks.
• Familiarity with Unix/Linux environment or cloud architecture would be an advantage
• Strong analytical and problem-solving skills.
• Excellent oral and written communication and presentation skills.
• Able to work independently, and as part of a team

Formation et compétences requises :
Computer science, any field of Science and Engineering, Pharmacy, Medicine, Public Health

Adresse d’emploi :
BII, A*STAR, Singapore

Second Inria-DFKI European Summer School on AI (IDESSAI 2022)

Date : 2022-08-29 => 2022-09-02
Lieu : Saarbrücken, Germany

*******************************************************************
Second Inria-DFKI European Summer School on AI (IDESSAI 2022)

Trusted AI and Sustainable AI

Saarbrücken, Germany
August 29th – September 2nd, 2022

Second Inria-DFKI European Summer School on AI (IDESSAI 2022)

Registration deadline: May 9th, 2022

*******************************************************************

IDESSAI 2022 is the second yearly Summer School organized by the two renowned German and French AI institutes, DFKI and Inria. It stands out from the crowd of offerings for AI students in several aspects:

We ensure a good balance in the number of participants and instructors: participants will have the opportunity to join a community of like-minded people, and, at the same time, they will be in close contact with the experts.
Our program features a line-up of courses focused on two themes, Trusted AI, and Sustainable AI, which are at the forefront of socio-economic issues related to AI.
On top of the latest methodological advances and the shared vision of the future that both organizing institutes have to offer, IDESSAI 2022 will be practically oriented. We will achieve this through hands-on courses and the involvement of industry practitioners and innovators.
Participants will be offered to the opportunity to present their work to each other in dedicated poster/demo sessions.
Trusted AI and AI Sustainable AI will take place in two parallel tracks. There will be plenty of opportunities to exchange between these two tracks at coffee breaks, meals, and social events, as well as through joint cross-track sessions.

TARGETED AUDIENCE

IDESSAI 2022 was designed for PhD students in all areas of AI, including machine learning, knowledge representation and reasoning, search and optimisation, planning and scheduling, multi-agent systems, natural language processing, robotics, computer vision, and other areas. PhD students in other fields, MSc students, postdocs, and researchers in academia and industry are also welcome.

VENUE
IDESSAI 2022 is planned as a fully in-person event, which will take place at the University of Saarland. Remote attendance will not be possible. Participants will comply with the health and social distancing rules in force at the time of the event.

CONFIRMED SPEAKERS
Cross-track

Titouan Vayer (ENS Lyon) – Less is more? How compressive learning and sketching for large-scale machine works
Sophie Quinton (Inria) – A holistic perspective on IT sustainability
Trusted AI Track:

Martin Georg Fränzle (University of Oldenburg) – AI components for high integrity, safety-critical cyber-physical systems: chances and risks
Michael Luck (King’s College London) – Artificial Intelligence: Towards safety and trust
André Meyer-Vitali (DFKI) – Trustworthy hybrid team decision support
Caterina Urban (Inria) – Formal methods for machine learning
Freddy Lecue (Thales & Inria) – Explainable AI: a focus on machine learning and knowledge graph-based approaches
Oana Goga (CNRS – LIG) – Security and privacy issues with social computing and online advertising
Sustainable AI Track:

Silviu-Ioan Filip (Inria) – Tools for DNN quantization
Olivier Sentieys (Inria) – Hardware accelerators for DNNs
Christoph Lüth (DFKI Bremen) – An introduction to the RISC-V ISA
Richard Membarth (DFKI Saarbrücken & Technische Hochschule Ingolstadt) – Code optimization via specialization
Anne-Laure Ligozat (ENSIIE) – Carbon footprint of AI
Danilo Carastan dos Santos (Inria) – Measuring the energy consumption of AI
Daniel Beutel (Adap) – An Introduction to federated learning with Flower

FEES AND REGISTRATION

Our fees are all-inclusive. Please keep in mind that an accommodation must be organised on your own and paid by your own.

For more details and to register, see https://idessai.eu/registration-2022/ (deadline: May 9th, 2022).

To ensure a good balance in the number of participants and instructors and maximize the chances of interaction, the number of attendees is limited to 50 per track. Applicants will be selected on the grounds of diversity and benefit gained from attending the selected track.

ORGANIZERS

Co-organized by: Inria, DFKI

Contact us: idessai-support@dfki.de.


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Application of Reasoning on Complex and Evolving Data: Methods and Use-Cases

Annonce en lien avec l’Action/le Réseau : RoCED

Thème :

workshop associated to The Knowledge Graph Conference (KGC) 2022

Présentation :

In this workshop, we seek contributions describing methods and uses-cases that rely on the application of reasoning and machine learning on complex, uncertain and evolving knowledge graphs. These contributions can be applied to different domains such as smart cities, smart health, smart farming, digital humanities and automation of business processes.

Du : 2022-05-02

Au : 2022-05-02

Lieu : virtual workshop. The conference is located at new york, USA

Site Web : https://www.knowledgegraph.tech/kgc-2022-program/

Mini symposium JOBIM 2022 – GIDAPE

Annonce en lien avec l’Action/le Réseau : RoCED

Thème :

Gestion et intégration de données agronomiques, phénotypiques et environnementales

Présentation :

Rendre accessibles, exploitables et réutilisables les jeux de données issues d’expérimentation en milieu naturel ou agricole est un enjeu majeur pour les sciences environnementales. Leur structuration et leur interconnexion impliquent d’assurer l’indexation et l’exposition des contenus disponibles dans des ressources distribuées, mais aussi de développer des méthodes pour l’extraction et la visualisation des informations. Dans ce symposium, nous aborderons les différents aspects (ressources, systèmes d’information, ontologies, indexation, intégration, collecte) permettant de faciliter l’exploitation de ces données par les (bio-eco)informaticiens.

Du : 2022-07-07

Au : 2022-07-07

Lieu : Campus Beaulieu, Université de Rennes 1

Site Web : https://jobim2022.sciencesconf.org/page/minisymposiums

Approche IA pour la caractérisation d’un logement ou d’un bâtiment par rapport à un type de handicap et des contraintes réglementaires associées

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIB (Laboratoire d’Informatique de Bourgogne)
Durée : 36 mois
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2022-05-30

Contexte :
La loi handicap de 2005 a instauré l’obligation de mise en accessibilité des bâtiments recevant du public à l’horizon 2015, échéance repoussée à 2024, dans le cadre des “schémas directeurs d’accessibilité – agenda d’accessibilité programmé”. Depuis 2017, le handicap est l’une des priorités du gouvernement français. Le point d’étape publié en mai 2021, fait état de plusieurs actions clés, notamment “Développer des solutions de logement innovantes et inclusives” et “Engager la société vers une accessibilité universelle”. C’est par rapport à ces deux actions que s’inscrivent les travaux envisagés dans le cadre de la présente thèse. L’idée est de proposer une caractérisation d’un logement ou d’un bâtiment par rapport à des contraintes réglementaires e.g. présence de douches sans ressaut dans une construction neuve à partir du 1er janvier 2021.
Depuis la dernière décennie, la dématérialisation de l’ensemble des données et des processus concernant les bâtiments est un enjeu mondial. Au niveau national, le dernier plan dans ce domaine est le plan BIM 2022 – ce plan prévoit de généraliser l’utilisation du numérique et des approches BIM (Building Information Modeling) dans la filière construction. La transformation numérique du bâtiment visée induit une généralisation de l’utilisation de la maquette numérique par les maîtres d’ouvrage.
Plusieurs normes internationales existent déjà pour la modélisation numérique des bâtiments et des espaces urbains, notamment l’IDM (Information Delivery Manual (ISO 29481-1:2016), le MVD (Model View Deifnition (ISO 29481-3:2010) et l’IFC (Industry Foundation Classes) (ISO 16739:2018). Cette dernière norme est une norme ouverte, utilisée pour la représentation de l’ensemble des éléments constitutifs du bâtiment physique. La norme IFC permet l’interopérabilité syntaxique des outils et des processus autour de la maquette numérique. Grâce à cette représentation orientée objet, l’IFC permet d’identifier de manière unique chaque élément au sein d’une maquette numérique donné par un identifiant global (appelé GUID pour Globally Unique IDentifier) et d’associer les éléments les uns aux autres sous la forme d’un graphe. Le modèle IFC a l’ambition de couvrir tout le cycle de vie. Par conséquent il est très riche afin de pouvoir s’adapter à l’évolution et permettre l’enrichissement des informations échangées. Il a été adapté en langage ontologie sous la forme d’ifcOWL [1].
Toutefois, les différents processus pouvant être implémentés sur la base de ces normes dépendent encore grandement d’opérateurs humains. De plus, les différentes évolutions subies par le modèle IFC n’ont pas aidé à le rendre plus compréhensible ni à faciliter sa manipulation par les professionnels du domaine. Par rapport à cela, plusieurs publications scientifiques ont démontré les avantages apportés par les technologies dites du “Web sémantique”, pour la vérification de maquettes numériques notamment en termes d’accessibilité [2][3].

Sujet :
Les recherches menées au sein de cette thèse vont adresser et combiner les deux axes de l’Intelligence Artificielle: d’une part des approches statistiques [4] e.g. apprentissage non-supervisé à partir de corpus de textes réglementaires, et, d’autre part, des approches symboliques [5] e.g. création de règles logiques permettant d’identifier des éventuels non-respects de conformité par rapport à une maquette numérique de logement.
Cette thèse vise à proposer, formaliser, spécifier puis implémenter une approche permettant une interprétation cohérente, complète et sémantique d’un bâtiment et/ou d’un logement par rapport à la réglementation existante en termes d’accessibilité et handicap.
Plus particulièrement, il s’agit d’étudier comment les textes législatifs peuvent être adaptés sous forme de règles logiques pouvant être utilisées pour vérifier si d’éventuelles non-conformités sont présentés dans des maquettes numériques de bâtiments et/ou de logements. Une première étape vise à extraire des textes réglementaires des règles semi-formelles, en utilisant des algorithmes type machine learning. Dans un deuxième temps une base de connaissances pour les bâtiments/logements et les contraintes d’accessibilité sera conçue. La troisième étape vise à traduire les règles obtenues dans la 1e étape dans un langage formel (e.g. SHACL) et les appliquer à la base de connaissance de l’étape 2. Ainsi, le contenu de la base pourra être classé selon les règles et les points de non-conformité identifiés. Pour faciliter l’interaction et l’ajout de nouvelles règles, une 4e étape vise à implémenter la base de connaissances sur un magasin de triplets et permettre son interrogation via des requêtes (adaptées à partir des règles). Le traitement de ces requêtes pourra être optimisé. L’approche devra être extensible pour permettre l’ajout de nouvelles contraintes ou de nouvelles connaissances.

Profil du candidat :
Les candidats doivent avoir un bon niveau en français et/ou en anglais (niveau min. C1).
Les candidats doivent avoir un intérêt pour la recherche, un solide bagage scientifique, des compétences en programmation. Constituent un plus des compétences en ingénierie des connaissances (Web sémantique, ontologies), BIM et/ou data science.

Formation et compétences requises :
Les candidats doivent être titulaires d’un Master 2 ou d’un diplôme d’ingénieur en informatique ou en mathématiques appliquées, en rapport avec l’un des domaines suivants: l’intelligence artificielle, l’ingénierie des connaissances, l’apprentissage automatique, le traitement du langage naturel.

Adresse d’emploi :
LIB – EA 7534, 9 avenue Alain Savary, 21000 Dijon, France –

PAGE D’ACCUEIL

Document attaché : 202204250931_EASING_PhDproposal.pdf

ATER Informatique IUT Grand Ouest Normandie – Laboratoire GREYC

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université de Caen Normandie, IUT Grand Ouest Norm
Durée : 1 an
Contact : sebastien.bougleux@unicaen.fr
Date limite de publication : 2022-05-02

Contexte :
Le département Métiers du Multimédia et de l’Internet (MMI) de l’IUT Grand Ouest Normandie (Université de Caen Normandie) recrute un ATER en Informatique pour 2022-2023 (à partir de Septembre). Le recruté devra s’intégrer dans une équipe du laboratoire GREYC CNRS (https://www.greyc.fr/).

Sujet :
Recrutement d’un ATER en Informatique pour 2022-2023

Profil du candidat :
Profil enseignement :
– Intégration et Développement Web
– Programmation Objet et Événementielle
– Bases de Données
– Langages HTML, CSS, PhP, Javascript, SQL
– Développement d’applications multimédia

Le candidat recruté interviendra en travaux dirigés et pratiques auprès d’étudiants de niveaux BAC+1 à BAC+3. Il pourra être amené à encadrer des projets tuteurés et des stages. Il participera aux jurys et aux conseils du département.

Profil recherche :
L’ATER recruté devra intégrer une des équipes du laboratoire GREYC (voir https://www.greyc.fr/)

Formation et compétences requises :
Doctorant ou jeune docteur en Informatique

Adresse d’emploi :
Université de Caen Normandie
IUT Grand Ouest Normandie (GON)
Département Métiers du Multimédia et de l’Internet (MMI)
50000 Saint-Lô

Interprétation granulaire de données hétérogènes et multivariées

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIB (Laboratoire d’Informatique de Bourgogne) EA7
Durée : 36 mois
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2022-05-02

Contexte :
Priorité du gouvernement français, la lutte contre le trafic de stupéfiants est, d’une part, un enjeu de santé publique, avec chaque année, dans le monde, en moyenne 168 000 décès directement causés par l’usage de la drogue, et, d’autre part, un enjeu de sécurité, puisqu’il entraîne une dégradation des conditions de vie et des violences dans les quartiers touchés. Le ministre de l’Intérieur a placé, dès le mois de juillet 2020, ce combat contre la drogue parmi ses 3 priorités. Les connaissances des produits qui circulent en France sont rassemblées dans la base de données nationale STUPS© (Système de Traitement Uniformisé des Produits Stupéfiants) du ministère de l’Intérieur. Cette base contient des données hétérogènes et multivariées : des données macroscopiques (e.g. logos, dimensions), qualitatives (e.g. noms des agents de coupage), quantitatives (e.g. teneurs en principes actifs), mais également des données d’enquête non confidentielles (e.g. quantités saisies, date et lieu de saisie sur le territoire français). Créée en 1986, la base STUPS© est alimentée par les 5 laboratoires de Police Scientifique du Service National de Police Scientifique (SNPS) et par l’Institut de Recherche Criminelle de la Gendarmerie Nationale, et contient aujourd’hui environ 10 millions d’entrées. Présenté en septembre 2019, le Plan Stup français prévoit une série de 55 mesures, dont “La mise en place de nouveaux indicateurs pour connaître les usages des consommateurs, les méthodes des trafiquants et anticiper leurs évolutions”. Or, la structure inhérente de la base STUPS© et les caractéristiques des données contenues ne permettent pas d’en extraire des connaissances (interprétation par une machine), afin de pouvoir identifier, expliquer et prédire les usages des consommateurs et les méthodes de trafiquants.

Sujet :
Il s’agit de proposer un système intelligent pour répondre aux défis liés à l’interprétation de données hétérogènes et multivariées (modèles linéaires et non-linéaires) contenues dans la base de données STUPS© afin d’en décrire, comprendre et expliquer les connaissances implicites. Les travaux de recherche visés dans cette thèse concernent le domaine de l’Intelligence Artificielle (IA), et s’orienteront sur deux aspects fondamentaux : IA symbolique (modèles de connaissances définissant les sémantiques – Motik et al., 2012 – et autres aspects symboliques permettant d’interpréter et de raisonner sur ces connaissances – Motik 2006), d’une part, et, IA statistique (modèles d’apprentissage automatique de type réseaux artificiels de neurones – Bishop 1995 – permettant de construire des prédictions), d’autre part. Les recherches envisagées exploreront l’articulation de ces approches IA avec des approches granulaires (Mani 1998). En effet, selon Hobbs (Hobbs 1985), la capacité de conceptualiser le monde à différents niveaux et de bénéficier d’une mobilité totale entre ces niveaux est une caractéristique exclusive de la résolution humaine de problèmes. En effet, lorsque nous regardons le monde qui nous entoure nous n’en retirons que les choses qui servent nos intérêts du moment. Dans le cadre de cette thèse, nous investiguerons l’application de la théorie de la granularité de Hobbs au modèle de connaissances constitué, afin de permettre un raisonnement à différents niveaux de granularité.
Les problématiques de recherche adressées sont :
– comment intégrer de manière consistante et cohérente au sein d’une base de connaissances (ontologie) des données hétérogènes et inconsistantes dans le temps ?
– comment exploiter des résultats obtenus d’algorithmes d’apprentissage automatique pour améliorer la description des connaissances ?
– comment interpréter et raisonner sur les données ainsi intégrées de manière à déduire de nouvelles connaissances ?
– comment maximiser l’efficacité de l’approche ainsi spécifiée ?

Profil du candidat :
La maîtrise de la langue française est indispensable (niveau min. C1). Un bon niveau en communication anglaise est un plus. Les candidats doivent avoir un intérêt pour la recherche.

Formation et compétences requises :
Les candidats doivent être titulaires d’un diplôme d’ingénieur informatique ou d’un Master 2 en informatique.
Constituent un plus des compétences en ingénierie des connaissances (Web sémantique, ontologies) et/ou data science.

Adresse d’emploi :
9 avenue Alain Savary, 21000 Dijon, FRANCE

Document attaché : 202204221103_MESRI_LIB_2022_FR_EN.pdf

Classification automatique de sources acoustiques environnementales

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : GIPSA-Lab / ACOUSTB
Durée : 36 months
Contact : jerome.mars@gipsa-lab.fr
Date limite de publication : 2022-05-02

Contexte :
Les nuisances sonores présentes dans l’environnement sont provoquées par une multitude de sources (trains, circulation routière, avions, activités industrielles, chantier, etc.). Elles constituent une atteinte majeure à la qualité de vie et nuisent à la santé publique. Selon les rapports de l’Organisation Mondiale de la Santé (OMS 2018, 2011), le bruit est le second facteur environnemental derrière la pollution atmosphérique provoquant le plus de dommages sanitaires en Europe. De nombreuses sources sonores environnementales sont par conséquent soumises à des textes réglementaires en vue de réduire les nuisances associées.
Acteur majeur de l’acoustique en France, ACOUSTB est sollicité pour mener des études qui visent à évaluer les niveaux sonores provoqués par différentes sources. Ces études permettent de caractériser a posteriori l’empreinte acoustique de la source en question et de conclure quant au respect des seuils réglementaires. ACOUSTB propose un service de surveillance continue de sources de bruit. Dans ce contexte, un projet R&D lancé depuis un an a permis de proposer le développement d’un système de monitoring acoustique intelligent. Ces premiers travaux ont débouché sur une méthode d’analyse d’évènements sonores notamment ferroviaires. Issue de technologie « Deep Learning », la méthode implémentée permet d’identifier convenablement le type du matériel roulant (Fret, TER, TGV, Tram, etc.).
À travers la proposition de cette thèse CIFRE, nous cherchons aujourd’hui à approfondir nos travaux et développer des techniques plus élaborées permettant à notre système une détection automatique et une classification précise d’évènements sonores environnementaux

Sujet :
Le travail proposé dans cette thèse concerne le développement d’une méthodologie pour la détection et la classification d’évènements sonores. Les domaines d’application couvrent le suivi de l’émission acoustique d’une source de bruit particulière et l’analyse des paysages sonores complexes. Le travail s’appuiera sur des bases existantes de signaux issus des campagnes de mesures réalisées par ACOUSTB.

Le travail de recherche commencera par une analyse approfondie des bruits environnementaux et l’extraction des caractéristiques relatives à chaque source. Des descripteurs seront par la suite étudiés et proposés pour représenter les signaux dans les domaines temporel, fréquentiel et quefrentiel. Pour cela on se basera sur les algorithmes utilisés en ML (travaux réalisés au Gipsa-lab en classification de signaux acoustiques) et DL pour alimenter des modèles d’intelligence artificielle de l’architecture de classification. Le couplage de la détection et des modèles de classification permettra ensuite de réaliser des tâches de suivi autonome de sources de bruit sur des missions temps réel

Profil du candidat :
Le profil recherché devra être titulaire d’un Bac+5 (Ingénieur ou Master) avec une forte composante traitement du signal. Il devra également avoir des bases sur les techniques d’intelligence artificielle.

Une expérience significative du développement en Python pour le traitement et l’analyse du signal est requise. La maîtrise écrite et orale du français et de l’anglais est nécessaire. Un intérêt pour le son dans toutes ses composantes serait un atout.

Formation et compétences requises :
Le profil recherché devra être titulaire d’un Bac+5 (Ingénieur ou Master) avec une forte composante traitement du signal. Il devra également avoir des bases sur les techniques d’intelligence artificielle.

Adresse d’emploi :
Employeur : ACOUSTB (Grenoble) dans le cadre d’un financement CIFRE.

Equipes d’accueil : le doctorant sera accueilli dans les locaux d’ACOUSTB de Grenoble et au laboratoire GIPSA-Lab dans l’équipe SIGMAPHY.

Document attaché : 202204201230_Sujet-thèse-Acoustb-2022-Classification-Acoustique-Version_courte_Diffusion.pdf

Machine learning based approaches for multi-omics data in personalized treatment of sepsis

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire DAVID, UVSQ, Université Paris-Saclay
Durée : 3 ans
Contact : zaineb.chelly-dagdia@uvsq.fr
Date limite de publication : 2022-05-01

Contexte :
Ce sujet de thèse d’inscrit dans le projet RHU RECORDS (Rapid Recognition of Corticosteroid Resistant or Sensitive Sepsis) qui vise à identifier et à valider des biomarqueurs de prédiction de la réponse thérapeutique aux corticoïdes dans le cadre du sepsis.

Sujet :
L’objectif principal de cette thèse est d’étudier les méthodes existantes de l’apprentissage automatique dans l’analyse de données omiques obtenues dans le cadre du RHU RECORDS, et de proposer de nouvelles méthodes en fonction des limites qui seront identifiées. La méthodologie de travail qui sera suivie par le doctorant(e) est comme suit :
1. Étudier les méthodes de l’état de l’art dédiées à la réduction de dimensions pour les données multi-omiques de RHU RECORDS.
2. Identifier les limites de celles-ci et proposer des nouvelles méthodes qui permettent de les pallier.
3. Étudier les méthodes de l’état de l’art dédiées au regroupement afin de découvrir des relations ou interactions entre les patients.
4. Identifier les limites de celles-ci et proposer des nouvelles méthodes qui permettent d’y remédier.
5. Proposer et implémenter, après avoir fait une étude de l’existant, un pipeline bio-informatique permettant l’intégration et la visualisation des données multi-omiques.
6. Résumer le travail réalisé sur chaque partie dans un document de recherche scientifique qui sera soumis à une conférence/une revue internationale.

Profil du candidat :
La candidate ou le candidat doit être titulaire d’un Master en informatique ou bio-informatique.

Formation et compétences requises :
La candidate ou le candidat doit être titulaire d’un Master en informatique ou bio-informatique. Elle/il devrait avoir :
● Solides compétences en programmation et bases de données
● Bonne expérience en statistiques
● Bonne expérience en apprentissage automatique (machine learning)
● Bonne expérience en bio-informatique (souhaitable mais non obligatoire)
● Bonne communication orale en anglais, compétences techniques en lecture et en écriture ;

Adresse d’emploi :
●DAVID/équipe ADAM, Campus de sciences à Versailles, Université de Versailles St-Quentin UVSQ / Université Paris-Saclay.
●Inserm UMR 1173 Laboratoires II et LARENE, UFR Simone Veil, Montigny-le-Bretonneux, UVSQ / Université Paris-Saclay

Document attaché : 202204140633_40808 (002).pdf

Prédiction des Concentrations de Polluants Atmosphériques en zone Aéroportuaire par Apprentissage Automatique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IBISC/LMEE, Université Paris-Saclay, Univ. Evry
Durée : 4 à 6 mois
Contact : Khalifa.Djemal@ibisc.univ-evry.fr
Date limite de publication : 2022-05-31

Contexte :
Dans le cadre des études d’impact et de maîtrise des risques environnementaux en zone aéroportuaire, des modèles numériques sont utilisés pour simuler, expliquer et prédire les transferts de polluants. Le choix d’une action de protection des populations est réalisé en tenant compte de l’importance des émissions potentielles de façon à minimiser les concentrations reçues par chaque individu sur la totalité de la zone.

Sujet :
Dans le cadre des études d’impact et de maîtrise des risques environnementaux en zone aéroportuaire, des modèles numériques sont utilisés pour simuler, expliquer et prédire les transferts de polluants. Le choix d’une action de protection des populations est réalisé en tenant compte de l’importance des émissions potentielles de façon à minimiser les concentrations reçues par chaque individu sur la totalité de la zone.
Les données atmosphériques (météorologiques, topographiques, etc.) sont devenues de plus en plus croissantes et gourmandes en temps de traitement (Big data), l’exploitation de ces données par des approches d’intelligence artificielle semble une évidence en particulier dans le cadre de l’estimation et la prédiction des transferts de polluants.
L’objectif du stage est de développer un modèle de prédiction des concentrations de polluants issues d’un réseau de capteurs fixes ou mobiles dans une zone aéroportuaire. Le modèle à développer se basera sur les techniques d’apprentissage automatique, en particulier l’apprentissage profond (deep learning). Le stagiaire aura pour principales tâches de :
– faire une étude bibliographique exhaustive sur les approches de prédiction,
– prendre en main et d’exploiter des données atmosphériques à partir de l’existant dont une grande partie est disponible aux laboratoires IBISC/LMEE,
– développer un modèle de prédiction adapté aux différents types de données.

Mots-clés (en français) : Intelligence artificielle, Apprentissage automatique, Optimisation, Prediction et Identification, Dispersion atmosphérique, Réseau de capteurs, Zone aéroportuaire

Keywords (in english):
Artificial intelligence, Machine learning, Optimization, Prediction and identification, Atmospheric dispersion, Sensors network, Airport area

Références bibliographiques :
[1] Abdelli A., Saouli R., Djemal K., Youkana I., Multiple instance learning for classifying histopathological images of the breast cancer using residual neural network, Inernational Journal of Imaging Systems and Technology, 2022.
[2] Boulemnadjel A., Hachouf F., Hebboul A., Djemal K., Active learning for improving a soft subspace clustering algorithm. Journal of Engineering Applications of Artificial Intelligence, 46, Part A, 196-208, 2015.
[3] Hacini M., Hachouf F., Djemal K., A new speckle filtering method for ultrasound images based on a weighted multiplicative total variation, Signal Processing, 103, 214-229, 2014.
[4] Horch A., Djemal K., Gafour A., Taleb N., Supervised fusion approach of local features extracted from SAR images for detecting deforestation changes. IET Image Processing, doi:10.1049/iet-ipr.2019.0122, 2019.
[5] Kouichi, H., Sensors networks optimization for the characterization of atmospheric releases source, Theses, Université Paris Saclay, France, https://hal.archives-ouvertes.fr/tel-01593834, 2017.
[6] Kouichi, H., Ngae, P., Kumar, P., Feiz, A.-A., Bekka, N., Optimization of an Urban Monitoring Network for Retrieving an Unknown Point Source Emission, Geosci. Model Dev. Discuss., doi.org/10.5194/gmd-2018-6, 2018.
[7] Kumar, P., Singh S. K., Feiz A. A., Ngae P., An urban scale inverse modelling for retrieving unknown elevated emissions with building-resolving simulations, Atmospheric environment 140, 135-146, 2016
[8] Larroque S., Sedgh gooya E., Gripon V., Pastor D., Using Tags to Improve Diversity of Sparse Associative Memories. Proceedings of Cognitive, 1-7, 2015.
[9] Ngae, P., Kouichi, H., Kumar, P., Feiz, A.-A., Chpoun, A., Optimization of an urban monitoring network for emergency response applications: An approach for characterizing the source of hazardous releases, Quarterly Journal of the Royal Meteorological Society, doi.org/10.1002/qj.3471, 2019.
[10] Sedgh Gooya E., Al Falou A., Kaddah W., Robust and discriminating face recognition system based on a neural network and correlation techniques, 2020 Tenth International Conference on Image Processing Theory, Tools and Applications (IPTA), Paris, 2020, pp. 1-5, doi: 10.1109/IPTA50016.2020.9286617.

Profil du candidat :
De niveau Master 2 ou équivalent, de préférence dans les spécialités suivantes :
– Intelligence artificielle
– Traitement de données
– Informatique
– Mathématiques appliquées (modélisation et calculs scientifiques)

Formation et compétences requises :
– Programmation Python, outils de traitement de données.
– Méthodes d’apprentissage automatique.
– Des connaissances de base en sciences de l’environnement atmosphérique seront également très appréciées.

Adresse d’emploi :
Laboratoires IBISC-LMEE
UFR-ST, Université d’Evry Val d’Essonne
40 rue du Pelvoux
91020 Evry.

Document attaché : 202204131204_Sujet_Stage_PSIA2.pdf