Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Aug
29
Wed
2018
Ingénieur de Recherche en CDD BigData Lille
Aug 29 – Aug 30 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CRISAL UMR 9189 CNRS & Université Lille
Durée : 12 mois
Contact : Maxime.Morge@univ-lille1.fr
Date limite de publication : 2018-08-29

Contexte :
Le laboratoire CRIStAL recrute un Ingénieur de Recherche en CDD sur le projet CPER Data pour la mise en place d’un cluster.
CRISAL UMR 9189 CNRS & Université Lille

Laboratoire : CRIStAL (Centre de Recherche en Informatique, Signal et Automatique de Lille) est une unité mixte de recherche (UMR 9189) résultant de la fusion du LAGIS (Laboratoire d’Automatique, Génie Informatique et Signal – UMR 8219) et du LIFL (Laboratoire d’Informatique Fondamentale de Lille – UMR 8022) pour fédérer leurs compétences complémentaires en sciences de l’information. L’unité est composée de près de 430 membres (228 permanents et plus de 200 non permanents) dont 24 permanents CNRS et 31 permanents Inria.

Poste : Ingénieur de recherche (12 mois, début Octobre 2018). Ce poste est susceptible d’être reconductible. Cette offre s’inscrit dans le cadre du projet CPER (Contrat de Plan Etat-Région 2015-2020) Data de la région “Hauts-de-France”. Le programme scientifique du CPER Data est articulé en trois axes principaux : (i) Internet des objets ; (ii) Intelligence des données et des connaissances ; (iii) Calcul haute-performance et optimisation. CRIStAL participe au projet DATA en apportant sa contribution aux actions « Intelligence des données et des connaissances » et « Calcul haute-performance et optimisation »..

Dans le cadre du contrat plan Etat-Région Nord-Pas-de-Calais/Haut-de-France (CPER) Data, un cluster « Big-Data » sera mis en place afin de déployer et tester des solutions logicielles réalisées par les équipes de recherche du laboratoire CRIStAL pour faire par exemple de l’analyse de données massives ou de la simulation de circuits neuromorphiques.

Ce cluster se compose de 12 noeuds de calcul, complétés à moyen terme de 4 noeuds supplémentaires. Chaque noeud comporte 2 processeurs à 10 coeurs (2.2 GHz), 8 disques de 1 To, et 512 Go de mémoire.

Sujet :
La personne recrutée devra mettre en place l’infrastructure matérielle du cluster, puis son infrastructure logicielle en accord avec les besoins des chercheurs et en collaboration avec le service calcul de la DSI de l’université de Lille. Elle devra tester et valider le fonctionnement du cluster, suivre l’exploitation du cluster, optimiser les performances en fonction des nécessités des expérimentations. Elle devra également gérer les utilisateurs et l’allocation des ressources du cluster.

Profil du candidat :
diplômé Bac+5, master ou ingénieur, la personne recrutée devra posséder des compétences en système-réseaux, en environnements de traitement de données distribués (Hadoop, Spark, etc), en programmation orientée objet.

Formation et compétences requises :
Elle devra posséder des compétences relationnelles car elle sera en interaction continue avec les chercheurs utilisant le cluster. La maîtrise de l’anglais est un plus.

Adresse d’emploi :
out candidat intéressé doit envoyer dans un fichier archive (type zip ou tgz) un CV, une copie de ses diplômes universitaires et de ses notes de Master, et une lettre de motivation par email à laetitia.jourdan@univ-lille.fr ET anne-cecile.caron@univ-lille.fr avec le sujet suivant : “Candidature IGR Data – CLUSTER” avant le 29/08/2018. Les candidats présélectionnés seront convoqués à un entretien soit physique soit par visioconférence.

Document attaché :

Aug
31
Fri
2018
contrat postdoctoral sur l’acquisition automatique de métadonnées de ressources pédagogiques par analyse de descriptions textuelles
Aug 31 – Sep 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : ICube – Université de Strasbourg
Durée : 12 + 6 mois
Contact : Pierre Gançarski (gancarski@unistra.fr) e/ Delphine Bernhard (dbernhard@unistra.fr)
Date limite de publication : 2018-08-31

Contexte :
Établir des métadonnées sur des ressources, quelles qu’elles soient, est une tâche souvent considérée comme peu gratifiante, fastidieuse et consommatrice de temps. Elle est donc malheureusement, dans la majorité des cas ignorée lors de l’acquisition de la donnée et/ou de sa mise à disposition. De fait, ces données ne sont pas réellement valorisées car peu documentées et donc délaissées par les moteurs de recherche.
Par exemple, il existe un très grand nombre de ressources pédagogiques (ouvrages, vidéos, cours en ligne, …) accessibles aux professeurs ou aux étudiants qui ne sont pas réellement utilisées voire totalement inconnues de des utilisateurs potentiels. En effet, les auteurs (qui sont très souvent les professeurs eux-mêmes) n’ont pas été sensibilisés à cet aspect « métadonnées ». L’objectif de notre projet est de construire une base de métadonnées décrivant et pointant vers ces ressources, interrogeable à distance.

Sujet :
Le travail à réaliser dans le cadre du contrat postdoctoral portera principalement sur la création automatique et a posteriori de métadonnées sur des ressources pédagogiques. Il s’agit, à partir de données informelles décrivant ces ressources, descriptions moissonnées sur des sites spécialisés, de « reconstruire » et/ou compléter des métadonnées afin de décrire formellement et le plus précisément possible les ressources concernées. Pour cela, d’une part, un modèle de métadonnées devra être proposé et d’autre part, des mécanismes d’analyse des descriptions informelles mais aussi, éventuellement, des ressources elles-mêmes (cas de ressources textuelles) sera mis en place afin de renseigner automatiquement une base de métadonnées.

Profil du candidat :
Les candidat(e)s pour ce poste doivent être titulaire d’une thèse en informatique avec de très bonnes connaissances en traitement automatique des langues, fouille de textes et recherche d’information.
Une très bonne compréhension de la langue française est indispensable : les ressources à modéliser et les publics concernés seront quasi exclusivement francophones.

Formation et compétences requises :
La candidature doit comporter un CV détaillé (en français) incluant une liste de publications, une description de la thèse et son adéquation avec le sujet du post-doc ainsi qu’une lettre de motivation. Les coordonnées d’au moins deux référents sont à joindre.

Adresse d’emploi :
ICube – Université de Strasbourg
Pôle API à Illkirch

Document attaché : AnnoncePostDoc_Strasbourg.pdf

Sep
1
Sat
2018
INGENIEUR DE BASE DE DONNEES ET OLAP
Sep 1 – Sep 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : MNHN
Durée : 9 mois
Contact : sandro.bimonte@irstea.fr
Date limite de publication : 2018-9-1

Contexte :
Ce poste s’inscrit dans le cadre du projet ANR VGI4Bio. Ce projet de recherche
vise à adapter les systèmes OLAP spatiaux à des données participatives, dans le
cadre d’études sur la biodiversité. En effet, les bases de données de biodiversité
participatives actuelles ne permettent ni la conduite d’analyses
multidimensionnelles, en raison de leur modélisation, ni la définition
d’indicateurs, en raison de leur faible qualité.

Sujet :
L’ingénieur recruté définira un ensemble de méthodes de géo-visualisations
représentatives des différents besoins et compétences analytiques des
utilisateurs. Pour définir ces méthodes, il devra rencontrer les utilisateurs et
recueillir les besoins exprimés.
Après cette étape de définition des besoins, et en s’appuyant sur les données
intégrées durant la première tâche, l’ingénieur recruté implémentera ces
méthodes

Profil du candidat :
systèmes OLAP (par exemple Mondrian, Oracle, MDX, …)
-bases de données (par exemple Postgres, …)
-développement applications web (par exemple Tomcat, services web, java
scripts, ajax, …)
-Java
Une expérience

Formation et compétences requises :
systèmes OLAP (par exemple Mondrian, Oracle, MDX, …)
-bases de données (par exemple Postgres, …)
-développement applications web (par exemple Tomcat, services web, java
scripts, ajax, …)
-Java
Une expérience

Adresse d’emploi :
MNHN, paris

Document attaché : fiche-posteVGI4Bio.pdf

Ingénieur de recherche ou postdoc en Apprentissage et IHM
Sep 1 – Sep 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LITIS
Durée : 14 mois
Contact : alexandre.pauchet@insa-rouen.fr
Date limite de publication : 2018/09/01

Contexte :
Dialoguer librement et naturellement avec un personnage virtuel ou un robot est un des grands défis de l’interaction homme-machine. En particulier, la modélisation des interactions dialogiques multimodales et affectives est un problème pluri-disciplinaire. Cette modélisation s’appuie le plus souvent sur un corpus de dialogues multimodaux, dont l’analyse vise à repérer un ensemble de comportements récurrents (i.e. fournir un modèle).

L’objectif du projet de recherche DAISI, dans lequel s’insère ce recrutement, est d’apprendre et d’exploiter des modèles d’interaction multimodale basés sur un ensemble de motifs dialogiques. Ces modèles sont destinés à être exploités au sein de personnages virtuels ou de robots en interaction avec des utilisateurs sur diverses tâches applicatives (narration interactive, environnements virtuels ou augmentés pour l’apprentissage humain, interaction robotique, etc.).

Sujet :
Dans ce cadre, nous recherchons un ingénieur de recherche ou un postdoc pour rejoindre le projet, sur lequel travaillent actuellement 5 permanents, un postdoc et 2 doctorants. La personne recrutée intègrera l’équipe MIND du LITIS.

Tâches assignées :
– Maintenance et développement de la plateforme Agentslang de déploiement d’agents conversationnels animés (https://agent.roboslang.org/)
– Conception, déploiement et validation de composants pour l’interaction Homme-Agent (suivi occulaire, reconnaissance d’expressions faciales, d’émotions, d’attention conjointe, de tours de parole, etc.) selon les compétences du candidat recruté.
– Mise en place et suivi d’expérimentations
– Participation à la rédaction d’articles scientifiques

Durée et rémunération : 14 mois à compter du 01/09/2018, 2250 euros net environ.

Profil du candidat :
Ingénieur de recherche ou Postdoc en informatique

Formation et compétences requises :
– Interaction Homme-Machine, réalité virtuelle (Unity 3D, Unreal Engine) et/ou robots, des compétences en animation 3D ou en apprentissage statistique seraient un plus.
– Ingénierie logiciel : bonne maîtrise des langages de programmation objet, développement sous Windows et Linux

Adresse d’emploi :
LITIS – INSA Rouen Normandie

Document attaché :

Post-doctoral position offer in web semantics and linked data applied to urban simulations and assessments
Sep 1 – Sep 2 all-day

Annonce en lien avec l’Action/le Réseau : Doctorants

Laboratoire/Entreprise : Nobatak/INF4 – LE2I
Durée : 18 months
Contact : mpousse@nobatek.inef4.com
Date limite de publication : 2018-09-1

Contexte :
NOBATEK/INEF4 is a French research and technological centre on sustainable buildings and districts. As part of its activities, we coordinate research, development and innovation projects in which companies and laboratories take part and support us.
The DATAVIEW project aims at elaborating a data model that shall 1) facilitate data integration from different public or private data sources and 2) facilitate interoperability between the different tools developed by NOBATEK/INEF4 and its partners (natural lighting simulation, environmental assessment, district heating optimisation…) at the district scale.
The setting up of a unique data model common to different scales (from building to territory) and to different expertise (environmental assessment, urban physics…) remains an open topic in the scientific community. Several standards have been developed (e.g. IFC, CityGML, gbXML), some of them using semantic web standards (e.g. ifcOWL, CityGMLOWL), but none of them answering the specific needs of NOBATEK/INEF4 and its partners.

Sujet :
In order to benefit from the above-mentioned existing works in the AEC (Architecture, Engineering and Construction) environment, a Linked Data approach has been selected. Part of the work consists in:

• Identifying pertaining ontologies and define alignments between them
• Defining a domain ontology bridging the necessary knowledge gap
• Performing request on the resulting model (and in particular try to discover implicit knowledge)

Once the data model is elaborated, it will be used to structure data from existing data sources which are already used by NOBATEK/INEF4 through the development of ETL tools (Extract/Transform/Load)
Finally, this common data model and associated ETLs will be implemented in an operational numerical tool and in particular a web-based platform for territorial data management.
Integrating all along the project the operational problems of NOBATEK/INEF4, the post-doc will be in charge of elaborating a state of the art of initiatives and approaches existing in the domain. Then, (s)he will be in charge of defining and implementing the data model in an already existing web -based platform for territorial data management.
The work will be scientifically supervised by Pr. C.Nicolle and Dr. A.Roxin from the Le2i laboratory, who have developed an expertise in the application of web semantics technologies in the AEC industry.

Profil du candidat :
The applicant shall have a PhD in computer science. In addition, a solid background in knowledge modelling, notably description logic-based languages such as OWL 2 DL, is wanted. Applicants should also have skills involving on Semantic Web technologies for defining and addressing queries (e.g. SPARQL) along with rule languages (e.g. SWRL, SPIN, SHACL).
Applicants should be curious and attracted by the different topics addressed in the DATAVIEW project: urbanism, lifecycle analysis, and associated simulations/assessments. Additional knowledge in civil engineering, architecture and/or construction are considered a plus.
Applicants shall be autonomous and must have a good level of French and English.
Applicants should be interested by research activities in general and be able to interact with different actors from different domains (industrials from the AEC domain, researchers from semantic web).
The post-doctoral contract is funded by the Institute for Energy Transition NOBATEK/INEF4.

Formation et compétences requises :
Please send your application (CVs, application letter, PhD thesis report, PhD thesis evaluation reports and already published scientific papers) to Maxime Pousse: mpousse at nobatek dot inef4 dot com, mpousse@nobatek.inef4.com

Adresse d’emploi :
Location: Nobatek/INEF4 [Talence (33) or Anglet (64)], France + regular stays in Le2i, University of Burgundy, Dijon, France)

Gross salary: Between 2400 and 2600 € gross monthly salary (to be discussed with the applicant)

Document attaché :

Poste Ingénieur Développement Logiciel
Sep 1 – Sep 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Univ. Bourgogne – LE2I
Durée : 12 moiz
Contact : yannick.benezeth@u-bourgogne.fr
Date limite de publication : 2018-09-01

Contexte :
L’ingénieur recruté travaillera dans le cadre du projet ANR Emmie. Le projet consiste à développer une technologie multimodale d’acquisition et de traitement d’images multispectrales pour la détection précoce de l’inflammation de la muqueuse de l’estomac. Dans le cadre de ce projet, différents outils de traitement d’images, de classification, de mosaïcage, recalage ont été développés.

Sujet :
L’ingénieur en développement logiciel sera directement intégré à l’équipe projet du laboratoire Le2i. Il aura en charge les travaux d’intégration des différents algorithmes mis en œuvre et développés dans le cadre du projet.

Profil du candidat :
Il devra être autonome dans son travail mais restera en interaction avec les chercheurs pour réaliser ses différentes missions. Il travaillera sur le campus de l’Université de Bourgogne – Dijon (France) au laboratoire LE2I avec une équipe de recherche spécialisée dans le développement d’algorithmes innovants de traitement d’images et la mise en œuvre de systèmes logiciels à contraintes temporelles élevées.

Formation et compétences requises :
L’ingénieur devra avoir de l’expérience en développement de logiciel scientifique, en développement bas niveau (priorités des processus, programmation multi cœurs) et en programmation sur GPU. Des connaissances de base en traitement du signal (filtrage numérique…) et en traitement d’images (calcul matriciel, …) sont recommandées.

Adresse d’emploi :
9, avenue Alain Savary
Université de Bourgogne/Le2i
21000 Dijon

Document attaché :

Poste MCF : Intelligence artificielle, science des données et apprentissage
Sep 1 – Sep 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Grenoble INP-Ensimag / LIG ou LJK
Durée : CDI
Contact : Jean-Louis.Roch@grenoble-inp.fr
Date limite de publication : 2018-09-01

Contexte :
Institut d’ingénierie, Grenoble INP, grand établissement de statut public, ses 6 écoles et sa Prépa intégrée, propose des formations d’ingénieurs avec un contenu scientifique de base solide et une haute spécialisation technologique. L’établissement compte plus de 5 500 étudiants et 1 300 personnels enseignants-chercheurs, enseignants, administratifs et techniques. Ces enseignements sont appuyés sur une recherche de très haut niveau menée au sein des laboratoires communs avec les membres et partenaires de la communauté du site Univ. Grenoble Alpes. Grenoble INP se positionne au cœur des défis technologiques d’avenir (Energie, Société du numérique, Micro-nanotechnologie, Industrie du futur). Grenoble INP est reconnu dans les classements nationaux et internationaux, il est membre de réseaux internationaux d’ingénierie et propose plus de 350 programmes d’échanges aux étudiants.

Sujet :
L’Ensimag recrute un maître de conférences en mathématiques appliquées ou en informatique afin de développer les enseignements d’apprentissage statistique, d’intelligence artificielle, de visualisation de données, de calcul haute performance ou de « big data ». Le dossier de candidature devra faire apparaître le caractère ’interdisciplinaire’ du candidat, sa capacité à prendre des responsabilités au sein de la structure, ainsi qu’une liste conséquente de travaux ou publications en relation avec une ou plusieurs branches de la science des données. Outre la formation aux sciences des données (synthèse de programmes à partir de données, aide à la décision), la personne recrutée devra s’investir dans les enseignements du tronc commun Ensimag (1ère année et environ 75% des filières de la 2ème année) qui constitue le socle de nos élèves ingénieurs. Elle sera amenée à s’investir et prendre des responsabilités dans des parcours de l’Ecole tels que le « mastère big data » ou le master «Data Science». En partenariat avec des industriels, la personne recrutée pourrait superviser l’organisation de « challenges » et de « hackatons » afin d’enrichir les contacts de l’Ecole dans le domaine de l’intelligence artificielle et des « big data ». En collaboration avec les équipes pédagogiques concernées, elle devra s’impliquer dans le montage d’enseignements par projets et la formation par le Numérique.

Profil du candidat :
Le candidat effectuera ses recherches dans le domaine de l’intelligence artificielle ou de la science des données, et montrera son ouverture aux différentes approches possibles dans ce domaine.
Les thématiques privilégiées sont l’apprentissage sur données complexes, structurées ou non structurées, l’apprentissage profond et les réseaux de neurones. Sur ces thématiques, nous sommes intéressés, entre autres, aux problématiques d’optimisation, de causalité, de capacité de généralisation et d’apprentissage de représentations. Parmi les applications de l’apprentissage et apprentissage profond, un intérêt particulier est porté au traitement du signal et de l’image, à l’apprentissage avec des données multimédia, des données langagières pour des problématiques issues du traitement du langage naturel, les thématiques de transparence des mécanismes d’apprentissage, ainsi que les applications en biologie, santé, sciences sociales via les réseaux sociaux, en physique, en environnement, etc.
Le recrutement renforcera les liens entre le LIG et le LJK dans les domaines de la science des données et de l’apprentissage automatique. Les deux laboratoires sont localisés sur le campus de Saint Martin d’Hères et ont des collaborations actives, en particulier au sein de l’axe du traitement de données et de connaissance à large échelle (équipes AMA, GETALP, MRIM, SLIDE), des équipes PERVASIVE, TYREX du LIG et au sein du département Proba-Stat (équipes DAO, SVH, MISTIS, FIGAL) et de l’équipe THOTH du LJK.
La personne recrutée choisira son laboratoire d’affectation (LIG ou LJK) ; elle aura à jouer un rôle actif dans les projets académiques et industriels sur ces thèmes très porteurs.

Formation et compétences requises :

Adresse d’emploi :
Ensimag
681 rue de la Passerelle
38402 Saint Martin d’Hères

Document attaché : FOPC_0381912X_4075.pdf

Sep
3
Mon
2018
Enseignant-chercheur junior (MCF) dans le domaine de l’intelligence artificielle (section 27).
Sep 3 – Sep 4 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CentraleSupélec – Laboratoire MICS
Durée : CDI (Poste LRU)
Contact : celine.hudelot@centralesupelec.fr
Date limite de publication : 2018-09-03

Contexte :
Centrale Supelec recrute un Enseignant-chercheur junior (MCF) dans le domaine de l’intelligence artificielle.

Sujet :
Enseignement :

Le candidat retenu fera ses enseignements dans le département d’informatique notamment pour des activités pédagogiques de base du nouveau cursus ingénieur (algorithmique, programmation…). Il participera aux enseignements de la dominante Informatique & Numérique et des cours de spécialisation en Intelligence Artificielle sur les 3 années du cursus.

En particulier, le candidat sera impliqué dans la mise en œuvre du nouveau cursus où il est attendu qu’il s’engage plus particulièrement dans la mention Intelligence Artificielle (dernière année de formation du cursus CentraleSupélec).

Le candidat pourra aussi prendre part à différentes activités pédagogiques du cursus en lien avec ses travaux de recherche (proposition d’un projet dans le parcours Recherche, projets dans les pôles IA & Sciences des données, études de cas dans la Filière Métiers de la Recherche).

Une aisance à dispenser les enseignements en anglais serait fortement appréciée.

Recherche :

Le laboratoire de Mathématiques et Informatique pour la Complexité et les Systèmes (MICS, EA4037) de CentraleSupélec s’intéresse à l’analyse mathématique et informatique des systèmes et données complexes, qu’ils proviennent du vivant, de l’industrie, des sciences sociales ou de l’information.
Le laboratoire recrute un maître de conférences en Intelligence Artificielle pour renforcer son activité de recherche dans ce domaine. Les thématiques prioritaires sont la représentation de la connaissance et du raisonnement, l’apprentissage profond de représentations et le transfert de connaissances pour l’interprétation de données non-structurées complexes, l’IA et la décision et plus généralement les problématiques relatives à l’explicabilité et l’interprétabilité des systèmes d’IA. Le candidat devra avoir fait preuve de contributions pertinentes et originales en recherche dans ces domaines, en ayant démontré à la fois des capacités d’abstraction théorique, de formalisation et un intérêt fort pour les applications. Il lui sera aussi demandé d’être à l’initiative de projets de recherche collaborative au sens large avec le souci d’appliquer les résultats sur des données du monde socio-économique, multimédia ou du vivant.

La/le maître de conférence recruté(e) effectuera ses recherches au sein de l’équipe LOGIMAS dans laquelle elle/il renforcera l’axe concernant l’analyse et l’interprétation sémantique de données non-structurées et elle/il participera aussi à l’axe transverse en data science du laboratoire. Ces axes ont de nombreuses interactions avec d’autres équipes et laboratoires de CentraleSupélec, en particulier l’équipe DA du LGI, ou encore l’équipe ITA du L2S, le CVN ou le LRI. La/le candidat(e) devra ainsi démontrer une ouverture aux différentes approches possibles dans le domaine de l’IA par exemple par la proposition d’un projet d’intégration transverse à ces différentes équipes.

Profil du candidat :
Le candidat devra avoir fait preuve de contributions pertinentes et originales en recherche dans le domaine de l’Intelligence Artificielle.

Formation et compétences requises :
Doctorat en Informatique.

Adresse d’emploi :
CentraleSupélec
Bâtiment Bouygues
9-9 bis, 9 ter rue Joliot Curie – 91 190 Gif-sur-Yvette

Document attaché : profil_lru_cdi_mcf_mics_dept_informatique_ia_-_2.pdf

Sep
5
Wed
2018
Développement d’interopérabilité entre ressources bioinformatiques
Sep 5 – Sep 6 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Institut Français de Bioinformatique (IFB)
Durée : 12 mois renouvelables
Contact : marie-dominique.devignes@loria.fr
Date limite de publication : 2018-09-05

Contexte :
L’Institut Français de Bioinformatique (IFB) est une Infrastructure Nationale qui regroupe 31 plateformes régionales de bioinformatique et une unité coordinatrice, IFB-core (UMS 3601, CNRS). Ses missions principales sont les suivantes.
Déployer une infrastructure physique et logicielle de services en bio-informatique.
Offrir un appui aux programmes de recherche en biologie, santé, environnement, biotechnologies et agronomie, via une expertise et des compétences mutualisées.
Proposer des formations continues en bioinformatique pour biologistes et bioinformaticiens.
Développer une vision stratégique pour maintenir la France au plus haut niveau d’expertise pour l’analyse des données biologiques, et donner accès aux technologies de pointe dans le domaine bioinformatique.
Développer des outils innovants pour répondre aux défis de la bioinformatique intégrative.
Servir de levier pour la conception et la mise en œuvre de projets de recherche nationaux ambitieux.
Assurer la représentation internationale de la communauté bioinformatique française, en particulier au sein du réseau européen ELIXIR (https://www.elixir-europe.org/).

Parmi les actions définies pour le développement de cette Infrastructure figure l’interopérabilité des données, des outils et des workflows accessibles sur les plateformes. L’objectif est de faire coopérer de manière efficace les nombreuses ressources bioinformatiques utilisées et mises à disposition sur les plateformes. Les solutions existent mais elles varient en fonction des domaines d’application et elles ne sont pas toujours implantées sur les plateformes.

Dans ce but, l’IFB recrute un ingénieur d’études ou de recherches (selon les diplômes présentés) dont les missions seront sur toute la durée du projet d’analyser les besoins en interopérabilité des plateformes et d’accompagner leur gain en interopérabilité, à la fois par le moyen de réalisations concrètes du type preuve de concept et par l’aide au déploiement des solutions sur l’ensemble des plateformes.

Affectation et lieu d’exercice : L’ingénieur sera affecté à l’unité CNRS IFB-core mais son lieu de travail pourra être l’une ou l’autre des plateformes bioinformatiques, selon les contraintes de l’encadrement et celles du candidat. L’ingénieur sera amené à se déplacer auprès des différentes plateformes pour rencontrer les personnes en charge de l’interopérabilité.

Salaire : selon les grilles du CNRS en lien avec le diplôme et l’expérience.

Pour candidater fournir un CV et une lettre de motivation et éventuellement une ou plusieurs lettres de recommandation avant le 5 septembre 2018 à l’attention de : Marie-Dominique Devignes marie-dominique.devignes@loria.fr

Sujet :
**Missions**
La première mission de l’ingénieur(e) recruté(e) est d’être un ambassadeur de l’interopérabilité auprès de projets pilotes et des plateformes de l’IFB. Il s’agira d’initier et de maintenir un inventaire des pratiques sur les plateformes de l’IFB en termes d’interopérabilité mais aussi de transmettre des suggestions de solutions selon les standards utilisés au sein de l’IFB et les bonnes pratiques recommandées au niveau européen par le consortium Elixir (https://www.elixir-europe.org/).

La deuxième mission (qui pourra être menée en parallèle) sera de réaliser une preuve de concept pour l’interopérabilité au niveau des plateformes de l’IFB. Le ou les plateformes sélectionnées pour la preuve de concept seront choisies en lien avec les responsables de l’action interopérabilité. Le CDD devra alors développer ou adapter les outils nécessaires pour l’implantation des solutions, avec une documentation permettant de les déployer ultérieurement sur d’autres plateformes.

La troisième mission (en lien avec l’action de Formation de l’IFB) sera de participer à l’organisation de journées d’information et de formation sur l’interopérabilité pour faire connaître les solutions existantes et partager les expériences.

**Activités**
Réaliser une enquête auprès des plateformes pour collecter leurs besoins en interopérabilité (avec interviews de suivi si nécessaire), compilation des informations sous forme d’un inventaire actualisable.
Maintenance d’une documentation en ligne sur le site de l’IFB pour les solutions et bonnes pratiques d’interopérabilité préconisées par l’IFB, en cohérence avec les pratiques en cours et les recommandations internationales (Elixir en priorité mais aussi le W3C, etc.).
Réalisation d’un démonstrateur de gain en interopérabilité au niveau d’une plateforme sélectionnée.
Développement logiciel et assistance aux plateformes pour implanter les outils d’interopérabilité correspondant à leurs besoins.
Participation à l’organisation d’une journée-atelier sur une solution d’interopérabilité (ex : WAVES, http://www.atgc-montpellier.fr/waves/)

Profil du candidat :
Ingénieur d’études ou de recherches (selon les diplômes présentés) dont les missions seront sur toute la durée du projet d’analyser les besoins en interopérabilité des plateformes et d’accompagner leur gain en interopérabilité, à la fois par le moyen de réalisations concrètes du type preuve de concept et par l’aide au déploiement des solutions sur l’ensemble des plateformes.

Formation et compétences requises :
**Expérience**
Stages ou expérience professionnelle dans le domaine de l’interopérabilité.
Une expérience de travail en milieu interdisciplinaire avec des outils bioinformatiques et des bases de données biologiques (NCBI/EBI, etc.) est un plus.

**Connaissances**
Niveau M2 minimum, en Informatique ou Bioinformatique.

**Compétences opérationnelles**
ƒƒLangages de programmation : java, python, javascript.
Outils d’interopérabilité : HTTP, REST, Microservices API REST, etc.
Bases de données et de connaissances, ontologies : SQL, NoSQL, RDF, SPARQL, Neo4J.
La connaissance de systèmes de workflows (Galaxy, NextFlow, SnakeMake, CWL…) est un plus.

**Compétences comportementales**
Travail en équipe, interactions avec des personnes réparties sur le territoire national, rédaction de compte-rendus, bonne maîtrise de l’anglais (écrit).

Adresse d’emploi :
L’ingénieur sera affecté à l’unité CNRS IFB-core mais son lieu de travail pourra être l’une ou l’autre des plateformes bioinformatiques, selon les contraintes de l’encadrement et celles du candidat. L’ingénieur sera amené à se déplacer auprès des différentes plateformes pour rencontrer les personnes en charge de l’interopérabilité.

Document attaché : A2.3_interoperabilite_ficheCDD_CNRS_9aout2018.pdf

Sep
7
Fri
2018
[URGENT] 2 postes d’ATER 27 IRISA / IUT Vannes
Sep 7 – Sep 8 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : IRISA (Vannes)
Durée : 1 an
Contact : sebastien.lefevre@irisa.fr
Date limite de publication : 2018-09-07

Contexte :
L’Université Bretagne Sud offre 2 postes d’ATER (démarrage 1er octobre 2018) en informatique.

Enseignement à l’IUT de Vannes (département informatique).

Recherche au sein de l’UMR IRISA dans l’une des 4 équipes localisées à Vannes (notamment les équipes OBELIX et EXPRESSION dans le périmètre du GDR MADICS).

Date limite de dépôt des dossiers : 6 septembre 2018 !

Plus de détail sur le site de l’UBS : http://www.univ-ubs.fr/fr/universite-bretagne-sud/organisation-2/emplois-carrieres/vous-souhaitez-enseigner.html (postes 5210 et 0118).

Si vous êtes intéressés par une intégration dans l’équipe OBELIX, merci de prendre contact par mail (sebastien.lefevre@irisa.fr).

Sujet :
[URGENT] ATER en Informatique (IUT Vannes / IRISA)

Profil du candidat :
Informatique

Formation et compétences requises :
Informatique

Adresse d’emploi :
Vannes

Document attaché :

Sep
15
Sat
2018
Ingénieur Big Data en Sciences de la Vie
Sep 15 – Sep 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LS2N
Durée : 12 mois
Contact : alban.gaignard@univ-nantes.fr, hala.skaf@univ-nantes.fr
Date limite de publication : 2018-09-15

Contexte :
En médecine moderne, la combinaison de données génomiques, cliniques et d’imagerie tend à se généraliser pour le développement de nouvelles approches diagnostiques et pronostiques. INEX-MED est un projet pilote en biologie intégrative de l’Institut Français de Bio-informatique (IFB). Il vise à développer une infrastructure de données et d’algorithmes FAIR (Findable, Accessible, Interoperable, Reusable) pour l’intégration, l’exploitation et la modélisation (sémantique/statistique) à partir de sources de données biomédicales massives et hétérogènes. Cette infrastructure sera exploitée et validée via des approches intégratives afin d’améliorer les diagnostics/pronostics pour (i) l’étude de la formation et du développement des anévrismes intracrâniens, et (ii) l’aide au diagnostic des différentes formes de myopathies.
L’Institut Français de Bio-informatique (IFB) est l’infrastructure nationale de service en bio-informatique créée dans le cadre du programme national des Investissements d’Avenir. L’IFB fédère 31 plateformes régionales de bio-informatique dont les plateformes BiRD à Nantes et BiSTRO à Strasbourg.

Sujet :
Dans un contexte fortement interdisciplinaire, et en collaboration avec les ingénieurs, chercheurs et cliniciens du projet, l’ingénieur(e) recruté(e) aura pour objectif de développer une infrastructure sécurisée de données liées (Linked Data) et de constituer une base de connaissances intégrant des données cliniques, génomiques, et d’imagerie. L’accent sera mis sur la réalisation d’une infrastructure générique, modulaire et portable sur les ressources de l’IFB et réutilisable par l’ensemble de la communauté biomédicale.

L’ingénieur(e) recruté(e) aura pour principales missions :
* de sélectionner et d’étendre si nécessaire les vocabulaires contrôlés et ontologies pertinentes
* de proposer un catalogue de requêtes (SPARQL) sur les jeux de données alignés
* de développer des APIs REST sécurisées qui encapsulent ces requêtes et rendent possible l’exploitation statistique des données (apprentissage automatique)
* de déployer sur le cloud de l’IFB cette infrastructure de données

Profil du candidat :
Ingénieur en informatique ou bio-informatique ayant une expérience en Web Sémantique et des connaissances en apprentissage automatique.

Formation et compétences requises :
– Formation d’Ingénieur ou de Master 2 en informatique ou bio-informatique
– Expérience des méthodologies de développement logiciel, et d’au moins un langage de programmation tel que Java ou Python
– Maîtrise des concepts et technologies des bases de données, du Web Sémantique et des technologies Web
– Des notions en apprentissage automatique seraient un plus
– Maîtrise de l’anglais oral et écrit
– Capacité de synthèse et rédactionnelle, curiosité, initiative, sens de l’organisation et du travail en équipe

Adresse d’emploi :
LS2N
Université de Nantes – faculté des Sciences et Techniques (FST)
Bâtiment 34
2 Chemin de la Houssinière
BP 92208, 44322 Nantes Cedex 3

Document attaché :

Sep
28
Fri
2018
Ingénieur DevOps / Administrateur Systèmes et Réseau
Sep 28 – Sep 29 all-day

Annonce en lien avec l’Action/le Réseau : Innovation

Laboratoire/Entreprise : CNRS mais l’ingénieur recruté pourrai être à : Strasbourg, Roscoff ou Bordeaux
Durée : 12 mois + 24 mois
Contact : victoria.dominguez@france-bioinformatique.fr, lecorguille@sb-roscoff.fr, seilerj@igbmc.fr
Date limite de publication : 2018-09-28

Contexte :
L’Institut Français de Bioinformatique (IFB) est une infrastructure nationale qui regroupe 31 plateformes régionales de bioinformatique et une unité coordinatrice, IFB-Core (UMS3601). A l’horizon 2020, l’IFB fait évoluer son infrastructure, vers un environnement réparti pour le traitement des données (NNCR : National Network of Computational Resources). Cet environnement repose notamment sur une infrastructure répartie de calcul de type HPC (NNCR-cluster) incluant une première ressource de 2000 cœurs et 1 Po de stockage. Le NNCR-cluster rassemble/regroupe des composants pour le calcul (SLURM…), le stockage (NFS, stockage GlusterFS) et pour la virtualisation (ProxMox). Il est élaboré par un collectif d’une quinzaine d’ingénieurs de plateformes régionales de l’ensemble du dispositif IFB.

Afin de renforcer cette équipe, l’IFB recrute un ingénieur DevOps, développement des applications (Dev) et de l’exploitation des systèmes (Ops). Il/Elle aura pour principale mission de contribuer au développement, au déploiement et au maintien en condition opérationnelle de cette infrastructure. L’ingénieur sera amené à effectuer des déplacements sur l’ensemble du territoire Français. Il/Elle sera également amené/e à interagir fréquemment avec les différents acteurs impliqués dans cette mise en place. L’ingénieur sera recruté par l’UMS 3601 (CNRS) de l’Institut Français de Bioinformatique (IFB). Pour la réalisation de ses missions, il/elle sera accueilli au sein d’une des plateformes de l’IFB impliquée directement dans la mise en oeuvre de ce projet, et bénéficiera ainsi d’un encadrement technique adapté au service du collectif.

Sujet :
Développer des recettes ou formules de déploiement pour différents composants de l’infrastructure NNCR.
– Développer des outils logiciels pour l’administration du système.
– Déployer ou développer des composants Web pour la gestion du système et/ou à destination des utilisateurs.
– Porter des outils et environnements sous des FrameWork WEB.
– Participer à l’administration d’une infrastructure de calcul de 2000 cœurs et 1 Po de stockage.
– Contribuer aux installations des outils du domaine et des processus automatiques des banques de données.
– Référencer et documenter les développements.
– Assurer une veille technologique.

Profil du candidat :
– Maîtrise d’au moins un langage de scripting (Python…).
– Maîtrise des outils et technologies WEB (NGINX, Apache, etc.).
– Maîtrise d’un outil de déploiement automatique (Ansible, Salt, …).
– Maîtrise des outils de versionning git.
– Bonne connaissance des solutions de conteneurs et de gestion d’infrastructures pour applications conteneurisés.
– Bonne connaissance des méthodes d’authentifications et des annuaires (LDAP…).
– Bonne connaissance des environnements Linux (CentOS…) et techniques de virtualisation.
– Notions générales en architecture système et réseau .
– Compréhension de l’anglais oral et écrit.
– Etre capable de documenter, notamment sur des systèmes de type WiKi.

Formation et compétences requises :
Ingénieur réseaux/DevOps Bac +5

Adresse d’emploi :
Envoyer CV + lettre de motivation à:
lecorguille@sb-roscoff.fr et seilerj@igbmc.fr

Document attaché :

Sep
30
Sun
2018
Spin-Off Inria recherche son futur CTO
Sep 30 all-day

Annonce en lien avec l’Action/le Réseau : Innovation

Laboratoire/Entreprise : PAM – Spin-Off Inria
Durée : 1 an
Contact : jean-francois.bouin@inria.fr
Date limite de publication : 2018-09-30

Contexte :
Spin-off INRIA, PAM est un éditeur de logiciel dédié à la maintenance prédictive pour l’industrie. Forts de plusieurs collaborations avec des industriels d’envergure, nous voulons poursuivre le développement vers une solution intégrant les technos de R&D les plus récentes, tout en répondant aux besoins exprimés par les experts terrain.

Aujourd’hui PAM c’est un CEO, une BizDev/Marketing et un chercheur INRIA, conseiller scientifique. PAM n’est pas encore créée, c’est le début de l’aventure !

Sujet :
Etablir notre roadmap technologique et mettre au monde notre produit.

Profil du candidat :
Data-scientist expérimenté
Performant, pragmatique, tourné vers l’action et positif

Formation et compétences requises :
• Titulaire d’un diplôme d’Ingénieur et/ou Doctorat
• Compétences solides en Machine Learning et apprentissage statistique (algorithmes de clustering, svm, régression logistique, random forest),
• Expérience de mise en production de solutions de Machine Learning
• Maîtrise de R, C++, Python, Java

Adresse d’emploi :
Campus Euratechnologies, 165 avenue de bretagne, Lille

Document attaché : CTO PAM.pdf

CDD/Post-doc in biostatistics and bioinformatics: Innovative mathematical methods for the integration of omics data
Sep 30 – Oct 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CEA Saclay, Institut LIST, Laboratoire Analyse de Données et Intelligence des Systèmes
Durée : 2 years
Contact : etienne.thevenot@cea.fr
Date limite de publication : 2018-09-30

Contexte :
Proteomics and metabolomics provide unique and complementary information to decipher gene function and pathways, elucidate phenotypes, and robustly discover new biomarkers for disease treatments.

Integration of both approaches is a mathematical challenge because of the heterogeneity and the complexity of the proteomics and metabolomics data, and the partial annotation (i.e. metabolite identification) provided by the metabolomics mass spectrometry technologies.

The national infrastructures in bioinformatics (IFB), metabolomics (MetaboHUB), proteomics (ProFI), genomics (France Génomique), and mouse phenogenomics (PHENOMIN) have decided to join forces and develop new biostatistics and bioinformatics methods and tools for high-throughput and combined proteomics and metabolomics data analysis.

Sujet :
First, statistical modeling will be used to explore the specific and common information from each type of omics data, and to determine how their combination as molecular signatures can optimally be used to interpret and predict the phenotypes. Such approaches will include linear and nonlinear methods for multivariate analysis.

Second, network integration will be used to facilitate interpretation and annotation of the data. Proteins and metabolites will be mapped on the metabolic networks to facilitate chemical annotation and biological interpretation, and to suggest new biomarkers and metabolic functions.

The mathematical approaches and tools will be validated on two use cases: 1) the high-throughput molecular phenotyping of comprehensive collections of mouse models and 2) the discovery of new gene functions in a bacterial model of interest for environmental and biotechnological applications.

Profil du candidat :
Interested applicants should have a strong background in statistics (data analysis, network analysis), and be motivated by multidisciplinary applications (chemistry, biology, clinic).

Formation et compétences requises :
statistics, data analysis, network analysis, chemometrics
R software

Adresse d’emploi :
Etienne Thévenot (CEA Saclay, Laboratory for Data Analysis and Systems’ Intelligence)
Email: etienne.thevenot@cea.fr
Web: http://etiennethevenot.pagesperso-orange.fr/index.html

David Vallenet (CEA Evry, Laboratory of Bioinformatics Analyses for Genomics and Metabolism)
Email: vallenet@genoscope.cns.fr
Web: http://orcid.org/0000-0001-6648-0332

Document attaché : cdd-postdoc-offer_applied-statistics_cea-france.pdf

Fully funded 2-year full-time Postdoc research position In Big Data/AI applied to Managerial Cognitions jointly between the MIDI team of the ETIS Lab UMR 8051 and the Management Department of ESSEC Business School
Sep 30 – Oct 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : ETIS / University of Cergy Pontoise and ESSEC Business School
Durée : 24 months
Contact : Dimitrios.Kotzinos@u-cergy.fr
Date limite de publication : 2018-09-30

Contexte :
Computer Sciences/Big Data/AI
Techniques and methods to be developed belong to the following Big Data /AI areas of current computer science research:
* modelling and capturing of opinions/beliefs using Big Data, Machine Learning and Artificial Intelligence methods,
* learning from natural data sources (e.g., online discussions)
* information diffusion, opinion dynamics and social networks

Substantive Application: Management Cognitions
Entrepreneurs tend to share their points of view on how to manage their firm, for instance by expressing their beliefs on Twitter, which constitute Òtheory of actionÓ. If we assume a limited set of such higher order keystone theories have a significant effect on actorsÕ activities and actions, the determination of such set is a hard combinatorial problem. Conceptually, it may be resolved in the field by Òsocial calculationsÓ, those iterative rounds of communication, enactment and selection of beliefs among a large population of entrepreneurs. Because of this process of emergence, belief about theories of action should therefore exhibit particular properties (e.g., polymorphous) and follow particular dynamics (e.g., phase transitions). So far, those properties have not been verified in the field, beyond conducting limited manual qualitative analyses.

Sujet :
RESEARCH OBJECTIVES
Substantive Application
We plan to capture and model the belief system of entrepreneurs as they are shared in social media or other communication means. This should allow to verify and further elaborate on the properties and dynamics of beliefs system in communities of entrepreneurs, in particular through non-linear modelling (phase transitions, interactions). This would provide information on their validity and robustness. There is also great potential if such analyses can be extended to other managerial contexts, for instance to the belief system of employees inside a firm, using data sources such as email trails.

Computer Science/Big Data/AI
Modelling and capturing opinions and their evolution in a managerial context is a new exciting area of interdisciplinary research. The work will combine properties arising from the social (online and professional) networks of the management personnel with text analytical functions in order to form a model of beliefs (opinions) and then track the evolution of this model through subsequent interactions. We plan to do this through a series of learning and mining tasks over dynamic data, since we are interested in capturing the temporal aspects of such models.

The main objective of the postdoc will be to complete studies pushing the boundary of Big Data/AI techniques in order to better understand managerial cognitions. Besides the usual publishing of research papers in high-end journals/conferences both in Big Data/AI and management studies (in collaboration with the study’s PIs, Profs. Kotzinos & Cavarretta). We would like to also present at the end a toolkit that would allow us to repeat such studies in the future.

Profil du candidat :
The applicant should have successfully defended a PhD in computer science, big data, machine learning, data science or related field. Applicants that will defend their PhDs before or around the beginning of the project (11/2018) are also welcome to apply.

Formation et compétences requises :
REQUIREMENTS
* The applicant should have successfully defended a PhD in computer science, big data, machine learning, data science or related field. Applicants that will defend their PhDs before or around the beginning of the project (11/2018) are also welcome to apply.
* The applicant should demonstrate ability and experience in developing applications to execute applied computer science projects. Experience in tools used for big data analytics (in R, Python, Java or all) is a plus (additionally if applied in a cloud environment).
* Language: the working language will be English

Adresse d’emploi :
LOCATION
Cergy-Pontoise (suburb of Paris France)

INSTITUTIONAL CONTEXT
The funding for this research is provided by Paris Seine Initiative of Excellence. We expect the successful applicant to be one of the driving forces behind the newly established collaboration between the two entities mentioned above. The postdoc will be affiliated and located in the ETIS lab at the University of Cergy-Pontoise, and will work jointly with both Professor Fabrice Cavarretta (ESSEC Business School) and Professor Dimitris Kotzinos (ETIS / Paris Seine University) and their respective groups.

TENTATIVE STARTING DATE:
November 2018 or as soon as possible thereafter.

APPLICATION
If interested, please send your application (including a detailed CV, university transcripts, a copy of the PhD thesis and/or scientific papers if available, as well as a list of personal references and a motivation letter) in PDF format to Professor Dimitris Kotzinos (Dimitrios.Kotzinos@u-cergy.fr) and cc: Professor Fabrice Cavarretta (cavarretta@essec.edu) with title ÒPostdoc INEXÓ. Further informal enquiries are also welcome.

Applications will be welcome until the position is filled, those submitted before 15/09/2018 will be considered in priority.

Document attaché : PostDoc-descr-INEX.pdf

Post – Doc Development of statistical models for oncology applications
Sep 30 – Oct 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Ecole P olytechnique CMAP / INRIA Xpop
Durée : 12 mois
Contact : Marc.Lavielle@inria.fr
Date limite de publication : 2018-09-30

Contexte :
In cancer, the most dreadful event is the formation of metastases that disseminate tumor cells throughout the organism. WAVE complexes are molecular machines composed of 5 subunits, most of which can be encoded by paralogous genes.
In several cancers, a high level of subunit expression has been associated with high grade and poor prognosis.
qRT-PCR has been used to systematically analyze the expression of all 11 genes encoding WAVE complex subunits in breast tumors from a retrospective cohort of patients with known clinical parameters and outcome. We could derive an optimal multivariate Cox model of metastasis-free survival (MFS) using expression levels of only two subunits, NCKAP1 and CYFIP2. Experimental results thus validated the prediction of the MFS statistical model and revealed an unexpected anti-
migratory function of the paralogous CYFIP2 subunit.

The very satisfactory results of this approach in breast cancer have incited us to apply it for cutaneous melanoma. Indeed, cutaneous melanoma is a cancer, where the primary tumor can easily be removed by surgery. However, this cancer is of poor prognosis because melanomas metastasize often and rapidly. The objective is therefore to
extend the method previously developed in breast cancer in order to
build a metastasis-free survival model for cutaneous melanoma.

Sujet :
Project in collaboration with
the
Pharmacy Service
of the Europea
n
Hospital
Georges Pompidou
(
AP
HP
)
and the
team of
Pharmaceutical Analytical Chemistry
, University P
aris Sud
.
Therapeutic
drug
monitoring
(TDM)
is based on the measurement of blood concentrations to adjust
the dosage of drugs. It is one approach to personalized medicine; it is still not widely used in oncology.
However, in vi
ew of their narrow therapeutic margins, the significant inter

individual
pharmacokinetic variability, and the relationships between concentration and described clinical
response, anticancer drugs are excellent candidates for the individualization of dosage
regimens to
optimize management and reduce the risks of toxicity.
The
aim
of this project is to develop a new fast, sensitive and reliable analytical tool for the
TDM
of
anti

cancer drugs. The
objective
is to combine the contribution of nanotechnologies and
co
mputa
tional
statistics
to the development of robust prediction models in order to offer patients the possibility of
real

time
TDM
of these molecules.
The postdoc will contribute to the development o
f classification models (prediction of the molecule in
solution) and regression models (prediction of the concentration of this molecule) in order to guarantee
the physico

chemical quality of the drugs prepared in hospital.
To build these models, experimen
tal Raman spectrum data will be acquired from samples containing
increasing and known amounts of molecules of interest covering their therapeutic concentrations.

Profil du candidat :
Post-doc

Formation et compétences requises :
PhD required

Adresse d’emploi :
center of applied mathematics at Ecole Polytechnique
CMAP (http://www.cmap.polytechnique.fr)
joint Inria-CMAP team Xpop

Document attaché : offre_postdoc.pdf

Software Engineer or post-doc with good computing skills for the CONCERTO [CII] intensity mapping experiment
Sep 30 – Oct 1 all-day

Annonce en lien avec l’Action/le Réseau : MAESTRO

Laboratoire/Entreprise : Laboratoire d’Astrophysique de Marseille
Durée : 2 years
Contact : guilaine.lagache@lam.fr
Date limite de publication : 2018-09-30

Contexte :
The CONCERTO collaboration invites applications for a software engineer or post-doctoral position at the Laboratoire d’Astrophysique de Marseille. The applicant will join the GECO group (containing ~40 faculty members, working on thematic ranging from stars to cosmology), as well as the CeSAM Astrophysical Data Center of Marseille, which is developing software, WEB based applications, databases, numerical simulations and Image processing modules.

The starting date is around October, 2018. Women and minorities are encouraged to apply.
Application deadlines 30th of August 2018
Current Status of Position: Accepting applicants

Sujet :
CONCERTO is a new spectrometer, based on the state-of-the-art development of new arrays in the millimeter using Kinetic Inductance Detectors. Spectra are obtained by a fast Martin-Puplett interferometer operating in the frequency domain 125-360 GHz. The instrument is being developed at the Institut Néel in Grenoble. It is planned to install CONCERTO in Jan 2021 on the APEX Antenna which is a 12-m antenna located in Northern Chile, at an altitude of 5105 m above sea level. Main goal of CONCERTO is intensity mapping of the [CII] emission line at high redshift (4.5

Profil du candidat :
We seek for a software engineer (or a post-doc with good computing skills, python or C++) to produce detailed simulations of CONCERTO observations using a physical parametric model of the entire instrument. Such simulations have two cornerstones: i) the instrument model itself (that will describe e.g., the different pointing strategy, the optical coupling to the telescope, and the readouts electronics coupling) ii) the description of all the possible sources of noise in the observations. Aided by these simulations, the applicant will also build a classical data reduction pipeline. This work will benefit from the unique experience gained by our team of observing with the NIKA2 KIDs camera.

The successful application will have an experience in either the development of data reduction pipeline (preferentially in the IR, far-IR and (sub-)millimeter wavelengths) or in developing a physical parametric model of an entire instrument. Moreover, as CONCERTO will produced 1PB of data for its main [CII] survey, an expertise in distributed data management, HPC and big data would be very valuable.

Formation et compétences requises :
good computing skills, python or C++
Object oriented languages
English level 2
expertise in data management
Signal or image processing skills will be welcome
HPC and big data knowledge will be welcome

Adresse d’emploi :
Laboratoire d’Astrophysique de Marseille
38 Rue Joliot Curie, technopole de chateau Gombert
Marseille
https://www.lam.fr/cesam/?lang=en
https://www.lam.fr/

Document attaché :

Oct
1
Mon
2018
Post-Doct position on speaker identification
Oct 1 – Oct 2 all-day

Annonce en lien avec l’Action/le Réseau : Doctorants

Laboratoire/Entreprise : GREYC
Durée : 18 months
Contact : luc.brun@ensicaen.fr
Date limite de publication : 2018-09-31

Contexte :
The postdoctoral position is funded under the research project HomeKeeper supported by the French National Future Investments Program. The HomeKeeper project gathers companies and universities around the design of a personal home speaker assistant that communicates with humans through sound media. Within this framework, the personal assistant should be able to discriminate the different persons living in a house and entitled to communicate with it.

Sujet :
Objectives and challenges:
—————————
Several bottlenecks will have to be overpassed in order to perform the speaker identification. The first one will consists in defining a deep learning architecture sufficiently generic for the framework of the application. The second challenge will consists to deal with the reduced number of available data. This problem is particularly challenging in the deep learning context which usually require huge mass of data in order to perform an accurate learning. The insight of the project will be focused on these two points, the second one being hardly addressed by the literature.

Work plan:
———–
The position will start by a large state of the art and an encoding of the best non deep methods. This first step should take 3 months and will allow to provide a first result to the other partners of the project.
The second step, evaluated to 6 months will consists in designing a deep learning architecture and to train it in order to identify several members of the project.
The last step, evaluated to 3 month, will consists in designing a first functional prototype and to evaluate its performances (in terms of size of the training set, precision and recall) when a deep network is trained on a new set of persons. This new training will be performed either thanks to random weighs or thanks to the weighs obtained at the previous step. The network architecture will remain unchanged.

Profil du candidat :
The candidate must have a recent Ph.D. (within 5 years) in Computer Science (or Applied Mathematics) in the filed of Machine Learning. Knowledge and experience within the Deep Learning frameworks is also very welcomed. The candidate will perform research and algorithmic development and solid programming skills are required. Excellent interpersonal skills and the ability to work well individually or as a member of a project team are recommended. Good written and verbal communication skills are required, the candidate has to be fluent in spoken French or English and written English. Working language can be English or French.

Formation et compétences requises :
A recent Ph.D. (within 5 years) in Computer Science (or Applied Mathematics) in the filed of Machine Learning.

Adresse d’emploi :
Caen, France in the GREYC UMR CNRS laboratory. Situated in the Normandy region of France close to the sea and about 240km west of Paris; the city still has many old quarters, a population of around 120,000; the city area has roughly 250,000 inhabitants.

Some photos: https://caen.maville.com/info/detail-galerie_-Caen-en-images-_344_GaleriePhoto.Htm

Document attaché :

Oct
17
Wed
2018
Poste PR en informatique (section 27) – INSA Lyon (dept. informatique) – LIRIS
Oct 17 – Oct 18 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : INSA Lyon (dept. informatique) – LIRIS
Durée : Permanent
Contact : mohand-said.hacid@liris.cnrs.fr
Date limite de publication : 2018-10-17

Contexte :
Notre formation multi-métiers en Informatique exige un socle scientifique et technique solide dans 4 grands domaines: le «Développement Logiciel
», les «Systèmes d’information», les «Architectures, Systèmes et Réseaux», et enfin les «Mathématiques etOutils de Modélisation».
Nos mouvements de personnels récents et nos initiatives, avec notamment la refonte de l’ensemble de nos maquettes pédagogiques en 2016, font que nos besoins en enseignement sont insuffisamment
couverts avec un impact sur tous nos domaines de formation. Le besoin en enseignement est donc très ouvert mais avec des besoins urgents et prioritaires en science des données (gestion et exploitation de masses de données, intelligence artificielle et mathématiques appliquées à la valorisation de données). Nous attendons que le (la) cadre recruté(e)
s’implique rapidement dans le fonctionnement du département pour prendre en charge la responsabilité stratégique du développement des relations avec les entreprises.

Sujet :
La révolution numérique transforme la société et l’économie. Une nouvelle ère de recherche scientifique est apparue, fondée sur la richesse, la manipulation et l’exploitation des données, un des piliers de la science informatique. Dans ces perspectives, les avancées scientifiques dans une discipline donnée dépendent, en partie, de la façon dont ses chercheurs collaborent entre eux et avec les informaticiens.
C’est le concept du 4ème paradigme (http://www.astro.caltech.edu/~george/aybi199/4th_paradigm_book_complete_lr.pdf).
La personne recrutée développera ses activités de recherche dans le cadre des orientations scientifiques du LIRIS en science des données, données se prenant au sens large (texte, image, vidéo, son, …). Ces activités peuvent concerner la compréhension, l’intégration, la modélisation, l’analyse, la découverte de connaissances, ou l’interaction/visualisation. Ce poste de professeur viendra conforter les activités de recherche du LIRIS sur ce thème, qui se déclinent dans différents pôles scientifiques du LIRIS.
Ce profil est donc ouvert sur les problèmes de recherche en science de données, à condition de s’intégrer dans une des équipes du LIRIS (cf. http://liris.cnrs.fr/la-recherche/organisation).
La personne recrutée devra avoir démontré une certaine appétence pour mener des activités de transfert industriel dans des applications « big data » dans différents domaines d’activité. Une partie importante de la recherche effectuée au LIRIS s’étend à la frontière de la discipline informatique, au service de problématiques sociétales importantes. Certaines de nos activités de recherche se situent aux interfaces de l’ingénierie, des sciences humaines et sociales, des sciences de la vie et des sciences de l’environnement.

Profil du candidat :
Informatique et science des données

Formation et compétences requises :

Adresse d’emploi :
INSA de Lyon / Laboratoire LIRIS
20 avenue Albert Einstein
69621 Villeurbanne cedex

Document attaché : FOPC_0690192J_4230.pdf

Oct
30
Tue
2018
CDD Ingénierie Big Data pour des données de capteurs à Versailles
Oct 30 – Oct 31 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : Laboratoire DAVID/ Univ. de Versailles / Université Paris-Saclay
Durée : 18 mois
Contact : Karine.Zeitouni@uvsq.fr
Date limite de publication : 2018-10-30

Contexte :
Les nouveaux capteurs environnementaux miniatures offrent une opportunité de mesure en continu, en tout lieu, et en mobilité de l’exposition réelle des individus à la pollution atmosphérique. Le but du projet ANR Polluscope (polluscope.uvsq.fr) est d’évaluer sur le terrain les capacités et les limitations de ces nouveaux capteurs dans la compréhension fine de l’exposition individuelle à la pollution de l’air et de ses effets sur la santé, notamment chez des sujets atteints de troubles respiratoires. Pour y parvenir, des verrous scientifiques et technologiques sont à lever dont l’intégration des données de mobilité, le traitement et l’analyse de données imparfaites, etc.

Sujet :
Ce poste a pour objectif de concevoir et de développer un système d’information permettant la gestion scalable et la visualisation de données massives géolocalisées et datées sur l’exposition individuelle à la pollution de l’air. En s’appuyant sur l’écosystème Big Data, il s’agit de concevoir et mettre en place des services de pré-traitement de flux de données, et de requêtage afin, par exemple, de générer des statistiques, des graphiques et des cartes de suivi de la pollution et analyser l’exposition à la pollution sur toutes ses dimensions. Outre les données propres au projet POLLUSCOPE, le système visé exploitera des données ouvertes et divers outils open source. La mise en œuvre et le déploiement du système sont basés sur une approche micro-services et utilisent une plateforme CLOUD gérée au niveau national. L’ingénieur travaillera en équipe au sein du groupe ADAM du laboratoire DAVID. Il fera des visites au LSCE afin de former l’équipe à utiliser les logiciels développés.

Profil du candidat :
Le candidat doit détenir un diplôme de Master our d’école d’ingénieur en informatique, de préférence spécialisé en ingénierie ou sciences de données.
Une expérience dans le domaine Big data n’est pas exigée, mais c’est un plus.

Formation et compétences requises :
Niveau confirmé en Système et en développement d’applications (Service REST, Java, PHP, Python, bases de données) ;
Compétences appréciées dans l’une ou plusieurs de ces technologies : Cloud (Kubernetes, Docker) ; SIG (PostGIS, Geoserver, Geomesa) ; Big Data (Flume, Hadoop, Spark) ; Statistiques (R)

Adresse d’emploi :
Laboratoire DAVID
UFR des Sciences – Université de Versailles St-Quentin
45 Av. des Etats Unis
78000 Versailles
France

Document attaché : CDD_Polluscope_Versailles.pdf