Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Oct
1
Sun
2017
Poste – CDI – d’Enseignant-Chercheur en informatique et Data Science
Oct 1 – Oct 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : De Vinci Research Center – ESILV
Durée : CDI
Contact : jerome.da_rugna@devinci.fr
Date limite de publication : 2017-10-01

Contexte :
L’ESILV – http://www.esilv.fr/ – est une école d’ingénieurs généraliste post-bac dédiée aux technologies du numérique, située au cœur du quartier de la Défense à Paris. Habilitée CTI et membre de la CGE, l’école forme des ingénieurs dans tous les secteurs du numérique et propose quatre Majeures : Informatique Big Data et Objets connectés ; Ingénierie Financière ; Mécanique Numérique et Modélisation ; Nouvelles Energies.
Le De Vinci Research center – http://www.devinci.fr/research-center/ – est le laboratoire de recherche du groupe Léonard de Vinci. Il est composé de 45 enseignants-chercheurs répartis en 4 groupes de recherche : Business, Digital, Finance et Modélisation. Les thèmes de recherche du groupe Digital portent sur le Big Data et les services numériques ainsi que sur l’industrie 4.0.

Sujet :
Dans le cadre de la chaire de recherche « EMPREINTES NUMERIQUES » et de la chaire de recherche « BIG DATA FOR CUSTOMER EXPERIENCE » l’ESILV recrute un enseignant-chercheur en CDI. Cet enseignant-Chercheur participera activement à ces chaires et accompagnera les évolutions de l’école, en particulier dans les thématiques du Big Data et du traitement de données massives.
Le(a) candidat(e) se verra également confier des enseignements et des missions pédagogiques dans le cadre de la formation initiale et par apprentissage de l’ESILV. Le travail de recherche sera effectué au sein du groupe Digital, l’équipe spécialisée en Big Data du De Vinci Research Center.

Cette équipe comprend 7 enseignants-chercheurs et développe des activités de recherche sur la modélisation sémantique, le data mining et les algorithmes de traitement et de visualisation de données géolocalisées. L’analyse des données de réseaux sociaux est une des compétences majeures de l’équipe, notamment dans l’étude des pratiques touristiques. Le candidat devra s’inscrire dans ces thèmes de recherche.

Les activités assurées par l’enseignant-chercheur seront :
– Conduite d’une activité de recherche fondamentale ou appliquée donnant lieu à des publications de haut-niveau et des participations à de la recherche partenariale ;
– Participer à l’animation et au rayonnement des chaires de recherche
– Assurer une veille technologique constante pour rester au plus haut niveau et garantir une adéquation de la recherche avec l’état de l’art du domaine
– Enseignements en informatique, encadrement de projets, suivi d’apprentis et de stagiaires en entreprises ;
– Participation à la vie de l’école (jurys, promotion, évolution de programmes, etc.)

Profil du candidat :
Profil recherché :
• Docteur en informatique de formation
• Bonnes connaissances fondamentales logicielles (Structures de données, algorithmique, architecture)
• Une connaissance solide des techniques et des algorithmes d’analyse des données (statistiques/probabilités, techniques d’apprentissage supervisé et non supervisé, techniques de recommandation, optimisation)
• Aisance, dans les environnements de développement d’analyses de données (R ou équivalent)
• Expertise sur des outils de Dataviz : D3js, Tableau …
• Une expérience avec TensorFlow, ou dans le Deep learning et le NLP serait un plus
• Passion pour les nouvelles technologies

Formation et compétences requises :
Docteur en informatique de formation, le(a) candidat(e) devra posséder une expérience dans l’enseignement supérieur. Le candidat aura, conformément à la culture de l’école et du laboratoire, une maîtrise conjointe des techniques et des concepts de l’informatique et de son domaine d’expertise.

Adresse d’emploi :
PARIS LA DEFENSE

Document attaché : esilv-posteec-ibo1.pdf

Oct
10
Tue
2017
1-year Post-Doc Position – Machine Learning for Multiview
Oct 10 – Oct 11 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Laboratoire Hubert Curien, Université de Saint-Etienne
Durée : 1 or 2 years
Contact : emilie.morvant@univ-st-etienne.fr
Date limite de publication : 2017-10-10

Contexte :
Expected Starting date: December 2017/January 2018

KEYWORDS: Statistical Machine Learning Theory, Transfer Learning, Representation Learning, Multitask Learning, Multimodalities.

This position is proposed in the context of the french project LIVES for *Learning with Interacting ViEwS: theoretical framework, algorithms, and benchmarks* funded by the ANR – the french national research agency.
This project gathers 4 labs and one company: the **Laboratoire Hubert Curien (LabHC) of Saint-Etienne, the **Laboratoire d’Informatique de Paris 6 (LIP6)**, the **Laboratoire d’Informatique Fondamentale de Marseille (LIF)**, the **Institut des Neurosciences de la Timone (INT, Marseille)**, and **Ironova a company which promotes interactive gaming through sensor devices.**
It has for objective **the development of well-founded machine learning frameworks for learning in the presence of multiple and interacting view and its confrontation to real-world problems.** It covers a large spectrum from learning theory, algorithms to real applications in neuro-imaging and interactive gaming.

The Post-doc candidate will join the **Data Intelligence** research team of the **Laboratoire Hubert Curien** in Saint-Etienne (France), and will have the opportunity to collaborate with the other partners of the project.
The **Data Intelligence** team is specialized in machine learning, data mining and information retrieval, it is composed of 12 permanent researchers and ~15-20 non-permanent researchers. The candidate will be part of the machine learning project
of the lab whose main specific topics include statistical learning, learning theory, transfer learning, metric learning, representation learning, anomaly and fraud detection.

Website of our research group: https://laboratoirehubertcurien.univ-st-etienne.fr/en/teams/data-intelligence.html

** Working environment **

Saint-Etienne is a mid-size city (14th biggest city in France) and one of the cheapest in terms of living cost accommodation, food). It is 70 km from Lyon (45 min by train) and in a middle of a splendid regional park where skiing, hiking, climbing, biking are possible. The hosting research group has established expertise in relevant domains including statistical machine learning, transfer learning, metric and representation learning, unsupervised learning and computer vision. The successful candidate will have the opportunity to work in synergy with two Ph.D. students. The **expected salary is 2193 euros NET per month** (gross salary: 2727 euros), including health care.

Sujet :

Scientific objectives

The objective of this project is to propose new machine learning methods to fill the hole in the current multiview machine learning state-of-the-art by providing new theoretical work(s) based on the characterization of the interactions between views, and enabling the construction of new methods and algorithms for multiview learning.

Research topics of interest include but are not limited to:
– theoretical frameworks,
– representation learning approaches,
– transfer learning,
– development of new algorithmic approaches,
– dealing missing views,
– dealing with transfer learning.

Exploratory approaches in representation learning, transfer learning, dealing with missing data will be appreciated (but are not mandatory).

Application instructions

The candidates should send:
– a motivation letter explaining the relevance of the candidate for the position and including some preferred research topics on the subject,
– a CV (with a detailed list of publications and links to e.g implementations on Github),
– names and contact details of at least two references.
Priority will be given to applications received by *October 10th*, however applications will be accepted until the position is filled.
Important notice: the administrative constraints for hiring new fellows requires 2 months of procedure before the position starts.

Contacts

Dr Emilie Morvant,
emilie.morvant@univ-st-etienne.fr
Phone: (+33) 4 77 91 57 67

Pr Amaury Habrard,
amaury.habrard@univ-st-etienne.fr
Phone: (+33) 4 69 66 32 64

Profil du candidat :
We are searching for an *outstanding and highly motivated candidate* with:

– A PhD degree in machine learning.

– A list of excellent publications (at reference journals and conferences in machine learning and/or computer vision) that demonstrates the expertise of the candidate.

– Strong programming skills in languages such as Python. The candidate will need to show during the interview, examples of codes that he/she implemented.

Formation et compétences requises :
PhD degree in Machine Learning

Adresse d’emploi :
Laboratoire Hubert Curien
Rue du Professeur Benoit Lauras
42000 Saint-Etienne

Document attaché :

Oct
15
Sun
2017
POST-DOCTORANT INFORMATIQUE – Modèles de la chute d’une personne âgée : ontologie et modèle graphique probabiliste; vers un système interactif d’évaluation du risque de chute et de recommandations
Oct 15 – Oct 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LAMIH UMR CNRS 8201, UVHC
Durée : 12 mois
Contact : veronique.delcroix@univ-valenciennes.fr
Date limite de publication : 2017-10-15

Contexte :
projet ELSAT 2020 (Ecomobilité Logistique Sécurité et Adaptabilité dans les Transports à l’Horizon 2020),
Objectif Statégique (OS1) : L’humain dans les transports et sa mobilité, Projet 2 : Mobilité et sécurité des Personnes à Mobilité Réduite (PMR)

Sujet :
Dans le projet « Mobilité et sécurité des Personnes à Mobilité Réduite (PMR) », la démarche générale est centrée utilisateur et vise à concevoir des systèmes techniques, en respect des besoins et des caractéristiques humaines, favorisant la mobilité. L’un des objectifs est de caractériser et de modéliser la motricité et le comportement des personnes âgées et/ou présentant un handicap afin d’impacter les nouveaux systèmes pour la mobilité, pour que ceux-ci répondent à des besoins personnalisés. Ce projet, dans lequel s’inscrit le travail du post-doctorant, est éminemment pluridisciplinaire ; le travail demandé concerne la chute chez les personnes âgées, qui représente un problème important de santé publique.
L’objectif est de contribuer à un système interactif permettant d’évaluer le risque de chute pour une personne et de fournir des recommandations spécifiques adaptées en vue de diminuer ce risque. Le travail du post-doctorant vise à proposer un premier prototype du moteur de raisonnement d’un tel système interactif, dans le cadre d’une problématique restreinte.

Description de la mission :
Etapes 1 à 3 : environ 6 mois
1. Extraction de connaissances, analyse de contexte et analyse de besoins auprès d’experts de la chute d’une personne âgée et d’utilisateurs finaux (éléments qualitatifs et quantitatifs contribuant à l’évaluation du risque de chute)
2. Définition d’une ontologie organisant les principaux facteurs de chute et les recommandations, afin de formaliser les connaissances
3. Identification d’une problématique restreinte pertinente (utilisateurs, population, scénario …) en vue d’une première maquette de système d’évaluation du risque de chute et de recommandations dans ce cadre.

Etapes 4 et 5 : environ 6 mois
4. Définition d’un modèle graphique probabiliste (réseau bayésien ou autre) pour cette problématique (construction complète du modèle : graphe et probabilités, tests et évaluations du modèle)
5. Maquettage et évaluations préliminaires

Profil du candidat :
doctorat en informatique

Formation et compétences requises :
– modélisation des connaissances ; ontologies
– modèles graphiques probabilistes (outils : Agrum /PyAgrum), bases en probabilités, statistiques, analyse de données
– programmation (langage C++ ou Python)
– bonne maitrise de la langue française (pour échanger avec les experts du CHRU et utilisateurs)
– maîtrise de l’anglais technique
La maîtrise d’outils de maquettage et prototypage de systèmes interactifs est un plus.

Adresse d’emploi :
Lieu : LAMIH-UMR CNRS 8201, Université de Valenciennes et du Hainaut-Cambrésis, Le Mont Houy, 59313 Valenciennes cedex 9, et CHRU de Lille, France

Document attaché : postdocvalencienneschutesenior.pdf

Oct
20
Fri
2017
Recrutement d’un(e) post-doctorant(e): Indexation et classification d’images, techniques d’apprentissage, RI multimodale
Oct 20 – Oct 21 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LIRIS – INSA Lyon
Durée : 12 mois
Contact : Véronique Eglin
Date limite de publication : 2017-10-20

Contexte :
Extraction d’indices sonores par « word-spotting » et identification de concepts visuels – recherche de sémantique dans les images, ranking multimodal

Le candidat (H / F) exercera ses missions au sein du laboratoire LIRIS (équipe IMAGINE) sous la responsabilité de Stéphane Bres & véronique Eglin (LIRIS) ainsi que Mylène Pardoen (ISH-CNRS). Le suivi sera également assuré par les spécialistes de la RI multimodale de l’équipe DRIM du LIRIS avec Sylvie Calabretto & Léa Laporte (LIRIS).

Organisation du travail : 37h – Temps complet

Lieu de travail : Laboratoire LIRIS

INSA de Lyon, Bâtiment Jules Verne, 69621 Villeurbanne Cedex

Le LIRIS, regroupant 320 membres, est une unité mixte de recherche (UMR 5205) dont les tutelles sont le CNRS, l’INSA Lyon, l’Université Claude Bernard Lyon 1, l’Université Lumière Lyon 2 et l’Ecole Centrale de Lyon. Le champ scientifique de l’unité est l’Informatique et plus généralement les Sciences et Technologies de l’Information. Les activités scientifiques du LIRIS sont structurées en 6 pôles de compétences, dont le pôle vision intelligente et reconnaissance visuelle dont l’équipe Imagine est membre (19 permanents, 30 doctorants). Les thématiques principales sont les suivantes: Construction d’algorithmes visant la compréhension de données multimédia (images, vidéo, documents numérique, scènes 3D) et se déclinant en termes d’acquisition/reconstruction, d’indexation, de modélisation, de classification ou de reconnaissance automatique du contenu (objets, actions, concepts)

Sujet :
Missions principales :

L’objet principal de la mission vise la mise en place d’un système de recherche multimodale, dynamique et interactif qui intègre différentes sources de données (données sources issues du patrimoine numérisée des bibliothèques et archives en Rhône-Alpes-Auvergne, partenaires du projet) et autorise l’association de requêtes à la fois textuelles et de caractéristiques visuelles pour permettre une recherche d’images par le texte, par le contenu visuel ou par les deux à la fois. Le système sera conçu selon une conception reposant sur un bouclage de pertinence avec l’utilisateur, permettant le raffinement de la recherche et de l’exploration des sources.

Profil du candidat :
Profil recherché :

Savoirs : indexation et classification d’images, reconnaissance de formes, techniques d’apprentissage, recherche d’information par le contenu, word-spotting

Savoir-faire : maîtrise des environnements de développement, en particulier de la programmation C++ et usage de la libraire OpenCV, réalisation de prototype fonctionnel

Savoir être : aisance dans le cadre d’un travail de groupe pluridisciplinaire, ouverture et communication avec des spécialistes des sciences humaines et sociales, autonomie et capacité à prendre des initiatives

Détail du profil :

L’objectif du second travail postdoctoral est de proposer une approche de la recherche d’information reposant à partir de requêtes multi-modales texte-image. Habituellement découplées, les recherches d’information en mode «plein texte» et «image» permettent d’extraire des sources documentaires des fragments informationnels pertinents. Chacun des domaines de recherche (texte et image) dispose de son lot de techniques qui ont fait leur preuve dans des domaines où l’accès au contenu ne pouvait se faire que par une seule modalité d’interrogation. La recherche dans les images de textes manuscrits par exemple est habituellement résolue par les techniques alternatives à l’OCR (techniques dites de word-spotting dont l’équipe Imagine du LIRIS est spécialiste) lorsque la transcription est trop complexe à obtenir. On procède ainsi pour un corpus d’images à des approches de ce type basées sur des requêtes soit images, soit textuelles soit encore symboliques qui aboutissent à la détection de fragments d’images similaires à la requête. L’idée ici est de pousser plus loin la recherche par le contenu en créant une véritable interaction texte/image dès la formation de la requête qui sera multimodale. L’utilisation de séquences visuelles (images de mots, séquences de descripteurs) répondront à des ontologies sonores initialement décrites pour le projet et modélisant les concepts sonores à différents niveaux : indices directs (ex : « le chien aboie ») à indirects (ex : « le forgeron travaillait dans la rue») et les ambiances sonores associées (ex : « la rue était bruyante » ou encore « on entendait souffler le vent »). La partie principale du sujet sera réservée à la mise au point d’un système robuste de recherche de mots (word-spotting). Une étude de faisabilité de l’introduction d’une identification de concepts sémantiques sera proposée dans la seconde partie.

Ce travail donnera lieu à la mise au point d’un outil interactif de prévisualisation des données permettant aux utilisateurs de naviguer et de consulter des pages en profondeur et d’aide au raffinement de la requête. Les compétences techniques sur la question du bouclage de pertinence et de hiérarchisation (ranking) des réponses du système d’interrogation expertes seront apportées par le LIRIS. Le prototype d’interrogation qui sera produit dans le cadre du postdoc sera soumis à l’évaluation par les praticiens sur les lieux où sont conservées les sources documentaires.

Formation et compétences requises :
Master R

Adresse d’emploi :
Liris
69621 Villeurbanne Cedex France

Document attaché : offre-emploi-soundcityve-postdoc2VE.pdf

Oct
31
Tue
2017
Ingénieur de Recherche & Développement
Oct 31 – Nov 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Télécom ParisTech
Durée : CDI
Contact : recrutement@telecom-paristech.fr
Date limite de publication : 2017-10-31

Contexte :
Télécom ParisTech, grande école d’ingénieurs en Technologies de l’Information et de la Communication, à dimension internationale.Télécom ParisTech et la futur Université Paris-Saclay ont pour ambition de jouer un rôle de premier plan dans le domaine du Big-Data, au niveau national comme au niveau international. Le poste est à pourvoir au sein du Département Informatique et Réseaux (INFRES) Cellule Ingénierie de Recherche (CIR).

Sujet :
Missions :
Assurer des missions d’ingénierie de recherche et de développement auprès des enseignants-chercheurs du département Infres, principalement dans le domaine des sciences de données et des technologies Big Data (données massives et flux de données)

Activités :

1. Ingénierie de Recherche

– Assure l’administration, la supervision et la mise à niveau des logiciels dédiés à l’analyse de grandes masses et flux importants de données (Hadoop, Spark, Bases de données, etc…)
– Participe aux choix des nouveaux investissements matériels visant à optimiser les performances de l’infrastructure de calcul du département Infres.
– Conseille et assiste les utilisateurs des moyens de calculs gérés par le département : serveurs Linux et machines virtuelles OpenStack
– Participe à l’activité R&D de l’équipe DIG (Datas Intelligence & Graphs) du département : réunions de projets, séminaires, et assure le développement logiciel de démonstrateurs de recherches en collaboration avec les enseignants-chercheurs en sciences de données au Département

2. Enseignement

En coordination avec les enseignants-chercheurs responsables des enseignements de BigData (en formation continue comme en formation initiale) :

– Assiste les élèves dans leurs projets impliquant des infrastructures Big Data ou de Cloud Computing, les conseille sur les bonnes pratiques d’utilisation de ces infrastructures (Hadoop, Spark, HBase, Bluemix, Amazon AWS …)
– Participe au développement, à la mise en place et à l’administration d’outils spécifiques pour les travaux pratiques
– Prépare et encadre les séances de travaux pratiques (BigData)

3. Participation à la notoriété de l’Ecole et de l’Institut Mines-Télécom

– Participe à améliorer la visibilité des technologies développées au département
– Le cas échéant, est associé aux publications relatives aux projets de recherche auxquels il participe

4. Divers

– Rend compte des activités et des résultats qui relèvent des missions dont il a la charge.
– Avec la Cellule d’ingénierie de recherche, participe aux réunions régulières assurant l’interface avec la DSI de l’Ecole

Profil du candidat :
Capacités et aptitudes :

– Capacité à travailler en équipe
– Aptitude au dialogue
– Rigueur
– Qualités relationnelles
– Aptitude à la rédaction de documents technique
– Aptitude à la synthèse

Formation et compétences requises :
Niveau de formation et/ou expérience requis :
Diplôme Bac + 5 ou équivalent ou
Diplôme Bac + 4 ou équivalent avec expérience professionnelle ≥ 4 ans ou
Diplôme Bac + 3 ou équivalent avec expérience professionnelle ≥ 6 ans ou
Diplôme Bac + 2 ou équivalent avec expérience professionnelle ≥ 10 ans

Compétences, connaissances et expériences indispensables :
– Bonne connaissance des systèmes d’exploitation Linux : Fedora et Debian
– Bonne expérience de programmation en Java et Python
– Bonne connaissance des services SVN, GIT
– Bonne connaissance de l’environnement Map Reduce et des outils SQL et NOSQL (Hadoop, Spark, HDFS, HBase, Flink …)
– Maîtrise de l’anglais

Compétences, connaissances et expériences souhaitables :
– Une expérience pratique des infrastructures de Cloud Computing AWS,
Azure, OpenStack, Bluemix sera appréciée

Adresse d’emploi :
recrutement@telecom-paristech.fr

Document attaché :

Nov
1
Wed
2017
Ingénieur R&D – Nantes – projet
Nov 1 – Nov 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LS2N – Laboratoire des Sciences Numériques de Nantes
Durée : 1 an
Contact : pascal.molli@univ-nantes.fr
Date limite de publication : 2017-11-01

Contexte :
Dans la vision “Web of Browsers”, le Web fonctionne sans serveur. Il est massivement décentralisé et éphémère. Les pages Web sont hébergées par des réseaux constitués de navigateurs Web connectés entre eux grâce à WebRTC. WeBrowse permet une collaboration de masse entre les participants sans infrastructure coûteuse tout en préservant la confidentialité des échanges. WeBrowse permet aux utilisateurs d’éditer des pages Web n’importe quand, n’importe où, quel que soit le nombre de participants.

Sujet :
Dans le Web actuel, une URI référence un document ou des données hébergées sur un serveur Web. Dans WeBrowse, une URI référence un réseau de navigateurs hébergeant des documents ou des données. Il faut donc un serveur Web classique permettant de créer et résoudre ces URIs. La résolution d’une URI renvoie un code JavaScript permettant de créer et manipuler des pages Web en temps réel avec les autres participants du réseau. Pour mettre en place le Web de sessions il faut donc (i) mettre en place un protocole permettant de créer et de résoudre les URIs de session (ii) mettre en place un éditeur permettant de créer et de modifier des pages Web en temps réel avec potentiellement des millions d’utilisateurs simultanés.

Profil du candidat :
le candidat a un Bac+5 en informatique. Il s’intéresse aux systèmes distribués et au web. Il maîtrise les techniques de développement en génie logiciel, le développement javascript et node.js. Il est motivé par ce projet, il apprécie le dialogue avec les chercheurs et les industriels.

Formation et compétences requises :
Vous avez Bac+5 en informatique. Vous avez des notions de base en systèmes distribués et en Web. Vous maîtrisez le développement en javascript dans les navigateurs, les websockets, le DOM.

Adresse d’emploi :
UFR de Sciences et Techniques
2, rue de la Houssinière
BP 92208
44322 NANTES CEDEX 3, FRANCE

Document attaché : Web-of-Browsers-ING.pdf

Postdoctorat sur l’extraction de relations dans des transcriptions textuelles
Nov 1 – Nov 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : GREYC CNRS UMR 6072 (Université de Caen Normandie) en collaboration avec l’IRISA CNRS UMR 6074 et le LIPN CNRS UMR 7030
Durée : 1 an (extensible)
Contact : bruno.cremilleux@unicaen.fr
Date limite de publication : 2017-11-01

Contexte :
Dans les entreprises, les réunions sont connues pour être consommatrices de temps. Selon une étude menée par Microsoft, les employés passeraient en moyenne 5,6h par semaine en réunion. Le projet REUs vise à concevoir un logiciel d’aide à la préparation et au suivi de réunions de type suivi de projets. Il se basera uniquement sur les flux sonores des interactions entre les participants aux réunions et sur des ressources linguistiques.

Sujet :
Le ou la postdoctorant(e) travaillera sur l’extraction d’information à partir de données textuelles. La démarche est, à partir des transcriptions textuelles des discussions, de trouver des relations entre tâches, participants, objectifs, etc., discutées pendant la réunion, afin de générer un rapport.

Plus précisément, à partir de transcriptions textuelles des discussions formant des corpus d’apprentissage, il s’agit d’apprendre comment détecter les événements et les relier entre eux au sein d’une phrase ainsi qu’à capter des relations dont la portée dépasse la phrase, comme associer une information à un contexte cité précédemment ou relevant de l’analyse de la prise de parole. Pour cela, nous nous appuierons sur les méthodes de fouille de données textuelles développées notamment au sein du consortium et qui extraient des motifs séquentiels formant de potentiels patrons linguistiques. Ces méthodes nécessiteront de nouveaux développements pour intégrer des spécificités du corpus comme le fait que celui-ci est organisé sous forme de dialogue et aussi d’intégrer le contexte dans lequel se situe un motif, ce dernier point est à ce jour très peu développé en fouille de données.

Le ou la postdoctorant(e) devra donc collaborer avec les autres membres
du projet REUs pour le développement d’approches adaptées s’appuyant
sur la fouille de motifs et le traitement des langues pour extraire
ces relations.

Les aspects en lien avec la transcription textuelle seront traités
par un autre partenaires du projet.

Profil du candidat :
Le ou la candidat(e) devra avoir obtenu une thèse en informatique et une expérience en fouille de données, ou apprentissage, et/ou en traitement de la langue.

Formation et compétences requises :
Des compétences en programmation sont nécessaires.

Adresse d’emploi :
Le dossier de candidature comportera :
– une lettre de motivation
– un CV détaillé
– lettres de recommandation ou, à défaut, les noms de personnes
qui recommandent la candidature,
– tout document jugé utile.

Les documents sont à envoyer en *pdf exclusivement* :

Peggy Cellier : peggy.cellier@irisa.fr
Thierry Charnois : Thierry.Charnois@lipn.univ-paris13.fr
Bruno Crémilleux : bruno.cremilleux@unicaen.fr
Albrecht Zimmermann albrecht.zimmermann@unicaen.fr

Document attaché :

Nov
20
Mon
2017
Postdoc in Stream Data Mining
Nov 20 – Nov 21 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LRI, Université Paris-Sud
Durée : 1 year
Contact : silviu.maniu@lri.fr
Date limite de publication : 2017-11-20

Contexte :
The Internet of Things (IoT), the large network of physical devices that extends beyond the typical computer networks, will be creating a huge quantity of Big Data streams in real time in the near future. The realization of IoT depends on being able to gain the insights hidden in the vast and growing seas of data available. Since current approaches do not scale to Internet of Things (IoT) volumes, new systems with novel mining techniques are necessary due to the
velocity, but also variety, and variability, of such data. This challenging setting needs algorithms that use an extremely small amount (iota) of time and memory resources, and that are able to adapt to changes while not stopping the learning process. These algorithms should be distributed to allow them to run on
top of Big Data infrastructures. How to do this accurately in a fully automatic, and transparent elastic, real-time, system is going to be the main challenge for IoT analytics systems in the near future. In this scenario, high-performing ensemble setups such as online bagging, leveraging bagging and random forests
are the state-of-the-art. Deep neural networks are becoming increasingly popular, owing in part to the proliferation of interest and oft-advertised successes in deep learning. These algorithms can learn incrementally, but they have so far proved too sensitive to hyper-parameter options and initial conditions to be considered for the IoT data stream setting.

Sujet :
We are looking for candidates for a postdoc, with funding
available for one year, starting the latest on January 1st, 2018, in the area of Stream Data Mining with application to IoT scenarios.

Profil du candidat :
The successful candidate should have solid bases in data management, algorithms and knowledge of machine learning topics, and have proven research experience in the fields of data mining or machine learning. There is an important application development part in this project. As such, the applicants should be at ease with
programming in well-known languages (C++, Java, Python).

Formation et compétences requises :
– PhD degree in Computer Science
– proven research record in the field of data mining, with stream data mining a plus
– easy with programming in Java especially, with C++ or Python a plus

Adresse d’emploi :
The successful candidate will join the LRI lab of Université Paris-Sud,
part of Université Paris-Saclay. They will integrate the LaHDAK team whose research orbits around Web data management. The work will be performed in close collaboration with with the DIG team in LTCI lab of Télécom ParisTech.

Document attaché :

Dec
1
Fri
2017
Ingénieur R&D / Docteur en TAL – Machine Learning – Paris, Île-de-France, France
Dec 1 – Dec 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Succeed Together
Durée : CDI
Contact : mcdfconseil@live.fr
Date limite de publication : 2017-12-01

Contexte :
L’entreprise
Succeed Together propose des solutions digitales – SucceedMeeting, Pulsation, Sqweb, Gwap – qui facilitent le dialogue et la collaboration dans l’entreprise et améliorent ainsi la performance des organisations. Ces solutions, proposées en mode SaaS, se différencient par l’utilisation du logiciel Meeting Software, propriété de Succeed Together, qui apporte des fonctions d’analyse sémantique du langage naturel puissantes grâce à l’expertise de l’entreprise dans le machine learning.

Sujet :
Votre mission
Au sein de notre équipe R&D, vous prendrez en charge les études de R&D et la conception fonctionnelle et technique d’outils logiciels basés sur les technologies de type text mining, opinion mining, fouille de données et machine learning.
L’intégralité de votre temps sera consacrée à des travaux de R&D et de prototypage. Dans la continuité des travaux de R&D déjà initiés par nos équipes, il s’agira plus particulièrement de faire avancer notre recherche interne pour parvenir à automatiser le regroupement sémantique de messages courts. Pour cela vous prendrez en charge la conception de solutions combinant le text Mining et le machine learning (clustering de données), via des approches supervisées ou non supervisées.

Les missions :
– Concevoir et prototyper des solutions logicielles nouvelles, en lien avec nos partenaires académiques ou industriels ;
– Communiquer avec notre responsable études qualitatives/ quantitatives pour identifier de nouvelles solutions innovantes pour répondre à ses besoins ;
– Echanger en tant qu’expert avec nos équipes chargées de la relation client, concernant les résultats de l’analyse des données ;
– Documenter vos travaux et suivre l’état de l’art dans les domaines text mining, machine learning, etc.

Profil du candidat :
Votre profil
Ingénieur R&D ou Docteur spécialisé en traitement automatique du langage.
Expérience :
Jeune diplômé(e) ou idéalement avec quelques années d’expérience, vous avez impérativement une expérience de la recherche dans le domaine public ou privé. Vous avez également une expérience académique ou professionnelle dans le domaine du traitement automatique du langage.
Idéalement, vous avez déjà travaillé avec des corpus de type avis client (pour des besoins tels que l’analyse de commentaires client, analyse du sentiment, e-reputation marque ou produit, etc.).
Vous êtes à l’aise avec la programmation et le développement de script et la manipulation d’algorithmes existants. Votre niveau en programmation vous permet de prototyper des solutions afin de les faire expérimenter en interne. Dans le cadre de vos travaux, vous serez amené(e) à identifier et à réutiliser des algorithmes existants pour les adapter à nos besoins métiers.

Formation et compétences requises :
Compétences informatiques :
Vous avez un goût certain pour les nouvelles technologies et le développement logiciel. Vous avez idéalement une connaissance académique ou pratique de certaines des solutions suivantes :
– Outils ou algorithmes TAL : extraction de mots clés, catégorisation automatique, annotation de corpus, analyse du sentiment, etc. ;
– Algorithmes de classification non supervisée (Ward clustering, K-means…) ;
– Algorithmes de classification supervisée (Extratrees, SVM, RNN…) ;
– Stockage de données : Postgres ;
– Langage de programmation : Python.

Adresse d’emploi :
Succeed Together
60 bis Rue de Rochechouart
75009 Paris

Document attaché : CDI-Ingénieur-RD-Docteur-TAL-ML.pdf

Post-Doctorant(e) Machine Learning – Natural Language Processing
Dec 1 – Dec 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Laboratoire Hubert Curien – UMR CNRS 5516 – Saint-Etienne (France)
Durée : 12 mois (extensible)
Contact : Francois.Jacquenet@univ-st-etienne.fr
Date limite de publication : 2017-12-01

Contexte :
L’équipe Data Intelligence du Laboratoire Hubert Curien de Saint-Etienne recrute un(e) post doctorant(e) dans le cadre d’un projet financé par le FUI22. Ce projet vise à développer un outil automatique d’extraction d’informations et de génération de comptes rendus à partir de transcriptions textuelles de captures d’échanges sonores entre les participants de réunions.

Les partenaires du projet sont :
* Viseo (http://www.viseo.com/fr)
* Vocapia (https://www.vocapia.com/)
* Synapse Développement (http://www.synapse-developpement.fr/)
* Co-work (http://www.co-work.fr/)
* Grenoble Ecole de Management (http://www.grenoble-em.com/)
* Laboratoire GREYC de Caen, équipe CoDaG (https://www.greyc.fr/fr/codag)
* Laboratoire Hubert Curien de Saint-Etienne, équipe Data Intelligence (https://laboratoirehubertcurien.univ-st-etienne.fr/en/teams/data-intelligence.html)

Sujet :
La personne recrutée devra explorer, concevoir et mettre en oeuvre des techniques d’apprentissage automatique permettant d’apprendre des modèles de générateurs de comptes rendus de réunions. On se basera sur des corpus textuels construits dans le cadre du projet. Une première version du système sera basée sur des algorithmes de génération de résumés par extraction, mais le travail du (de la) post-doctorant(e) devra se focaliser ensuite sur la conception d’algorithmes de génération de résumés par abstraction. Dans un résumé de texte par extraction, on cherche les phrases les plus pertinentes et on les utilise pour produire le résumé. L’approche par abstraction consiste quant à elle généralement à construire une représentation sémantique du texte à résumer, et à partir de cette représentation, à générer le texte du résumé. Le texte produit ne contient alors plus des phrases du texte origine mais des phrases dont le contenu sémantique est le même que celui du texte en entrée, des mots du résumé peuvent ainsi ne pas faire partie du texte initial. Depuis deux ans, le domaine du résumé par abstraction a été revisité à l’aide d’outils de deep learning. C’est cette approche que nous voudrions explorer à Saint-Etienne dans le cadre de ce projet FUI. Une difficulté par rapport aux approches qui commencent à émerger est qu’elles s’appliquent sur des corpus de textes assez propres alors que les transcriptions produites par les logiciel de speech to text ne peuvent pas produire des textes de cette qualité. De plus le corpus en cours de construction dans le cadre du projet n’est pas de taille très importante, ce qui est un problème en deep learning.

Un autre axe de travail important pour la personne recrutée sera également de combiner des travaux en analyse de sentiments avec les travaux résumé de textes développés dans le cadre de ce projet. Il s’agira d’étudier comment la détection de sentiments peut influencer la génération de résumés. On pourra ainsi imaginer de paramètrer le générateur de résumés pour ne résumer que les passages de la réunion qui ont été positifs.

Enfin, un dernier aspect à étudier sera l’évaluation de l’outil développé. Dans le domaine du résumé de textes, c’est la mesure ROUGE qui est classiquement utilisée. Dans le contexte des transcriptions de réunions, une telle mesure n’est pas forcément bien adaptée. Il sera donc nécessaire de mettre au point une mesure permettant d’évaluer la qualité des résumés produits.

Profil du candidat :
Le ou la candidat(e) doit avoir obtenu une thèse en informatique avec une expérience en apprentissage automatique et/ou en traitement automatique langage naturel.

Formation et compétences requises :
Compétences recherchées :
* Maitrise du domaine de l’apprentissage automatique, et si possible du deep learning, tant d’un point de vue théorique que d’un point de vue pratique (développement d’outils à base d’algorithmes variés de l’état de l’art)
* Fort intérêt pour le domaine du traitement automatique du langage naturel.
* Une connaissance du domaine de la génération automatique de résumés sera bien évidemment un plus.
* Capacité à rédiger des articles en anglais pour des conférences internationales de premier ordre.
* Maîtrise de la langue française car les réunions traitées par le système à concevoir seront toutes en français.
* Forte créativité.
* Autonomie et capacité à prendre des initiatives.

Adresse d’emploi :
La personne recrutée travaillera au sein de l’équipe Data Intelligence du laboratoire Hubert Curien, à Saint-Etienne.

Le dossier de candidature comportera :
– une lettre de motivation
– un CV détaillé
– des lettres de recommandation ou, à défaut, les nom et mail de personnes qui recommandent la candidature,
– tout document jugé utile.
à envoyer au format pdf simultanément à :
Francois.Jacquenet@univ-st-etienne.fr
Christine.Largeron@univ-st-etienne.fr
Marc.Bernard@univ-st-etienne.fr

Document attaché :

Dec
4
Mon
2017
Poste d’assistant d’enseignement / enseignant à l’Ensai
Dec 4 – Dec 5 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Ensai
Durée : 2 ans et 8 mois
Contact : romaric.gaudel@ensai.fr
Date limite de publication : 2017-12-04

Contexte :
L’Ensai est une école d’ingénieurs qui fait partie du Genes (Groupe des écoles nationales d’économie et de statistique). Une promotion se compose d’environ 100 élèves ingénieurs et 50 élèves fonctionnaires (futurs cadres A de l’Insee). Les élèves sont formés aux métiers de l’ingénierie statistique et de la modélisation statistique, avec des compétences associées en économie et informatique. Pour plus d’informations, il est possible de consulter le site Internet de l’école (www.ensai.fr).

Sujet :
Le poste est celui d’assistant d’enseignement/enseignant en informatique au sein de la direction des études.
/enseignant
assure la responsabilité de la filière de spécialisation de troisième année « Statistique et Ingénierie des Données ». Il assure un service d’enseignement en informatique (notamment algorithmique, base de données, programmation orientée objet, projets, conseils aux élèves en Python et Java). Il participe à la vie générale de l’école (suivis et soutenances de stages, jurys de projets,
promotion des activités de l’école, évaluation de rapports de stages).
L’assistant d’enseignement/enseignant en informatique effectue un soutien à la recherche, à travers une activité de veille technologique sur l’évolution des outils en informatique, et potentiellement une participation à des projets de recherche.

Profil du candidat :
Le poste est celui d’assistant d’enseignement/enseignant en informatique au sein de la direction des études.

Il s’agit d’un poste de contractuel qui peut également concerner un fonctionnaire. La rémunération sera déterminée en fonction de l’expérience.

Formation et compétences requises :
Le candidat aura au minimum un diplôme d’ingénieur ou un master 2 en informatique ou équivalent (un doctorat est nécessaire pour le statut d’enseignant). La maîtrise de la programmation orientée objet est nécessaire. Une expérience d’enseignement sera appréciée, tout comme une expérience professionnelle dans le monde de l’entreprise. Une connaissance des méthodes et techniques big data et machine learning sera un atout.

Adresse d’emploi :
Les candidats doivent adresser leur candidature jusqu’au 4 décembre 2017, avec la référence Ensai/2017/AE3-INFO en objet. Cette candidature doit comprendre une lettre de motivation accompagnée d’un CV détaillé.

Les candidatures doivent être adressées à :
– Ronan Le Saout, directeur des études
(02 99 05 33 22, ronan.lesaout@ensai.fr)
– Romaric Gaudel, enseignant-chercheur en informatique (02 99 05 33 30, romaric.gaudel@ensai.fr)
– Valention PATILEA, responsable de la recherche (02 99 05 33 25, valentin.patilea@ensai.fr)

Document attaché : 2017_Poste_3_Info_AE_E.pdf

Dec
15
Fri
2017
post-doc: désambiguïsation sémantique multimédia (Vision par ordinateur ou TAL)
Dec 15 – Dec 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CEA LIST
Durée : 12 mois
Contact : herve.le-borgne@cea.fr
Date limite de publication : 2017-12-15

Contexte :
Le CEA LIST propose un post-doc sur la désambiguïsation sémantique multimédia dans le cadre d’une collaboration avec le CNRS LIMSI. Le sujet se situe à la croisée de la vision par ordinateur et du traitement du langage naturel, pour fabriquer des espaces communs aux deux média texte et image.
CDD de 12 mois au CEA à nanoinnov (Palaiseau, 91), à pourvoir en janvier 2018.

Le CEA-LIST est un laboratoire de 800 personnes, localisé sur le plateau de Saclay (91), dont les axes de recherche s’inscrivent dans le domaine des systèmes complexes à dominante logiciel. La mission du CEA LIST est le transfert d’innovation vers le monde industriel. Par ce positionnement, le CEA LIST occupe une place privilégiée dans les réseaux de collaboration entre laboratoires académiques, centre de recherche et acteurs industriels (grand groupes et PME) à l’échelle européenne et mondiale.
Au sein du CEA LIST, le Laboratoire Vision et Ingénierie des Contenus (www.kalisteo.eu) regroupe 80 chercheurs autour de thèmes de recherche qui sont l’analyse de document Multimédia (analyse jointe texte et image) et d’autres activité de vision par ordinateur. La personne recrutée travaillera notamment avec H. Le Borgne (vision par ordinateur), O. Ferret et R. Besançon (traitement automatique des langues).
Le post-doc sera co-encadré par Brigitte Grau, appartenant à l’équipe « Information Langue Écrite et Signée » du CNRS LIMSI (https://www.limsi.fr/fr/recherche/iles).
H. Le Borgne : https://sites.google.com/site/hleborgne
B. Grau : https://perso.limsi.fr/bg/

Sujet :
La liaison d’entités (ou entity linking) consiste à relier des mentions d’entités d’un texte à des entités d’une base de connaissance (BC) si elles existent, dans le but de normaliser ces mentions. C’est un problème qui se pose, par exemple, pour le peuplement de bases de connaissances par extraction d’information à partir de textes. Une difficulté de cette tâche est la résolution d’ambiguïtés car les systèmes ont à choisir parmi un nombre important de candidats.

La désambiguïsation d’entités en tant que telle concerne à ce jour des données textuelles exclusivement, mettant en regard des problématiques de traitement automatique de la langue et de représentation de la connaissance. Le post-doc de 12 mois proposé vise à étudier l’intérêt d’ajouter la dimension visuelle pour aider à la désambiguïsation, chaque fois que cela peut être utile.

La vision par ordinateur a connu une rupture significative de la qualité des résultats de reconnaissance visuelle faisant suite au retour en grâce des réseaux de neurones sous forme d’architectures profondes. L’apprentissage profond a également eu un impact bénéfique dans le domaine du traitement des langues naturelles, bien que moins significatif qu’en vision à ce jour. En particulier les modèles de word embedding tel celui de (Mikolov et al., 2013) offrent une représentation des mots qui ont permis des avancées dans plusieurs tâches. Ce post-doc se situe à la croisée de la vision par ordinateur et du traitement du langage naturel, pour fabriquer des espaces communs « texte et image ».

L’approche générale envisagée repose sur un couplage précoce des entités visuelles et textuelles, obtenu au sein d’un espace commun texte image résultant, par exemple, d’un apprentissage par un réseau neuronal profond tendant à optimiser le rapprochement des documents à lier (image et texte se correspondant). Il s’agira d’étudier comment prendre en compte les représentations construites soit pour améliorer la sélection d’entités candidates à partir d’une mention dans un texte soit pour sélectionner le meilleur candidat. La dernière tâche concernera l’évaluation de l’intérêt des méthodes développées. Elle sera menée prioritairement sur une tâche de désambiguïsation d’entités nommées au sein d’articles (de presse) illustrés. Étant donné la nouveauté de la problématique en tant que telle, un ou plusieurs corpus pourront être créés en vue d’être distribués auprès de la communauté scientifique.

Le post-doc devra aboutir à des publications dans les conférences et revues du meilleur niveau du domaine concerné. La personne recrutée participera à des séminaires et présentera les résultats de ses travaux devant les groupes de travail concernés du plateau de Saclay (DIGICOSME). Idéalement, les expérimentations s’appuieront sur un code suffisamment bien structuré pour qu’il puisse donner lieu à un démonstrateur. La mise en place d’un démonstrateur complet n’est pas requise dans le cadre du post-doc, celle-ci pouvant être réalisée par des ingénieurs des équipes co-encadrant le post-doc. Toutefois, si la personne recrutée estime que la réalisation d’un tel démonstrateur valorise sa carrière, elle aura la possibilité de s’y investir, notamment si cela peut faire l’objet d’une participation à un workshop dédié, adossé à l’une des conférences du domaine.

Profil du candidat :
Envoyer CV (format PDF ou URL), lettres de recommandation et lettre/mail de motivation personnalisée à herve.le-borgne@cea.fr et brigitte.grau@limsi.fr

Merci de ne pas envoyer votre manuscrit de thèse ni vos publications par mail (leur référence dans le CV suffisent).

Salaire selon expérience et diplôme (estimation sur demande à partir du CV).

Formation et compétences requises :
– Doctorat en vision par ordinateur ou traitement automatique des langues ou apprentissage
– Publications dans des revues et conférences du meilleur niveau de son domaine
– Autonome, rigoureux et doté d’une forte motivation.
– Appétence pour le travail collaboratif et en équipe.
– Expérience de l’environnement Linux. Maîtrise de langages de script (python, bash…)
– Idéalement, maîtrise de Tensorflow ou PyTorch ou Caffe ou Theano.
– Idéalement, maîtrise du C++.

Adresse d’emploi :
Le post-doc sera localisé à NanoInnov, avenue de la Vauve, à Palaiseau (91)

Document attaché : post_doc_mael.v3.pdf

Dec
18
Mon
2017
Ingénieur-e d’études en production, traitement, analyse de données
Dec 18 – Dec 19 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LabEx Intelligence des Mondes Urbains
Durée : 1 an
Contact : isabelle.diraimondo@insa – lyon.fr et isabelle.lefort@univ – lyon2.fr
Date limite de publication : 2017-12-18

Contexte :
Dans le cadre de la mise en place de la plateforme CAPIMU portée par le LabEx IMU, est lancée une étude
quantitative et qualitative s’appuyant sur les données de la recherche. Ce projet associe des chercheur.e.s en
sciences des données, en sciences de l’information et de la communication, et en sciences sociales. L’objectif de
cette étude est de contribuer à un chantier de capitalisation scientifique permettant une meilleure analyse des
recherches produites ainsi qu’un positionnement prospectif plus stratégique. En appui à ce projet, l’ingénieur
d’études consistera sera en charge de la conception, la réalisation et le peuplement d’une base de données ainsi que de la conception des protocoles de collecte et de traitement des données.

Sujet :
Mission 1 : Concevoir une démarche et un protocole adapté à la valorisation des recherches IMU

Mission 2 : Modéliser et mettre en œuvre un livrable sous la forme d’un système d’information opérationnel

Mission 3 : Former à l’utilisation de l’outil et accompagner les usagers dans l’exploitation et la visualisation des résultats

Mission 4 : Mise en opérationnalisation de la base de données

Profil du candidat :
Formation Master en Mathématiques et Informatique Appliquées aux Sciences Humaines et Sociales ou équivalent – Très bonne connaissance des méthodes et outils de traitement et analyse de données – Une connaissance de l’organisation et du fonctionnement de l’enseignement supérieur et de la recherche serait appréciée.

Formation et compétences requises :
Maîtrise des logiciels et des systèmes de gestion de base de données (SGBD) – Bonne maitrise de l’anglais.

Adresse d’emploi :
LabEx IMU
Domaine Scientifique de la Doua – Bâtiment ATRIUM
Boulevard du 11 novembre 1918
69100 VILLEURBANNE

Document attaché : Offre-demploi-IE-CAPIMU.pdf

Dec
20
Wed
2017
University of Cergy Pontoise
Dec 20 – Dec 21 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LPTM/ETIS
Durée : 12 months
Contact : Dimitrios.Kotzinos@u-cergy.fr
Date limite de publication : 2017-12-20

Contexte :
A one-year post-doctoral position is open in the framework of the OpLaDyn project (Understanding Opinion and
Language Dynamics using massive data), a recently selected project of the TransAtlantic Digging into Data
Challenge,
https://diggingintodata.org/awards/2016/news/winners-round-four-t-ap-digging-data-challenge.
This is an international project in which a team with expertise in Data Science, Physics, Linguistics, Philosophy
and Law aims to study problems in Human Social Sciences developing an interdisciplinary view of the relation
between information patterns in Big Data and the dynamics of social actions, bridging the gap between Social
and Natural Sciences.
Big Data technologies are changing the informational environment in which people live, keeping traces of their
activities, merging behavior and decision-making processes of social actors. Based on textual data obtained
from different media, we will study emerging patterns in social actions, focusing on opinion diffusion and
language evolution.
In the framework of this project, the team has access to the historical database of The New York Times, which
gathers documents covering over more than 150 years. These can be combined with modern databases like
Twitter, in order to develop comparative studies on opinion and language dynamics.

Sujet :
By analyzing large bases of textual data we aim at extracting patterns of relevant information, in order to
construct data based models of opinion formation and evolution.
This implies addressing, among others, the following questions:
 How can relevant information be obtained from the Big Data sources at disposal in order to build data
based models of opinion dynamics? What is the role of the metadata in this endeavor?
 How can one infer the network of social contacts on the basis of these data?
 How can one capture opinion dynamics? Which parameters characterize the dynamical process? How
these parameters depend on the type of media where opinion diffuses?
More specifically, using the NYT database, which runs over a long period (roughly from1850 until now), we are
interested in understanding how scientific topics of high societal impact migrate from the channels restricted to
scientists to the public media and how this diffusion contributes to fashion the public opinion on those particular
topics.

Profil du candidat :
Candidates should hold a PhD in Physics or in Computer Science, with some knowledge in the area of social
networks, opinion dynamics or information diffusion. She/he should have good modeling and programming
skills. Some knowledge on data management and notions of cloud-based computing are also appreciated.

Formation et compétences requises :
Candidates should hold a PhD in Physics or in Computer Science, with some knowledge in the area of social
networks, opinion dynamics or information diffusion. She/he should have good modeling and programming
skills. Some knowledge on data management and notions of cloud-based computing are also appreciated.

Adresse d’emploi :
The selected candidate will work at Laboratoire de Physique Théorique et Modélisation (LPTM)
UMR8089 CNRS-UCP, https://www.u-cergy.fr/fr/laboratoires/labo-lptm.html , in collaboration with Laura
Hernández (LPTM) and Dimitris Kotzinos, from ETIS laboratory of Cergy-Pontoise University (Paris-Seine
University). She/he will benefit from the working environment of both laboratories and will take part in the
activities of the OpLaDyn team.

Contacts:
Laura Hernández, Laura.Hernandez@u-cergy.fr
Dimitris Kotzinos, Dimitrios.Kotzinos@u-cergy.fr
Website: http://project.u-cergy.fr/~opladyn/

Document attaché : PostDoc_opinion_dyn.pdf

Dec
31
Sun
2017
3 postes à pourvoir en apprentissage statistique a INRIA Grenoble : post-doctorant et ingénieur développeur.
Dec 31 2017 – Jan 1 2018 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : INRIA Grenoble, equipe Mistis
Durée : 24 a 30 mois
Contact : florence.forbes@inria.fr
Date limite de publication : 2017-12-31

Contexte :
Le projet, collaboration entre VI-Technology, INRIA, G-SCOP et ACTIA a été construit pour relever des défis techniques de l’industrie d’assemblage de cartes électroniques. L’assemblage de cartes est une succession d’étapes, la plupart automatisées. Chacune requiert des réglages permanents, parfois très sensibles, notamment à chaque lancement de lot de fabrication. Même si les machines s’améliorent, ce temps d’apprentissage handicape lourdement la compétitivité.
L’ambition du projet est de construire une approche nouvelle face à ce handicap, en regardant la ligne de fabrication dans son ensemble, et non plus machine par machine. L’idée est de construire une solution méthodologique et logicielle qui donne accès à l’ensemble des paramétrages, en intégrant toute la logique d’interactions entre machines: Un superviseur de “l’industrie du futur”, simple et intuitif, qui ne se contente pas de collecter, mais qui analyse et qui pilote de façon à optimiser, adapter, ou reconfigurer l’interopérabilité entre machines

Sujet :
Description de l’activité :

L’objectif est d’identifier, parmi les outils statistiques (et/ou d’apprentissage machine) pointus, ceux qui pourraient bénéficier à l’industrie d’assemblage de cartes électroniques avec VI-Technology qui apporte ici son expertise de l’inspection, et l’accès à une mine d’informations et d’images.
Les machines d’inspection sont comme des capteurs à différents endroits d’un site de production. Elles génèrent une quantité astronomique de données. L’objectif est d’explorer si ce vaste champ de données ne peut pas être mieux exploité avec des outils statistiques puissants, pour améliorer significativement la compréhension fine des interactions dans le processus de fabrication, et utiliser cette compréhension pour ajuster très vite le processus.

D’un point de vue méthodologique, l’activité pourra explorer les directions suivantes :

– Sélection de variables et mesures pertinentes :
Le suivi du process nécessite la mesure de variables de natures très diverses mais aussi de paramètres renseignant sur la nature de la production. L’optimisation de cette mesure multiparamétrique se décline en deux aspects : fréquence de lecture (surveillance ou monitoring) et pertinence des variables mesurées qui peuvent évoluer au cours du temps.

– Fusion de données hétérogènes :
L’un des enjeux majeurs du projet est de parvenir à intégrer des données hétérogènes, multivariées, et potentiellement asynchrones et irrégulières au sein d’un processus de décision cohérent. On envisagera d’aborder le problème de la fusion de données à l’aide d’outils statistiques bayésiens.

– Pilotage sensible au contexte et gestion de données en flux.
De plus, il convient d’adapter dynamiquement les stratégies d’acquisition de données, ainsi que les modèles de fusion et d’inférence, au fil des contextes rencontrés. Il convient ici de coupler des outils de fouille de données à des outils d’apprentissage et d’évaluation dans une perspective de construction incrémentale de modèles.

Profil du candidat :
Pour être éligible, le dossier de candidature devra comporter :
• Une lettre de motivation pour le poste, détaillée et personnalisée ;
• Un CV complet intégrant l’expérience du candidat ainsi que ses formations académiques ;
• Des lettres de recommandation ou des noms et coordonnées de personnes pouvant apporter leur soutien au candidat.

Formation et compétences requises :
Connaissances requises :
• Formation selon le poste, de haut niveau en statistique ou machine learning ou informatique (diplôme de master, d’ingénieur ou de doctorat) ;
• Excellentes capacités relationnelles et rédactionnelles ;
• Rigueur, autonomie et curiosité technique pour s’impliquer dans un projet multi- équipes ;
• Expérience en conduite de projet serait un plus.

Adresse d’emploi :
Merci d’envoyer vos candidatures à : Florence Forbes (florence.forbes@inria.fr)
Localisation : Equipe Mistis Inria Grenoble (http://www.inria.fr/equipes/mistis )
Date de prise de fonction : à partir de septembre 2016
Durée : 24 à 30 mois selon le poste
Salaire : en fonction de l’expérience et de la qualification du candidat.

Dans le cadre d’un projet FUI du pole de compétitivité Minalogic.

Partenaires du projet : Laboratoires G-SCOP et INRIA Grenoble, 1 PME VI-Technology et un grand groupe ACTIA

Mots-clefs indicatifs : Données hétérogènes, Fusion de données, Sélection de variables, Séries temporelles, Régression en grande dimension, Statistique bayésienne, Apprentissage profond, Apprentissage en ligne, masse de données.

Document attaché :

Analyse des données à l’échelle de l’entreprise : étendre le DataWarehouse au Data Lake
Dec 31 2017 – Jan 1 2018 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Université de La Rochelle, Laboratoire L3i
Durée : 12 mois
Contact : jmalki@univ-lr.fr
Date limite de publication : 2017-12-31

Contexte :
Le contrat se déroule dans le cadre du projet PLAIBDE : « Plateforme Intégrée Big-data pour les Données Entreprise ». Ce projet fait partie du programme FEDER-FSE 2014-2020 porté par la région Nouvelle Aquitaine.
Ce projet est dirigé par le consortium suivant :
1. L’entreprise aYaline : partenaire industriel et chef de fil du projet.
2. Le laboratoire L3i : partenaire scientifique, le L3i (laboratoire Informatique, Image, Interaction) fait partie de l’université de La Rochelle.
3. Le laboratoire LIAS : partenaire scientifique, le LIAS (Laboratoire d’Informatique et d’Automatique pour les Systèmes), fait partie de l’ENSMA (École Nationale Supérieure de Mécanique de d’Aéronautique – Futuroscope), université de Poitiers.
L’objectif du projet PLAIBDE est le développement d’un écosystème Big-Data métier dans les domaines d’activités relevant de l’expertise de aYaline : E-Commerce, E-Tourisme, E-Collectivé, …

Sujet :
Actuellement, l’entreprise aYaline développe pour ses clients des plateformes pour le traitement analytique en ligne (OLAP). Pour implémenter le concept OLAP dans le cadre de ses projets, aYaline a choisi l’architecture ROALP qui se base sur le principe de gestion des DataWarehouse (entrepôts de données) dans des bases de données relationnelles. L’architecture technique des plateformes en production reposent sur le serveur OLAP Mondrian géré par le système Saiku en mode standalone ou intégré au système Pentaho Community.
En matière de traitement analytique en ligne (en anglais BI : Business Intelligence), les architectes étaient confrontés à un choix relativement simple entre deux technologies de traitement analytique en ligne : multidimensionnelle ou relationnelle. Aujourd’hui, l’intelligence décisionnelle proposée aux entreprises est considérablement plus exhaustive, et les blocs fonctionnels qui font l’architecture des plates-formes BI se sont multipliés, tout comme les systèmes de gestion d’entrepôts de données sous-jacents. Deux points importants sont pris en compte :
1. les données : les volumes de données augmentent rapidement ; les données sont hétérogènes ; les données sont temps réels, etc. ;
2. les usages : les exigences de l’utilisateur final en matière de rapports et de données d’intelligence décisionnelle se développent et se complexifient …
L’entreprise aYaline souhaite exploiter les nouvelles sources de données émergentes, la volumétrie croissante des données et leurs nouveaux usages pour développer des applications analytiques efficaces sur l’ensemble des données de l’entreprise. Le Data Lake (ou lac de données) fait son apparition pour répondre à ces besoins. C’est un système informatique capable de stocker en un seul endroit toutes les données présentes dans une entreprise. Elle tend à se substituer peu à peu à son ancêtre, le DataWarehouse. Toutefois, adapter l’analytique aux lacs de données présente des verrous scientifiques et technologiques liés à l’état de l’art des solutions actuelles.
Dernièrement, de nombreuses entreprises ont investi dans le développement de nouvelles technologies capables de répondre à ces nouvelles problématiques. Elles commencent à adopter et à intégrer l’écosystème Hadoop pour améliorer leurs capacités de traitement des masses de données. Dans un tel scénario, les données de l’entreprise sont d’abord chargées sur la plateforme Hadoop, puis on leur applique des outils d’exploration de données et d’analytique, à l’emplacement qu’elles occupent sur les noeuds d’ordinateurs génériques du cluster Hadoop.
Cependant, l’adoption des solution basées sur l’écosystème Hadoop apporte de nouveaux défis pour l’architecture entreprise en matière de stockage, de persistance, de traitement, d’analyse et de visualisation des données, mais aussi en matière de gouvernance. Si Hadoop apparaît comme une évidence pour construire un Data Lake d’ampleur, il serait assez réducteur de penser qu’il soit l’unique solution à implémenter. De ce fait aujourd’hui, on trouve des possibilités, avec Kafka, Storm, Spark-Streaming et récemment le projet Kylo de Teradata.

Les missions principales de ce travail sont :
1. comprendre et analyser l’architecture des entrepôts de données présente ;
2. étudier les solutions de l’intégration de la technologie Hadoop dans l’environnement d’entreposage de données déjà en cours. Les technologies Data Lake basées sur Hadoop étant relativement nouvelles, les cas d’utilisation professionnelle où les implémentations ont réussies et ont été publiées ne sont pas nombreuses. Par conséquent, il n’existe pas de pratiques exemplaires ou de directives existantes ;
3. étudier l’intégration de Data Lake Hadoop dans l’environnement d’entrepôt de données existant de d’entreprise. Cette étude doit comprendre l’explication de l’intégration des données dans Hadoop et les plans de communication entre les sources de données opérationnelles métiers de l’entreprise et le Data Lake ;
4. la mise en œuvre du processus d’extraction, de chargement et de transformation (ELT : Extract-Load-Transform), l’utilisation des outils de business intelligence et de reporting, puis la mise en œuvre physique de Hadoop et l’emplacement du cluster Hadoop (comparaison entre une architecture Cloud et On-Premise).

Profil du candidat :
Le ou la candidate à ce poste doit être titulaire d’un doctorat en informatique, de préférence dans le domaine de la gestion des grandes masses de données.

Formation et compétences requises :
Le ou la candidate à ce poste doit être titulaire d’un doctorat en informatique, de préférence dans le domaine de la gestion des grandes masses de données.

Adresse d’emploi :
Université de La Rochelle
Laboratoire L3i
La Rochelle, 17000
France

Document attaché : ULR-L3i-aYaline-PLAIBDE-PostDoc-17-18.pdf

Post-doc in Data Science
Dec 31 2017 – Jan 1 2018 all-day

Annonce en lien avec l’Action/le Réseau : Doctorants

Laboratoire/Entreprise : IFPEN
Durée : 1 an
Contact : Benoit.celse@ifpen.fr
Date limite de publication : 2017-12-31

Contexte :
We are looking for a highly motivated postdoctoral fellow in the area of Big Data and Data Science with a particular focus on chemical data.
The project aims to establish a Big Data Ecosystem in order to predict chemical properties:
• Develop and apply advanced statistical methodology for analyzing sparse, and high-dimensional process chemical data (feedstock characterization, operating condition, product properties)
• Build on multivariate data-mining/machine-learning theory and methods for visualize and automatically predict some properties (cetane index, density, conversion, selectivity …)
• Develop methods for handling incomplete data
• Discover hidden patterns in chemical data
• Publish in leading conferences and journals

Sujet :
We are looking for a highly motivated postdoctoral fellow in the area of Big Data and Data Science with a particular focus on chemical data.
The project aims to establish a Big Data Ecosystem in order to predict chemical properties:
• Develop and apply advanced statistical methodology for analyzing sparse, and high-dimensional process chemical data (feedstock characterization, operating condition, product properties)
• Build on multivariate data-mining/machine-learning theory and methods for visualize and automatically predict some properties (cetane index, density, conversion, selectivity …)
• Develop methods for handling incomplete data
• Discover hidden patterns in chemical data
• Publish in leading conferences and journals

Profil du candidat :
The ideal candidate shall pursue exciting research in the areas of Big Data, chemical data analytics, machine learning, large-scale networks, deep learning, …

Formation et compétences requises :
Candidates with a computational background (PhD) and the desire to get involved in an application-driven project in a stimulating, interdisciplinary environment (process engineer, applied mathematics,…) are encouraged to apply.

Adresse d’emploi :
IFPEN, Rond-point de l’échangeur de Solaize, 69360 Solaize

Document attaché :

Jan
11
Thu
2018
Chef de projet ou expert en ingénierie logicielle (calcul distribué, optimisation de code de simulations)
Jan 11 – Jan 12 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Laboratoire Univers et Particules de Montpellier (CNRS/IN2P3)
Durée : CDI
Contact : bregeon@in2p3.fr
Date limite de publication : 2018-01-11

Contexte :
L’Ingénieur(e) de recherche aura pour mission de renforcer le Service Informatique du Laboratoire Univers et Particules de Montpellier (LUPM).
Au sein de ce service, il/elle aura pour mission de conduire la maîtrise d’oeuvre de projets sur une ou plusieurs phases du cycle de vie dans le respect des normes, des procédures et des référentiels en vigueur : analyse, développement, qualification, intégration, déploiement.

Sujet :
Le Laboratoire Univers et Particules de Montpellier (LUPM) est une Unité Mixte de Recherche dans le domaine de l’astrophysique stellaire, les astroparticules, la physique des particules et la cosmologie (http://www.lupm.univ-montp2.fr).
Il a pour tutelles le CNRS (IN2P3) et l’Université de Montpellier.
Le LUPM regroupe environ 60 chercheurs, enseignants-chercheurs, ingénieurs, techniciens, administratifs répartis en trois équipes de recherche et trois services de support.
L’activité s’exercera au sein du Service Informatique du laboratoire, dont l’expertise dans les domaines du calcul intensif et du développement logiciel est reconnue de longue date dans ses participations aux collaborations et consortia scientifiques internationaux.

Le laboratoire est aujourd’hui fortement impliqué dans l’expérience Cherenkov Telescope Array (CTA) que ce soit au niveau de la science (physique des objets galactiques, sources transitoires extra-galactiques), de l’instrumentation (calibration des caméras, lidar) et de l’informatique (calcul, modèle de données).
Concernant le calcul, en particulier, le LUPM est responsable depuis cinq ans de la production et de l’analyse des simulations Monte Carlo sur la grille de calcul, via le développement d’un système de production dédié, basé sur le framework DIRAC (Distributed Infrastructure with Remote Agent Control).
Afin d’élargir son empreinte sur la calcul dans CTA, le LUPM vient d’ouvrir un nouvel axe de développement complémentaire visant à l’optimisation des codes de simulations.

L’ingénieur(e) de recherche (IR) en ingénierie logicielle aura pour mission principale de renforcer la contribution du LUPM au projet CTA en apportant son expertise en gestion de projet et en développement.
En parallèle, il est attendu que l’IR contribue aux tâches d’intérêt général du service informatique (à hauteur de 10%).

Profil du candidat :
● Piloter le projet sur tout ou partie de son cycle de vie ;
● Assurer un rôle de conseil et d’expertise ;
● Analyser les besoins et participer à la réalisation du cahier des charges fonctionnel du projet ;
● Superviser les plannings, les charges et les budgets des projets ;
● Assurer une veille technologique en relation avec le domaine d’application et les experts du domaine ;
● Définir l’architecture logicielle et/ou matérielle ;
● Développer un logiciel sur tout ou partie du cycle de vie ;
● Piloter la stratégie de tests de qualification ;
● Encadrer des stagiaires et/ou doctorants ;
● Participer ponctuellement aux missions de support du service informatique.

Formation et compétences requises :
● Méthodologie de conduite de projet (connaissance approfondie) ;
● Génie Logiciel (connaissance approfondie) ;
● Méthode d’analyse (UML, MERISE) ;
● Protocoles de communication ;
● Systèmes d’exploitation Linux/Unix et langages de script ;
● Langages de programmation : python, C, C++ ;
● Techniques de parallélisation des codes ;
● Systèmes de gestion de bases de données ;
● Langue anglaise : B2 à C1 (cadre européen commun de référence pour les langues).

Adresse d’emploi :
LUPM – UMR5299
Université de Montpellier – Campus Triolet
Place Eugène Bataillon – CC 72
34095 Montpellier Cédex 05 FRANCE

Document attaché :

Feb
15
Thu
2018
Ingénieur.e maturation
Feb 15 – Feb 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LS2N
Durée : 12
Contact : philippe.leray@univ-nantes.fr
Date limite de publication : 2018-02-15

Contexte :
La plate-forme logicielle PILGRIM est une plateforme d’outils logiciels développés au sein du LS2N permettant le traitement de systèmes complexes à partir de réseaux bayésiens. Une partie de ces outils est dédiée à l’apprentissage de réseaux bayésiens dynamiques en grande dimension, ou à partir de flux de données. Ce type de formalisme théorique commence à être utilisé dans un domaine applicatif, le Process Mining dans lequel on cherche à « construire » des modèles de process métiers à partir de logs (comportements observés), à tester la conformité de ces comportements à partir de modèles existants, et à améliorer ces modèles, toujours à partir des logs.
L’objectif de ce projet de maturation est de consolider la librairie PILGRIM concernant l’apprentissage des réseaux bayésiens dynamiques, de développer une couche applicative dédiée au Process Mining s’appuyant sur ces outils, et de proposer une solution logicielle générique répondant aux demandes du marché, en favorisant l’essaimage potentiel d’une start-up consacrée à l’exploitation de cette solution.

Sujet :
Sous la responsabilité de la direction maturation et du responsable scientifique du projet (et en collaboration sur une première moitié du contrat avec un autre ingénieur maturation déjà en place) l’Ingénieur·e aura en charge la consolidation de la partie « réseaux bayésiens dynamiques » de PILGRIM, le développement de la couche Process Mining et le développement d’un produit « Process Mining » directement industrialisable via l’essaimage potentiel d’une start-up.

Profil du candidat :
Formation – Expérience
* Formation solide de niveau ingénieur/M2 en informatique.

Formation et compétences requises :
Compétences – Savoir être
* Expérience significative en génie logiciel, en développement C++, et des environnements de programmation associés
(Visual Studio, Code:Blocks), de travail collaboratif (Git, …).
* Intérêt pour le domaine des Sciences de Données et de l’Apprentissage Automatique (Machine Learning)
* Autonomie, sens de la responsabilité et appréciant le travail en équipe.
* Esprit entrepreneurial, pour accompagner l’essaimage potentiel en startup

Adresse d’emploi :
LS2N – Polytech’Nantes La Chantrerie, rue Christian Pauc, Nantes

Document attaché : Fiche_Poste_Maturation_Inge2.pdf

Feb
28
Wed
2018
4 Offres de Postdoc/IGR en Apprentissage Statistique & Sciences des données
Feb 28 – Mar 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : UMR LMNO et UMR LMRS
Durée : 18 mois
Contact : faicel.chamroukhi@unicaen.fr
Date limite de publication : 2018-02-28

Contexte :
Projet AStERiCs: Apprentissage Statistique à l’Echelle pour la Représentation et la Classification non-supervisées

Contexte et présentation générale du projet:
La disponibilité des données en masse révolutionne les questions relatives à leur traitement, analyse, exploitation et valorisation par les acteurs du numérique (académiques, entreprises, acteurs politiques, etc). La problématique principale est celle de l’élaboration de modèles originaux et génériques permettant représentation et classification de données massives, et celle du développement d’algorithmes efficaces optimisés à l’échelle pour les obtenir. Ce contexte de traitement et d’analyse à grande échelle rompt en effet avec la façon selon laquelle se posait classiquement la question de la construction et de l’inférence des modèles à partir de données brutes; la plupart de ceux de l’état de l’art se trouvent en effet inopérants à l’échelle, aussi bien d’un point de vue théorique, que pratique : problèmes d’inférence d’un très grand nombre de paramètres (fléau de la dimension), et/ou incapacité en temps et/ou en mémoire de mettre en œuvre des algorithmes centralisés classiques pour de très gros volumes de données, etc.

Sujet :
AStERiCs est un projet de recherche fondamentale financé dans le cadre du dispositif RIN (Réseaux d’Intérêts Normands)-Recherche dont l’objectif structurel est de fédérer la recherche scientifique en Normandie dans le domaine de la science statistique des données, en s’appuyant sur une démarche scientifique pluridisciplinaire impliquant modélisation mathématique, inférence, représentation et classification de données issues d’environnements complexes, hétérogènes, dynamiques et incertains. AStERiCs vise à élaborer un cadre scientifique et technique, complet, pour traiter, analyser, exploiter et valoriser des données massives, complexes, hétérogènes, dynamiques et peu ou non-annotées. Le but est de transformer des données en connaissances sous forme de représentations précises des informations liées aux données, de catégorisations pertinentes de telles informations, jusqu’à la valorisation de celles-ci en révélant/restaurant le modèle générateur des données. Le projet AStERiCs traite ainsi le problème de la grande échelle, sous tous ses aspects de modélisation et d’inférence. Plus précisément, les axes de recherche traitent des grands thèmes suivants : Statistique, Apprentissage, Analyse de données, Classification, Optimisation,  Traitement du signal, Grande dimension.

Profil du candidat :
(Voir le pdf pour plus de détails)

2 post-docs et 2 Ingénieurs de recherches

Profil postdoc :
– Être titulaire d’un doctorat en mathématiques appliquées avec une spécialisation confirmée en statistique/apprentissage

Profil IGR:
– Être titulaire d’un doctorat en mathématiques appliquées ou en informatique avec une spécialisation confirmée en apprentissage statistique non-supervisé et analyse de données complexes

Formation et compétences requises :
Postdoc :
– Être titulaire d’un doctorat en mathématiques appliquées avec une spécialisation confirmée en statistique/apprentissage
– Avoir une expérience en apprentissage de représentations à partir de données réelles massives
– Avoir un goût particulier pour le développement d’algorithmes et les applications
– Maîtriser la programmation R/Matlab/Python

IGR:
– Être titulaire d’un doctorat en mathématiques appliquées ou en informatique avec une spécialisation confirmée en apprentissage statistique non-supervisé et analyse de données complexes
– Avoir une expérience en apprentissage de modèles à variables latentes sur des données réelles massives
– Avoir un goût pour les applications et une expérience dans le prototype de code et l’intégration logicielle
– Maîtriser la programmation Matlab/R/Python et les environnements big data (Hadoop/Spark, MapReduce)
– Compétences souhaitées: cloud computing, systèmes OLAP, technos web

Adresse d’emploi :
LMNO, Caen
LMRS, Rouen

Document attaché : AStERiCs-PostDocs-IGRs-VF.pdf