
MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…
Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.
Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:
- Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
Pour en savoir plus… - Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
Pour en savoir plus… - Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
Pour en savoir plus… - Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.
Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…
Manifestations à venir
Journées Ecoles Conférences et Séminaires
Actions, Ateliers et Groupes de Travail :
CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Centre de Calcul de l’IN2P3 / CNRS
Durée : 2 ans
Contact : job74@cc.in2p3.fr
Date limite de publication : 2016-11-01
Contexte :
Le Centre de Calcul de l’IN2P3 (CC-IN2P3, http://cc.in2p3.fr), situé sur le Campus de la Doua à Villeurbanne prèsde Lyon, est une Unité de Service et de Recherche (USR) du CNRS mettant à disposition de ses utilisateurs (environ 4 000 comptes répartis en 70 groupes de recherche, principalement dans le domaine de la physique) des moyens de traitement et de stockage de données scientifiques.
Depuis 2008, le CC-IN2P3 dispose d’une équipe de recherche en informatique dont les thématiques portent sur la simulation d’applications et de systèmes distribuées, l’ordonnancement de workflows scientifiques et dans les systèmes de batch et la préparation à la mise en production de futures expériences par des activités liées à des aspects stockage, réseau et de pipelines applicatifs. Cette équipe a également pour mission de tisser des liens entre la communauté de recherche en informatique et les scientifiques utilisateurs du centre de calcul en développant de nouvelles façons de collaborer.
Sujet :
L’objectif pour le CC-IN2P3 est d’enrichir son équipe de recherche par l’apport de nouvelles compétences dans le domaine de la science des données. Pour le candidat, ce poste est l’occasion de développer une activité de recherche propre au contact proche d’expériences scientifiques produisant des grandes masses de données et à l’origine de découvertes scientifiques majeures issues de l’analyse de ces données (Boson de Higgs, ondes gravitionnelles, …).
La principale mission confiée au candidat consistera à mettre à profit ses compétences pour aider les scientifiques à optimiser le traitement informatique de leurs données. L’interaction avec les scientifiques, utilisateurs des ressources informatiques du Centre de Calcul de l’IN2P3, sera donc un point clé de ce post-doc. En complément de l’activité de recherche propre menée par le candidat, les aspects liés à ces interactions permettront de contribuer à l’établissement d’une méthodologie, appelée scientific-centered design, adaptée au contexte particulier du CC-IN2P3 et de ses utilisateurs.
Profil du candidat :
Le candidat recherché est un/e jeune docteur/e motivé/e par développer son propre projet de recherche et disposant de bonnes capacités d’écoute et de synthèse ainsi que d’autonomie et de prise d’initiative.
Formation et compétences requises :
– Expérience en bases de données SQL et no-SQL
– Maîtrise de langages de programmation tels que C/C++, Python, Java et R
– Experience en analyse de données et en extraction de connaissance
– Maîtrise de l’anglais comme langue de travail
– Connaissance de base sur les systèmes de stockage
– Maîtrise d’environnements de travail collaboratif (git, forge, …)
– Bonnes compétences en rédaction d’article scientifique
Adresse d’emploi :
Centre de Calcul de l’IN2P3 / CNRS
21 Avenue Pierre de Coubertin
CS70202
69627 VILLEURBANNE cedex
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CREATIS, INSA-Lyon
Durée : 1 an
Contact : denis.friboulet@creatis.insa-lyon.fr
Date limite de publication : 2016-11-15
Contexte :
3D data acquisition for ultrasonic imaging uses probes made of a matrix of sensors. For reasons of physical space, connectivity and control, only a small fraction of these sensors can be activated. Furthermore this type of acquisition leads to a very important data stream, which limits the imaging speeds less than 20 frames/s. One strategy to overcome these problems is to reduce the number of acquired ultrasound lines and develop method for reconstruction the the so-obtained subsampled volume.
Sujet :
Objective:
The compressed sensing techniques are well suited to this type of reconstruction and have been applied to this problem at Creatis. However, compressed sensing-based reconstruction involves solving a minimization problem of very large dimensions. The numerical solution of this problem has led to the development of many iterative algorithms based on convex relaxation techniques or greedy algorithms. Unfortunately, none of these algorithms currently achieves computing speeds compatible with real-time acquisition of the ultrasound images.
In this context, the objective of this work is to develop an alternative method of reconstruction, based on a deep neural network (DNN), whose architecture will reduce the computation time by several orders of magnitude . The application of the DNN image reconstruction problems is a very recent topic and iis application to ultrasound images is still unexplored.
As a consequence, a number of key points will have to be addressed in this work:
• The selection of the neural network type. In particular, the formulations based on convolutional networks, simple, variational or recurring autoencoders [5-8] will have to be examined.
• The selection of a sub-sampling strategy, which has to be adapted to the ultrasound acquisition and must also allow to optimize the reconstruction DNN
1.4. Methodology:
The development of DNNs suited to representation and reconstruction of ultrasound data will be based on python Keras and Theano libraries, which allow automatic differentiation and implicit GPU deployment. The developed approach will be optimized and evaluated in terms of computing time/accuracy trade-off, first on 3D ultrasound data from numerical simulations and on experimental data acquired on ex vivo organs using the research ultrasound scanner available at Creatis.
Profil du candidat :
PhD
Formation et compétences requises :
PhD in machine learning, showing a very good experience regarding approaches based on deep neural networks.
Adresse d’emploi :
Creatis
INSA – Bât. Blaise Pascal
69621 Villeurbanne cedex
Document attaché : sujet_post-doc_friboulet_diffusion_eng.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CREST-ENSAI
Durée : 3 years
Contact : asaumard@gmail.com
Date limite de publication : 2016-11-18
Contexte :
Open position, open rank
Sujet :
computer science in machine learning
Profil du candidat :
computer scientist specialized in machine learning
Formation et compétences requises :
PhD in computer science
Adresse d’emploi :
Ensai, campus de Ker-lann, Bruz, 5km au sud de Rennes
Document attaché : position_machine_learning_ensai_2017.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CREST-ENSAI
Durée : 3 years
Contact : valentin.patilea@ensai.fr
Date limite de publication : 2016-11-28
Contexte :
Open position, open rank
Sujet :
Mathematical statistics, Big Data
Profil du candidat :
Mathematical statistics, Big Data
Formation et compétences requises :
PhD in Applied Mathematics, specialized in Statistics, emphazis on Bid data
Adresse d’emploi :
Ensai, campus de ker-lann, Bruz, 5km au sud de Rennes.
Document attaché : position_stat_ensai_2017.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : De Vinci Research Center – ESILV
Durée : 18 mois
Contact : jerome.da_rugna@devinci.fr
Date limite de publication : 2016-12-01
Contexte :
Dans le cadre du projet LUCID (FUI21) nous recherchons un post-doctorant sur la thématiques des Base de Données Intelligentes.
Le De Vinci Research Center – http://www.devinci.fr/research-center/le-laboratoire/ – regroupe toutes les forces en recherche des trois écoles de l’Association Léonard de Vinci et porte les axes de recherche de l’ESILV dédiés à la recherche académique et partenariale sur 3 domaines au cœur du numérique : Modélisation Numérique et Simulation, Big Data et Représentation des Connaissances, Modélisation et optimisation de la chaîne d’énergie.
Rémunération à discuter selon profil.
Sujet :
L’objectif est d’analyser, concevoir et implémenter une base de données et de connaissances destinée à rassembler l’ensemble des informations liées à l’usinage de pièces complexes, par exemple pour l’Aéronautique et l’Espace.
Cela inclut les aspects de description géométrique des pièces à usiner et de description des programmes –ou « gammes » – d’usinage. Il faut également analyser et représenter les expertises, savoir-faire et connaissances des concepteurs de telles gammes. Cette base de données servira de support à des outils et algorithmes d’analyse de données, apprentissage automatique pour aider à la conception de pièces nouvelles. Ce travail se déroule dans le cadre d’un projet coopératif de grande envergure, avec comme partenaires de grands groupes industriels, des start-up et des laboratoires de recherche, avec lesquels des échanges étroits seront mis en place.
N.B. ce poste ne nécessite pas de connaissances dans les domaines de l’usinage ou de la fabrication, mais une capacité à comprendre l’environnement correspondant : formats de données en entrée et en sortie, dialogue avec les experts du métier. Il s’agit de concevoir et d’implémenter un système d’information original, de nouvelle génération, qui augmente l’efficacité d’un élément-clé de « l’Usine du Futur »
Profil du candidat :
Profil :
Compétences :
– Modélisation de bases de données
– Bases de données avancées (en graphe, sémantiques, logiques et déductives)
– Représentation des connaissances structurées et non structurées
– Maîtrise de la gestion de gros volumes de données
– Expérience et gout pour mener jusqu’au bout des développements et réalisations opérationnelle
– Curiosité intellectuelle pour découvrir, analyser et proposer des solutions à une problématique complexe
Formation et compétences requises :
Docteur en informatique
Adresse d’emploi :
ESILV, Paris La Défense.
Annonce en lien avec l’Action/le Réseau : Innovation
Laboratoire/Entreprise : Laboratoire Le2I
Durée : 1 an
Contact : christophe.cruz@u-bourgogne.fr
Date limite de publication : 2016-12-03
Contexte :
Dans le domaine de la navigation indoor, les services de navigation exploitent un ou des systèmes de positionnement en intérieur ou systèmes de géolocalisation en intérieur permettant le géopositionnement d’objets ou de personnes dans un espace interne à une construction (bâtiments, magasins, entrepôts, usines, etc.). Aujourd’hui, les services de navigation indoor proposent, sur terminaux mobiles, des plans interactifs avec annuaire des différentes parties de la construction avec recherche par nom, par type de service, par lieu, etc. Ces services permettent également le calcul d’itinéraire, la navigation et le guidage pas-à-pas incluant éventuellement un guidage multimodal. A ce guidage, les solutions fournissent des informations locales contextualisées comme l’accessibilité pour les personnes à mobilité réduite, le suivi des enfants, un réseau social géolocalisé, et la gestion des évènements en temps réel sur site.
http://geolys.net/
Sujet :
Développement d’une plateforme générique pour la gestion intelligente de services et d’environnements adaptatifs pour la navigation indoor/outdoor sous la forme d’une infrastructure logicielle et matérielle.
L’ingénieur prendra part au développement d’une plateforme de gestion de masse de données couplées à une infrastructure de capteurs de géolocalisation et de mesure de l’état du bâtiment et de son utilisation. La plateforme sera exploitable sous la forme d’un API pour le paramétrage et l’usage des services intelligents accessibles sur un cloud de type Azure™ et exploitant les technologies Apache et Hortonworks sans se limiter à celle-ci.
Profil du candidat :
Ecole d’ingénieur en informatique ou cursus universitaire équivalent orientée sur les masses de données et l’architecture de traitement de ces données.
Formation et compétences requises :
Langage Microsoft C++ et C# (plateforme .NET) / Java
Ecosystème de services PAAS Azure IOT & Big Data (HD Insights)
Ecosystème Hortonworks / HD Insights sur Azure
NoSQL / Map Reduce
Virtualisation Azure
Déploiement d’infrastructure IOT (Choix équipements et développement code embarqué)
Adresse d’emploi :
Université de Bourgogne
Institut Marey, Bâtiment I3M
64 rue de Sully
21000 Dijon
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Université d’Artois/ Lgi2a
Durée : 12 mois
Contact : francois.delmotte@univ-artois.fr
Date limite de publication : 2016-12-31
Contexte :
D’un point de vue industriel, les systèmes ferroviaires se démocratisent sur tous les continents. Plus particulièrement pour les tramways, nombre de grandes agglomérations s’équipent et les systèmes roulants urbains guidés évoluent en permanence.
Cette démocratisation des systèmes ferroviaires entraine naturellement le partage d’un espace de circulation entre un véhicule de transport guidé et un véhicule routier ou un piéton et devient une situation de circulation présentant un caractère particulièrement dangereux. Initialement limitée aux passages à niveaux, cette situation s’est étendue au contexte urbain avec le développement des tramways.
L’objet du projet PSCHITT_Rail en collaboration avec le Lamih de Valenciennes est donc de réaliser la co-simulation ferroviaire avec les modalités automobile et PMR dans le but de travailler sur les interactions entre ces véhicules dans un contexte routier (passage à niveau) et urbain (tramway en site non protégé) dans le but d’améliorer la sécurité des usagers.
Sujet :
L’ingénieur recruté travaillera sur la partie concernant les aspects sécurité et accidents dans ce système complexe qui utilise conjointement différentes modalités de transports sur un même site. L’intégration des différents simulateurs devant se dérouler sur toute la durée du projet, l’activité sera restreinte dans un premier temps à l’étude de la vigilance et des comportements à risque de conducteur de tramway, partie pour laquelle des expérimentations ont déjà eu lieues et qui doivent être maintenant dépouillées. Il semble que l’on se dirige vers des méthodes de classification semi supervisée afin d’analyser finement les données.
Profil du candidat :
titulaire d’un doctorat en statistique, classification, analyse de données…
Envoyer votre candidature à francois.delmotte@univ-artois.fr
Celle-ci comprendra un cv, une lettre de motivation, le mémoire de doctorat et/ ou quelques publications significatives, ainsi que le rapport de soutenance.
Formation et compétences requises :
titulaire d’un doctorat en statistique, classification, analyse de données…
Adresse d’emploi :
Bethune
Salaire: environ 2000 euros net/ mois
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : IRIT, Toulouse
Durée : 2 ans
Contact : cedric.fevotte@irit.fr
Date limite de publication : 2016-12-31
Contexte :
Postdocs en décomposition matricielle pour l’analyse de données dans le cadre du projet ERC FACTORY (New paradigms for latent factor estimation), coordonné par Cédric Févotte à l’IRIT, Toulouse.
Sujet :
Applications en traitement du signal audio, télédétection, fouille de données; problèmes méthodologiques relevant de l’estimation statistique, l’optimisation et l’apprentissage de représentations.
Profil du candidat :
Background en machine learning, traitement du signal, statistiques ou discipline connexe.
Formation et compétences requises :
Informations supplémentaires & modalités de candidatures à cette adresse :
http://www.irit.fr/~Cedric.Fevotte/factory/announcement.pdf
Adresse d’emploi :
IRIT, Toulouse.
Document attaché : erc_factory.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Internet Memory Research
Durée : CDI
Contact : philippe.rigaux@cnam.fr
Date limite de publication : 2016-12-31
Contexte :
Internet Memory Research is seeking big data software engineer to work on developing our own B2B and B2C e-marketing solutions. The job will be to design and develop scalable solutions for processing massive amounts of real-time data based on Cloudera Hadoop, develop complex MapReduce/Spark/Flink jobs to compute important metrics and data derivates, work with others on the Big Data team to solve complex computational and analytical problems.
Sujet :
IMR is a start-up company based in Paris, France. It has a background in developing technologies for large-scale web crawling, archiving and analytics that uses as a basis for its own e-marketing B2B and B2C solutions. IMR is running its own computing infrastructure in its own datacenter hosting PBs of web crawled archives. The IMR team is multi-cultural and communicating in English and French. IMR is also currently involved in two H2020 research projects co-funded by the EU commission.
Profil du candidat :
Ph.D. or engineer’s degree in Computer science.
Formation et compétences requises :
• Excellent background in distributed processing using at least one of Hadoop,
Spark, Flink
• Proficiency with NoSQL data bases like HBase or Cassandra,
• Excellent knowledge of Java
• Experience with various messaging systems, such as Kafka or RabbitMQ
• Solid experience with large datasets
• At least user level Unix/Linux systems knowledge
• Autonomous, team player
• Good knowledge of English
What we offer:
• Work with open source cutting edge technologies on wide variety of projects
• Competitive salary based on experience, skills, and qualifications
• Start-up culture, young and dynamic team
• Agile/Scrum development methodology
Adresse d’emploi :
Please send your CV including a list of your projects you are especially fond of to:
job@internetmemory.net
http://www.ineternetmemory.net
Document attaché : imr-hadoop-position.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : INRIA
Durée : 12 mois
Contact : florence.forbes@inria.fr
Date limite de publication : 2016-12-31
Contexte :
L’IRM fonctionnelle (IRMf) permet d’explorer le fonctionnement cérébral en détectant les réseaux neuronaux sollicités dans différentes conditions expérimentales, sensorielles ou cognitives. L’analyse classique des données d’IRMf d’activation repose sur un modèle de régression, où le signal BOLD (Blood Oxygen Level Dependent) acquis dans chaque voxel est décomposé en une composante stimulus-induite (signal d’intérêt) et du bruit. Le signal d’intérêt est construit à partir de deux éléments : D’une part, il est défini à partir du paradigme expérimental au cours duquel les stimuli sensoriels ou cognitifs sont délivrés à intervalles de temps relativement réguliers, induisant chez le participant des activations cérébrales spécifiques. D’autre part, ce signal s’appuie sur un modèle canonique du couplage neurovasculaire, c’est-à-dire d’une forme de réponse impulsionnelle pour ce système qu’on appelle la fonction de réponse hémodynamique (FRH). La plupart des logiciels d’analyse des données en IRMf (SPM, FSL, AFNI) considèrent cette FRH comme constante dans tout le cerveau et identique pour tous les individus alors que de nombreux travaux dans la littérature (cf par exemple [1]) ont montré sa variabilité à travers les régions cérébrales (région motrice et frontales plus lentes que les régions sensorielles) et les classes d’âge, pour ne citer que les résultats chez le sujet sain. Lorsque la FRH du sujet examiné diffère de la canonique, ce qui est le cas pour certains patients, il en résulte une sous-estimation de l’amplitude de réponse, donc un risque de faux résultats négatifs. Cela constitue un frein à la pénétration de l’IRMf comme outil d’investigation en clinique.
Le logiciel PyHRF [2], écrit en langage Python, implémente une approche de détection-estimation conjointe (DEC) de l’activité cérébrale [3-5], où la détection des activations corticales est réalisée conjointement à l’estimation de la FRH inconnue, en analysant les données non lissées spatialement. Cette détection-estimation est réalisée dans différentes parcelles d’intérêt pavant le volume cérébral. Cette approche permet ainsi de dépasser la limite soulignée préalablement qui existe dans les logiciels concurrents.
Sujet :
Récemment les fonctionnalités du logiciel PyHRF ont été étendues pour le rendre déployable et utilisable par des non-spécialistes, notamment en clinique. Très concrètement, le logiciel permet de naviguer dans le cerveau, et notamment dans les régions sollicitées au cours de l’expérience, afin de visualiser les activations et leur décours temporel au travers du profil de FRH estimé. Des tests préliminaires ont été réalisés sur des données cliniques.
Sous la direction des responsables scientifiques du projet et en collaboration avec des neuroradiologues du GIN (Grenoble Institut des Neurosciences), il s’agira de :
• Poursuivre l’évaluation du logiciel et d’y apporter les modifications nécessaires ;
• Implémenter une interface homme-machine pour faciliter l’utilisation ;
• Intégrer l’outil dans la chaîne de production de rapports d’expertise (reporting automatique pour intégration dans la routine hospitalière) par exemple au format HTML ;
• Participer a la mise en place d’expériences cliniques supplémentaires.
Profil du candidat :
Formation de haut niveau en informatique (diplôme de master, d’ingénieur ou de doctorat) ;
Pour être éligible, le dossier de candidature devra comporter :
• Une lettre de motivation pour le poste, détaillée et personnalisée ;
• Un CV complet intégrant l’expérience du candidat ainsi que ses formations académiques ;
• Des lettres de recommandation ou des noms et coordonnées de personnes pouvant apporter leur soutien au candidat.
Formation et compétences requises :
Connaissances requise :
• Très bonne connaissance du langage Python et de l’environnement GitHub ;
• Expérience du développement sous Linux ;
• Excellentes capacités relationnelles et rédactionnelles ;
• Rigueur, autonomie et curiosité technique pour s’impliquer dans un projet multidisciplinaire et multi- équipes ;
• Une connaissance du domaine du traitement des images médicales serait un plus.
Adresse d’emploi :
Merci d’envoyer vos candidatures à : Florence Forbes (florence.forbes@inria.fr)
Contacts Scientifiques :
Florence Forbes, Mistis, Inria, Grenoble, (+33 (0) 4 76 61 52 50, florence.forbes@inria.fr)
Philippe Ciuciu, Parietal, CEA & Inria Saclay (+33 (0) 1 69 08 77 85 , philippe.ciuciu@cea.fr)
Michel Dojat, GIN Inserm, Grenoble (+33 (0) 4 56 52 06 01, michel.dojat@ujf-grenoble.fr)
Jan Warnking, GIN Inserm, Grenoble (+33 (0) 4 56 52 05 85, jan.warnking@univ-grenoble-alpes.fr)
Localisation : Equipe Mistis Inria Grenoble (http://www.inria.fr/equipes/mistis )
avec possibilités de visites au CEA Saclay (NeuroSpin)
Date de prise de fonction : dès que possible et au plus tard octobre 2016
Document attaché : pyhrf_ingenieur-4.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Internet Memory Research
Durée : CDI
Contact : philippe.rigaux@cnam.fr
Date limite de publication : 2016-12-31
Contexte :
Internet Memory Research is seeking machine learning engineer to work on solving classification and prediction problems for developing our own B2B and B2C e-marketing solutions. Your primary focus will be problem cracking using ML techniques on our big data coming in various flavors – graph data, written natural language.
Sujet :
IMR is a start-up company based in Paris, France. It has a background in developing technologies for large-scale web crawling, archiving and analytics that uses as a basis for its own e-marketing B2B and B2C solutions. IMR is running its own computing infrastructure in its own datacenter hosting PBs of web crawled archives. The IMR team is multi-cultural and communicating in English and French. IMR is also currently involved in two H2020 research projects co-funded by the EU commission.
Profil du candidat :
Ph.D. or engineer’s degree in Machine Learning, Data Mining, Statistics, Applied Mathematics, or a related field.
Formation et compétences requises :
• Strong background in machine learning with domain knowledge and experience in the following areas: data-driven statistical modelling, graphical models, feature extraction and analysis, supervised learning.
• A big plus is knowledge and experience with Deep learning approaches and frameworks
• Good knowledge of Python and Java
• A plus is distributed computing experience (at least one of Hadoop, Spark, Flink)
• Experience with large datasets
• Skilled at data visualization and presentation
• Unix/Linux systems knowledge on a user level
• Autonomous, team player
• Good knowledge of English
Adresse d’emploi :
Please send your CV including a list of your projects you are especially fond of to:
job@internetmemory.net
http://www.ineternetmemory.net
Document attaché : imr-ml-engineer-position.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Orange Labs
Durée : 1 an
Contact : stephane.senecal@orange.com
Date limite de publication : 2016-12-31
Contexte :
Les travaux de recherche à mener ont globalement pour but de designer et d’implémenter de nouveaux algorithmes de Machine Learning pour le management d’applications réseaux et cloud dans le contexte des futurs réseaux 5G. Plus spécifiquement, le cas d’usage considéré et adressé par ces travaux de recherche traite de la mise en vigueur des Service Level Agreements dans le contexte de communications multimédia massives. L’état-de-l’art de cette problématique et des solutions associées en termes d’approches issues du Machine Learning est déjà examiné dans le cadre d’une une thèse à Orange.
Sujet :
Le but principal du projet de recherche proposé est ainsi d’étudier la pertinence et de designer des méthodes d’apprentissage adaptées et optimisées pour des modèles de type réseaux de neurones profonds (parmi d’autres modèles) appliqués à la gestion et à la mise en application de Service Level Agreements dans un contexte d’un scénario de communications multimédia massives.
Les activités de recherche s’inscriront naturellement au sein du projet de recherche collaboratif EU 5G-PPP « COGNET » : http://www.cognet.5g-ppp.eu/
Profil du candidat :
Expériences souhaitées :
– Master et/ou Ecole d’Ingénieur, spécialité mathématiques appliquées et/ou informatique
– Doctorat en mathématiques appliquées et/ou informatique
– Une thèse de doctorat spécialisée en Machine Learning est un atout
Formation et compétences requises :
Compétences scientifiques et techniques :
– Mathématiques : modélisation, statistiques et probabilités
– Informatique : maîtrise de Python et/ou LUA et/ou Matlab, ainsi que des bibliothèques courantes implémentant les principaux modèles et méthodes en Machine Learning
– Des compétences en Machine Learning/apprentissage statistique sont un atout
Adresse d’emploi :
Orange Labs, Châtillon (IDF)
Document attaché : offre-de-post-doc-ml-@-orange-labs-idf-2016.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : IRIS/Governance Analytics
Durée : 1 year
Contact : marianne.clausel@imag.fr
Date limite de publication : 2016-12-31
Contexte :
The newly established multidisciplinary program on “Governance Analytics” has four openings for postdoctoral fellowships
in data-driven social sciences. The program aims at establishing a group of young scholars specialized in data
gathering, databases integration and data processing with the aims of contributing to the exploration of governance and
regulation of organizations, institutions and markets. The pluri-disciplinary team will be responsible for providing assistance
to research teams in social science in designing research protocols, contributing to on-going research projects
based on advanced methodologies, and developing original tools (algorithm, databases, treatments) to study the various
dimension of governance.
Candidates must have either a solid background on data-driven research in social sciences, or in computer sciences or
mathematics with an interest for economic, managerial, political or sociological issues. Expertise in the analysis of organizations
or institutions is preferable but not required.
About us: Governance Analytics is a research program funded by PSL Research University and hosted by the University
of Paris-Dauphine. PSL groups 25 of the most prestigious French academic institutions in Paris, including the Collège de
France, the Ecole Normale Supérieure, the EHESS. Paris Dauphine is a leading University in Organizational Sciences in
France. Governance and Regulation is a cooperative project among about 15 research teams in economics, management,
social sciences, computer sciences and mathematics. It offers an outstanding environment for scholarly publication and
high-level communication of research to policy and business audiences
Sujet :
Post-Doctoral Position
The post-doctoral candidate will be working within the expert team made of researchers in economics, management,
social sciences, computer science and applied mathematics. He will be expected to contribute to the building of a collective
expertise on data-driven research methods and tools, and to research projects on the analysis of governance, organizational
or institutional issues. The candidate’s main task will be to work on the design and implementation of research
projects carried out by the various teams involved in the project. This will involve cooperation with other researchers
specialized in complementary methodologies. Also, the Post-Doc will cooperate in the development of tools — website,
tutorials, seminars, etc. — aimed at disseminating knowledge on data-driven research.
Contract: 1-year fixed-term contract, renewable (up to a total of 3 years maximum). Starting Date 1st of October 2016.
According to the French standards, the Post-Doctoral Researcher will be paid 28k€ net/year, which include social coverage
Profil du candidat :
PROFILE:
• PhD in Economics, Management or other social sciences, with a significant focus on quantitative methods; or PhD
in Computer Science or Mathematics, with significant focus on applied economic, political or sociological issues.
• Have the linguistic skills to evolve in a multilingual environment: fluency in English and a good understanding of
French will be considered an advantage
Formation et compétences requises :
PROFILE:
• PhD in Economics, Management or other social sciences, with a significant focus on quantitative methods; or PhD
in Computer Science or Mathematics, with significant focus on applied economic, political or sociological issues.
• Have the linguistic skills to evolve in a multilingual environment: fluency in English and a good understanding of
French will be considered an advantage
Adresse d’emploi :
APPLICATION PROCEDURE: Review of applications will begin July 13th, 2016 and continue until the positions are
closed. Application materials must be in PDF format and include a cover letter, CV, transcript of concluded university
studies, one letter of reference, and the name, current position, and contact details for two other potential referees, and,
for the post-doc position, one paper authored by the applicant.
All applicants should send their application files and questions to Bruno Chaves bruno.chavesferreira@dauphine.fr
Document attaché : post-docgovernanceanalytics.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Noah’s Ark Lab Huawei Research Paris
Durée : CDI
Contact : moez.draief@huawei.com
Date limite de publication : 2016-12-31
Contexte :
Huawei’s French Research Center (FRC) in Paris offers a number of research scientists and data scientists positions in our growing Machine Learning group to develop disruptive technologies in telecommunication infrastructure and devices.
Sujet :
The Machine Learning group based in Paris is part of Noah’s Ark Lab (http://www.noahlab.com.hk).
Founded in 2012, Noah Ark’s lab is the AI research center for Huawei. We undertake four primary domains: Natural Language, Search & Recommendation, Intelligent Management and Intelligent Network, to drive fundamental R&D in Artificial Intelligence.
Our mission is to build AI technology that is practical to solve real world problems. We entail the state of art AI technologies, including deep learning, reinforcement learning and unsupervised learning, in multiple areas including natural language dialogue, translation, personalized recommendation, automated network management, and robotics.
Profil du candidat :
– The ideal Research Scientist will have a genuine interest in applying their expertise in Machine Learning and Computational Statistics to devise disruptive technologies in telecommunication infrastructure and devices through top-tier research publications and providing an edge for Huawei’s products. They must possess a track record of publications in reputable venues such as NIPS, ICML, COLT, AAAI, Sigmetrics, SODA, UAI, SIGCOMM, KDD etc.
2- The ideal Data Scientist will be working on Applied Machine Learning, Data Mining and Big Data Technologies. This needs to be evidenced by an extensive experience of working throughout the data science and data engineering pipeline with tools such as Python, R, big data platforms (e.g. Hadoop, NoSQL, SPARK, SCALA, TensorFlow) as well as Java and C++.
Candidates must hold a PhD degree in Applied Mathematics, Statistics, Electrical Engineering or Computer Science from a top university.
To apply for these positions please send a complete CV in English together with a cover letter briefly explaining your expertise and research interests as well as the position that you are applying for. You will also need to provide the names of two persons who will be later contacted to provide reference letters.
The successful candidates will receive a competitive salary and benefits.
Applications should be submitted by email to moez.draief@huawei.com.
If you are not contacted within 3 weeks after applying, please consider that your application did not match our current needs.
Formation et compétences requises :
Candidates must hold a PhD degree in Applied Mathematics, Statistics, Electrical Engineering or Computer Science from a top university.
Adresse d’emploi :
20 quai du point du jour Boulogne-Billancourt 92100
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Mathematical and Algorithmic Sciences Lab France Research Center, Huawei Technologies Co. Ltd.
Durée : CDI
Contact : jeremie.leguay@huawei.com
Date limite de publication : 2016-12-31
Contexte :
The Network and Traffic Optimization research team of the Mathematical and Algorithmic Sciences Lab, Huawei France Research Center, located in the Paris area, is looking for candidates for a permanent research position on Machine Learning to commence by the end of the year. The research will focus on developing algorithms and novel network analysis schemes to drive research and innovation in the context of advanced traffic engineering. The successful candidate will be involved in the development of competitive solutions Intelligent Network Management systems.
Sujet :
Major Responsibilities:
– Lead research and innovation in machine learning to improve data center networks performance and decrease the cost of operation.
– Identify future business and technologies requirements in machine learning and networking, especially, use the artificial intelligence in network. Collaborate with other units to ensure the successful exploitation of research outputs.
– Responsible for theory exploration, advanced algorithm design, analysis, and performance evaluation to meet challenging business requirements.
– Generation of intellectual property through the patenting of ideas.
– Responsible for the quality of project deliveries
– Disseminate research outputs in major research and industry events worldwide.
– Create and maintain strong collaborations with academia, industry and research agencies.
– Contribute to the creative and innovative atmosphere in Huawei Research Labs.
Profil du candidat :
PhD Degree in Applied Mathematics or Computer Science
Experience: 10+ years English: Operational
Candidates must have a strong background in Statistical Learning in the context of Machine Learning and experience in system design, algorithm development, and simulation of networked systems.
Formation et compétences requises :
The following skills and experiences are highly desirable:
– Solid background on machine learning and data center networking
– Good knowledge of standard statistical learning tools (e.g., regression methods, kernel methods, artificial neural networks, reinforcement learning).
– Good knowledge of standard stochastic optimization paradigms (MDPs, dynamic programming) and sequential learning algorithms (multi-armed bandits)
– Good Knowledge of network architectures, data center architectures and protocols Proficiency with machine learning tools (R, Sage, SciPy, Matlab)
– Practical experience with big analytics tools (Hadoop, Spark, Storm, Flink) will be a plus
– Familiarity with low-level development languages (C/C++) will be a plus.
– Solid publication record in machine learning applied to networking problems
Adresse d’emploi :
20 Quai du Point du Jour
92100 Boulogne-Billancourt
Document attaché : senior-research-scientist-on-applied-machine-learning-statistical-learning.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LITIS
Durée : 20 months
Contact : postdoc-graphkernel@litislab.fr
Date limite de publication : 2017-02-01
Contexte :
This project will be supervised in close collaboration by
LITIS (Rouen, France) and GREYC (Caen, France) laboratories which
have a strong expertise on graph kernels for
chemoinformatics. The chemical part will be supervised by COBRA
laboratory (Rouen, France) which has proposed various atomic
descriptors encoding some electronical information. Their
expertise will be essential to be able to encode additional
information into a new representation for chemical compounds.
Start date: January/ February 2018
Salary: This position will be granted with about 2200 euros/month
net salary.
Sujet :
Graph kernels have already been applied to chemoinformatics and are
based on structural information encoded within molecular
graphs. However, intrinsic properties of atoms and theirs
interactions induce some electronic properties which are not
explicitly encoded within classic molecular graphs
representations. The main purpose of this post doctoral position
is to include this information into a new augmented kernel and
apply it on some chemoinformatics datasets. The two main steps
will be i) to define a new molecular representation encoding
local electronic information and ii) to define a new similarity
measure as a kernel to compare two molecules encoded in the new
proposed representation.
Profil du candidat :
The candidate should have a strong expertise in machine learning, especially in kernel methods. Having experiences using graphs or graph kernels constitutes an advantage.
Formation et compétences requises :
Required skills:
• PhD or Master in Applied Mathematics or computer science,
• experience in C++, Python or Matlab programming,
• knowledge in kernel methods, graph based approach constitutes an advantage.
Adresse d’emploi :
The research will be conducted at LITIS Laboratory (Rouen, France)
in Normandy. The LITIS (EA 4108) is affiliated to Normandie
University, University of Rouen and INSA Rouen Normandie.
Document attaché : postdoc-offer-graphkernels.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Institut Fédératif d’Etudes et de Recherches Interdisciplinaires Santé Société (IFERISS) et l’Institut Mathématiques de Toulouse (IMT)
Durée : 1 an
Contact : contact@iferiss.org
Date limite de publication : 2017-02-03
Contexte :
Dans le cadre d’un projet de recherche sur les Big Data, l’Institut Fédératif d’Etudes et de Recherches Interdisciplinaires Santé Société (IFERISS) et l’Institut Mathématiques de Toulouse recherche un Ingénieur de Recherche
Sujet :
Dans le cadre de projets de recherche et en tant que Data Scientist, vous vous intéresserez à la question de la production de connaissances et de la constitution de bases de données à partir de bases existantes de natures diverses (fusion de bases). Vous garantirez la cohérence, le niveau de sécurité et la pérennité des solutions mises en œuvre.
Votre projet de recherche sera rattaché au domaine des Big Data pour la Santé.
Missions :
• La fiabilisation et l’optimisation des bases de données,
• Fusion de bases de données hétérogènes
• Le développement et le maintien des outils de production relatifs aux bases de données,
• Administration et Exploitation récurrente des bases de données infogérées
• Statistical learning (svm, random forests, ….)
Profil du candidat :
Compétences spécifiques :
• Maitrise des environnements de bases de données (MySQL, Oracle, DB2, Sybase….)
• R, Matlab, Python éventuel…
• Maitrise du développement, des requêtes, du stockage et des systèmes et réseaux
• Organisation / méthodologies de projet
Formation et compétences requises :
Qualités personnelles :
• Aptitude au travail en équipe et à la communication
• Curiosité
• Capacité d’innovation et d’adaptation
• Rigueur
Profil : Titulaire d’un doctorat en informatique ou maths-info, ou d’un diplôme d’école d’ingénieur (liste des écoles : https://www.legifrance.gouv.fr/eli/arrete/2014/1/13/ESRS1327350A/jo), vous souhaitez travailler dans le domaine de la fusion de bases avec intérêt pour le domaine de la Santé
Adresse d’emploi :
Université Paul Sabatier – Toulouse 3
Document attaché : 2016-fiche-de-poste-ir-maths-info.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Ecole Centrale Marseille / Laboratoire d’Infiormatique Fondamentale
Durée : cdi
Contact : thierry.artieres@lif.univ-mrs.fr
Date limite de publication : 2017-02-22
Contexte :
L’école Centrale Marseille ouvre un poste de MC en informatique.
Les activités de recherche seront menées au sein du Laboratoire d’Informatique Fondamentale de Marseille .
Les thèmes de recherche sont le traitement de données massives et/ou l’apprentissage profond et ses applications.
Sujet :
https://sync.lif.univ-mrs.fr/index.php/s/BeP0dHmjuvSjyAI
Profil du candidat :
https://sync.lif.univ-mrs.fr/index.php/s/BeP0dHmjuvSjyAI
Formation et compétences requises :
https://sync.lif.univ-mrs.fr/index.php/s/BeP0dHmjuvSjyAI
Adresse d’emploi :
38 Rue Frédéric Joliot Curie, 13013 Marseille
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : ICube – Université de Strasbourg
Durée : 18 mois
Contact : gancarski@unistra.fr
Date limite de publication : 2017-02-28
Contexte :
Les ressources pédagogiques utilisées actuellement dans l’enseignement en France et en Europe sont très majoritairement des contenus imprimés. Il existe pourtant un grand nombre de ressources numériques gratuites ou payantes réparties sur diverses plateformes. Leur sous-utilisation est due principalement à la difficulté d’identifier dans la masse celles qui sont pertinentes tant pour un usage dans la classe qu’en dehors de la classe, que ce soit pour la préparation de séances par l’enseignant ou d’exposés par l’élève, par exemple.
Sujet :
L’objectif du projet est de proposer une plateforme numérique conviviale permettant de sélectionner et qualifier les ressources numériques exploitables dans un contexte éducatif, d’enrichir leurs métadonnées et de les organiser pour permettre des recherches efficaces. Ces ressources seront proposées à travers un moteur de recherche présentant les résultats en fonction de l’utilisateur (élève ou enseignant) et du niveau cible (6e, seconde générale …).
Trois tâches principales sont prévues :
1) Modélisation du domaine et des différents types d’utilisateurs ;
2) Développement de méthodes innovantes d’indexation des ressources pédagogiques, afin d’enrichir les métadonnées existantes par la fouille de textes ;
3) Développement d’un prototype pour la recherche d’information contextualisée dans les ressources pédagogiques.
Objet du contrat : Le travail à réaliser dans le cadre du contrat postdoctoral portera principalement sur les deux premières tâches et sera réalisé au laboratoire ICube, en collaboration avec le laboratoire LiLPa. Ces deux laboratoires rassemblent des chercheurs travaillant à la fois dans le domaine de l’informatique et dans divers domaines des sciences du langage, incluant la linguistique informatique.
Profil du candidat :
Les candidat(e)s pour ce poste doivent être titulaire d’une thèse en informatique
Une bonne compréhension de la langue française est indispensable : les ressources à modéliser et les publics concernés seront quasi exclusivement francophones.
Date prévisionnelle de début de contrat : Au plus tôt
Durée : 12 mois (prolongeable de 6 mois)
Salaire : 2100 €/mois négociable
Formation et compétences requises :
Très bonnes connaissances en traitement automatique des langues, fouille de textes et recherche d’information.
Adresse d’emploi :
ICube – Equipe Science des Données et Connaissances
Site d’Illkirch : http://icube.unistra.fr/
Document attaché : AnnoncePostDoc_Strasbourg.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LGI2A/ Bethune
Durée : 1 an
Contact : francois.delmotte@univ-artois.fr
Date limite de publication : 2017-02-28
Contexte :
D’un point de vue industriel, les systèmes ferroviaires se démocratisent sur tous les continents. Plus particulièrement pour les tramways, nombre de grandes agglomérations s’équipent et les systèmes roulants urbains guidés évoluent en permanence.
Cette démocratisation des systèmes ferroviaires entraine naturellement le partage d’un espace de circulation entre un véhicule de transport guidé et un véhicule routier ou un piéton et devient une situation de circulation présentant un caractère particulièrement dangereux. Initialement limitée aux passages à niveaux, cette situation s’est étendue au contexte urbain avec le développement des tramways.
L’objet du projet PSCHITT_Rail est donc de réaliser la co-simulation ferroviaire avec les modalités automobile et PMR dans le but de travailler sur les interactions entre ces véhicules dans un contexte routier (passage à niveau) et urbain (tramway en site non protégé) dans le but d’améliorer la sécurité des usagers.
Sujet :
L’ingénieur recruté travaillera sur la partie concernant les aspects sécurité et accidents dans ce système complexe qui utilise conjointement différentes modalités de transports sur un même site. L’intégration des différents simulateurs devant se dérouler sur toute la durée du projet, l’activité sera restreinte dans un premier temps à l’étude de la vigilance et des comportements à risque de conducteur de tramway, partie pour laquelle des expérimentations ont déjà eu lieues et qui doivent être maintenant dépouillées. Il semble que l’on se dirige vers des méthodes de classification semi supervisée afin d’analyser finement les données.
Profil du candidat :
Profil : titulaire d’un doctorat en statistique, classification, analyse de données…
Formation et compétences requises :
doctorat en statistique, classification, analyse de données…
Matlab, le langage python est un plus
Adresse d’emploi :
Durée : contrat de 1 an,
Localisation : Bethune.
Salaire : environ 2000 euros net par mois.
Envoyer candidature à francois.delmotte@univ-artois.fr
Celle-ci comprendra un cv, une lettre de motivation, le mémoire de doctorat et/ ou quelques publications significatives, ainsi que le rapport de soutenance.
Document attaché : offre-demploi-lgi2a.pdf
