
MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…
Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.
Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:
- Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
Pour en savoir plus… - Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
Pour en savoir plus… - Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
Pour en savoir plus… - Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.
Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…
Manifestations à venir
Journées Ecoles Conférences et Séminaires
Actions, Ateliers et Groupes de Travail :
CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : UMR CNRS LSIS
Durée : 18 months
Contact : glotin@univ-tln.fr
Date limite de publication : 2017-03-01
Contexte :
In both grants, the goal of your research will be to improve the current performance of soundscape / bioacoustic pattern detection and classification, at low signal to noise ratio, and within the Big Data paradigm.
Thus, the objectives here are three-fold: (a) to make the signal representation more robust, (b) to develop classification model more efficient on complex bioacoustic patterns, with supervised and/or unsupervised approaches, and (c) to manage and collect large training data to better model the variability of object categories within terrestrial and/or submarine environments.
The usual representations are based on Fourier descriptors, but have limits. We design mid-level or high-level features based on time-frequency segmentation, wavelet and discrete decomposition, compress sensing, non parametric bayesian representation, while developping specific CNN / LSTM Deep Representation Learning.
The validation of the models are conducted on real complex soundscape analyses, from cetaceans to birds songs, from bats to dolphins biosonars… It can also include boat or AUV alert systems.
Soundscape monitoring, biodiversity analysis and environmental care projects are some of the direct outcomes of this research. You’ll develop high level research, and you may collaborate with some industry, which could afterward offer you a permanent position, in addition to academic opportunities from the growing communauty in this field.
You’ll be involved into citizen program, including associations on biodiversity / bird conservation. You’ll be working on smartphone systems to integrate your software solution (online or deported).
Sujet :
DYNI / academic LSIS lab is seeking a PhD student and a Post doc in Toulon, France, to investigate deep learning for efficient acoustic / bioacoustic representations, applied to soundscape, human speech, bird and whales sound analyses and classification. Evaluation will be conducted on international benchmarks. Since 2012, DYNI heads the SABIOD consortium ( http://sabiod.org ) on Scaled Acoustic Biodiversity, joining several international teams expert in machine learning, signal processing and bioacoustics. DYNI chaired several workshops on machine learning meetings bioacoustics at ICML 2013 and 2014, NIPS 2013, and ICDM 2015. DYNI has the chair of Scene Analysis at Inst. Univ. de France (iuf.amue.fr), and th group is dedicated to multimodal scene analysis from signal to automatic indexing.
DYNI maintains close ties with theoretical research groups in Paris (DATA team; Sorbonne Univ…), INRIA, Cornell Univ, NYU, Victoria Univ, Pavia Univ., and deep learning community. DYNI has close ties with experimental research groups in Scaled Bioacoustic: Ocean Network Canada (UVIC), Antares deep sea platform… some ONGs (OrcaLab, XenoCanto), and industrial partnairs (DCNS France, Biosong, NortekMed, Cetacean Research…).
Applicants should have a strong background in machine learning (maths, statistics, computer science) and a genuine interest in understanding neural computation in perceptual intelligence. Prior exposure to neural computation and machine learning and programming skills is advantageous. Applicants with interest in combining machine learning, feature learning and signal processing are encouraged to apply.
Profil du candidat :
Machine learning / Data Science or Applied Mathematics / Computer Science, or Electrical Engineering / Signal Processing,
Solid mathematics knowledge (especially linear algebra and statistics),
Formation et compétences requises :
Creative and highly motivated, good programming skill (Python, Matlab, C…), Smartphone applications
Fluent in English, both written and spoken,
Prior knowledge in the areas of pattern recognition is a plus.
Adresse d’emploi :
glotin@univ-tln.fr, h.glotin@gmail.com
Screening of applications begins in nov 2016.
Application materials should include a CV (university grades, honors / awards, brief statement of research interests, contact details of 2 referees), + 1 or 2 work samples, anything that is genuinely the own work of the applicant (e.g. thesis, computer code, web site demo, research manuscript / essay).
(ps: Some other positions are available as: Master Intership, Engineers ; spontaneous applications are welcome).
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Institut de Mathématiques de Toulouse – INSA Toulouse
Durée : illimitée
Contact : jerome.monnier@insa-toulouse.fr
Date limite de publication : 2017-03-01
Contexte :
L’INSA Toulouse est susceptible de publier un poste de Professeur section CNU 26,
L’enseignant-chercheur serait affecté au département de Génie Mathématique et Modélisation (GMM) de l’INSA
et rattaché à l’Institut de Mathématiques de Toulouse (IMT).
Sujet :
orienté image – traitement du signal – optimisation
en interaction avec d’autres sciences ou l’industrie.
Profil du candidat :
Toute personne potentiellement intéressée est invitée à rapidement prendre contact auprès de:
J. Monnier, jerome.monnier@insa-toulouse.fr
P. Noble, pascal.noble@insa-toulouse.fr
Formation et compétences requises :
Qualification PR
Adresse d’emploi :
INSA Toulouse
Annonce en lien avec l’Action/le Réseau : Doctorants
Laboratoire/Entreprise : UMR LSIS / CNAM / Univ TOulon
Durée : fonctionnaire
Contact : glotin@univ-tln.fr
Date limite de publication : 2017-03-30
Contexte :
Le/la MCF enseignera aux ingénieurs Transmédia par alternance en partenariat avec les Arts et Métiers (CNAM-PACA), ayant pour objectif la formation d’ingénieurs dans le grand domaine de l’informatique. Ils recevront la connaissance théorique et technologies du numérique ainsi que les compétences générales nécessaires à l’exercice du métier d’ingénieur dans le domaine de l’industrie du numérique.
Le laboratiore est le LSIS, UMR CNRS (UMR 7296) à l’université de Toulon, cotutuelle AMU, l’ENSAM d’Aix-en-Provence, et CNRS (Institut National des Sciences de l’informatique et Interactions – INS2I). Il regroupe des activités de recherche des sections 06 et 07 du CNRS et des sections 27 et 61 du CNU. Elles concernent les STIC, et plus précisément les domaines de l’informatique, de l’automatique et du signal et des images. Tous ces domaines de recherche sont présents dans les 3 équipes/projets du site Toulon du LSIS. Dans les mois à venir, le LSIS et le Laboratoire d’Informatique Fondamentale (LIF, UMR AMU CNRS) fusionnent en un seul laboratoire qui unira leurs compétences et les rendra encore plus visibles au niveau international.
Mots Clefs : Science des masses de données, Modèles profonds, Apprentissage automatique, Apprentissage de Représentation.
Sujet :
Le candidat intégrera l’équipe DYNI (DYNamiques de l’Information) du LSIS (http://www.lsis.org/dyni). Ce profil s’inscrit sur la thématique des masses de données, stratégique aux niveaux académiques et industriels. représentation optimale de MD à partir de leurs références partielles ou bruitées. Le/La MCF recruté(e) apportera des compétences nouvelles en algorithmique d’analyse de MD multimodales qui peuvent être dynamiques (vidéo/ sons).
Profil du candidat :
Le profil se décline en deux sous thèmes, le/la MCF devra en développer l’un des deux :
a) Traitement de MD issues du Web,
ou
b) Modèles profonds (deep learning), BNP, représentation, structuration, classification et indexation de MD.
a) Traitement de MD issues du Web, stockage et manipulation optimisés dans un univers ‘en nuages’ de MD hétérogènes. Le/La MCF proposera des modèles de représentation adaptés à des MD hétérogènes dans leur forme (texte, audiovisuel, son.), leurs structures, annotées, dynamiques (variant dans le temps), pouvant être distribuées et associées aux connaissances de leurs domaines. La compétence recherchée viendra en appui pour travailler sur des architectures, modèles et algorithmes pour l’intégration de nos modèles et langages dans des environnements distribués de MD. En particulier, le changement majeur dans le domaine des bases de données que constitue l’émergence d’un univers ‘en nuages’ et les systèmes associés ‘NoSQL’ renouvelle les problématiques d’indexation des données et d’optimisation de requêtes.
b) Modèles profonds (deep learning) ou bayésiens, représentation, structuration, classification et indexation de MD. Le/La MCF innovera des modèles d’apprentissage automatique, notamment de la famille ‘deep learning’ ou bayésienne, pour l’apprentissage de représentations de MD, leur structuration (‘clustering’), et classification. La compétence recherchée pourra porter sur les modèles passant à l’échelle, éventuellement distribués, hiérarchiques ou multi-échelle. Un intérêt sera donné au développement théorique des modèles et/ou au passage à l’échelle des algorithmes. Les validations porteront sur des MD hétérogènes, notamment d’observatoires environnementaux ou audio, audiovisuels.
Formation et compétences requises :
Le/La maître de Conférences recruté(e) enseignera les aspects aussi bien théoriques que pratiques de l’informatique, par exemple en algorithmique, programmation sur plateforme mobile, programmation objet, bases de données, IHM, traitement d’image et du signal, apprentissage automatique, sécurité informatique ou système d’exploitation. De plus, il aura à s’impliquer dans l’encadrement de projets pluridisciplinaires, l’animation pédagogique de cette nouvelle formation et le suivi des apprentis en entreprise.
La qualification peut être CNU 27 et 61. II s’intégrera dans les collaborations nationales (ENS DataTeam, I3S, Gipsalab, LAM, LMA, MNHN, CNPS, LIPADE, INRIA), et internationales (universités de New-York, Cornell, Heifi, Beijing, Brisbane, Victoria ONC). Il participera aux organisations et programmes de conférences telles que celles pilotées récemment par DYNI (cf BDA, Int. Conference on Learning Representation ICLR 2017 www.iclr.cc ).
Adresse d’emploi :
Nom du laboratoire : LSIS UMR CNRS 7296
Lieu d’exercice : Toulon, campus La Garde – VAR, www.utln.fr
Contact : directeur équipe : H. Glotin ; glotin@univ-tln.fr
URL laboratoire. : http://www.lsis.org/dyni
Document attaché : mcf27_toulon_lsis_massesdonnees_4152_fin30mars2017.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : TICLab de l’Université Internationale de Rabat (Maroc)
Durée : 1 an, renouvelable une fois
Contact : m.ghogho@ieee.org
Date limite de publication : 2017-03-30
Contexte :
Les taux de pollutions urbaines dans les rues marocaines ne sont pas connus. Etablir une cartographie de ces pollutions et la mettre à disposition du public pourraient avoir un impact très important sur le rapport qu’ont les
citoyens Marocains avec l’environnement. La combinaison de la cartographie avec les résultats des études sur
la corrélation entre la pollution et les problèmes de santé des enfants devrait convaincre les autorités locales
de la ville à mettre en place des mesures strictes en termes de législation (contrôle technique plus pointilleux,
et programme de renouvellement de flotte ancienne et polluante, réglementation de l’installation des antennes
de relais, etc.). Respirer un air pur ou au moins un air compatible avec les recommandations de l’OMS est un
des droits fondamentaux du citoyen.
Sujet :
Plusieurs études ont trouvé une corrélation positive importante entre la pollution de l’air et la prévalence de
plusieurs maladies respiratoires et cardiovasculaire, notamment chez les enfants. D’autre part, certains
champs électromagnétiques sont soupçonnés d’affecter la santé. Les objectifs du projet sont :
1. Développer un système d’information géographique (GIS) montrant les taux de pollution électromagnétique
et pollution de l’air sur la carte de la ville. Les taux de pollution seront d’abord mesurés en utilisant des stations
mobiles et fixes. Ensuite, des techniques d’interpolation spatio-temporelles seront développées pour établir et
prédire la distribution de la pollution urbaine dans une ville.
2. Analyser et modéliser l’impact de la pollution urbaine sur la santé.
Profil du candidat :
– Expertise dans le domaine du GIS
– Bonne production scientifique
Formation et compétences requises :
– Doctorat en informatique
– Bonne maitrise des méthodes et logiciels de visualisation et traitement des données spatio-temporelles
– Bonne maitrise de l’anglais
Adresse d’emploi :
Université International de Rabat, Maroc
http://www.uir.ac.ma
Contacter Pr. Mounir Ghogho (mounir.ghogho@uir.ac.ma)
Document attaché : vlir-uos-postdoc-v2.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LAMSADE, Université Paris-Dauphine
Durée : Poste permanent
Contact : jamal.atif@dauphine.fr
Date limite de publication : 2017-03-30
Contexte :
The University Paris-Dauphine opens a professor position in Computer Science. Research will be conducted in one of the two research teams “Decision” and “Data Sciences” or ideally in both, of the LAMSADE Lab, CNRS UMR 7243. Teaching in University Departments, mainly the Department of Mathematics and Computer Science.
Research Fields: Computer Science, Decision Support and Aiding, Machine Learning, Analytics.
Sujet :
LAMSADE is a joint research centre of Université Paris Dauphine and the CNRS. The research conducted in LAMSADE is at the edge of two major disciplines: Computer Science and Decision Support (more specifically Operational Research). It develops both fundamental and applied research about topics such as decision support, decision theory, social choice theory, operational research, combinatorial optimisation, algorithmic complexity, mathematical programming, databases, machine learning and systems engineering. It is organised in three teams: “Decision Support”, “Algorithmics and Combinatorial Optimisation”, “Data Sciences”.
Profil du candidat :
Research:
Profile: The prospective colleague will develop his/her research within the scientific priorities of the LAMDADE and of Université Paris Dauphine at the intersection of Decision Analysis and Data Sciences. Subjects presently of interest at the LAMSADE include: decision theory, machine learning, formal models of decision support, artificial intelligence and massive data management.
Formation et compétences requises :
Teaching:
Profile: the prospective colleague will teach computer science for the Department MIDO « Mathématiques, Informatique de la Décision et des Organisations » as well as for other University Departments at all training levels (undergraduate and graduate). He/She is expected to teach in domains such as Data Sciences, Information Systems and might be asked to contribute in teaching software engineering, programming languages and systems engineering. He/She is also expected to take the responsibility of at least one of our training programmes.
Adresse d’emploi :
Research
Candidates are invited to get in touch with :
Dario Colazzo (head of the Data Sciences team at LAMSADE : colazzo@lamsade.dauphine.fr), Jérôme Lang (head of the Décision team at LAMSADE : lang@lamsade.dauphine.fr), Alexis Tsoukiàs (director of LAMSADE : tsoukias@lamsade.dauphine.fr).
Location: LAMSADE UMR CNRS n° 7243, Université Paris-Dauphine
Head of LAMSAD: Alexis Tsoukiàs
Phone : +33144054401
e-mail: tsoukias@lamsade.dauphine.fr
LAMSADE site: www.lamsade.dauphine.fr
Teaching
Training Department: MIDO (Mathématiques, Informatique de la Décision et des Organisations)
Location: Université Paris-Dauphine
Co-director of the department: Daniela Grigori
Phone number: +331 44 05 4508
e-mail: grigori@lamsade.dauphine.fr
Department site: www.mido.dauphine.fr
Document attaché : professor_position_univdauphine.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LIFO – Université d’Orléans
Durée : CDI
Contact : guillaume.cleuziou@univ-orleans.fr
Date limite de publication : 2017-03-30
Contexte :
Trois postes de Maître de Conférences section 27 seront ouverts au concours 2017 au sein du LIFO (http://www.univ-orleans.fr/lifo/pageactualites.php) dont un poste sur un profil apprentissage et fouille de données à l’IUT d’Orléans.
Sujet :
Poste MCF “apprentissage et fouille de données” à l’IUT d’Orléans
Profil du candidat :
Profil recherche :
La personne recrutée devra s’intégrer dans l’équipe Contraintes et Apprentissage (CA) (http://www.univ-orleans.fr/lifo/equipes/CA/) sur les thématiques apprentissage et fouille de données (classification supervisée, non-supervisée et semi-supervisée, recherche de motifs, etc.). Les thèmes de recherche de la personne recrutée devront comporter des aspects théoriques et applicatifs en cohérence avec ceux de l’équipe. L’équipe souhaiterait renforcer ses compétences en apprentissage numérique, et privilégiera à qualité de dossier égale des candidatures sur ce profil. Outre les thématiques apprentissage et fouille de données, l’équipe CA mène des activités en contraintes (description et résolution de problèmes complexes au moyen de la programmation par contraintes) et en Traitement automatique des langues (TAL).
contact recherche : Marcilio de Souto, marcilio.desouto@univ-orleans.fr (02 38 41 72 92)
Profil enseignement :
Le profil est celui d’un enseignant disposé à s’investir dans l’ensemble des enseignements d’Informatique dispensés dans les départements QLIO et Informatique de l’IUT pour les formations de niveau Bac+1 à Bac+3.
La personne recrutée devra être en capacité d’assurer les enseignements en systèmes d’information, bureautique (programmation VB) et Aide à la décision. Un investissement dans l’un ou plusieurs des domaines suivants serait un plus : ERP, technologies web et mobiles, services réseaux ou programmation répartie. Une expérience d’enseignement en Informatique dans une filière technologique serait appréciée.
Il est attendu du candidat qu’il participe à l’encadrement des étudiants (projets, stages et apprentissage) et qu’il s’implique progressivement dans l’organisation et la gestion des activités des départements.
contacts enseignement : Guillaume Cleuziou, chef du département Informatique : cd-info.iut45@univ-orleans.fr (02.38.49.44.60) / Isabelle Lefeuvre, cheffe du département QLIO : cd-qlio.iut45@univ-orleans.fr (02.38.49.27.94)
Formation et compétences requises :
cf. profil du poste
Adresse d’emploi :
Université d’Orléans
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LS2N: LABORATOIRE DES SCIENCES DU NUMÉRIQUE DE NANTES
Durée : Permanent
Contact : pascal.molli@univ-nantes.fr
Date limite de publication : 2017-03-30
Contexte :
Un poste de Maître de Conférences est ouvert au concours 2017 à l’Université de Nantes sur le thème “Systèmes et bases de données distribués” au sein de l’équipe GDD.
Sujet :
http://ls2n.fr/recrutement/2/
Profil du candidat :
http://ls2n.fr/recrutement/2/
Formation et compétences requises :
http://ls2n.fr/recrutement/2/
Adresse d’emploi :
Faculté des sciences de Nantes.
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CRIStAL
Durée : cdi
Contact : philippe.preux@univ-lille.fr
Date limite de publication : 2017-03-01
Contexte :
L’université de Lille Sciences Humaines et Sociales ouvre au concours deux postes de maîtres de conférences en informatique.
Les activités de recherche se dérouleront dans l’UMR CRIStAL.
Voir http://www.grappa.univ-lille3.fr/
Sujet :
voir http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Profil du candidat :
voir http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Formation et compétences requises :
voir http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Adresse d’emploi :
Domaine Universitaire du Pont de Bois
Villeneuve d’Ascq
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CRIStAL
Durée : cdi
Contact : philippe.preux@univ-lille.fr
Date limite de publication : 2017-03-01
Contexte :
L’université de Lille Sciences Humaines et Sociales ouvre au concours un poste de professeur des universités en informatique.
Les activités de recherche se dérouleront dans l’UMR CRIStAL.
Voir http://www.grappa.univ-lille3.fr/
Sujet :
http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Profil du candidat :
http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Formation et compétences requises :
http://www.grappa.univ-lille3.fr/~tommasi/postes2017.html
Adresse d’emploi :
Domaine universitaire du Pont de Bois,
Villeneuve d’Ascq
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Orange Labs Lannion
Durée : 12 mois
Contact : marc.boulle@orange.com
Date limite de publication : 2017-03-31
Contexte :
Avec la disponibilité massive de données (big data, open data, linked data), la valorisation des données devient un enjeu critique pour Orange ainsi que tous ses clients. Orange dispose de nombreuses données dans plusieurs contextes applicatifs, et il est souvent nécessaire de commencer toute étude par une analyse exploratoire. Par exemple, dans le cas de CRM (Customer Relationship Management), les données textuelles de type verbatim sont potentiellement pertinentes pour la prédiction de scores de churn ou d’appétence, mais leur représentation initiale n’est pas adaptée à la modélisation directe. Il est alors nécessaire de procéder à une analyse exploratoire préalablement à l’utilisation de ces données dans des modèles de scoring. Dans le cas de données d’usage d’un nouveau service, il est intéressant d’explorer les données de façon à mettre en évidence une segmentation utilisateurs permettant par la suite d’adapter les actions marketing.
Face à ces besoins, la maîtrise de techniques d’analyse exploratoire efficaces est un enjeu majeur pour être plus performant que les autres opérateurs de données.
Proposée initialement par (Hartigan, 1975), le co-clustering est une extension du clustering simple (standard). Le principe du clustering simple est de former des groupes d’individus similaires entre eux et différents des individus appartenant à d’autres groupes. L’avantage du co-clustering réside dans l’étude simultanée (jointe) entre deux types d’entités qui permet d’extraire la structure sous-jacente existante entre elles. Les méthodes de co-clustering sont donc particulièrement adaptées à l’analyse exploratoire dans le cas de données de liens entre plusieurs entités en relation, disponibles dans de nombreux contextes applicatifs : text mining (texte x mots), basket analysis (customer x product), web log mining (user x page), analyse de détails de communication (caller x called)…
Plusieurs méthodes ont été développées pour extraire des structures sous-jacentes dans les données à l’aide de méthodes de co-clustering (Bock, 1979; Cheng et al, 2000; Dhillon et al, 2003; Xu et al, 2010). Ces méthodes diffèrent principalement selon le type des données traitées, les hypothèses considérées, la méthode d’extraction utilisée et les résultats souhaités. En particulier, il existe plusieurs grandes familles de méthodes pour effectuer la classification croisée :
• Méthodes de reconstruction de matrices qui réécrit le problème de classification sous forme d’approximation matricielle (Seung et al, 2001 ; Yoo et al, 2010, Xu et al, 2010), CROEUC, CROBIN, CROKI2 (pour les données continues, binaires et de contingence (Govaert, 1983)).
• Méthodes basées sur les modèles probabilistes : utiliser des variables latentes dans un modèle de mélanges pour définir les blocs (Govaert et al, 2003; Govaert et al, 2013).
• Les méthodes de co-clustering basées sur l’approche MODL (Boullé, 2011) exploitent des modèles probabilistes pour deux à plusieurs entités de type quelconque (numérique ou catégoriel), ne nécessitent aucun paramètre et bénéficient d’algorithmes de complexité sous-quadratique permettant de traiter des données de grande taille.
Références
[1] Bock, H. : Simultaneous clustering of objects and variables. Analyse des données et Informatique, 1979.
[2] M. Boullé. MODL: a Bayes optimal discretization method for continuous attributes. Machine Learning, 65(1):131-165, 2006.
[3] M. Boullé. Data grid models for preparation and modeling in supervised learning. In Hands-On Pattern Recognition: Challenges in Machine Learning, volume 1, I. Guyon, G. Cawley, G. Dror, A. Saffari (eds.), pp. 99-130, Microtome Publishing, 2011.
[3] M. Boullé. Functional data clustering via piecewise constant nonparametric density estimation. Pattern Recognition, 45(12):4389-4401, 2012.
[5] Cheng, Y. et Church, G. M. (2000). : Biclustering of expression data. In Proceedings of the International Conference on Intelligent Systems for Molecular Biology (ISMB), 2000.
[6] Dhillon, I. S., Mallela, S., et Modha, D. S. : Information-theoretic co-clustering. In Proceedings of the ninth ACM SIGKDD international conference on Knowledge discovery and data mining, pages 89{98. ACM.2003.
[7] Govaert, G. et Nadif, M. : Clustering with block mixture models. Pattern
Recognition, 2003.
[8] Govaert, G. and Nadif, M. : Co-Clustering. ISTE Ltd and John Wiley & Sons Inc, 2013.
[9] R. Guigourès, M. Boullé, F. Rossi. A Triclustering Approach for Time Evolving Graphs. In Co-clustering and Applications, IEEE 12th International Conference on Data Mining Workshops (ICDMW 2012), Pages 115-122, 2012
[10] R. Guigourès. Utilisation des modèles de co-clustering pour l’analyse exploratoire. Phd thesis. 2013.
[11] Hartigan, J. A. : Clustering Algorithms. John Wiley & Sons, Inc., New York, NY, USA, 99th edition, 1975.
[12] G. Karypis and V. Kumar. Multilevel k-way Hypergraph Partitioning. VLSI Design, Vol. 11, No. 3, pp. 285 – 300, 2000.
[13] N. Selvakkumaran and G. Karypis. Multi-Objective Hypergraph Partitioning Algorithms for Cut and Maximum Subdomain Degree Minimization. IEEE Transactions on CAD, 25(3), pp. 504-517, 2006.
[14] Seung, D. et Lee, L. : Algorithms for non-negative matrix factorization. Advances in Neural Information Processing Systems 13, pages 556-562, 2001
[15] Xu, G, Zong, Y, Dolog, P. et Zhang, Y. : Co-clustering Analysis of Weblogs Using Bipartite Spectral Projection Approach. Knowledge-Based and Intelligent Information and Engineering Systems, 2010
[16] Yoo, J. et Choi, S. : Orthogonal nonnegative matrix tri-factorization for co-clustering : Multiplicative updates on stiefel manifolds. Information processing & management, 2010.
Sujet :
Khiops coclustering est un outil d’analyse exploratoire qui permet l’analyse de la corrélation entre deux ou plusieurs variables catégorielles ou numériques, basé sur une approche de sélection de modèle appelé MODL (Boullé, 2006, 2001). Cet outil (disponible sur www.khiops.com) est de plus en plus utilisé, avec des applications dans une variété de problèmes :
• Marketing : les clients avec la liste des produits achetés (customer x product).
• Web Mining : analyse de logs web pour identifier des comportements de navigation (cookies x webpages).
• Télécommunications : dimensionnement de réseau mobile par l’analyse des compte-rendus d’appels (CDRs) (sourceAntenna x targetAntenna), e.g. analyse exploratoire des CDRs à l’échelle d’un pays (Guigourès, 2013).
• Fouille de textes : (co)clustering de textes (Texts x Words).
• Fouille de graphes : données multigraphes temporels (SourceNodes x TargetNodes xTime), e.g., analyse des locations de vélos à Londres (Guigourès et al., 2012).
• Clustering de données fonctionnelles (séries temporelles numériques ou catégorielles) : TimeSeriesId x Time xValue ou TimeSeriesId xTime x Event, e.g. clustering de courbes (Boullé, 2012).
Khiops coclustering est capable de traiter des données d’assez grande taille, avec des millions d’instances et des dizaines de milliers de valeurs par variable catégorielle, avec une complexité algorithmique sous-quadratique par rapport au nombre d’instances. L’outil atteint par contre ses limites pour le traitement de données de très grande taille, comportant potentiellement des milliards d’instances pour des variables ayant des millions de valeurs. C’est par exemple le cas si l’on souhaite analyser les CDR à l’échelle d’un pays, en passant d’une granularité au niveau des antennes (applications en dimensionnement de réseau) à une granularité au niveau des clients (application en marketing avec identification de communautés extrêmement fines et gestion individualisée de l’expérience utilisateur). Le graphe à résumer est alors de taille trop importante pour les algorithmes actuels de co-clustering.
L’objectif du post-doc est d’étendre les algorithmes d’optimisation de co-clustering aux graphes de très grande taille, pour le critère MODL (Boullé, 2011) de co-clustering. Parmi les pistes envisagées, on pourrait utiliser ou adapter des algorithmes de partitionnement hiérarchique de graphe de type H-metis (Karypis ert al, 2000 ; Selvakkumaran et al, 2006), adaptés aux graphes de très grande taille. On pourrait alors obtenir un partitionnement initial « grossier », permettant ensuite d’appliquer l’algorithme de co-clustering classique à des sous-parties du graphe. L’ensemble des co-clusterings partiels peut alors être réconcilié dans une dernière passe pour produire un co-clustering global. Ce type algorithme en trois passes (co-clustering initial, co-clusterings partiels, réconciliation) peut être généralisé à plusieurs niveaux de hiérarchie et permettre une parallélisation des algorithmes utilisés. Parmi les alternatives à l’utilisation de H-metis pour la première passe, on peut citer l’utilisation d’algorithmes de Singular Value Decomposition (SVD) pour le clustering de graphes de grande taille, ou plus simplement l’application d’un co-clustering initial sur un échantillon de petite taille, permettant ensuite de projeter le reste des données sur les co-clusters obtenus, avant application des passes suivantes.
Profil du candidat :
Vous avez déjà effectué une thèse dans le domaine des statistiques et des mathématiques.
Une expérience est souhaitée dans le domaine statistique et dans le développement informatique.
Des connaissances en apprentissage statistique sont un réel plus.
Des compétences en programmation sont nécessaires: au minimum, une excellente maîtrise d’un langage de script dédié à l’analyse de données (R, Matlab, Python avec bibliothèque Scikit-learn…).
Une forte motivation, des capacités de synthèse, de rédaction (article de conférence ou de revue) et de présentation des travaux (anglais), et à s’intégrer dans une équipe sont également demandées.
Formation et compétences requises :
Vous avez déjà effectué une thèse dans le domaine des statistiques et des mathématiques.
Une expérience est souhaitée dans le domaine statistique et dans le développement informatique.
Des connaissances en apprentissage statistique sont un réel plus.
Des compétences en programmation sont nécessaires: au minimum, une excellente maîtrise d’un langage de script dédié à l’analyse de données (R, Matlab, Python avec bibliothèque Scikit-learn…).
Adresse d’emploi :
Vous serez dans l’équipe de traitement statistique de l’information d’Orange Labs Lannion. Cette équipe spécialisée en machine learning, data mining et profiling, comporte une vingtaine de permanents, sur des sujets allant de la recherche aux applications opérationnelles, ainsi qu’une demi-douzaine de doctorants et post-doc.
Vous pouvez trouver ici des exemples de publications scientifiques de l’équipe, pour 2015, illustrant ces thématiques :
http://vincentlemaire-labs.fr/publis/PublicationsScientifiquesPROF_2015.pdf
Postuler en ligne sur : https://orange.jobs/jobs/offer.do?do=fiche&id=57600
Document attaché : postdoclargescalecoclustering2016.diffusion.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : ICube
Durée : Fonctionnaire
Contact : nicolas.lachiche@unistra.fr
Date limite de publication : 2017-03-31
Contexte :
Un poste de Maître de Conférences en informatique (section 27) devrait être ouvert au concours 2017 à l’INSA de Strasbourg, avec un rattachement recherche dans l’équipe Science des Données et Connaissances du laboratoire ICube.
Sujet :
J’invite les candidats à me contacter afin de préciser leur intégration dans l’équipe : nicolas.lachiche@unistra.fr
Profil du candidat :
Le profil détaillé du poste est joint.
Formation et compétences requises :
Qualification en section 27
Adresse d’emploi :
Strasbourg
Document attaché : emploi-mcf-27-mcf-0010.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : CRIStAL
Durée : 1 an
Contact : philippe.preux@univ-lille.fr
Date limite de publication : 2017-04-10
Contexte :
enseignement : Université de Lille 3 (université sciences humaines et sociales de Lille)
recherche : CRIStAL (UMR CNRS), Inria Lille
Sujet :
4 postes d’ATER en informatique sont ouverts.
La campagne de recrutement est ouverte à compter du 11 avril 2017.
La date limite de dépôt des dossiers est fixée au jeudi 4 mai 2017.
Plus d’informations sur http://www.grappa.univ-lille3.fr/~tommasi/ater.html
Profil du candidat :
docteur en informatique ou doctorat d’informatique en cours
recherche en lien avec les activités de CRIStAL de préférence, en particulier les équipes du groupe thématique DatInG (intellgence des données).
Formation et compétences requises :
doctorat en informatique (acquis ou en cours d’acquisition)
Adresse d’emploi :
Université de Lille 3
Domaine universitaire du Pont de Bois
Villeneuve d’Ascq
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Université Côte d’Azur
Durée : Permanent
Contact : johan.montagnat@cnrs.fr
Date limite de publication : 2017-04-15
Contexte :
Data Sciences – poste en partenariat avec l’Inria
L’UCA recherche des candidats pour contribuer au développement d’activités de recherche de pointe sur des méthodes numériques et mathématiques innovatrices pour des données de grandes dimensions et leurs applications aux défis des mégadonnées.
Le poste sera environné par une chaire Inria.
Contact recherche: Frédéric Precioso
Contact enseignement: Yannick Baraud
Sujet :
Une liste ouverte de mots clés pour laquelle le candidat doit contribuer serait : le regroupement/partitionnement, des méthodes basées sur noyaux, réseaux neurologiques récurrents et prédictifs, l’apprentissage profond, le traitement du langage/médias, la protection et sécurité des données, le traitement du signal sur graphiques, l’exploration de données de ressources hétérogènes, la détection des communautés et des hubs dans les graphiques, l’analyse de données topologiques et géométriques, les plates-formes d’exécution et de programmation pour la gestion de données et leur traitement, etc.
La capacité à développer une activité multidisciplinaire sur les aspects appliqués et théoriques des thèmes susmentionnés sera parmi les éléments principaux de la sélection. Le titulaire de la chaire ne doit pas posséder seulement une connaissance du big data appliqué et de l’apprentissage machine, mais il doit aussi être capable d’interagir avec les chercheurs d’autres disciplines académiques et des partenaires cliniques ou industriels afin d’assurer une fécondation croisée appropriée et un relais de la théorie vers la pratique, les applications médicales étant un exemple possible, ainsi que la robotique, la biologie ou le Web des données.
Au-delà de la recherche, les fonctions comprennent l’enseignement au niveau « undergraduate » et « graduate ». En particulier, le candidat sélectionné contribuera au développement de la formation pour tous les aspects des Data Sciences au niveaux Master et Doctorat.
Idéalement, le candidat sera membre d’une Equipe-Projet Commune existante (Inria/Université Côte d’Azur) ou le chef d’une nouvelle équipe de recherche qu’il montera.
Profil du candidat :
Les candidats sélectionnés doivent avoir une expérience en recherche de première catégorie et une capacité démontrée pour diriger la recherche de haut niveau dans un des domaines suivants : (i) les mathématiques avancées pour grands systèmes, (ii) la science des données et des modèles (iii) l’apprentissage machine, (iv) le traitement du signal, d’images et/ou de la géométrie, (v) l’exploration visuelle de données et l’analyse visuelle et (vi) les infrastructures pour le big data.
Les femmes sont particulièrement incitées à présenter leurs candidatures.
Formation et compétences requises :
Qualification en section 26 ou 27.
Adresse d’emploi :
Univeristé Côte d’Azur, Inria Sophia Antipolis
Document attaché : fopc_0062126d_6.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : I3S
Durée : Permanent
Contact : robert.de_simone@inria.fr
Date limite de publication : 2017-04-15
Contexte :
Recrutement Professeur des Universités.
Sujet :
Enseignement :
Licence et Master en informatique. Enseignements en systèmes répartis, distribués ou parallélisme.
Recherche:
Rattachement à l’équipe COMRED du laboratoire I3S. Domaine des systèmes distribués concurrents et sûrs. Passage à l’échelle. Cloud computing. Masses de données.
Profil du candidat :
Qualificaiton 27. HDR.
Formation et compétences requises :
Systèmes distribués, modèles formels, algorithmique, programmation parallèle, vérification/sûreté.
Adresse d’emploi :
Laboratoire I3S, Sophia Antipolis.
Document attaché : fop_0060931e_id388.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LGI2P/Ecole des mines d’Alès
Durée : indéterminée
Contact : sebastien.harispe@gmail.com
Date limite de publication : 2017-04-24
Contexte :
Un poste d’enseignant-chercheur en Informatique est ouvert au concours au centre de recherche LGI2P de l’école des mines d’Alès.
Le recruté sera affecté à l’équipe de recherche KID (Knowledge and Image Analysis for Decision making) : positionnement Intelligence Artificielle / Apprentissage Automatique / Aide à la décision (Section 27) sur un statut de fonctionnaire du ministère de l’économie et des finances, i.e. statut de maître-assistant aligné sur le statut de maître de conférences. Les détails du poste sont précisés dans le profil détaillé ci-joint.
Date limite de dépôt des candidatures : 23/04/2017
Merci de diffuser l’information dans vos réseaux.
Bien cordialement,
Sébastien Harispe – pour le LGI2P (EMA).
Sujet :
Intelligence Artificielle / Apprentissage Automatique / Aide à la décision / Traitement Automatique du Langage Naturel (Section 27)
Profil du candidat :
Docteur en Informatique – positionnement recherche en Intelligence Artificielle
Formation et compétences requises :
Maîtrise théorique des cadres formels sur lesquels se basent ses recherches / Capacité à développer des codes de calcul permettant de tester et d’illustrer ses contributions recherche / Bonnes capacités communicationnelles et notamment rédactionnelles (français/anglais)
Adresse d’emploi :
Ecole des mines d’Alès – Alès
Document attaché : fp_maitre_assistant_sp_informatique_kid-1.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Laboratoire Signaux et Systèmes (L2S, CNRS)
Durée : Contrat public à durée indéterminée
Contact : pablo.piantanida@centralesupelec.fr
Date limite de publication : 2017-04-24
Contexte :
Le Maître de Conférences effectuera ses recherches et ses enseignements sur des thématiques à l’interface entre les mathématiques appliquées, les télécommunications et les réseaux (de communication et/ou d’énergie).
Sujet :
Théorie des Jeux, Apprentissage, Optimisation distribuée, Allocation de ressources distribuée, Stockage distribué. Confidentialité de l’information; apprentissage des réseaux profonds; théorie de l’information moléculaire; Inférence et détection distribuées; réseaux sociaux; géométrie dans l’apprentissage machine; les réseaux de neurones; apprentissage par renforcement; biologie computationnelle; détection d’une anomalie; algorithmes d’apprentissage statistique; Hyper-paramètre et sélection de modèle; processus décisionnels markoviens.
Profil du candidat :
Profil d’enseignement :
La ou le candidat(e) recruté(e) sera affecté au Département Télécommunications et contribuera à la formation des élèves des trois années du cursus ingénieur Supélec et des élèves du Master SAR (Systèmes Avancés de Radiocommunication) et sera fortement impliqué dans la construction des évolutions des enseignements. La ou le candidat(e) recruté(e) sera amené(e) à intégrer les équipes pédagogiques, à proposer des projets et à participer à l’évolution des enseignements en formation initiale et en formation continue dans le domaine des télécommunications. La ou le candidat(e) recruté(e) trouvera naturellement sa place dans les cursus actuels et dans les cursus à venir au sein de CentraleSupélec, en abordant des applications émergentes comme les smart grids, les villes et transports connectés, l’e-santé, l’industrie 4.0 et de façon générale l’Internet des Objets (IoT). Des données massives apparaissent dans l’optimisation des réseaux : optimisation des caches (fog/edge/cloud computing, placement des antennes relais, et des infrastructures), prise en en compte des usages (constitution de communautés…). La théorie de l’information peut y jouer un grand rôle. Une des missions de la ou du candidat(e) recruté(e) sera d’intégrer des savoir-faire des télécommunications dans les enseignements au service de plusieurs dominantes.
Profil de recherche :
La ou le candidat(e) effectuera ses recherches sur des thématiques à l’interface entre les mathématiques appliquées, les télécommunications et les réseaux (de communications et/ou d’énergie). Les dernières années ont vu l’émergence dans le domaine des télécommunications d’outils mathématiques avancés préexistants dont les télécommunications ont tout d’abord constitué un champ d’application spécifique. Cette démarche très fructueuse a permis d’obtenir de nombreux résultats applicatifs. Très rapidement, la richesse de ces nouveaux contextes applicatifs a suscité de nouvelles avancées théoriques qui ont souvent renouvelé une bonne partie du savoir-faire sur ces outils. Une liste non limitative d’exemples de tels outils est : (i) Théorie des jeux/Apprentissage multi-agent (ii) Optimisation distribuée/stochastique (iii) Contrôle optimal (iv) Géométrie stochastique.
Réciproquement, les outils issus du domaine des télécommunications, comme la théorie de l’information initialement utilisée pour l’étude de la capacité de canaux et de réseaux de télécommunications connaît de nombreuses extensions vers des situations plus diverses et / ou plus pratiques, éventuellement en coexistence avec des savoir-faire sensiblement différents (confidentialité, apprentissage…). Une liste non limitative de telles situations est: (i) Application de la théorie de l’information à des situations fréquentes pratiquement, mais moins standard en théorie de l’information (paquets de petite taille en IoT, ….) (ii) Utilisation de la théorie de l’information pour la production et l’optimisation d’algorithmes d’apprentissage performants (par exemple des applications au “deep learning”, à l’apprentissage statistique distribué…) (iii) Utilisation de la théorie de l’information pour la modélisation des interactions entre processus stochastiques (par exemple des applications aux réseaux génétiques et à la détection des communautés dans les réseaux sociaux).
Le pôle Télécoms et Réseaux a déjà de nombreuses activités dans certains de ces sujets, et souhaite renforcer cette approche, qui permet de renouveler en profondeur les thématiques de recherche, et de trouver de nouvelles applications motivées par ce savoir-faire théorique. Cette approche est parfaitement en ligne avec de nombreux travaux en cours de mise en place ou déjà largement commencés (IT et Deep learning, applications aux réseaux électriques du savoir-faire en réseaux de télécommunications, réseaux hétérogènes, prédiction de performances de réseaux, …).
Formation et compétences requises :
Le profil désiré est clairement de nature théorique avec une volonté applicative explicite. La ou le candidat(e) aura une expertise dans les domaines des télécommunications et/ou des smart grids ainsi que des mathématiques. Il pourra travailler sur un des thèmes de l’équipe ou proposer une autre thématique de son choix qu’il développera en collaboration avec son équipe de rattachement. Il aura vocation à effectuer des enseignements et recherches à la fois sur les outils méthodologiques et sur les nouvelles situations concrètes où ces outils trouvent leur application.
Adresse d’emploi :
Calendrier : Poste à pourvoir au 4 septembre 2017.
Candidature avant le : 24 avril 2017.
Candidatures :
Dossier au format pdf, comportant une lettre de motivation, un CV détaillé (expérience d’enseignement, recherche, mobilités, publications…), un projet d’intégration, une copie d’un document d’identité et tous document permettant d’attester de l’expérience devront être adressés par courriel uniquement aux trois contacts ci-dessous avant le 24 avril 2017 au plus tard.
Contacts :
Pierre Duhamel, pour le directeur du laboratoire : pierre.duhamel@l2s.centralesupelec.fr
Armelle Wautier, directeur du département : armelle.wautier@centralesupelec.fr
Pour tous renseignements d’ordre administratif, s’adresser au service des personnels :
Élodie Ledoux, ressources humaines : elodie.ledoux@centralesupelec.fr
Document attaché : profil-lru-mcf_l2s-télécoms-v2.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Research in Machine Learning, Statistics & Signal Processing (the research group S2A), within the Image, Data & Signal department (the IDS Dpt.) and the Laboratoire Traitement et Communication de l’Information (LTCI)
Durée : permanent
Contact : joseph.salmon@telecom-paristech.fr
Date limite de publication : 2017-04-30
Contexte :
In the context of the Paris Saclay University, activities in stochastic modeling and statistical data processing at the S2A group are part of the Labex Hadamard (Mathematics and Applied Mathematics) and of the Labex DigiCosme (Digital worlds: distributed data, programs and architectures).
Sujet :
Research:
The research activities will rely on the team expertise, which covers both theoretical and methodological works in Machine Learning, at the interface of computational/mathematical statistics, stochastic modelling, time-series analysis, signal processing and optimization.
Research results will be published in leading journals and conferences. Activities in scientific bodies, organization of special sessions, workshops as well as involvements in committees of scientific conferences will contribute to the visibility.
The recruit is expected to ontribute to scientific projects with industrial partners, around very challenging topics such as Predictive Maintenance, involving the development of novel methods in various domains (i.e. transfer learning, reinforcement learning, structured learning, machine-learning with time-series, reliable machine-learning). This may be possibly done by participating to industrial chair programs, bilateral contracts, proposals to national and international research project calls or by co-supervising PhD theses (including CIFRE theses, involving industrial partners).
Teaching:
In the fields of Machine learning, teaching at Telecom ParisTech mainly occurs at the level of bachelor or master courses (e.g. probability, statistics, optimization), as well as in specialized training courses (e.g. machine learning, nonparametric statistics). The master courses also include courses in masters of the University Paris-Saclay. The members of the S2A group are also involved in in a professional master of Telecom ParisTech fully dedicated to Big Data (“Management and Analysis of Big Data”) and in a novel certificate « Data Scientist »: they are in charge of the statistics and machine-learning courses. The candidate will participate to these teaching activities.
Profil du candidat :
Skills:
• Education : PhD or equivalent
• An international postdoctoral experience is welcome but not mandatory
• English: fluent; French: good or the candidate should be willing to improve it
Knowledge and experience required:
• Research publications in Machine Learning
• Teaching experience at the university level
Other Qualities and skills:
• Capacity to work in a team and develop good relationships with colleagues and peers
• Excellent writing and pedagogical skills
Formation et compétences requises :
Application:
Application can be performed electronically by electronic mailing to
stephan.clemencon@telecom-paristech.fr, recrutement@telecom-paristech.fr
Application should include :
• A complete and detailed curriculum vitae
• A letter of motivation,
• A document detailing past activities of the candidate in Teaching and Research: the two types of activities will be described with the same level of detail and rigor.
• The text of the main publications,
• The names and addresses of two references,
• A short teaching project and a research project in connection with some of the research topics of the S2A group (maximum 3 pages)
Important dates:
• March 30, 2017 : application deadline
• April 2017: interviews (possibly by visio-conference)
• Summer/Fall 2017: beginning
Contact :
Stephan Clémençon (Head of the S2A group)
stephan.clemencon@telecom-paristech.fr
Zahir Abela (Human Resources Officer)
zahir.abela@telecom-paristech.fr
Adresse d’emploi :
The position:
• Permanent position
• Place of work: Paris until 2019, and then Palaiseau (Paris outskirt)
• For more info on being an Associate Professor at Telecom ParisTech (in French)
http://www.telecom-paristech.fr/telecom-paristech/offres-emploi-stages-theses/recrute-enseignants-chercheurs.html
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : LMRH, C2RMF, ETIS
Durée : 9 mois
Contact : dan.vodislav@u-cergy.fr
Date limite de publication : 2017-04-30
Contexte :
La Fondation des Sciences du Patrimoine (FSP) est une fondation partenariale placée sous le haut patronage du Ministère de la Culture et de la Communication, créée pour assurer la gouvernance d’un Laboratoire d’Excellence PATRIMA et de l’équipement d’Excellence PATRIMEX.
PARCOURS est un projet dont l’objectif est d’améliorer les techniques de diffusion des connaissances du patrimoine culturel matériel.
La mission consiste à reprendre et compléter les travaux déjà réalisés dans le cadre des projets PARCOURS 1 et 2, initiés en 2014.
Le but initial de ce projet est de permettre l’unification de l’interrogation des fonds documentaires de trois laboratoires (C2RMF, CRCC, et LRMH) autour des thématiques en conservation-restauration du patrimoine matériel.
Le projet permet de produire des requêtes sur chacun des objets numériques élémentaires constituant le fonds d’archives propre à chaque institution ; il s’appuie sur une structuration commune des concepts, regroupés dans l’ontologie éponyme et utilisée par un moteur de recherche qui reste à finaliser.
Cette ontologie PARCOURS, développée au cours des premiers mois du projet, s’appuie sur le CIDOC-CRM. Elle a fait l’objet du développement d’une première interface d’interrogation expérimentale, pour démontrer la faisabilité d’une mutualisation de l’interrogation (preuve de concept).
Sujet :
L’agent se verra confier la conception, la réalisation et la documentation technique du projet. Il effectuera ce travail sous la direction conjointe des deux porteurs du projet et en concertation étroite avec les membres et chercheurs de l’équipe projet.
Il utilisera l’ontologie et l’infrastructure développées pendant les premières phases du projet pour consolider, compléter et généraliser les mécanismes de description des fonds documentaires de conservation-restauration existants et de génération de métadonnées RDF dans le format commun. Il développera un prototype de plateforme d’intégration de données sur le patrimoine matériel (appelée DATAH), sur une infrastructure commune développée à l’Université de Cergy-Pontoise. Ce prototype doit permettre d’interroger de façon uniforme les sources de données RDF distantes, produites dans le projet PARCOURS. Le prototype doit pouvoir incorporer d’autres sources RDF en format PARCOURS, en local ou distantes et permettre d’établir des liens avec des sources disponibles sur le web de données liées (Linked Open Data).
Profil du candidat :
Ingénieur ou post-doctorant
Formation et compétences requises :
Formation et diplômes requis : BAC+5 en informatique (domaine du web sémantique, ontologies, etc.) ou thèse dans ce domaine.
Compétences requises pour le poste:
Connaissances (savoir)
Connaissances pointues de l’environnement du web sémantique : RDF/S, OWL, SKOS, etc.
Maîtrise des langages de programmation, notamment Java et leurs environnements de développement.
Connaître les normes, méthodes et langages de développement web (XHTML5, CSS, JavaScript/DOM.AJAX) et XML.
Connaissances sur les services web et le développement d’applications orientées-services.
Excellente maitrise de SPARQL et connaissance du développement de points d’accès SPARQL, notamment pour Virtuoso (https://virtuoso.openlinksw.com/)
Maîtrise des bases de données de triplets RDF, de préférence le serveur Virtuoso.
Connaissances sur les infrastructures de cloud computing.
Maîtrise des IHM avec le framework Bootstrap et le langage JavaScript.
Maîtrise de l’anglais (notamment technique) indispensable.
Compétences opérationnelles (savoir faire)
Piloter un projet.
Capacité de travailler en équipe.
Appliquer les techniques citées ci-dessus.
Savoir modéliser avec OWL.
Disposer de capacités d’analyse, de synthèse et d’apprentissage.
Compétences comportementales (savoir être)
Être rigoureux.
Avoir le sens des initiatives.
Disposer de capacités à écouter et à prendre en compte les besoins des utilisateurs, à expliquer et de manière générale à communiquer.
Des connaissances et/ou un fort intérêt pour le patrimoine seraient un plus.
Adresse d’emploi :
Laboratoires C2RMF (Paris) et/ou ETIS (Cergy)
Document attaché : parcours3_fichedeposte_postdoc_vf.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : ICube / Université de Strasbourg
Durée : 18 mois
Contact : wemmert@unistra.fr
Date limite de publication : 2017-05-02
Contexte :
The Engineering science, computer science and imaging laboratory (ICube), associated with the Modelling, Intelligence, Process and Systems Laboratory (MIPS), opens a postdoctoral position for a computer scientist, in the field of data mining and histopathological whole slide images analysis, with a duration of 18 months and monthly gross salary around 3000€ (depending on the experience of the candidate).
Sujet :
The appointee will further develop a clustering system based on previous work of the team in breast cancer, to detect new patterns of immune infiltration focused on lymphocytic lobulitis (LLO) in hereditary breast cancer (hBC). The aim is to correlate recurrent patterns of immune cell infiltration and their spatial context with lobular structures with the underlying genomic aberrations (BRCA1, BRCA2, other mutations). These new patterns will be extracted through an innovative data mining and image analysis process. It will be driven by formalized expert knowledge to reduce the user involvement during the analysis, and based on new object-oriented image segmentation and classification algorithms and new metrics describing the spatial relations between the objects of interest. For this, two main objectives are: (1) to propose new approaches for the extraction of quantitative features from image contents and coarse image classification for determining basic regions of interest (e.g. cells, fiber structure, lymphocytes) using deep learning frameworks that have proven their efficiency in such problems; (2) to identify complex spatial biological patterns by integrating a priori biological knowledge from experts into image analysis procedures to recognize biological meta-structures
This work will consolidate the existing Franco-German partnership between ICube and MIPS laboratories (Strasbourg and Mulhouse, France) and the Hannover Medical School (Hannover, Germany). The postdoctoral fellow will integrate the multidisciplinary team of the Sysimit project (Systems Immunology and Image Mining in Translational Tissue Biomarker Research: Mining the spatial patterns of adaptive immune responses to persisting tissue antigens to exploit the full predictive potential of protocol biopsies in transplantation and cancer research) and will work in collaboration with the MHH pathologists and the mathematicians of the University of Braunschweig (Germany). Regular exchanges will take place either by videoconference or during stays in their structures, to benefit from their expertise.
Within the ICube laboratory, the postdoctoral researcher will be integrated into the Data and Knowledge Science team under the supervision of Cédric Wemmert and co-supervised by Germain Forestier (MIPS).
Profil du candidat :
The candidate should hold a PhD in computer science and have excellent knowledge of the English language.
Demonstrated experience in Matlab or Java programming will be considered as an advantage.
Formation et compétences requises :
The candidate should hold a PhD in computer science and have excellent knowledge of the English language.
Demonstrated experience in Matlab or Java programming will be considered as an advantage.
Adresse d’emploi :
ICube UMR 7357
Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie
300 bd Sébastien Brant – CS 10413
F-67412 Illkirch Cedex
Document attaché : call-for-post-doc-2017.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Institut de recherche technologique BIOASTER
Durée : CDI
Contact : job@bioaster.org
Date limite de publication : 2017-05-19
Contexte :
Le poste est rattaché à l’unité technologique de « management et analyse des données ». L’équipe a pour missions de développer les technologies et solutions capables de collecter, suivre, organiser, analyser, visualiser et exploiter les données générées par les dispositifs expérimentaux des autres unités de BIOASTER : génomique, transcriptomique, protéomique, métabolomique, cytométrie, imagerie, ainsi que les études précliniques et cliniques ou des bases de données publiques.
Sujet :
MISSIONS
Dans ce contexte, les missions confiées au candidat retenu consisteront à :
• Proposer un saut méthodologique pour l’analyse statistique de données à haute dimensionnalité — d’origine omique, préclinique clinique — afin de fournir des réponses novatrices aux projets de l’Institut de Recherche Technologique. Par exemple, il peut s’agir d’identifier des biomarqueurs ou de caractériser des mécanismes d’action.
• Développer les processus d’intégration et d’analyse des données issues de différentes sources (publiques, internes, issues de projets collaboratifs).
• Contribuer à l’automatisation et l’implémentation de ces processus dans le système d’information scientifique de BIOASTER, et notamment sa plateforme d’analyse intensive.
ACTIVITES
• Évaluer les technologies de structuration et d’analyse de données volumineuses ou complexes, et réaliser la veille technologique dans ce domaine,
• En collaboration avec toute la communauté de BIOASTER :
– Contribuer à l’évaluation des méthodes statistiques pour la transformation, la standardisation et l’analyse intégrative des données omiques, phénotypiques, précliniques et cliniques,
– Identifier les sources pertinentes d’information pour chaque projet, et mettre en place leur collecte, leur curation et leur livraison aux pipelines d’analyse bio-informatique,
– Contribuer à l’évolution de la plateforme Cloud de bio-informatique, notamment des processus de restitution et de visualisation.
Profil du candidat :
• Statistique
• Machine learning
Formation et compétences requises :
FORMATION
• PhD, Master, école d’ingénieur ou équivalent en statistique, traitement du signal ou bio-informatique, avec au moins 3 à 5 ans d’expérience dans une fonction similaire en milieu industriel, académique ou dans une PME du secteur des sciences de la vie.
COMPETENCES
• Expertise des méthodes statistiques multivariées : PLS (régression et analyse discriminante) et PLS multi blocs, analyse de données longitudinales, Generalized Canonical Correlation Analysis, méthode de sélection des variables (lasso, Elastic Net, Variable Importance in Projection).
• Bonne connaissance des méthodes de clustering : PCA, K-means, clustering basé sur la distribution ou la densité.
• Bonne connaissance des méthodes d’apprentissage automatique : SVM, Random Forest, classificateur bayésien, Hidden Markov Models…
• Connaissances générales en traitement des données et bio-informatique.
• Connaissances générales en biologie moléculaire.
• Connaissances générales en programmation (Bash, R, Python).
• Maîtrise de l’anglais technique et scientifique
QUALITES PERSONNELLES
• Autonomie, Esprit d’initiative, réactivité.
• Capacité de travail sur des objectifs à long terme.
• Sens du travail en équipe en mode projet.
• Capacité de communication et facilité dans les relations interpersonnelles.
• Respect de la confidentialité, des contraintes réglementaires et des bonnes pratiques.
Adresse d’emploi :
BIOASTER
40 avenue Tony Garnier
69007 Lyon
Document attaché : 2017.03.14-datascientist_fr_v02.pdf
