[CFP] SUMAC’21: The 3rd workshop on Structuring and Understanding of Multimedia heritAge Contents @

Date : 2021-10-20
Lieu : Chengdu, China

*** Call for Papers for SUMAC 2021 ***
The 3rd workshop on Structuring and Understanding of Multimedia heritAge Contents
In conjunction with ACM Multimedia 2021
20 October 2020, Chengdu, China

Workshop: https://sumac-workshops.github.io/2021/
Conference: https://2021.acmmm.org

*** Aims and scope

The digitization of large quantities of analogue data and the massive production of born-digital documents for many years now provide us with large volumes of varied multimedia data (images, maps, text, video, multi-sensor data, etc.), an important feature of which is that they are cross-domain. “Cross-domain” reflects the fact that these data may have been acquired in very different conditions: different acquisition systems, times and points of view. These data represent an extremely rich heritage that can be exploited in a wide variety of fields, from Social Sciences and Humanities to land use and territorial policies, including smart city, urban planning, smart tourism and culture, creative media and entertainment. In terms of research in computer science, they address challenging problems related to the diversity and volume of the media across time, the variety of content descriptors (potentially including the time dimension), the veracity of the data, and the different user needs with respect to engaging with this rich material and the extraction of value out of the data. These challenges are reflected in various research topics such as multimodal and mixed media search, automatic content analysis, multimedia linking and recommendation, and big data analysis and visualization, where scientific bottlenecks may be exacerbated by the time dimension, which also provides topics of interest such as multimodal time series analysis.

The objective of the third edition is to present and discuss the latest and most significant trends in the analysis, structuring and understanding of multimedia contents dedicated to the valorization of heritage, with the emphasis on enabling access to the big data of the past. We welcome research contributions for the following (but not limited to) topics:

– Multimedia and cross-domain data interlinking and recommendation
– Dating and spatialization of historical data
– Mixed media data access and indexing
– Deep learning in adverse conditions (transfer learning, learning with side information, etc.)
– Multi-modal time series analysis, evolution modeling
– Multi-modal & multi-temporal data rendering
– Heritage – Building Information Modeling, Art
– HCI / Interfaces for large-scale datasets
– Smart digitization of massive quantities of data
– Bench-marking, Open Data Movement
– Generative modeling of cultural heritage

*** Important dates

– Paper submission (6-8 pages + references) : 30 July 2021 (11:59 p.m. AoE)
– Author acceptance notification: 26 August 2021
– Camera-Ready: 2 September 2021
– Workshop date: 20 October 2021

*** Two Keynote speakers

– Jon Hardeberg (Professor at the Computer Science Department of the Norwegian University of Science and Technology, Norway): talk on Analyzing CHANGE in cultural heritage objects through images.

– Mathieu Aubry (Senior researcher, Imagine team, LIGM lab, Ecole des Ponts ParisTech, France): talk on Deep Learning for Historical Data Analysis.

*** Organizers

Valerie Gouet-Brunet (LaSTIG Lab / IGN – Gustave Eiffel University, France)
Margarita Khokhlova (Fujitsu France)
Ronak Kosti (Pattern Recognition Lab / FAU Erlangen-Nurnberg, Germany)
Li Weng (Hangzhou Dianzi University, China)

Looking forward to seeing you in Chengdu (virtually or not)!
The workshop organizers

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

AstroInformatique 2021

Annonce en lien avec l’Action/le Réseau : BigData4Astro

Thème :

Ecole Thematique AstroInformatique 2021 (ANF)

Présentation :

L’astronomie a toujours été précurseur dans les problématiques de traitement de données (grands projets EUCLID, GAIA) et de mises à disposition de données (Observatoire Virtuel) impliquant des communautés dispersées géographiquement. Les grands projets et instruments pour l’Astronomie actuels vont apporter à la communauté une quantité de données qui dépasse de plusieurs ordres de grandeur ce que les astronomes ont l’habitude de traiter. Les grands relevés et observatoires (SKA, EUCLID, GAIA …) imposent une manière différente de traiter les données à l’aide d’une chaîne automatisée cruciale pour les nouvelles découvertes. De nouvelles méthodes, de nouvelles utilisations et de nouveaux modes de traitement de données sont nécessaires et demandent une implication conjointe de personnel astrophysique et informatique.

Objectifs:
Sensibiliser les chercheurs et ingénieurs aux nouvelles technologies du traitement de données.
Former les scientifiques et ingénieurs aux méthodes informatiques de traitement de données massives en Astrophysique.
Renforcer cette action transverse de collaboration informatique et astrophysique.
Démontrer les possibilités d’utiliser ces nouvelles méthodes dans le cas de données astrophysiques à travers des cas pratiques et un hackathon.

Du : 2021-11-29

Au : 2021-12-10

Lieu : Pôle d’accueil universitaire de Séolane
Quartier du 11 eme BCA, 04400 Barcelonnette

Site Web : https://astroinfo2021.sciencesconf.org/

Développement d’outils d’analyse par apprentissage automatique pour la spectrométrie gamma dédiée à

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEA – DRT/BERTIN TECHNOLOGIES
Durée : 36 mois
Contact : jerome.bobin@cea.fr
Date limite de publication : 2021-08-31

Contexte :
L’analyse par spectrométrie gamma est une technique classique utilisée pour l’identification et la quantification de radionucléides dans une source radioactive. Le spectre mesuré est généralement constitué de pics d’absorption totale qui se superposent à un fond continu dû à la diffusion Compton dans le détecteur et son environnement. En métrologie de la radioactivité, la spectrométrie gamma est appliquée par un expert à l’aide de méthodes de déconvolution des pics d’absorption totale sans utiliser l’information donnée par le spectre entier comprenant le fond Compton. Ces techniques ne sont pas adaptées à l’identification automatique pour des mesures de terrain par des non-experts ou la détection d’anomalies dans le bruit de fond naturel à faible statistique. Des approches algorithmiques spécifiques sont donc nécessaires pour répondre à des besoins allant des mesures dans l’environnement au démantèlement des installations nucléaires ou encore pour la sécurité aux frontières contre le trafic illicite de matières nucléaires.
Le Laboratoire national Henri Becquerel (LNHB) situé au CEA/Saclay est le laboratoire national de métrologie pour le développement et le maintien des références françaises dans le domaine des rayonnements ionisants. Dans ce contexte, le laboratoire est impliqué depuis quelques années dans le développement d’un outil d’analyse automatique des spectres gamma à faible statistique selon une approche métrologique pouvant être appliqué avec des détecteurs scintillateurs (NaI(Tl), plastiques). Cette approche est fondée sur la technique du démélange spectral en utilisant l’information provenant de l’ensemble du spectre mesuré. Cette technique nécessite la construction d’une bibliothèque de spectres caractéristiques (signatures spectrales) pour chaque radionucléide à identifier. Les premiers résultats ont permis de montrer la robustesse de l’approche pour la prise de décision automatique, l’estimation des comptages des émetteurs gamma identifiés et des incertitudes associées.

Sujet :
Les méthodes actuelles utilisent des bibliothèques de signatures spectrales fixées. En conséquence, la robustesse de l’identification est en général limitée par la variabilité des conditions de mesures sur le terrain en raison de la déformation des spectres due notamment aux phénomènes d’atténuation ou de diffusion autour d’une source radioactive. Une solution à ce problème est l’estimation conjointe de la bibliothèque pour les mesures de terrain. L’objectif de la thèse sera le développement de nouvelles méthodes de démélange spectral permettant la prise en compte automatique de ces déformations de spectres. Dans un premier temps, une solution mathématique optimale sera développée grâce à la mise en œuvre de techniques d’apprentissage automatique pour l’estimation conjointe de la bibliothèque de signatures spectrales. Dans un second temps, cette solution sera adaptée de façon à être implémentable dans un circuit numérique intégré dans un dispositif de détection portable. Le futur thésard sera également associé à l’élaboration de la bibliothèque de signatures spectrales par simulation interactions rayonnement-matière (Geant4, Penelope, MCNP) pour l’apprentissage de l’algorithme de démélange spectral.
Le développement algorithmique se fera en collaboration avec le Laboratoire d’ingénierie logicielle pour les applications scientifiques (LILAS) au sein du CEA/DRF. L’implémentation spécifique de l’algorithme dans un dispositif portable de spectrométrie gamma sera effectuée dans le cadre du laboratoire commun avec la société industrielle BERTIN Technologies.

Profil du candidat :
Le candidat (titulaire d’un Master recherche ou d’un diplôme d’ingénieur) devra avoir des compétences en traitement du signal (problème inverse, estimation, statistiques) et en apprentissage automatique. Au cours de la thèse, il aura à intégrer les problématiques classiques de la spectrométrie gamma et de la simulation interactions rayonnement-matière à l’aide de codes Monte-Carlo.

Formation et compétences requises :
Mathématiques appliquées/traitement du signal

Adresse d’emploi :
CEA Saclay – 91191 Gif-sur-Yvette

Document attaché : 202106211641_Thèse_CEA_Bertin_CB29032021A.pdf

Thèse CIFRE – Connaissances formelles et apprentissage automatisé, avec Courbon Software

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Courbon Software et LIMOS/Mines St-Étienne
Durée : 3 ans
Contact : audrey.bruyere@vinci-energies.com
Date limite de publication : 2021-08-31

Contexte :
(English description in .pdf attachment)

La thèse proposée s’inscrit dans le contexte de l’Industrie du futur (ou Industrie 4.0), vouée à être plus flexible et plus autonome grâce aux technologies du numérique et de la mégadonnée (Big Data).

L’entreprise Courbon Software, qui édite des logiciels pour l’informatique idustrielle, dispose aujourd’hui d’une quantité importante de données issues d’activités industrielles qu’elle souhaite valoriser en proposant de nouveaux services à ses clients. Ces nouveaux services, incluant maintenance prédictive (permettant de prévoir une casse et y remédier avant qu’elle survienne) et optimisation de l’ordonnancement de tâches (par exemple, vis-à-vis d’une offre fluctuante de la part des fournisseurs d’électricité), passent principalement par l’application de techniques connues d’apprentissage automatisé et, principalement, d’apprentissage profond (deep learning).

L’application de deep learning à des données industrielles pose cependant quelques problèmes auxquels la recherche en informatique doit répondre. En particulier, la diversité des sources de données disponibles en production (données numériques, topologiques, temporelles, structurées, …) implique un important travail de pré-traitement qui réduit d’autant la fiabilité des modèles obtenus par rapport à des évaluations sur des données-tests. Or, la fiabilité est une nécessité pour un système industriel. Par ailleurs, les modèles obtenus avec de l’apprentissage profond sont difficilement interprétables, notamment d’un point de la responsabilité légale (pour établir qui de l’éditeur de logiciel ou de l’entreprise ayant fourni les données est responsable) lorsqu’un dysfonctionnement est observé sur une ligne de production.

Voir par exemple : Gusmeroli S., Dalle Carbonare D. (eds) (2020). Big Data challenges in Smart Manufacturing Industry (v. 2020). Brussels. BDVA.

Sujet :
L’approche proposée dans la thèse est d’intégrer des connaissances formelles à des techniques d’apprentissage profond sur des données industrielles. Les connaissances formelles peuvent être représentées sous formes de formules logiques, de données relationnelles ou, plus communément, de graphes de connaissances, à l’instar du Google Knowledge Graph ou de Wikidata. Elles permettent à la fois d’intégrer dans une même base de connaissances des sources hétérogènes de données et de fournir un cadre d'”explicabilité” à des algorithmes d’apprentissage.

Les travaux effectués durant la thèse seront basés sur les progrès récents dans l’apprentissage non-supervisé appliqué aux graphes de connaissances, comme ceux d’Antoine Bordes (aujourd’hui à Facebook AI) et de Pascal Hitlzer. Ils auront pour objectif la spécification d’une méthode pour intégrer des connaissances formelles génériques à des tâches d’apprentissage distinctes telles que la détection de rebuts et l’estimation d’indicateurs de performances dans l’ordonnancement de tâches.

Les thèmes abordés durant la thèse seront les suivants (liste non-exhaustive) :
– Intégration sémantique de données (RDF, SPARQL, OWL)
– Apprentissage profond (PyTorch, TensorFlow)
– Modèles de connaissances pour l’industrie (OPC-UA, AutomationML)

Voir par exemple :
[1] Bordes A., Usunier N., Garcia-Duran A., Weston J., Yakhnenko O. (2013). “Translating Embeddings for Modeling Multi-relational Data,” Neural Information Processing Systems (NIPS). South Lake Tahoe, United States.
[2] Hitzler P., Bianchi F., Ebrahimia M., Sarker M.K. (2020). “Neural-Symbolic Integration and the Semantic Web,” Semantic
Web, vol. 11, no. 1, pp. 3-11. IOS Press.

Profil du candidat :
Titulaire d’un master en informatique ou sciences des données.

Formation et compétences requises :
– Master en informatique ou science des données
– Anglais courant lu
– Connaissances solides en gestion de bases de données et données massives (SQL, NoSQL, Hadoop, …)
– Connaissances solides en programmation dans un langage haut-niveau (Python, Java, JavaScript, …)

Adresse d’emploi :
Saint-Étienne

Document attaché : 202106211428_Offer – PhD student – CSO.pdf

Intégration des résultats issus des prétraitements automatisés de données en IRM en vue d’une créati

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre de Recherche en Neurosciences de Lyon (CRNL
Durée : 4 mois
Contact : gaelle.leroux@cnrs.fr
Date limite de publication : 2022-01-31

Contexte :
Depuis la loi numérique de 2016 et le plan S de 2018, les laboratoires de recherche sont amenés à mettre en œuvre la science ouverte. Le stage se déroulera au Centre de Recherche en Neurosciences de Lyon (CRNL). L’activité du stage permettra de proposer des outils pour des données de neuroimagerie en utilisant les standards de la communauté (XNAT, BIDS, etc.).

Le service commun est ouvert aux 19 équipes du Centre. Il a pour objectif d’aider des projets en neuroImagerie et de participer à la mise en œuvre de la science ouverte. Le service compte actuellement 2 ingénieures.

Sujet :
• Mise en place d’outils de mise en commun des étapes de contrôle qualité
• Aide au traitement automatiques des données physiologiques
• Présenter aux utilisateurs.trices l’outil en fin de stage
• Rédiger une documentation en ligne pour admin
• Rédiger une documentation en ligne pour les utilisateurs.trices

Profil du candidat :
– Capacités à comprendre et s’exprimer en Anglais
– Connaissances du contrôle de version Git
– Organisation rigoureuse dans le travail

Formation et compétences requises :
– M2/école d’ingénieur

Adresse d’emploi :
https://www.crnl.fr/fr/page-base/acces

Document attaché : 202106171417_2021_offre_stage_4mois_AssInge_SCImagerie – FetGB.pdf

Graph Compression

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique de Bourgogne
Durée : 3 ans
Contact : hocine.cherifi@u-bourgogne.fr
Date limite de publication : 2021-07-10

Contexte :
Financing Institution:
ANR Contract Coregraphie (ANR-20-CE23-0002)
Application Deadline: June 25, 2021
Contract starts: October 01, 2021
Supervisors:
H. Cherifi (LIB, Dijon), H. Séba (LIRIS, Lyon), O. Togni (LIB, Dijon)

Contacts:
hocine.cherifi@u-bourgogne.fr, hamida.seba@univ-lyon1.fr, olivier.togni@u-
bourgogne.fr

Sujet :

Subject:
In this Big Data world, we face the central issue of processing massive graphs. The approach considered in the ANR project Coregraphie is to build a summary (or compressed version) of the graph and to query this summary instead of the original graph.
One can distinguish between lossless and lossy compression techniques. Lossless compression (or compact coding) decreases the size of the graph representation without losing any information while controlling the cost induced by coding on the operations, like, for instance, in WebGraph [BV04].
Lossy compression allows a part of the information (nodes and edges) to be lost. If the compression is by deleting edges, one speaks of sparsification. This subclass of lossy compression allows more effective requests, such as estimating the distance between two nodes [KB+21]. Lossy compression is mainly accomplished using two approaches: Selecting a sample, i.e., a sub-graph using different technics (random walks, propagation, filtering, etc.) [HL13] and grouping nodes/edges (generalization) [CR15]. In most cases, lossy compression methods are specialized for one type of request [FL+12].
One major issue for lossy compression is determining to which extent the compression algorithms damage the initial graph and how this damage can be measured and controlled. This thesis aims to concentrate on lossy compression. We plan to investigate the impact of compression methods on the graph topological properties and/or requests performed. We propose approaching this issue starting with simple requests such as testing neighborhoods or proximity between nodes. We will then study more complex requests such as finding a given size clique, clustering [QK15] or partitioning the graph into independent sets [T19].
Among further aspects that can be explored are:
The links with lossless compression and combined approaches;
Links with structural properties, in particular with some orders/hierarchies ((k-
shells, k-trusses, modular decomposition, twin-width, etc.);
Links with community structure and centrality measures [GC+20];
Compromises between preserving properties and anonymizing [MRT20].

The main application domain is social networks. Indeed, the LIB lab has the
scientific environment to handle massive online social data. Data from Medicine, Biology, Economics may also be considered. The final goal is to propose effective tailored compression methods and generic compression schemes to deal with many types of requests while controlling the bias induced by the compression.

References

[BV04] P. Boldi and S. Vigna, The webgraph framework i: Compression techniques. In Proceedings of the 13th International Conference on World Wide Web, WWW ’04, pages 595–602, New York, NY, USA, 2004. ACM.
[CR15] J. Casa-Roma, F. Rousseau, Community-preserving generalization of social networks. In IEEE. 2015 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM).
[S.l.], 2015. p. 1465–1472.
[FL+12] W. Fan, J. Li, X. Wang, and Y. Wu, Query preserving graph compression. In
Proceedings of the 2012 ACM SIGMOD International Conference on Management of
Data (SIGMOD ’12), 2012. DOI:https://doi.org/10.1145/2213836.2213855
[GC+20] Z. Ghalmane,C. Cherifi, H. Cherifi, M. El Hassouni. Extracting backbones in
weighted modular complex networks. Sci Rep 10, 15539 (2020).
https://doi.org/10.1038/s41598-020-71876-
[HL13] P. Hu and WC. Lau, A survey and taxonomy of graph sampling. 2013. CoRR abs/1308.5865, http://arxiv.org/abs/1308.5865,1308.5865
[KB+21] A. E. Kiouche, J. Baste, M. Haddad and H.Seba. A Neighborhood-preserving Graph Summarization, 2021, coRR abs/ 2101.11559, https://arxiv.org/abs/2101.11559.
[MRT20] G. Minello, L. Rossi and A. Torsello, k-Anonymity on Graphs using the Szemerédi Regularity Lemma, IEEE Transactions on Network Science and Engineering, 2020,
https://doi.org/10.1109/TNSE.2020.3020329.
[QK15] F. Queyroi and S. Kirgizov. Suppression distance computation for hierarchical clusterings. Information Processing Letters, Volume 115, Issue 9, 2015.
[T19] O. Togni. Coloring Large Real World Networks : the DSAT-ratio, In MARAMI 2019, 2019.
[YAA21] M. I. Yousuf, I. Anwer and R.Anwar, Empirical Characterization of Graph
Sampling Algorithms, 2021, coRR abs/2102.07980 , https://arxiv.org/abs/2102.07980

Profil du candidat :
Master degree or Engineer in computer science, mathematics or physics with
strong skills in graph algorithms/network science / Data Science/data mining and programming in
Python/C++/Java.

Formation et compétences requises :
Master degree or Engineer in computer science, mathematics or physics with
strong skills in graph algorithms/network science / Data Science/data mining and programming in
Python/C++/Java.

Adresse d’emploi :
Laboratoire Informatique de Bourgogne

Document attaché : 202106151222_PhDproposal-Coregraphie-LIB-enHC.docx

Enseignant.e-chercheu.r.se contractuel.le LRU formation ingénieur informatique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Polytech Nantes (formation) et LS2N (recherche)
Durée : 1 an (renouvelable j
Contact : marc.gelgon@univ-nantes.fr
Date limite de publication : 2021-06-24

Contexte :
Polytech Nantes recrute un(e) enseignant(e) pour renforcer son équipe pédagogique du cycle ingénieur (bac+3/4/5) en informatique, et en particulier pour contribuer au développement de la nouvelle voie par apprentissage sur le thème de l’ingénierie des données et de l’intelligence artificielle.

Sujet :
Le poste s’inscrit dans la double thématique “big data” et “intelligence artificielle”, avec une forte coloration en ingénierie des données.

Profil du candidat :
cf. fiche de poste jointe.

Formation et compétences requises :
Expérience d’enseignement, appétence pour la gestion de formation et les relations formation-entreprise.

Capacité à concevoir et mettre en oeuvre des enseignements pratiques autour de technologies innovantes.

Activité de recherche en Big Data et/ou IA.

Adresse d’emploi :
Polytech Nantes – site de la Chantrerie
Rue Christian Pauc, 44300 Nantes

Document attaché : 202106091243_fdp_LRU_IDIA_sur_RP.pdf

Spécialiste des systèmes et des techniques de l’audiovisuel

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : MSHE Claude Nicolas Ledoux (UAR 3124), Besançon
Durée : CDD 6 mois
Contact : marion.bendinelli@univ-fcomte.fr
Date limite de publication : 2021-06-30

Contexte :
La plateforme technologique SHERPA (Sciences de l’Homme et de l’Environnement – Ressources, Partage, Accompagnement) de la MSHE Claude Nicolas Ledoux (USR 3124) réunit des compétences méthodologiques et technologiques, et des équipements spécialisés : matériels d’acquisition des données, logiciels de traitement et d’analyse, bases de données de référence. La plateforme s’appuie sur une infrastructure informatique qui permet d’offrir à la communauté scientifique une capacité de calcul et de stockage importante.

Sujet :
S’appuyant sur les premiers développements méthodologiques et scientifiques de l’action “FANA Danse & Arts vivants” dont le modèle innovant a fait l’objet de partage d’expériences au sein des consortiums du TGIR Huma-Num, et dont l’utilité pour les acteurs socio-économiques extérieurs à la recherche est attestée, l’unité NuAnCES développe aujourd’hui un pôle de services pour l’archivage et la diffusion web de données multimédia qui figure un creuset interdisciplinaire et interinstitutionnel de premier ordre. À cet effet, l’unité NuAnCES recrute, pour une durée de 6 mois, un.e spécialiste des systèmes et techniques de l’audiovisuel.

Profil du candidat :
La personne recrutée sera chargée de mettre en œuvre un protocole pour une chaîne complète d’acquisition (ou de rétro-conversion), de traitement, d’archivage pérenne et de diffusion web de données audiovisuelles. Elle travaillera dans ce cadre en étroite collaboration avec les personnels de la MSHE en charge des infrastructures virtuelles, les responsables de la plateforme et ingénieur.es et/ou chercheur.es impliqués dans les actions du pôle Archive, Bases, Corpus.

Formation et compétences requises :
• Diplôme supérieur Bac+2 minimum ou parcours professionnel admis en équivalence
• Expérience souhaitée dans le domaine de l’informatique dédié à l’audiovisuel
• Connaissance approfondie des standards liés à l’audiovisuel (formats d’encodage/décodage, fichiers conteneurs)
• Connaissance approfondie de plusieurs logiciels de traitement audiovisuel (encodage/décodage CPU et GPU)
• Bonne maîtrise des techniques et structures informatiques associées aux besoins métiers : serveur, stockage, réseaux, supports informatiques
• Connaissance souhaitée d’infrastructures et consortiums nationaux de la recherche en sciences humaines – Très Grande Infrastructure de Recherche (TGIR) Huma-Num, Réseau national des MSH (RnMSH), Centre Informatique National de l’Enseignement Supérieur (CINES), ancien consortium Archives des Mondes Contemporain…
• Savoir transmettre ses connaissances en s’adaptant au niveau des utilisateur.rices
• Qualités rédactionnelles

Adresse d’emploi :
MSHE Claude Nicolas Ledoux, 1 rue Charles Nodier 25000 Besançon

Document attaché : 202106080801_MSHE Besançon_Specialiste-systemes-et-techniques-audiovisuel_VF.docx

Développeur Python

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Université de Rennes 2, UMR LETG
Durée : 12 mois
Contact : romain.tavenard@univ-rennes2.fr
Date limite de publication : 2021-06-07

Contexte :
Nous recherchons un développeur pour la librairie tslearn de machine learning pour séries temporelles en Python : https://github.com/tslearn-team/

Le poste est pour une durée de 12 mois, localisé à Rennes, et peut être soit à temps plein soit à temps partiel (à préciser avec le candidat).

Sujet :
Avez-vous déjà entendu parler de tslearn? tslearn est un projet open source collaboratif qui vise à fournir des outils de machine learning pour l’analyse de séries temporelles. Ce package contient déjà des implémentations de nombreux algorithmes de l’état de l’art du domaine. Toutefois, une librairie comme celle là requiert une amélioration continue pour suivre le développement de nouvelles méthodes. Il est également nécessaire de couvrir de nouvelles tâches, comme le “forecasting”. Enfin, tslearn repose actuellement sur numpy/Cython/numba avec une dépendance optionnelle à tensorflow. Une meilleure intégration (idéalement via le support de divers backends) aux outils modernes d’apprentissage permettant la différentiation automatique devient cruciale.

Dans le cadre de ce projet, vous serez amené(e) à collaborer avec l’équipe de core developpers de tslearn, ainsi qu’avec des membres de l’équipe Obelix de l’IRISA et des membres du LETG (un laboratoire de géographie très intéressé par les problématiques “data”).

Profil du candidat :
— La suite de ce paragraphe est rédigée au féminin pour permettre une lecture plus fluide, ce poste est bien entendu ouvert à toutes et tous

La candidate retenue sera la développeuse principale du projet tslearn pendant la durée de son contrat. Elle implémentera plusieurs nouvelles features pour cette librairie (de nouvelles méthodes de l’état de l’art) et travaillera à l’adaptation du code actuel à des backends modernes (pytorch, tensorflow et/ou jax, typiquement). Elle sera aussi en charge de l’animation des contributeurs/trices occasionnels et sera amenée à reviewer des contributions externes potentielles. Enfin, elle participera à la promotion de la librairie au sein de la communauté.

Formation et compétences requises :
* Un master ou une thèse en machine learning, traitement du signal, ou informatique
* Des publications ou participations à des logiciels open source en lien avec le machine learning
* Une expérience de programmation en Python
* Une expérience en lien avec des projets collaboratifs hébergés sur des plateformes comme github
* La connaissance du domaine du machibe learning pour séries temporelles est un plus

Adresse d’emploi :
Université de Rennes 2, Rennes, France

Document attaché : 202106070843_fiche_poste.pdf

Postdoc position in Strasbourg (2021): DL, Domain Adaptation, Multi-Modal Representations

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube, University of Strasbourg
Durée : 2 years
Contact : gburgart@unistra.fr
Date limite de publication : 2021-08-06

Contexte :
A Postdoc position is open at University of Strasbourg (ICube lab) – France to start before November 2021.

Send a letter of motivation, your CV, and an example publication to Thomas Lamper and Gisèle Burgart (l1ampert@uni2stra.fr and g1burgart@uni2stra.fr – !remove the numbers!) with the subject beginning with [Chaire Postdoc].

The position will remain open until a suitable candidate is found and the starting date will be agreed upon with the successful candidate but will be no later than 1st November 2021.

Detailed Description: https://seafile.unistra.fr/f/8c723d6a74834196b1aa/?dl=1

Sujet :
Deep Learning, Domain Adaptation, Multi-Modal Representations
The position will be funded for two years (initially for one year, renewable for an additional year). The candidate will join the SDC research team under the supervision of Dr Thomas Lampert, the Chair of Data Science and Artificial Intelligence, and join his international team of PhD students and engineer to develop novel deep learning approaches to domain invariant representation learning (particularly in multi-modal data), with application (but not restricted) to Medical Imaging and Remote Sensing. The funding is not connected to a particular project, so it is the perfect opportunity for a strong candidate to explore new directions under the supervision of the Chair.

Profil du candidat :
The successful candidate will have (or will soon obtain) a PhD in computer science or related domain and have experience in deep learning and applied machine learning and a strong level of written and spoken English. Experience with transformers, GANs, autoencoders, and/or unsupervised/self-supervised DL (autoencoders, etc) would be a plus. You will join a growing team and will have the freedom to follow your interests in a direction complementary to the abovementioned research focusses. You will be expected to target leading outlets in the field of machine learning and a strong track record in CVPR/ICCV/ECCV, NIPS/ICML/ICLR, or PAMI/IJCV/TIP. Candidates who are able to carry out the highest quality research independently, to co-supervise PhD students, and to give their input on a number of projects being carried out in the team are pursued. You will have access to state-of-the-art hardware for deep learning.

Formation et compétences requises :
PhD in computer science or related domain.

Adresse d’emploi :
ICube UMR 7357 – Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie
300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex