ACM Reproducibility and Replicability – Save The Date! June 18-20

Date : 2024-06-18 => 2024-06-20
Lieu : Rennes, France

Save the date! The ACM Conference on Reproducibility and Replicability will take place on:

June 18-20, 2024 at INRIA, Rennes, France
This will be a hybrid event – remote participation is welcome.
https://acm-rep.github.io/2024

About ACM REP
The 2024 ACM Conference on Reproducibility and Replicability (ACM REP ‘24) aims to bring together experts and practitioners engaged in the advancement and conduct of reproducible science in computing disciplines.

What’s next?
The call for paper will open soon, the deadline for paper submission will be: January 29, 2024.

For more info: https://acm-rep.github.io/2024


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Poste PR 27 – Sorbonne Université : Traitement et représentation de données et de connaissances pour l’Intelligence Artificielle

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6 – Sorbonne Université – UFR 919
Durée : indéterminée
Contact : bernd.amann@lip6.fr
Date limite de publication : 2024-04-21

Contexte :
Le profil de recherche se situe à l’interface des domaines de la Science des Données, de l’Intelligence Artificielle et des Bases de Données. Les objectifs sont d’une part de renforcer les activités de recherche sur le traitement et la représentation des données pour leur transformation en modèles exploitables par les systèmes intelligents et en connaissances interprétables par les humains, et d’autre part de structurer ces thématiques de recherche transverses aux trois équipes BD, LFI et MOCAH du laboratoire LIP6.

Le profil d’enseignement couvre de nombreuses thématiques d’enseignement (Bases de Données, Sciences des données, Big Data, IA….). Ce recrutement a pour objectif l’amélioration du ratio PR/MC et s’inscrit également dans le projet d’établissement de Sorbonne Université et en particulier dans l’objectif de former davantage d’étudiants au numérique et à la science des données (Licence, Master et Formation Continue), et dans le renforcement des collaborations avec l’Institut SCAI.

Laboratoire d’accueil: Le LIP6, UMR 7606, Unité Mixte de Recherche CNRS et Sorbonne Université, est un laboratoire de recherche en informatique se consacrant à la modélisation et la résolution de problèmes fondamentaux motivés par les applications, ainsi qu’à la mise en œuvre et la validation des solutions au travers de partenariats académiques et industriels. Les 19 équipes du LIP6 articulent leurs activités autour de quatre axes transverses : « Intelligence artificielle et science des données », « Architecture, systèmes et réseaux », « Sécurité, sûreté et fiabilité », « théorie et outils mathématiques pour l’informatique ».

Sujet :
Profil Recherche

L’IA et les données : Dans beaucoup d’applications du monde réel, certaines solutions d’intelligence artificielle (IA), et en particulier les méthodes statistiques, reposent sur la disponibilité de grandes quantités de données. Dans ce contexte, une bonne intégration entre les infrastructures de gestion et d’analyse des données et les outils d’IA joue un rôle essentiel dans le développement d’applications efficaces et pérennes. La fertilisation entre les domaines des bases de données (BD) et de l’IA est une voie à double sens. Tout d’abord, dans le sens de “l’IA pour les BD”, les nouvelles méthodes et les nouveaux modèles de l’IA peuvent être appliqués à l’automatisation et à l’optimisation des pipelines de gestion et d’analyse de données massives. Deuxièmement, dans le sens des “BD au service de l’IA”, les méthodes de gestion de données peuvent apporter plus d’efficacité et d’expressivité à l’ingénierie des données et des modèles d’apprentissage machine mobilisés dans les pipelines d’analyses prédictives.

L’IA et la connaissance : Les modèles d’IA centrés sur l’humain peuvent combiner des données provenant de traces d’interaction avec l’utilisateur, des connaissances de ces utilisateurs, ainsi que la prise en compte d’informations et de connaissances subjectives. Les algorithmes et méthodes dans ce domaine doivent raisonner dans l’incertain, dans l’imprécis et sur des connaissances subjectives ou mal définies, tout en étant capables d’expliquer et de justifier leur raisonnement. Elles doivent être interprétables pour que leur construction, leur représentation et leurs décisions puissent être compréhensibles, acceptées et adoptées par leurs utilisateurs. De plus, ces modèles doivent être dynamiques, capables d’évoluer au fur et à mesure des interactions avec leurs utilisateurs et de s’intégrer dans les systèmes d’information.

Profil Enseignement

La personne recrutée interviendra de façon équilibrée sur les différents niveaux de formation, du L1 au M2. La personne recrutée contribuera significativement aux enseignements de Licence d’informatique dont les besoins couvrent l’ensemble de la discipline (algorithmique, programmation (notamment objet, concurrente, fonctionnelle, web),
mathématiques discrètes, structures de données, système, architecture, réseaux, compilation, bases de données…)

En Master, selon son profil, la personne recrutée renforcera les enseignements du parcours « AgeNts Distribues, Robotique, Recherche Opérationnelle, Interaction, DEcision » (ANDROIDE) et/ou des autres parcours avec une forte composante IA.

Contact

Recherche : Fabrice Kordon ([Fabrice.Kordon@lip6.fr](mailto:Fabrice.Kordon@lip6.fr))

Enseignement:
Licence d’informatique : Jean-Lou Desbarbieux, directeur [(jean-lou.desbarbieux@lip6.fr](mailto:jean-lou.desbarbieux@lip6.fr))

Master d’informatique: Fourmaux, directeur [(olivier.fourmaux@sorbonne-universite.fr](mailto:olivier.fourmaux@sorbonne-universite.fr))

Profil du candidat :
Le profil du candidat doit correspondre aux thématiques de recherche et d’enseignement du poste.

Formation et compétences requises :
Candidats titulaires, à la date de clôture des inscriptions, d’une habilitation à diriger des recherches. Le doctorat d’Etat est admis en équivalence de l’habilitation à diriger des recherches.
Les titulaires de diplômes universitaires, qualifications et titres de niveau équivalent peuvent être dispensés de la possession de l’habilitation à diriger des recherches par le CNU.
Les candidats exerçant une fonction d’enseignant-chercheur, d’un niveau équivalent à celui de l’emploi à pourvoir, dans un établissement d’enseignement supérieur d’un État autre que la France, titulaires de
diplômes universitaires, qualifications et titres de niveau équivalent peuvent être dispensés de la possession de l’habilitation à diriger des recherches par le conseil académique.

Adresse d’emploi :
Sorbonne Université (UP6) – FACULTE DES SCIENCES – UFR 919 Ingénierie
Campus Pierre et Marie Curie, 4 place Jussieu 75005 Paris

Document attaché : 202312211431_35_LIP6_Traitement_representation_PR27_EC.pdf

Self Supervised Learning pour la détection d’objets de petite taille

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ONERA Palaiseau / SATIE
Durée : 36 mois
Contact : sidonie.lefebvre@onera.fr
Date limite de publication : 2024-06-20

Contexte :
Le développement de capteurs qui permettent d’acquérir de façon simultanée des images dans plusieurs bandes spectrales du visible à l’infrarouge lointain et leur exploitation automatique, rendue possible grâce à l’essor des méthodes de machine learning, ont permis de réaliser ces 20 dernières années de grands progrès en détection, reconnaissance et identification (DRI). Cependant, il demeure difficile de détecter des objets de petite taille (entre 1 et 50 pixels de surface), notamment quand ils présentent un faible contraste par rapport au fond ou quand on cherche à les détecter sur un fond texturé comme un ciel nuageux.
Malgré les progrès récents et impressionnants réalisés par les méthodes d’apprentissage profond dans les tâches de détection d’objets, les réseaux neuronaux (NN) traditionnels pour la détection d’objets ont du mal à trouver un équilibre entre un taux de détection élevé et un faible taux de fausses alarmes, ce qui se traduit par une dégradation de performances lorsqu’il s’agit de détecter des petites cibles. Cela s’explique par la complexité de l’apprentissage : les détecteurs doivent apprendre à extraire les caractéristiques de la cible à partir de peu de données, où le nombre de pixels de la classe objet est très faible par rapport à celui de la classe d’arrière-plan.

Sujet :
Pour résoudre ce problème, nous avons proposé, dans le cadre de la thèse d’A. Ciocarlan (2021-2024), un nouveau paradigme d’apprentissage basé sur un raisonnement a contrario, qui s’inspire de la théorie de la perception, en particulier de la théorie de la Gestalt. Les méthodes a contrario nous permettent de dériver automatiquement un critère de décision en modélisant le fond à l’aide d’un modèle naïf et en détectant les objets comme étant trop structurés pour apparaître “par hasard” selon le modèle naïf. Concrètement, notre méthode [Ciocarlan2023] consiste à guider l’apprentissage du NN en incluant un critère a contrario dans la boucle d’apprentissage. Le module NFA (pour Number of False Alarms) associé améliore considérablement les performances de ces algorithmes et a montré une robustesse impressionnante envers le contexte frugal dans le cas de données monospectrales infrarouge.

L’objectif de la thèse portera en premier lieu sur l’adaptation de cette méthodologie pour des données temporelles et multispectrales. Cette extension soulève à la fois la question de l’évolution de l’architecture des réseaux mais aussi, du fait de la difficulté à disposer de grandes bases de données annotées, de l’apport des méthodes de pré-entrainement d’une partie du réseau sur des données non labélisées via une tâche prétexte (SSL – self supervised learning). L’enjeu sera de définir une tâche prétexte pertinente pour la détection de petits objets sur fonds texturés, en s’appuyant notamment sur les travaux à base de masked autoencoder [He2021] ou d’apprentissage contrastif intra-image [Zhao2021]. Pour l’aspect temporel, on pourra par exemple s’inspirer des méthodes qui proposent de coupler le réseau de détection avec des méthodes de pistage rapides comme celles à base de noyaux (kernelized correlation filter – KCF) [Fan2023].

Enfin, il est important lorsqu’on utilise des NN de contrôler l’incertitude associée à leur usage et d’être en mesure d’interpréter leurs prédictions. Le deuxième enjeu de la thèse portera donc à la fois sur l’explicabilité des prédictions de détection et sur la quantification des incertitudes (UQ) associées. On envisagera notamment des approches ensemblistes et/ ou conformes pour l’aspect UQ [deGrancey2022][Andéol2023] et des approches à base d’indices de sensibilité pour l’explicabilité [Novello2022], qu’il faudra adapter à la problématique de la détection de cibles de petite taille en multispectral. Ces travaux se feront dans le cadre du Groupement d’Intérêt Scientifique LARTISSTE (https://uq-at-paris-saclay.github.io/).

Profil du candidat :
Master 2 ou école d’ingénieur spécialité IA ou statistiques, UQ

Formation et compétences requises :
Compétences en statistiques, deep learning, pytorch

Adresse d’emploi :
ONERA Palaiseau
6 chemin de la Vauve aux Granges
91120 Palaiseau

Document attaché : 202312201546_DOTA-2024_thèse_SSL.pdf

Postdoc position at Météo-France (CNRM) in Artificial Intelligence for Numerical Weather Prediction

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre National de Recherches Météorologiques
Durée : 15 months
Contact : laure.raynaud@meteo.fr
Date limite de publication : 2024-06-20

Contexte :
This position is part of the DestinE Tender ‘DE_371’. Destination Earth (DestinE) is an initiative of the European Commission under the EU Digital Europe programme, alongside with ESA and EUMETSAT as partners. DestinE aims to deploy several highly accurate thematic digital replicas of the Earth, called Digital Twins (DTs). The Digital Twins will help monitor and predict environmental change and human impact, in order to develop and test scenarios that would support sustainable development and corresponding European policies for the Green Deal. Artificial Intelligence (AI) and, more precisely, Machine and Deep Learning (ML and DL) are important for DestinE on many different levels, in particular for uncertainty quantification. The aim of DE_371 is to demonstrate that ML/DL based methodologies can augment DestinE datasets and products with the purpose of better capturing uncertainty.

Sujet :
Currently operational weather forecasts rely on physically-based modelling approaches, and Numerical Weather Prediction (NWP) models are operated to determine atmospheric conditions for the next hours and days. In particular, Ensemble Prediction Systems (EPSs) aim at sampling the probability distribution of future atmospheric states, by running several NWP forecasts in order to account for the different sources of uncertainty. However, the design of EPSs is strongly constrained by available computational resources, and is often limited to O(50) forecasts. The goal of the position is to use generative ML techniques to increase the ensemble size by creating additional physically-consistent ensemble members tethered to a small ensemble, or single member deterministic input. Building on the innovative works of Brochet et al. (2023) with a GAN framework, several avenues for improvement will be explored, including the generation of temporal sequences, the production of a wider set of variables, and the comparison to other generative approaches such as diffusion models. A specific attention will be paid to the evaluation of the physical consistency of generated forecasts and of their capacity to significantly improve the statistical properties of the existing ensemble, including for instance the spread-error relationship, probabilistic skill scores and representation of extreme events.

Profil du candidat :
The ideal candidate would have the following qualifications :
– A PhD degree in atmospheric sciences, statistics or artificial intelligence
– A strong background in deep learning algorithms, in particular convolutional neural networks and deep generative models
– Experience in geophysical problems would be appreciated, at least a strong interest for applied research in atmopsheric physics is highly recommended
– Proficiency with Python programming and AI librairies (tensorflow, PyTorch)
– Experience with processing large volumes of data
– Experience of working in a Linux-based environment
– Aptitude for scientific work, written and oral communication in English, meetings abroad possible
– A scientific curiosity, autonomy, rigor in the interpretation of the results

Formation et compétences requises :
PhD degree.

Adresse d’emploi :
This work will be carried on in the Assimilation and Forecasting group of the Météo-France research department (CNRM), in Toulouse, France.

Measuring event impact and propagation in the internet

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6
Durée : 4 to 6 months
Contact : lionel.tabourier@lip6.fr
Date limite de publication : 2024-03-31

Contexte :
Understanding the impact of internet anomalous events at internet scale, such as performance degradation, outages, or attacks, is a challenging problem. If techniques and systems have been designed to detect outages at some particular internet facilities, or detect congestion between interdomain links, there exists no internet scale system to monitor events across all autonomous systems (ASes), and thus, we have no clear understanding on the impact of an event on the internet.

The BGP protocol allows ASes to interconnect, so that each AS can reach the prefixes containing the IP addresses of another AS via the routes received with BGP. As most internet events rarely last more than tens of minutes, to capture them, we need to run traceroutes towards each BGP prefix announced by all the ASes very frequently. And in addition to these background measurements, we need to be able to run even more targeted measurements during an event, in order to have a precise understanding of the behavior of the internet paths before and after this event.

Unfortunately, public measurement systems, such as RIPE Atlas and CAIDA Ark do not offer such measurements or the possiblity to run them. They either perform meshed traceroutes between hundreds of sources and destinations at short intervals (15 minutes), or perform traceroutes to one destination per BGP prefix from a hundred of vantage points every day. This is neither sufficient to have an internet scale coverage nor to cover most internet events.

Sujet :
We propose to design this missing measurement system, that will run background traceroutes at high speed every 15 minutes from a few vantage points to one destination in each BGP prefix announced by any AS. When an event is detected, we will run targeted measurements using
propagation algorithms to understand how this event spreads on the internet.

Profil du candidat :
This internship is directed at Master students (preferably Master 2 students) with a background in computer science. Good coding skills are requested for the internship, knowledge of a widely-used language in learning, such as python, is preferable but not mandatory.

Formation et compétences requises :
Background in computer networking, system building, and graph theory are at the heart of the internship, so a background in those areas is an asset, but not mandatory.

Adresse d’emploi :
LIP6, Sorbonne University (4 place Jussieu, 75005, Paris)

Document attaché : 202312201034_Measuring_Event_Impact.pdf

Gaussian Process Prior Variational Autoencoders for Earth Data Time Series Anlaysis

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : INRAE Toulouse
Durée : 6 mois
Contact : mathieu.fauvel@inrae.fr
Date limite de publication : 2024-02-28

Contexte :
Over the last ten years, Earth Observation (EO) has made enormous advances in terms of spatial and temporal resolutions, data
availability and open policies for end-users. The increasing availability of complementary imaging sensors allows land ecosystems
state variables and processes to be observed at different spatio-temporal scales. Big EO data can thus enable the design of new
land monitoring systems providing critical information in order to guide climate change monitoring, mitigation and adaptation.
Conventional machine learning methods are not well adapted to the complexity of multi-modal, multi-resolution satellite image
time series (SITS) with irregular sampling. Therefore they are not suitable for extracting and processing all the relevant infor-
mation. On the other hand, methods based on deep neural networks have shown to be very effective to learn low-dimensional
representations of complex data for several tasks and come with high potential for EO data. However, they often emerge from the
computer vision (CV) and natural language processing (NLP) communities and need to be extended and properly instantiated to
handle the very specificities of Earth Observation data.
Previous works at the CESBIO-lab have shown that generative encoder-decoder architectures such as the Variational Auto-
Encoder (VAE) or the U-NET models perform very well for a variety of EO tasks : estimation of biophysical parameters or
Sentinel-1 to Sentinel-2 translations, to cite a few.
However, such approaches appear to be inadequate to handle data coming from more than 2 sources and acquired at different
time and spatial resolutions, as prioritized in the RELEO chair within ANITI. In particular, the generative capability of these
models may generalize poorly to unseen regions or temporal periods. Processing such streams of data requires to jointly encode
all sources into a structured latent space where each complementary information carried by each source can be embedded while
ensuring long-term encoding of newly acquired data (from possibly new sensors).

Sujet :
The objective of this internship is to investigate Gaussian process (GP) prior for Variational Auto-Encoders (VAEs). Usually,
VAEs assume independence between samples. This assumption is generally made for sake of simplicity and computational ef-
ficiency of the training and inference steps. However, assuming independence of samples amount to ignoring the correlation
between adjacent pixels in the temporal domains. Furthermore, because of the very deterministic nature of such neural networks
architectures, they do not properly encode uncertainty related to missing/noisy data.
Adopting this GP prior is expected to model correlations between times. However, due to the irregular and unaligned nature of
SITS and their massive volume, approximation are required to maintain fast training and inference.
The work-plan of this Master internship is as follows :
1. Define GP prior VAEs for pixel satellite time series with different approximations,
2. Implement the models in PyTorch,
3. Perform experiments on massive SITS and compare with others VAEs on downstream tasks.

Profil du candidat :
Master or Engineering school students with major in applied mathematics, computer science or electrical engineering.

Formation et compétences requises :
The knowledge needed for this work includes a strong background in machine learning or data science, signal & image
processing or remote sensing data processing. Good scientific programming skills (e.g., Python) and good communication skills
in English, both written and oral are also expected. Interests in Earth observation will be appreciated.

Adresse d’emploi :
Centre d’Etudes Spatiales de la Biosph`ere (CESBIO) & INRAE

Document attaché : 202312190628_proposal_MSc_2024_ANITI.pdf

Explicabilité des décisions d’un GNN, application à la chémoinformatique

Offre en lien avec l’Action/le Réseau : DSChem/– — –

Laboratoire/Entreprise : Groupe de recherche en informatique, image, automa
Durée : 6 mois
Contact : jean-luc.lamotte@unicaen.fr
Date limite de publication : 2024-02-28

Contexte :
Ce stage prend place dans une collaboration de longue date entre trois laboratoires :
1. Le GREYC (UMR 6072, Caen), a développé au cours des années une expertise forte en fouille de données et apprentissage appliqué à la Chemoinformatique,
2. Le CERMN (UR 4258, Caen) est le centre d’études et de recherche sur le médicament de Normandie et entretient depuis de nombreuses années une collaboration avec le GREYC sur l’analyse informatique de molécules pour créer de nouveaux médicaments,
3. Le LITIS (UR 4108, Rouen), a acquis une solide expérience en apprentissage machine qu’il applique notamment sur des bases de graphes.
Le GREYC et le LITIS collaborent activement au sein de la fédération NormaSTIC.

Des membres des trois laboratoires participeront à l’encadrement du stage en y apportant leurs compétences respectives.

Ce stage peut être considéré comme une étape préparatoire à une thèse de doctorat sur le même sujet.

Sujet :
Le stage commencera par une étude des méthodes GNN permettant de prédire les propriétés de nos jeux de données. L’étude sera ciblée sur la prédiction des interactions protéines/ligands à partir des structures des molécules. A
cette occasion, des méthodes basées GCN, au sens large, et GCN+pooling seront étudiées.

Si cette étape est validée, nous aborderons une comparaison des méthodes de la littérature permettant d’expliquer les résultats de ces GNNs. Les résultats produits (en termes d’explication) seront évalués en utilisant plusieurs critères tels que l’accuracy, l’aire sous la courbe, la fidélité, la parcimonie,. . .. Nous espérons identifier à partir de cette étude des sous structures pharmacophoriques pertinentes pour les propriétés à prédire.

Nous essaierons, dans un troisième temps, d’appliquer ces méthodes sur les graphes moléculaires squelettiques. Il s’agira de comparer sous l’angle de l’explicabilité les descriptions moléculaires ”brutes” et celles produites en intégrant une expertise du domaine via le graphe pharmacophorique.

Profil du candidat :
Le candidat doit être inscrit en dernière année d’un Master ou d’un diplôme d’ingénieur dans un domaine lié à l’informatique ou aux mathématiques appliquées, et posséder de solides compétences en programmation. Une expérience en informatique pour la Science des Données, apprentissage profond, notamment sur graphes, sera un plus.

Formation et compétences requises :
Le candidat doit être inscrit en dernière année d’un Master ou d’un diplôme d’ingénieur dans un domaine lié à l’informatique ou aux mathématiques appliquées, et posséder de solides compétences en programmation.

Adresse d’emploi :
Le stage sera effectué au GREYC (Caen) ou au LITIS (Rouen) en fonction du lieu de recrutement de l’étudiant. Il débutera en février ou mars 2024 pour une durée de 6 mois et bénéficiera d’une gratification au tarif minimum réglementaire pour les stages.

Document attaché : 202312181731_stageMasterGNN-chemo.pdf

Job Recommendation From A Heterogeneous Graph

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : SAMOVAR/Télécom SudParis
Durée : 6 mois
Contact : romerojulien34@gmail.com
Date limite de publication : 2024-02-28

Contexte :
Job recommendation is the task of associating candidates with
jobs. This can be useful for candidates who would like to find to best possible
jobs, for companies that want to find the rarest talents in the vast pool of
candidates, but also for independent recruiters who need to be as precise as
possible when they send a resume to a company.
In this internship, you will work on a new dataset for job recommendations.
Its particularity is that it contains much additional information about candi-
dates and jobs we can represent as a graph. Besides, it is very sensitive to the
cold start problem: We have many new candidates and new jobs, and it restricts
a lot of the algorithms we can use.
If we consider video recommendations on Youtube, an average viewer watches
many videos, and each video is viewed many times. Therefore, when recom-
mending new videos to a specific user, we can look at what other similar view-
ers watched and recommend the most relevant video. This is the principle of
collaborative filtering. In our case, our users are likely to get a job and never
come back. Likewise, jobs are associated with one person, and then, we are
done with it. Therefore, we need to exploit extra information to make the
recommendation.
For our dataset, we can represent our pool of candidates and jobs with a
heterogeneous graph, connecting candidates and jobs, but also additional node
types like skills, cities, or employment types. Because we have this expressive
representation, we must adapt the existing algorithms. During the internship,
we will see how graph neural networks can be used to make recommendations,
and we will propose a new architecture to solve our specific problem.
The goal of this internship will be to publish a paper at an international
conference. The intern will work together with a Ph.D. student.

Sujet :
Job recommendation is the task of associating candidates with
jobs. This can be useful for candidates who would like to find to best possible
jobs, for companies that want to find the rarest talents in the vast pool of
candidates, but also for independent recruiters who need to be as precise as
possible when they send a resume to a company.
In this internship, you will work on a new dataset for job recommendations.
Its particularity is that it contains much additional information about candi-
dates and jobs we can represent as a graph. Besides, it is very sensitive to the
cold start problem: We have many new candidates and new jobs, and it restricts
a lot of the algorithms we can use.
If we consider video recommendations on Youtube, an average viewer watches
many videos, and each video is viewed many times. Therefore, when recom-
mending new videos to a specific user, we can look at what other similar view-
ers watched and recommend the most relevant video. This is the principle of
collaborative filtering. In our case, our users are likely to get a job and never
come back. Likewise, jobs are associated with one person, and then, we are
done with it. Therefore, we need to exploit extra information to make the
recommendation.
For our dataset, we can represent our pool of candidates and jobs with a
heterogeneous graph, connecting candidates and jobs, but also additional node
types like skills, cities, or employment types. Because we have this expressive
representation, we must adapt the existing algorithms. During the internship,
we will see how graph neural networks can be used to make recommendations,
and we will propose a new architecture to solve our specific problem.
The goal of this internship will be to publish a paper at an international
conference. The intern will work together with a Ph.D. student.

Profil du candidat :
The intern should be involved in a master’s program and have
a good knowledge of machine learning, deep learning, natural language processing, and graphs. A good understanding of Python and the standard libraries
used in data science (scikit-learn, PyTorch, pandas, transformers) is also expected. In addition, a previous experience with graph neural networks would be appreciated.

Formation et compétences requises :
The intern should be involved in a master’s program and have
a good knowledge of machine learning, deep learning, natural language processing, and graphs. A good understanding of Python and the standard libraries
used in data science (scikit-learn, PyTorch, pandas, transformers) is also expected. In addition, a previous experience with graph neural networks would be appreciated.

Adresse d’emploi :
Télécom Sudparis, Palaiseau

Document attaché : 202312181300_internship_job_recommandation-2.pdf

Financial Forecasting With Deep Learning

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : SAMOVAR/Télécom SudParis
Durée : 6 mois
Contact : romerojulien34@gmail.com
Date limite de publication : 2024-02-28

Contexte :
In this internship, we propose to study the problem of financial forecasting, i.e., predicting the future
variation of the price of a financial instrument, using deep learning. The student will work on a new
data source with a finer granularity than existing datasets. Because of the difficulty of obtaining
data, previous works focused on price prediction at the scale of a day, a week, or a month. Our
new dataset contains intraday information. Therefore, we can predict the price within a day and
use multi-scale analysis. Besides, our new dataset contains different kinds of financial instruments
(FOREX, crypto, options, futures) and additional information about the companies (description,
financial reports, dividends).

Sujet :
In this internship, we propose to study the problem of financial forecasting, i.e., predicting the future
variation of the price of a financial instrument, using deep learning. The student will work on a new
data source with a finer granularity than existing datasets. Because of the difficulty of obtaining
data, previous works focused on price prediction at the scale of a day, a week, or a month. Our
new dataset contains intraday information. Therefore, we can predict the price within a day and
use multi-scale analysis. Besides, our new dataset contains different kinds of financial instruments
(FOREX, crypto, options, futures) and additional information about the companies (description,
financial reports, dividends).

Profil du candidat :
The intern should be involved in a master’s program and have a good knowledge of machine learning,
deep learning, and data processing. A good understanding of Python and the standard libraries used
in data science (scikit-learn, PyTorch, pandas) is also expected. A previous experience with finance
is appreciated but not required for this internship.

Formation et compétences requises :
The intern should be involved in a master’s program and have a good knowledge of machine learning,
deep learning, and data processing. A good understanding of Python and the standard libraries used
in data science (scikit-learn, PyTorch, pandas) is also expected. A previous experience with finance
is appreciated but not required for this internship.

Adresse d’emploi :
Télécom SudParis, Palaiseau

Document attaché : 202312181259_stage_finance.pdf

Emploi de Chef-fe de projet ou expert-e en Ingéniérie logicielle oiur mobilité NOEMIE

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CALMIP Toulouse
Durée : CDI
Contact : jean-luc.estivalezes@imft.fr
Date limite de publication : 2023-12-15

Contexte :
Le mésocentre régional de calcul CALMIP – https://www.calmip.univ-toulouse.fr – situé à Toulouse, propose un poste CNRS de type Noémie ouvert à la mobilité pour un chef.fe de projet ou expert en ingénierie logicielle. Cette personne évoluera dans un contexte de valorisation de la donnée issue du HPC. Il/elle sera placé(e) sous la responsabilité hiérarchique du directeur.

Sujet :
Ses missions s’articuleront autour de la gestion et de la valorisation de la donnée scientifique : il/elle contribuera au support et à l’évolution de l’offre de service PADIRE développée à CALMIP, avec comme élément central le portail Callisto ( https://callisto.calmip.univ-toulouse.fr/ ) basé sur DataVerse et l’accompagnement des utilisateurs pour la FAIRisation de leurs données.

Le détail du poste et les modalités de candidature sont accessibles à l’adresse suivante :

https://mobiliteinterne.cnrs.fr/ords/afip/owa/consult.affiche_fonc?code_fonc=Y56026&type_fonction=&code_dr=14&code_corps=IR&code_bap=E&nbjours=&page=1&colonne_triee=1&type_tri=ASC

Profil du candidat :
Agent CNRS en mobilité interne
IIngénieur de recherche en informatique

Formation et compétences requises :
Thèse en informatique ou niveau équivalent

Adresse d’emploi :
Unité d’accueil
UAR3667 http://www.calmip.univ-toulouse.fr

TOULOUSE