INFORSID 2024 @Nancy

Date : 2024-05-27 => 2024-05-31
Lieu : Nancy – France

1er Appel à Communication
INFORSID 2024 @Nancy

(Date limite de réception des articles : 23 février 2024)

Les organisations et le monde vivent actuellement de grandes transformations largement liées aux technologies de l’information et à leurs impacts. Ces transformations touchent les systèmes d’information (SI) qui soutiennent les processus métier des organisations ainsi que les acteurs dans la réalisation de leurs activités/missions. La rapidité des changements des organisations et plus largement les défis sociétaux et environnementaux nécessitent de mettre en place des processus allant souvent au-delà de l’amélioration continue et d’envisager des transformations plus fondamentales pour lesquelles les dimensions d’innovation, de créativité mais aussi de responsabilité sont des facteurs déterminants. L’imprévisibilité de ces mêmes transformations (notamment les effets indirects pervers) requiert plus que jamais une vision systémique dans l’ingénierie et la gouvernance des SI.

Aux niveaux technique et scientifique, les opportunités d’évolution et de transformation supposent une capacité à capter, stocker, organiser, rechercher, analyser, apprendre à partir de gros volumes informations, et nous amène à investiguer de nombreuses problèmes inédits : satisfaire et maîtriser les exigences de volume, vélocité, variété, véracité, valeur des données, respecter les lois relatives à la protection des données, et être pleinement conscients des (et responsables face aux) composants du nouveau monde VUCA (volatilité, incertitude, complexité et ambiguïté). Nous en sommes responsables en tant qu’ingénieurs, en tant que chercheurs, en tant qu’enseignants et en tant que citoyens. Nous avons, plus que jamais, besoin de l’intelligence humaine.

Le déploiement des SI dans cet environnement complexe contenant des données sensibles/massives/hétérogènes génère aussi des risques juridiques, sociaux, et financiers, rendant la sécurité, et notamment la cyber sécurité, centrale dans les préoccupations des directions des systèmes d’information (DSI), des chercheurs et des équipes pédagogiques en SI. Face à ce déploiement de solutions technologiques gourmandes en ressources énergétiques, les SI doivent aussi répondre aux défis environnementaux pour proposer une informatique durable et un numérique responsable.

En 2024, le congrès INFORSID se tiendra du 27 au 31 mai à Nancy. Nous sollicitons, comme chaque année, la présentation de travaux de recherche récents, de développements industriels et d’expériences significatives dans le domaine de l’ingénierie et des systèmes d’information, mais également des travaux plus exploratoires, ou simplement une idée sur laquelle débattre.

Les thématiques visées sont les suivantes, sans que cette liste ne soit exhaustive :

*SI ET DONNÉES MASSIVES (BIG DATA)* : conception et ingénierie des bases de données NoSQL, stockage et distribution des données (datastores, multistores, etc.), ingénierie des données liées (linked data), SI et Internet des objets, paradigmes de traitements massifs de l’information (map/reduce, in-memory, blockchains), qualité et traçabilité des données (data lineage).

*SI ET SCIENCE DES DONNÉES* : mécanismes de raisonnement, analytique, Business Intelligence ingénierie des systèmes décisionnels, entrepôts et lacs de données, bases de données multidimensionnelles et OLAP, fouille dans les données massives (data mining, big mining), SI et fouille (intention mining, process mining, web mining, text mining), analyse des sentiments, apprentissage (deep learning), aide à la décision, SI et visualisation, intelligence artificielle, explicabilité.

*SI ET INTERACTION HUMAINE* : production participative (crowd sourcing), réalité augmentée et SI, jeux sérieux pour les SI, SI et médiation, usages du SI, SI et accessibilité, SI et handicap, adaptation des SI.

*SI ET RESPONSABILITE SOCIETALE ET ENVIRONNEMENTALE*: SI & transformation numérique de la société, SI & nouveaux modes de travail et de collaboration, SI & changement climatique, SI & gestion des ressources, SI & préservation de l’environnement, SI & éthique…**

*SI ET SÉCURITÉ*: sécurité organisationnelle, SI résilients, sécurité d’accès à l’information, sécurité à la conception (“privacy by design”/ “privacy by default”), données ouvertes, données personnelles, SI & respect de la vie privée.

*SI et RÉSEAUX SOCIAUX* : ingénierie sociale, discernement, réflexion vs réflexe, éthique, responsabilité, citoyenneté, analyse des sentiments.

*INGÉNIERIE DES PROCESSUS* : méthodes pour l’ingénierie de SI à base de services, ingénierie des exigences, architecture d’entreprise, architectures et outils pour les services, SI et services numériques, modélisation/cartographie/orchestration de processus, business process management, Enterprise Resource Planning (ERP).

*INGÉNIERIE DES DOCUMENTS ET DES CONNAISSANCES* : modélisation et méta-modélisation des documents, recherche d’informations, graphe de connaissances, médiation de sources d’information, informations multimédia et gestion de contenu, systèmes de recommandation, réseaux sociaux et SI, ontologies, knowledge management.

*SI DÉDIÉS ET ENTREPRISES DU FUTUR* : environnement, usine 4.0, habitat intelligent, ville intelligente, développement durable, santé, biologie, éducation, aéronautique, commerce, marketing, banque, logistique, PME, expériences de SI du futur, innovation digitale, SI et bien-être au travail.

*ENSEIGNEMENT ET RECHERCHE EN SI* : modélisation, méta-modélisation, artéfact, évaluation de la recherche, méthodes d’évaluation, méthodologies de recherche en SI, SI pour les MOOC.

Ces contributions pourront aussi s’appuyer ou élaborer des fondamentaux en matière de méthodes et outils de conception (ingénierie dirigée par les modèles, paradigmes de modélisation, rétro-ingénierie/réingénierie/co-conception des SI) et de gouvernance (gestion des risques, conformité aux réglementations alignement des SI à la stratégie de l’entreprise, management de projet SI, agilité, SI mobiles et ubiquitaires)…

*DATES IMPORTANTES*

Date limite de réception des articles : 23 février 2024

Notification aux auteurs : 15 avril 2024

Date limite de réception des textes définitifs : 6 mai 2024

Dates du congrès : 27 mai- 31 mai 2024

SOUMISSION

Différents types de soumissions sont possibles :

– Session *Recherche* : articles longs (12 à 16 pages) ou articles courts (4 à 6 pages). Tout en respectant les thèmes de la conférence, les articles peuvent également être “centrés solutions” présentant une problématique de recherche pour laquelle de nouvelles solutions ou des évolutions significatives sont décrites. Ils peuvent porter sur des “évaluations” en incluant une validation préliminaire de la solution proposée au moyen d’approches scientifiques telles que les études empiriques, les expériences, les études de cas, les simulations, etc. Ils peuvent enfin relater une expérience industrielle présentant des problèmes ou des défis rencontrés en pratique dans une organisation.

– Session *Internationale* (2 pages) : articles publiés dans de très bonnes conférences ou revues internationales dans l’année 2023 et soumis pour présentation lors de la conférence. L’objectif est de faire partager avec la communauté nationale les travaux les plus récents même si ceux-ci ont déjà été publiés. Pour ce faire, une inscription au tarif préférentiel de 250 € pour l’inscription au congrès sera accordée au conférencier présentant l’article. Il est demandé aux auteurs une synthèse de 2 pages maximum en français de l’article (le titre de la soumission devra être en français). La référence à l’article déjà publié doit explicitement être présente dès le début de la synthèse et la référence bibliographique complète de l’article déjà publié devra être présente en fin de soumission.

– Session *Démos* (2-4 pages) : Présentation d’outils, prototypes, maquettes, de travaux ou projets en cours, d’expérimentations ou jeux de données de référence, etc.

Les articles devront se conformer aux modèles fournis sur le site web de la conférence.

Les articles doivent être soumis en format PDF sur le site : https://easychair.org/conferences/?conf=inforsid2024

La langue officielle du congrès est le français. Toutefois le congrès est ouvert aux contributions de langue anglaise.

EVALUATION ET PUBLICATION

Tous les articles seront évalués par trois lecteurs du Comité de Programme. Les articles sélectionnés seront publiés dans les actes du congrès et feront l’objet d’une présentation. Un article soumis à INFORSID 2024 ne doit pas être dans un processus d’évaluation dans une autre conférence ou journal. Toute double soumission sera rejetée.

Pour toute information complémentaire, n’hésitez pas à contacter : inforsid2024@irit.fr

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Stage M2 – Robust joint detection-estimation methodologies for massive radio telescopes

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire des signaux et syst`emes (L2S)
Durée : between 4 and 6 mont
Contact : stefano.fortunati@centralesupelec.fr
Date limite de publication : 2024-05-31

Contexte :
One of the key features characterizing the new generation of radio telescopes is the large number of their antenna elements. Built in 2010, the Low-Frequency Array (LOFAR) is currently the largest radio telescope in operation with 100000 antenna dipoles distributed across several European countries. Furthermore, the upcoming Square-Kilometer Array (SKA) will be made up of more than 130000 antennas. Such a large number of antennas will make it possible to acquire increasingly accurate and detailed images of the celestial vault. Such images will form the basis for promising developments in astrophysics and cosmology in the coming years.
However, as in any other remote sensing system, the signal collected by a radio telescope is affected by different sources of disturbance that will degrade the quality of the collected image. Consequently, to take full advantage of the potential of the new radio telescopes, one must first take the disturbance into account. In general, this disturbance is characterized as a zero-mean Gaussian random process with possibly unknown correlation structure.
Then, the crucial question is: is it possible to derive robust imaging algorithms, without any assumption on the specific form of the noise distribution, and that still remain accurate? If yes, which is the price to pay?

Sujet :
This internship is part of the“SIDEREAL” project. The objectives
of the internship are the following:
1. Building upon the existing works, we will adapt the array signal model to the context of radio telescopes. Particular attention will be devoted to the disturbance model to be used in astronomical data analysis and on its statistical description.
2. After these preliminary investigations, the project will focus on the development of original image reconstruction algorithms for radio astronomy by exploiting the massive number of antenna elements available in modern radio telescopes. Their performance and statistical properties will be assessed by means of simulated data.

Profil du candidat :
Master 2 or equivalent in machine learning / statistical signal processing or any related field

Formation et compétences requises :
Statistical signal processing, estimation theory, programming skills in Matlab or Python.

Adresse d’emploi :
Laboratoire des signaux et systèmes (L2S), Bât. IBM, Rue Alfred Kastler, 91400 Orsay.

Document attaché : 202311021052_Internship_proposal_SF_LB.pdf

10ème École d’Hiver é-EGC “Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique”

Date : 2024-01-22 => 2024-01-23
Lieu : Dijon, France

10ème Ecole d’Hiver é-EGC sur le thème « Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique »

22 – 23 Janvier 2024, Dijon – France

https://iutdijon.u-bourgogne.fr/egc2024/ecole-e-egc/

==============================================

La dixième École d’Hiver é-EGC, sur le thème « Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique », est un événement organisé par l’Association Extraction et Gestion de Connaissances (EGC, http://www.egc.asso.fr/).

Cet événement s’organise autour de deux activités principales :

• deux jours de formation : les 22 et 23 Janvier 2024

• participation à la conférence EGC 2024 : du 24 au 26 janvier 2024

THÈME DE L’ÉCOLE : Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique

Cette école s’intéresse aux méthodes aujourd’hui disponibles permettant la fusion de données multimodales (audio, image, texte, série temporelle, etc.), l’analyse et l’apprentissage pour apporter des outils et solutions aux problématiques posées par le changement climatique et ses impacts sur notre environnement et nos sociétés. Cette thématique englobe les approches de l’intelligence artificielle aussi bien symbolique, que numérique ou hybride pour le traitement et l’analyse de données complexes et de connaissances issues de différents domaines scientifiques (sciences sociales, sciences de la Terre et du vivant, sciences médicales, etc.). La multidisciplinarité, ainsi que la diversité, la complexité et l’hétérogénéité des données mettent aux défis nos approches actuelles et nécessitent de nouvelles directions de recherche.

OBJECTIFS DE L’ÉCOLE

Les deux jours de formation ont pour but principal d’offrir aux participants des tutoriaux d’initiation dans le domaine de recherche couvrant les thèmes de l’école mais également des tutoriaux plus spécifiques présentant les récentes avancées proposant des solutions et des techniques nouvelles pour les différentes problématiques ayant émergées dans ce domaine. Certains exposés seront associés à des séances plus pratiques afin de permettre aux participants de manipuler quelques outils.

La participation à la conférence permettra aux participants de prendre part à un des événements majeurs de la communauté francophone de l’extraction et la gestion de connaissances. Elle leur permettra d’assister à des présentations de nouvelles avancées et approches développées dans la communauté, ceci pouvant ainsi inspirer leur parcours scientifique futur.

Enfin, cette école souhaite offrir aux jeunes chercheurs (doctorants, post-doctorants et ingénieurs) et aux chercheurs confirmés du domaine la possibilité de se rencontrer et d’échanger des idées, ce qui devrait également permettre aux jeunes chercheurs d’enrichir leur réseau.

PROGRAMME DE L’ÉCOLE

Le programme sera finalisé et disponible sur le site de l’école dans les plus brefs délais ; voici la liste des intervenants confirmés :

Pierrick Bruneau (Luxembourg Institute of Science and Technology, Luxembourg)

Reik Donner (Magdeburg and Potsdam Institute for Climate Impact Research, Allemagne)

Davide Faranda (Laboratoire des Sciences du Climat et de l’Environnement, CNRS, Paris)

Germain Forestier (Institut de recherche en informatique, mathématiques, automatiques et signal, Université de Haute-Alsace)

Aidan Hogan (Millennium Institute for Foundational Research on Data, Universidad de Chile)

PUBLIC CONCERNÉ

L’École d’Hiver é-EGC 2024 s’adresse particulièrement aux doctorants et étudiants souhaitant approfondir leurs connaissances dans le domaine de l’exploration de données et de l’apprentissage, avec un focus sur l’application de ces compétences pour soutenir les Objectifs de développement durable.

COMITÉ SCIENTIFIQUE ET ORGANISATION

• Jérome Gensel (LIG, Université Grenoble Alpes)

• Mustapha Lebbah (UVSQ, Paris-Saclay)

• Zaineb Chelly Dagdia (UVSQ, Paris-Saclay)

• Claudia Marinica (LS2N, Université de Nantes)

DATES IMPORTANTES

• Date limite pré-inscriptions (CV à fournir) : 30/11/2023

• Inscription effective (École (formation + conférence EGC), sur le site de la conférence) : 07/12/2023

L’INSCRIPTION SE RÉALISE EN DEUX ÉTAPES

Les participants doivent manifester leur intérêt, avant le 30/11/2023, pour participer à l’École en s’inscrivant avec ce formulaire :

https://forms.gle/YcN8tSj7nP7A7kR58

Pour que la pré-inscription soit prise en compte, elle doit être accompagnée d’un CV récent du participant.

Après la confirmation de la pré-inscription par le comité d’organisation, et avant le 07/12/2023, les participants doivent s’inscrire via la page d’inscription de la conférence EGC 2024 (attention de bien choisir le tarif comprenant l’École).

Le nombre de participants est limité à 30 personnes. Le tarif de l’inscription sera affiché sur le site de la conférence EGC (https://iutdijon.u-bourgogne.fr/egc2024/ecole-e-egc/) et il comprend :

la participation à l’École d’Hiver (22 et 23 janvier 2024) ;

la participation à la conférence (24 au 26 janvier 2024) ;

les déjeuners et le repas de gala.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Stage M2 — Apprentissage de prior pour les problèmes inverses

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : Laboratoire des Signaux et Systèmes
Durée : 5 mois
Contact : francois.orieux@l2s.centralesupelec.fr
Date limite de publication : 2024-07-01

Contexte :
Le traitement de mesures instrumentales nécessite souvent d’utiliser le modèle de données, ou modèle direct, dans la méthode. Par exemple les mesures sont affectées d’un bruit, d’un flou, ou vivent dans un autre espace que celui des inconnues (des coefficients de Fourier versus une image pour le cas de l’IRM).

Autant le modèle direct est stable et bien posé (à partir des paramètres on peut générer des données), autant le problème inverse est le plus souvent instable et mal-posé.

Sujet :
Les techniques de résolution de problèmes inverses ont fortement évolué ces dernières années avec les nouvelles techniques d’apprentissage machine. On peut mentionner le déroulage d’algorithmes itératif (unrolling), les approches plug-and-play, le RED (regularization by denoising), ou encore les a priori basés donnés.

Le travail consistera à comprendre et mettre en œuvre les approches utilisant les réseaux génératifs comme les VAE ou encore les réseaux inversibles. Il s’agit d’une approche reposant sur la minimisation d’un critère mixte

J(x) = |y – H x|² + R(x)

où le terme d’attache aux données utilise le modèle d’observation connu H (flou, inpainting, debruitage…) et le terme de régularisation R(x) est appris à partir de données. La solution est alors définie comme x = argminₓ J(x).

* Dans un premier temps, le stagiaire se familiarisera sur les problèmes inverses et leurs méthodes de résolution.

* Ensuite, il devra faire un état de l’art sur les méthodes basées données et apprentissage statistique pour la résolution de problèmes inverses. Le sujet étant récent, la littérature est abondante et diverse. Des points d’entrée bibliographique seront fournis.

* Nous nous attacherons à mettre en œuvre une des deux méthodes mentionnées plus haut. Les résultats devront être comparés aux résultats obtenus avec les approches classiques : filtre de Wiener, parcimonie… pour lesquels des codes sont à disposition.

* L’application sera à déterminer parmi celles de l’équipe : synthèse de Fourier pour la radioastronomie, la microscopie ou encore reconstruction d’image en tomographie.

Le travail se fera sur un poste équipé d’une carte GPU Nvidia 3080 ou 4090 avec Linux, TensorFlow et Python.

Profil du candidat :
L’étudiant devra avoir une formation type ingénieur ou Master~2 en traitement du signal ou d’images, data science ou machine learning. Il devra posséder des connaissances en mathématiques appliquées ou en programmation.

Formation et compétences requises :
L’étudiant acquerra au cours du stage des compétences en estimation, optimisation, apprentissage machine, inférence statistique, traitement de données et python.

Adresse d’emploi :
L2S, 3 rue Joliot-Curie, 91190 Gif-sur-Yvette

Document attaché : 202311010608_stage-dnn-orieux-l2s.pdf

Stage M2 — Déconvolution rapide pour le radio télescope SKA

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : Laboratoire des Signaux et Systèmes
Durée : 5
Contact : francois.orieux@l2s.centralesupelec.fr
Date limite de publication : 2024-07-01

Contexte :
L’augmentation de la puissance des machines de calcul a incité à la conception d’instrument générant des quantités importantes de données. Parallèlement, le désir de travailler sur des inconnues de grande taille telle que des images hautes ou très haute résolution est de plus en plus présent en particulier dans les sciences expérimentales ou observationnelles.

Le stage s’inscrit dans le cadre du projet international SKA, Square Kilometer Array, et de l’ANR DarkEra. SKA est un observatoire pour la radioastronomie qui produira un volume de données considérable pour produire des images à une résolution spatiale et spectrale inégalées. Les antennes sont réparties en australie et en afrique du Sud, ce qui en fera le plus grand interféromètre radio à ce jour. L’équipe est impliquée dans le projet par le biais de l’ANR DarkEra et du LabCom ECLAT (ATOS, IETR, INRIA…).

Sujet :
Pour exploiter pleinement l’ensemble des informations disponibles, une modélisation fine du processus d’acquisition est nécessaire. Cela définit un modèle direct H, ou simulateur, capable de reproduire des données y à partir d’une image x comme y = Hx. Cependant l’utilisation naïve de H conduisant à des problèmes inverses généralement mal posés, c’est à dire ne produisant pas de résultats satisfaisant.

Les approches standard pour l’inversion reposent généralement sur la minimisation de critères régularisés, la régularisation permettant de rendre le problème bien posé.

* Dans un premier temps le stagiaire se familiarisera sur les problèmes inverses et leurs méthodes de résolution.

* Ensuite le stagiaire s’appuiera sur le travail de thèse de Nicolas Monnier qui a travaillé sur l’accélération du modèle H. L’objectif est de réutiliser son travail pour partir d’un modèle de donnée fiable et rapide.

* Enfin nous travaillerons à l’élaboration de méthode plus modernes de résolution de problèmes inverse exploitant cette accélération. On explorera notamment les algorithmes de Majorisation-Minimisation (ou MM) et l’utilisation de préconditionneur.

* En fonction de la formation du stagiaire on pourra également plutôt s’orienter sur la mise en œuvre efficaces des algorithmes sur GPU.

Profil du candidat :
L’étudiant devra avoir une formation type ingénieur ou Master~2 en traitement du signal ou d’images, data science ou machine learning. Des
connaissances en mathématiques appliquées, programmation ou architecture de calcul seront appréciés.

Formation et compétences requises :
L’étudiant acquerra aux cours du stage des compétences en estimation,
optimisation, inférence statistique, traitement de données, calculs intensifs, radioastronomie et python.

Adresse d’emploi :
L2S, 3 rue Joliot-Curie, 91190 Gif-sur-Yvette

Document attaché : 202311010558_stage-ska-orieux-l2s.pdf

Internship position + PhD funding

Offre en lien avec l’Action/le Réseau : EducAction/– — –

Laboratoire/Entreprise : IRIMAS
Durée : 5 mois
Contact : nour.el-mawas@univ-lorraine.fr
Date limite de publication : 2024-07-01

Contexte :
The ANR COPCOT project involves members from Pixel team (CREM), MSD Team (IRIMAS), Trigone team (CIREL), and France-IOI association. Our aim is to understand learners’ skills-building in the Technology Enhanced Learning platform Quick-Pi, and to facilitate skills-building through content and feedback personalization.

Sujet :
The goal of this internship is to analyze learners’ data from the Quick-Pi platform (https://quick-pi.org/contenu.html) in order to identify relevant learner behaviors and extract data indicators contributing to the skills construction in programming among learners.
In particular, the candidate will work on the following tasks:
• Learners’ data analysis. Analysis of trace logs data from users’ interactions help us to better understand their learning process, distinguish groups of learners, and predict learners’ success in each Quick-Pi exercise.
Trace logs data can be seen as time series, hence this task will start by reviewing existing Machine Learning algorithms [1] used for time series analysis. Then the candidate will identify and adapt these algorithms to our sequential data in order to predict the learners’ success in each exercise on the Quick-Pi platform. The implicit data provided by Quick-Pi logs (like time spent on an exercise, navigation logs, code lengths, etc.) will be used. Once the pertinent algorithm to predict students’ success is found,
indicators can be found. Existing learners’ data analysis techniques such as knowledge tracing [2, 3] will be investigated to predict the success of students in each exercise.
• Indicators identification. The candidate will analyze which logs in the selected algorithm of the previous task were used by the algorithm itself to predict the success. This will help us to identify indicators. We believe that if the selected algorithm successfully predicts learners’ success, we should be aware of which specific log lines contributed to this prediction the most. For example, we can find that the time spent on an exercise may have a correlation with the learners’ success in a specific exercise.
These indicators are crucial to understand skills-building and learners’ difficulties. Features selection techniques [4] and explainability techniques [5] will be investigated in order to identify pertinent indicators for skills- building.

References
[1] H. Ismail Fawaz, G. Forestier, J. Weber, L. Idoumghar, and P.-A. Muller, “Deep learning for time series classification: a review,” Data mining and knowledge discovery, vol. 33, no. 4, pp. 917–963, 2019.
[2] M. Sao Pedro, R. Baker, and J. Gobert, “Incorporating scaffolding and tutor context into bayesian knowledge tracing to predict inquiry skill acquisition,” in Educational Data Mining 2013, Citeseer, 2013.
[3] S. I. Ram´ırez Luelmo, N. El Mawas, and J. Heutte, “Existing machine learning techniques for knowledge tracing: A review using the prisma guidelines,” in International Conference on Computer Supported Education, pp. 73–94, Springer, 2022.
[4] V. Vijayalakshmi and A. Prakash, “Developing an optimized feature selection process for designing efficient content management system using educational data,” International Journal of Advanced Research in Science Technology (IJARST), vol. 7, no. 1, pp. 15–24, 2020.
[5] R. Alamri and B. Alharbi, “Explainable student performance prediction models: a systematic review,” IEEE Access, vol. 9, pp. 33132–33143, 2021.

Profil du candidat :
The candidate must be registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science

Formation et compétences requises :
• Good skills in Python programming are mandatory
• Good skills in Machine Learning are required
• Interest, knowledge and/or a first experience in Technology Enhanced Learning (learning programming in particular) will be appreciated

Adresse d’emploi :
UHA/IRIMAS EA 7499, Mulhouse, France

Document attaché : 202310310845_internship_position_COPCOT_2023_VF.pdf

Post-doctoral researcher on deep learning methods for the reconstruction and analysis of data from the ATLAS experiment at the LHC (M/W)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse (L2IT)
Durée : two years
Contact : jan.stark@l2it.in2p3.fr
Date limite de publication : 2024-07-01

Contexte :
The Laboratoire des 2 Infinis – Toulouse (L2IT) is a laboratory created in 2020 to conduct research in fundamental physics with new numerical and theoretical approaches to data analysis. The laboratory’s research focuses on particle physics, gravitational waves and the equation of state of nuclear matter, and is supported by the concurrent development of data science and analysis methodologies. L2IT is operated by CNRS/IN2P3 and Université Toulouse III – Paul Sabatier. The L2IT Particle Physics team contributes to understanding the dynamics of the scalar sector of the Standard Model through studies of the Higgs boson and of the polarisation of vector bosons. It contributes to the development of data reconstruction software for the new tracker (ITk) that the ATLAS collaboration will install for the high-luminosity phase of the LHC. The successful candidate will work in close collaboration with other members of the Particle Physics team, and with members of the Computing, Algorithms and Data team at L2IT.

Sujet :
The successful candidate will develop innovative analysis methods for the reconstruction or the analysis of data from the ATLAS experiment. The L2IT team plays a leading role within the ATLAS collaboration in the reconstruction of charged particle tracks using deep geometric learning (GDL). The person joining us can contribute to this effort, for example by applying GDL to signatures not considered in the existing studies (electrons or tracks produced far away from the centre of the detector). Other applications of machine learning for the reconstruction or the analysis of ATLAS data are possible, depending on the candidate’s experience and motivation.

Profil du candidat :
We are looking for a colleague with a PhD in particle physics or in computer science with a strong specialisation in machine learning. Proven experience with machine learning to solve a scientific problem, or experience with algorithms for particle physics would be a plus.

Formation et compétences requises :
PhD in particle physics or in computer science obtained less than three years before the start date at L2IT.

Adresse d’emploi :
Laboratoire des 2 Infinis – Toulouse (L2IT)
Maison de la Recherche et de la Valorisation
75 cours des Sciences
31400 Toulouse

Document attaché : 202310301004_PostdocML_L2IT.pdf