poste d’enseignant-chercheur contractuel en informatique à l’université d’Orléans

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LIFO
Durée : 1 à 3 ans
Contact : mirian@univ-orleans.fr
Date limite de publication : 2024-09-30

Contexte :
Ce poste offre une opportunité à un docteur d’enrichir son expérience de recherche et d’enseignement. Nous cherchons des candidats pouvant s’intégrer à l’une de nos équipes de recherche, en participants aux projets mentionnés dans la fiche de poste. L’objectif est de permettre à la personne recrutée de s’investir en recherche et d’augmenter sa production scientifique en collaboration avec l’une de nos équipes.

Sujet :
L’université d’Orléans propose actuellement un poste d’enseignant-chercheur contractuel en informatique, avec prise de poste au 01/10/2024.

Le poste est pour 11 mois, éventuellement renouvelable deux fois un an.
La rémunération est proche de la grille des maître de conférences, avec une éventuelle prise en compte de l’expérience après la thèse.
Le service d’enseignement sur une année pleine est de 192h équivalent TD (max. 50h complémentaires). Des charges administratives peuvent éventuellement être confiées à la personne recrutée (ouvrant à des éventuelles primes).

Profil du candidat :
Le service d’enseignement s’effectuera en priorité au département d’informatique de l’UFR Sciences et Techniques.

L’intégration en recherche s’effectuera dans l’une des équipes du laboratoire LIFO (https://www.univ-orleans.fr/lifo/) dans l’une de ces équipes :
– CA : Contraintes et Apprentissage (IA),
– GAMoC : Graphes, Algorithmes, et Modèles de Calcul,
– LMV : Langages, Modélisation et Vérification,
– Pamda : Parallélisme et gestion de données (Big Data).

Le candidat doit être titulaire du doctorat.

Formation et compétences requises :
La fiche de poste et les modalités de candidature sont disponibles ici :
https://www.univ-orleans.fr/fr/univ/universite/travailler-luniversite/personnels-enseignants-et-chercheurs/enseignants-0

Adresse d’emploi :
Research: LIFO – Batiment IIIA – Rue Léonard de Vinci – BP6759
45067 Orléans Cedex 2 — Phone: ++ 33 (0) 2 38 49 25 83

Privacy-Enhancing Tools for Content Sanitization Using Large Language Models — Application to School Bullying and Harassment —

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Inria Saclay
Durée : 3 ans
Contact : cedric.eichler@insa-cvl.fr
Date limite de publication : 2024-09-01

Contexte :
This PhD thesis project is part of the French Priority Research Program and Equipment
(PEPR) on Cybersecurity, interdisciplinary Project on Privacy (iPoP) project involving several French
research teams working on data protection, from Inria, universities, engineering schools and the CNIL
(French National Commission on Information Technology and Civil Liberties). The PhD is proposed by
Petrus project-team at Inria Saclay and the PETSCRAFT project-team joint between Inria Saclay and
INSA CVL, which tightly collaborate in this large initiative on modeling privacy protection concepts and
on the design and deployment of explicable and efficient Privacy-Enhancing Technologies (PETs).

Sujet :
Objectives of the thesis.
The advanced inference capabilities of Large Language Models (LLMs) pose a significant threat to the privacy of individuals by enabling third parties to accurately infer certain personal attributes from their writings [1, 2]. Paradoxically, LLMs can also be used to protect individuals by helping them to modify their textual output from certain unwanted inferences [3, 4], opening the way to new tools. The ultimate objective of this thesis is to work towards an interactive chatbot-like tool for the sanitisation of text, to address applications including two which are especially investigated by our team: production of testimonies in the context of school bullying and work harassment, and participants feedback in participatory platforms. Through a preliminary investigation, we identified guidelines and main difficulties the successful PhD candidate will have to address for the sound development of such a
tool:
•A realistic adversary should be used to assess (residual) privacy risks. This poses two main challenges. Firstly, a realistic attacker cannot be generic but must take into account the vast auxiliary knowledge an attacker may possess (e.g. through fine-tuning or with the help of a dedicated ontology). Secondly, LLMs tend to always propose a guess which could be as likely as a random guess. Therefore, there is a need for a mechanism to estimate the likelihood of inferences.
•Designing and implementing a metric assessing the utility of a text (or the loss of utility due to sanitisation) is no trivial task. Design-wise, a proper metric should evaluate the amount of information
conveyed by a text relevant to its purpose (e.g. wrt testimonies, whether the victim/perpetrator are identifiable, etc). With regard to implementation, the assessment must be done automatically
without human intervention (e.g. through a LLM).
•Finally, an LLM-based sanitisation process must be proposed, limiting the capacity of the attacker to make inferences while maintaining the utility of the text. In a chatbot-like application, this
process can be iterative and interactive.

Initial roadmap.
The PhD project will start by the installation of open source LLMs such as Mistral or Arctic, and the implementation of the guidelines above, before focusing on the specialisation of the anonymisation solution to adapt it to different use cases and datasets.

Potential use-cases.
We will focus on two use cases: (1) the anonymous declaration or anonymisation of certain concepts in the context of school, university and work in general. This first use cases will be built with Inria’s partners in the context of the services responsible for investigating harassment cases that deal with anonymous witness statements and/or in the context of the labour market and job searches. (2) a second use-case is user feedback in participative platforms aimed at wellbeing, nutrition and health. This use case is still emerging and will be detailed during the PhD project.

References
[1] Kandpal, N., Pillutla, K., Oprea, A., Kairouz, P., Choquette-Choo, C., Xu, Z.: User inference attacks
on llms. In: Socially Responsible Language Modelling Research (2023)
[2] Staab, R., Vero, M., Balunovi ́c, M., Vechev, M.: Beyond memorization: Violating privacy via inference
with large language models. arXiv preprint arXiv:2310.07298 (2023)
[3] Staab, R., Vero, M., Balunovi ́c, M., Vechev, M.: Large language models are advanced anonymizers.
arXiv preprint arXiv:2402.13846 (2024)
[4] Tannier, X., Wajsb ̈urt, P., Calliger, A., Dura, B., Mouchet, A., Hilka, M., Bey, R.: Development and
validation of a natural language processing algorithm to pseudonymize documents in the context of
a clinical data warehouse. Methods of Information in Medicine (2024)

Profil du candidat :
Candidates must hold a master (or equivalent) in Computer Science.
The following skills are appreciated:
•Basic knowledge in LLMs/ML.
•Basic knowledge in privacy & anonimization.
•Proficiency in programming.

Candidates must be proficient in either french or english.

Formation et compétences requises :
Candidates must hold a master (or equivalent) in Computer Science.
The following skills are appreciated:
•Basic knowledge in LLMs/ML.
•Basic knowledge in privacy & anonimization.
•Proficiency in programming.

Candidates must be proficient in either french or english.

Adresse d’emploi :
Inria Saclay centre at Universit ́e Paris-Saclay, Turing building in Palaiseau (near Paris), France

Document attaché : 202406060959_PhD_position_LLM_Privacy.pdf

Graph-Based Machine Learning for Brain Analysis

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS – Rouen
Durée : 3 ans
Contact : benoit.gauzere@insa-rouen.fr
Date limite de publication : 2024-10-01

Contexte :
Unlocking the Mysteries of the Brain with Graph-Based Machine Learning

In the fascinating world of neuroscience, understanding the brain’s intricate structure is key to unlocking the secrets of psychiatric and neurological disorders. Imagine if we could map the brain’s folds and curves to reveal patterns that indicate health or disease. This is precisely what our cutting-edge PhD project aims to achieve, leveraging the power of graph-based machine learning (GML) and Graph Neural Networks (GNN).

Project Overview

Our research focuses on enhancing the representation and analysis of neuroimaging data, particularly from MRI scans, using innovative GML techniques. By developing advanced models, we aim to identify individual traits such as gender and pathology with. What’s more, we are embedding principles of fairness into our models to ensure they are robust against variations in data acquisition and the natural diversity of brain structures.

Sujet :
Key Research Questions

– Hierarchical Information Analysis in Brain Graphs: How can we design GML models that effectively capture and utilize hierarchical information in brain graphs for better analysis of cortical folding patterns?
– Robustness to MRI Variations: Can a GML model trained on data from one MRI acquisition center generalize well to data from other centers, demonstrating robustness and enhancing the reproducibility of neuroimaging studies?
– Local Variation and Cognitive Functions: How can GML approaches help us identify and analyze local variations in brain anatomy, and what can these variations tell us about cognitive functions and neurological conditions?

Methodology and Resources

Our PhD candidate will have access to premier datasets, including:
– Human Connectome Project: Featuring top-quality MRI data from 1200 individuals.
– UK Biobank: Offering multimodal MRI data from over 10,000 individuals.

Supervisors and Research Environment

The project will be hosted at INSA Rouen, within the LITIS laboratory, and will be co-supervised by experts in the field:

Benoit Gaüzère
Guillaume Auzias
Sylvain Takerkart
Paul Honeine

Our multidisciplinary team brings together expertise in machine learning, computational anatomy, and neuroscience. The candidate will benefit from collaborations with leading research teams across multiple institutions.
How to Apply

Ready to embark on this exciting journey? Send your resume, academic results, and links to code or scientific papers to the following contacts. Please include “[FAMOUS]” in the subject line of your email:

Benoit Gaüzère: benoit.gauzere@insa-rouen.fr
Paul Honeine: paul.honeine@univ-rouen.fr
Guillaume Auzias: guillaume.auzias@univ-amu.fr
Sylvain Takerkart: sylvain.takerkart@univ-amu.fr

full offer is available here.

Profil du candidat :
Candidate Profile

We are seeking a passionate and dedicated PhD candidate with:

A Master’s degree in data science, computer engineering, or a related field.
Proficiency in Python programming.
Strong knowledge or experience in machine learning and data science.
Experience with graph structures is a plus.
High motivation and an interest in neuroscience.
Excellent reading, writing, and communication skills in English.

Formation et compétences requises :
Candidate Profile

We are seeking a passionate and dedicated PhD candidate with:

A Master’s degree in data science, computer engineering, or a related field.
Proficiency in Python programming.
Strong knowledge or experience in machine learning and data science.
Experience with graph structures is a plus.
High motivation and an interest in neuroscience.
Excellent reading, writing, and communication skills in English.

Adresse d’emploi :
LITIS INSA Rouen Normandie

Document attaché : 202406051242_PhD_project_Gauzere_Auzias.pdf

Appel à communication — EGC 2025

Date : 2025-01-27 => 2025-01-31
Lieu : Strasbourg

APPEL A COMMUNICATIONS EGC 2025

25ème conférence francophone sur l’Extraction et la Gestion des Connaissances

du 27 au 31 janvier 2025 – Strasbourg, France

Accueil

———————————
Appel à communications
———————————

Cette année, la 25ème édition de la conférence EGC aura lieu à Strasbourg du 27 au 31 janvier 2025 organisé par les équipes du Laboratoire ICube et acceuillis dans les locaux de l’INSA Strasbourg, situés en centre ville.

La conférence Extraction et Gestion des Connaissances (EGC) est un événement annuel réunissant des chercheurs et praticiens de disciplines relevant des sciences des données et des connaissances. Ces disciplines incluent notamment l’apprentissage automatique, l’ingénierie et la représentation de connaissances, le raisonnement sur des données et des connaissances, la fouille et l’analyse de données, les systèmes d’information, les bases de données, le web sémantique et les données ouvertes. Tous les travaux innovants portant sur ces thèmes sont les bienvenus.

La conférence EGC est l’occasion de faire se rencontrer académiques et industriels afin de confronter des travaux théoriques et des applications pratiques sur des données réelles et de communiquer des travaux de qualité, d’échanger et de favoriser la fertilisation croisée des idées, à travers la présentation de travaux de recherche récents, de développements industriels et d’applications originales.

Pour cette édition, nous souhaitons mettre l’accent sur l’extraction et la gestion des données et des connaissances au service de la recherche scientifique. L’ensemble de la recherche scientifique (science du vivant, sciences de l’environnement, sciences humaines, physique/chimie, etc.), expérimentale ou fondamental produit de grandes volumétries de données et cherche à les exploiter pour répondre à leurs questions de recherche. La gestion de données et l’extraction de connaissances prennent alors une place essentielle sur la paillasse du chercheur. L’édition 2025 souhaite promouvoir une recherche en informatique qui s’attaque aux défis d’encapacitation de la recherche scientifique grâce aux données, à ceux de l’interface entre EGC et d’autres disciplines scientifiques, et aux questions éthiques et sociétales de leur usage.

Les premiers orateurs/trices invité.e.s prévu.e.s sont :
– Mihaela van der Schaar, Cambridge/UCLA, https://www.vanderschaar-lab.com/prof-mihaela-van-der-schaar/
– Michel Dumontier, Maastrich University, https://www.maastrichtuniversity.nl/mj-dumontier
– Mathieu Roche, CIRAD, Montpellier, http://textmining.biz/Staff/Roche/MR/
– Themis Palpanas, Université de Paris/IUF, équipe Dino, https://helios2.mi.parisdescartes.fr/~themisp/

L’école d’hiver (e-EGC) sera, quant à elle, consacrée à l’industrie 4.0 et fera l’objet de communications spécifiques ultérieures.

L’édition 2025 souhaite faciliter la participation des jeunes chercheurs et chercheuses (avec article accepté ou non). Elle proposera un programme de soutient et/ou volontariat qui appuyera financièrement leur participation.

———————————
Actes EGC et numéro spécial DKE

Les actes d’EGC 2025, comprenant les articles des communications orales ainsi que ceux associés aux posters paraîtront dans un numéro de la revue RNTI. Les auteurs des meilleurs articles seront invités à soumettre une version étendue de leurs articles pour être publiés dans un numéro spécial de la revue Data & Knowledge Engineering (DKE) (en attente de confirmation par Elsevier)

———————————
Soumission

Plusieurs types de communications sont possibles :
• Travaux de recherche originaux (académiques ou applicatifs/industriels) soumis dans un format unique de 12 pages max, publiés sous forme d’articles longs de 12 pages, d’articles courts de 8 pages ou de posters accompagnés de résumés de 2 pages, selon leur maturité. Chaque article soumis sera évalué en double aveugle. Chaque article accepté avec un format long ou court sera présenté oralement lors de la conférence.
• Travaux de recherche déjà publiés dans de bonnes conférences ou revues internationales mais inédits en français (en vue d’une publication dans les actes d’un résumé de 8 pages obligatoirement en français). Les articles dont les soumissions sont en cours ou les décisions d’acceptation ne sont pas publiques ne font pas partie de cette catégorie. Chaque article soumis sera évalué en simple aveugle (auteurs non-anonymes).
• Démonstrations de logiciels, avec vidéo de présentation, où la démonstration est complétée d’un article de 4 à 8 pages : voir appel à soumissions spécifique aux démonstrations (DL: 26/11/2024).
• Ateliers thématiques : voir appel à soumissions spécifique à l’organisation d’ateliers thématiques qui auront lieu le mardi 28 Janvier 2025 (DL: 01/10/2024).

Les articles peuvent être soumis en français ou en anglais mais en cas d’acceptation, l’article devra être traduit en français sauf pour les articles où les auteurs sont non-francophones. Une vérification de la traduction pourra être effectuée et le comité de programme se réserve le droit de rejeter un article suite à cette étape.

Cette année, la catégorisation des articles en applicatifs ou en méthodologique sera faite conjointement avec les informations des auteurs et des relecteurs. Les articles comportant une forte composante applicative sont bienvenus.

———————————
Attribution de Prix

Cinq prix scientifiques seront attribués lors de la conférence :
* un prix pour la catégorie “article académique” (1500 euros),
* un prix pour la catégorie “article applicatif” (1500 euros),
* un prix pour la catégorie “démonstration” (500 euros),
* un prix de thèse (500 euros) décerné à un jeune docteur dont la thèse a été soutenue depuis moins de trois ans dans les thématiques liées à l’extraction et la gestion des connaissances.

Ces prix seront décernés par un jury composé de membres du comité de pilotage. Le prix de thèse fait l’objet d’une annonce spécifique.

———————————
Dates importantes

Ces dates concernent les articles académiques ou applicatifs/industriels, les travaux de recherche déjà publiés dans des conférences internationales mais inédits en français. Pour les ateliers et les démonstrations, voir les appels à communications spécifiques. Ces dates sont fermes et définitives.

Résumés des articles : 7 octobre 2024 – 23:59 Paris time
Textes complets des articles : 14 octobre 2024 – 23:59 Paris time
Interactions auteurs/membres Comité de Programme : 7-8 novembre 2024 – 23:59 Paris time
Notification aux auteurs : 19 novembre 2024 – 23:59 Paris time
Version finale des articles : 29 novembre 2024 – 23:59 Paris time

———————————
Organisation

Comité de Programme : Thomas Guyet
Co-Président.e du Comité d’Organisation : Aurélie Leborgne et Baptiste Lafabrègue

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Analyse de flux de données de réseaux de capteurs

Offre en lien avec l’Action/le Réseau : HELP/– — –

Laboratoire/Entreprise : LIMOS UMR 6158 / Université Clermont Auvergne / CN
Durée : 18 mois
Contact : mephu@isima.fr
Date limite de publication : 2024-09-30

Contexte :
La surveillance et la gestion de la ressource en eau est un enjeu sociétal majeur dans le contexte du réchauffement climatique. Une conséquence de ce dernier est l’aggravation de la réduction des débits moyens et d’étiage en période sèche, induisant à son tour des impacts sur la qualité des eaux, et l’augmentation des conflits d’usage. Les arrêtés de restriction d’eau en périodes de sécheresse sont basés sur la connaissance des seuils de débits permettant d’assurer l’exercice des usages prioritaires tout en respectant l’égalité entre usagers des différents départements et la nécessaire solidarité amont – aval des bassins versants.

Une des clefs pour une décision éclairée est la disponibilité de données fiables sur le niveau des ressources et la dynamique d’approvisionnement ainsi que sur les postes de consommation. Il serait essentiel pour cela de disposer d’un réseau de capteurs permettant une surveillance continue des ressources et de leur évolution en fonction de la météorologie et des usages. Depuis 5 ans, les acteurs académiques du site clermontois ont développé une chaîne opérationnelle grâce à laquelle des nœuds communicants transmettent à l’aide d’un protocole de communication ouvert et sécurisé (LoRa) des données de capteurs de tous types jusqu’à un cloud hébergé au Mésocentre Clermont-Auvergne. Déployée aujourd’hui pour l’étude de plusieurs agroécosystèmes, son utilisation par des gestionnaires pour la surveillance continue de la ressource en eau à l’échelle d’un bassin versant requiert une évolution dans le traitement des données collectées.

Sujet :
Le premier objectif du post-doctorat est d’analyser les données collectées sur un réseau de sondes dans une étude conduite de 2019 à 2022 par l’Etablissement Public Loire-Bretagne dans le but d’évaluer la possibilité de mettre en place des outils de diagnostic et de déclenchement d’alarme pour les gestionnaires de la ressource. La pertinence de plusieurs approches d’Intelligence Artificielle sera notamment explorée sur une plate-forme développée au LIMOS (Laboratoire Informatique et Modélisation des Systèmes). Les résultats obtenus alimenteront la définition du cahier des charges du réseau de capteurs en termes de nombre et de localisation des sondes pour une surveillance continue de la rivière Allier.

Dans un deuxième temps, la plate-forme sera utilisée pour l’étude d’autres flux de données issus des agroécosystèmes instrumentés dans le cadre des collaborations pluridisciplinaires de l’Initiative ConnecSens (https://www.connecsens.org).

Le travail consistera :
– Faire un état de l’art sur les techniques d’analyse de flux de données multivariés ;
– S’approprier l’outil SEDAF de détection d’anomalies dans les flux de données, développé au sein du LIMOS ;
– Proposer des solutions d’amélioration de SEDAF sur les flux de données relatives au projet
– Développer la (les) solution(s) retenue(s) dans la cadre du projet
– Elaborer un guide d’utilisation et de maintenance de la solution implémentée
– Rédiger des rapports techniques sur les travaux réalisés, ainsi que des comptes rendus de réunions
– Organiser et participer à des réunions de travail
– Participer à l’encadrement de stagiaires dans le cadre du projet

Profil du candidat :
Les candidatures sont invitées de docteur(e)s en informatique ou en mathématiques appliquées ou dans d’autres disciplines avec une forte expérience dans l’analyse des données et une appétence pour l’informatique.

Formation et compétences requises :

Adresse d’emploi :
1 rue de la chebarde, 63178 Aubière cedex

Document attaché : 202405302158_Profil de poste contrat post-doctoral science des données_vd.pdf

MCF et Enseignant contractuels en informatique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ETIS/CYU
Durée : 1 an
Contact : dan.vodislav@u-cergy.fr
Date limite de publication : 2024-09-30

Contexte :
CY Cergy Paris Université (CYU) a lancé en 2019 le Bachelor « Data Science and Big Data Technology » en collaboration avec
la Zhejiang University of Science and Technology (ZUST), à Hangzhou, en Chine, et en 2020 le Bachelor « Data
Science » en collaboration avec l’Université de Maurice (UoM).

Sujet :
Nous recrutons un MCF contractuel (service d’enseignement de 192 heures), ainsi qu’un enseignant contractuel (service d’enseignement de 384 heures), titulaires d’un doctorat en informatique. Il s’agit pour chacun des postes d’un CDD initial d’un an, à partir de septembre 2024, avec la volonté de proposer par la suite une extension avec un contrat de 3 ans.
Le service d’enseignement sera partagé entre les deux Bachelors et d’autres enseignements au sein du département
de sciences informatiques de CYU. L’enseignement dans les deux
Bachelors se fait en Chine (en français), respectivement à Maurice (en anglais), lors de séjours de quelques semaines sur place.
L’enseignant-chercheur recruté sera intégré au laboratoire ETIS, possiblement dans l’équipe MIDI, sur des
thématiques de recherche autour de l’intégration et l’analyse de grandes masses de données de divers types.

Profil du candidat :
Voir fiches de poste sur le site de CY Tech Sciences et Techniques, rubrique Recrutements:
https://cytech.cyu.fr/lecole-cy-tech/institut-sciences-et-techniques

Formation et compétences requises :
Titulaire d’un doctorat en informatique – pour les deux postes.
Expérience dans l’enseignement supérieur en informatique.
Capacité à enseigner en français et en anglais.

Adresse d’emploi :
CY Cergy Paris Université
Site Saint Martin
2 avenue Adolphe-Chauvin
95300 Pontoise

Hi! PARIS summer school “AI & Data for Science, Business and Society’’

Date : 2024-07-08 => 2024-07-11
Lieu : HEC Paris, Jouy-en-Josas

Dear All,

You still have a chance to register for the fourth edition of the Hi! PARIS Summer School! Don’t miss this opportunity!

Hi! PARIS Summer School 2024 on July 8-11, 2024 at HEC Paris, Jouy-en-Josas

“AI & Data for Science, Business and Society’’

à Register hereapplications are open until June 5!

Certificates of participation will be delivered at the end of the Summer School!

This year’s edition of the Hi! PARIS Summer School will feature several tutorials on a wide range of topics in the domain of Artificial Intelligence and Data Science from different perspectives. These sessions are designed to appeal to a wide audience, including Master’s and PhD students, postdocs, academics, faculty members, researchers, and industry professionals who are looking to deepen their understanding of AI and Data Science.

Participants will have the opportunity to engage with two parallel tracks: ‘’Data Science for Business and Society’’ and ‘’Theory and Methods of AI.’’ The program will also feature keynote presentations from globally recognized academics. Over the course of the four-day program, there will be an industry and an academic panel, aimed at sparking dialogues. Additionally, the Hi! PARIS Engineering Team will conduct sessions providing practical research tips, further enriching the learning experience.

For this 4th edition, Hi! PARIS proposes:

  • 4 Keynote Speakers: Moritz HARDT (Max Planck Institute for Intelligent Systems), Helen MARGETTS (University of Oxford), Patrick PEREZ (Kyutai), Prasanna (Sonny) TAMBE (Wharton, University of Pennsylvania)
  • 1 Academic Roundtable with participation of: Marie-Paule Cani (Ecole polytechnique), Helen MARGETTS (University of Oxford), Patrick PEREZ (Kyutai), Prasanna (Sonny) TAMBE (Wharton, University of Pennsylvania)
  • 1 Industry Panel “Opportunities and Challenges with Generative AI” with the participation of Hi! PARIS corporate donors
  • 12 Tutorials (3h long) organized in 2 parallel tracks. Track A “Data Science for Business and Society” and Track B “Theory and methods of IA”

Already confirmed speakers:

  1. Track A: “Data Science for Business and Society”
  • Haris KRIJESTORAC (HEC Paris): “Voice Analytics for Business”
  • Poonacha MEDAPPA (Tilburg University): “Integrating AI and Machine Learning into Economics and Management Research”
  • Pablo BAQUERO (HEC PARIS): “The Impact of the EU AI Act: Challenges and Compliance”
  • Aluna WANG (HEC Paris): “Anomaly Detection”
  • Johan HOMBERT (HEC PARIS): “Scoring Strategically: Application to Finance”
  • Konstantina VALOGIANNI (IE Business School): “Causal ABM: A Methodology for Learning Plausible Causal Models using Agent-Based Modeling in combination with Machine Learning”

  1. Track B: ‘’Theory and Methods of AI’’
  • Gaël VAROQUAUX (Inria Saclay) : “Learning on Messy, Tabular Data”
  • Pietro GORI (Telecom Paris): “Self-supervised learning in computer vision and medical imaging”
  • Alain RAKOTOMAMONJY (INSA Rouen): “Optimal Transport, Wasserstein distance and variants for Machine Learning”
  • Valentin DE BORTOLI (CNRS): “An Introduction to Diffusion Models”
  • Martin TAKAC (MBZUAI): “Empowering Distributed AI: A Deep Dive into Federated Learning”
  • Catuscia PALAMIDESSI (Inria Saclay): “Differential Privacy and its trade-off with Fairness and Causality Discovery”
  • Practical Research Tips Sessions by the Hi! PARIS Engineering Team on “Exploring Machine Learning Deployment from beginners to advance level” and “Machine Learning for Everyone via AutoML.”
  • 1 Poster Session and Poster Award
  • 1 Social Event at HEC Paris le Château

This edition of the Summer School has benefited from a government grant managed by the ANR under France 2030 with the reference “ANR-22-CMAS-0002”.

Hi! PARIS Center
Hi! PARIS, Center in Data Science & AI for Science, Technology, Business & Society

contact@hi-paris.fr
+33 (0) 1 75 31 92 03
Office: @Telecom Paris, 5A101 + @HEC Paris, S-107 on Tuesdays


Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Post-doctoral 12 mois renouvelable LIFO Orléans

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO
Durée : 12 mois
Contact : thi-bich-hanh.dao@univ-orleans.fr
Date limite de publication : 2024-06-30

Contexte :
The JUNON project is granted from the Centre-Val de Loire region through an ARD program (Ambition Recherche Développement). The project is driven by BRGM and involves BRGM, University of Orléans
(LIFO), University of Tours (LIFAT), CNRS, INRAE, ATOS and ANTEA companies. The main goal of JUNON is to develop digital twins to improve the monitoring, understanding and prediction of environmental
resources evolution and phenomena, for a better management of natural resources. Digital twins will allow us to virtually reproduce natural processes and phenomena using combinations of AI and
environmental tools. They will rely on geological and meteorological data (time series) and knowledge, as well as physical-based models.
JUNON project is organized into 5 work packages (WP):
1. User’s needs and geological knowledge for ground water
2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases
3. Data management and data mining
4. Times series predictions
5. Aggregation and realization of digital twins

The postdoc program will be supervised by LIFO-CA and will be in WP4, focusing on the prediction of quantity/level of ground waters. There will be strong interactions inside WP4 with other postdocs and PhD in LIFO or LIFAT, with WP1 and WP3 (BRGM) with engineers.

The CA team is a dynamic team with 8-10 PhD. We work on Machine Learning, Data Mining and Deep Learning and have been interested in knowledge integration in ML/DM methods.

Sujet :
In ground water level predictions, physical-based models or classic AI tools have achieved good performance in short term predictions, for instance up to 3 months. The performance, however, worsens for a more long-term prediction, such as for instance up to 1 year or more. Recently, several works have shown the interest of hybrid models, that combine both physical and AI models, in environmental science.

The goal of this work is to study how expert knowledge could be integrated to improve predictors. Expert knowledge can come from different sources. It may be information such as seasonal cycles, soil
or subsoil natures that may impact on the prediction. Some physic-based models have already been developed, either global or distributed, these models encapsulate some expert knowledge that could
be used to guide AI models. The aim of the postdoctoral program is to build new prediction models that take advantage of both physical-based and AI models and to study the integration of expert knowledge.

We have developed methods integrating prior knowledge into deep learning models in clustering tasks or in image classification tasks. We are interested in either pursuing this approach or considering physics-informed neural networks which is a hot topic.

Profil du candidat :
– Good experience in data analysis and machine learning is required.
– Experiences/knowledge in time series prediction and environmental science is welcome.
– Curiosity and ability to communicate (in English or in French) and to work in collaboration with scientists in environmental science.
– Ability to propose and validate new solutions and to publish the results.
– Autonomy and good organizational skills.

Formation et compétences requises :

Adresse d’emploi :
LIFO, University of Orléans

Document attaché : 202405291257_Post-Doc position-LIFO.pdf

Deep Learning School @UniCA, 1er – 5 juillet 2024

Date : 2024-07-01 => 2024-07-05
Lieu : Campus SophiaTech (Polytech Sophia Antipolis) du 1er au 5 juillet 2024

La Deep Learning School est de retour après 2 années de pause.

Comme lors des précédentes éditions, la Deep Learning School se déroulera pendant 5 jours sur le Campus SophiaTech (Polytech Sophia Antipolis) du 1er au 5 juillet 2024.

Chaque jour, une demi-journée sera consacrée à un cours par une chercheuse ou un chercheur mondialement reconnu⸱e dans le domaine du Deep Learning, et l’autre demi-journée à un Lab de 3 heures au cours duquel les notions abordées en cours seront appliquées directement.

Pendant ces cinq jours, les participant⸱e⸱s auront l’opportunité d’être formé⸱e⸱s par des experts de renommée mondiale :
– Lundi 1er juillet : IA interprétable par la Pr Cynthia Rudin, Duke University (USA)
– Mardi 2 juillet : NLP & Frugal AI par la Pr Emma Strubell, Carnegie Mellon University (USA)
– Mercredi 3 juillet : IA responsable et équité par la Pr Golnoosh Farnadi, Université McGill et Mila (Canada)
– Jeudi 4 juillet : IA et physique/simulation numérique par le Pr Amir Barati Farimani, Université Carnegie Mellon (États-Unis)
– Vendredi 5 juillet : Modèles fondation – Des images au langage et vice versa, par le Pr Matthieu Cord, Sorbonne Université, directeur scientifique de Valeo AI.

Vous trouverez toutes les informations relatives à ces spécialistes et à leurs interventions sur notre site web : https://3ia.univ-cotedazur.eu/deep-learning-school/homepage

Vous pourrez vous inscrire ici : https://3ia.univ-cotedazur.eu/deep-learning-school/registration

Nous vous attendons nombreuses et nombreux.
L’équipe de la Deep Learning School @UniCA

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

PhD Position – A multi-modal language model for Earth observation [INRIA – Team EVERGREEN, Montpellier, France]

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRIA – EVERGREEN
Durée : 3 ans
Contact : diego.marcos@inria.fr
Date limite de publication : 2024-06-30

Contexte :
This PhD offer is funded by the GEO-ReSeT ANR project, representing a collaboration between Inria (team EVERGREEN, Montpellier) and Université de Paris Cité (team LIPADE, Paris).

Leveraging the large amounts of available geo-spatial data from different sources, the GEO-ReSeT (Generalized Earth Observation with Remote Sensing and Text) project has the objective to learn a rich representation of any geo-spatial location and convey a semantic representation of the information, by improving on existing models and providing a better experience to the end users. By using location on the Earth’s surface as the common link between different modalities, a geo-spatial foundation model would be able to incorporate a variety of data sources, including remote sensing imagery, textual descriptions of places, and other generic features.

Such a foundation model has the potential to open a set of all new possibilities in terms of Earth observation applications, by allowing for few or zero-shot solutions to classical problems such as land-cover and land-use mapping, target detection, and visual question answering. It will also be useful for a wide range of applications with a geo-spatial component, including environmental monitoring, urban planning and agriculture.
By leveraging several data modalities, this foundation model could provide a comprehensive and accurate understanding of the Earth’s surface, enabling informed decisions and actions. This will be particularly valuable for new potential users in sectors such as journalism, social sciences or environmental monitoring, who may not have the resources or expertise to collect their own training datasets and develop their own methods, thus moving beyond open Earth observation data and democratizing the access to Earth observation information.

Sujet :
The work to be conducted during the proposed PhD thesis will contribute to the ambition of the GEO-ReSeT ANR project by linking textual descriptions of places (e.g., collected from heterogeneous online sources, such as news articles or search engine results), to their approximate geo-location, a task known as geoparsing.

This text-location link will then be used in combination with other geospatial data modalities, with a focus on remote sensing data from sensors such as Sentinel-1 and -2, in order to train multi-modal models that are aware about the way in which people describe locations.

This will be done by first combining information stemming from different databases containing geographic named entities, such as Open Street Map, Wikipedia and gazetteers, such that geographic points or polygons can be linked to each named entity.

In a second step, a Natural Language Processing (NLP) pipeline will be developed to obtain the most likely geographic named entities that are referred to in any piece of text that describes a place.

With respect to existing Named Entity Recognition (NER) methodologies, in order to avoid restricting us to cases where entities’ names appear exactly as in the databases or gazetteers, we will leverage pre-trained Large Language Models (LLM) to resolve ambiguities and gather evidence towards the most likely entities that are being described in the text. Such an approach will be trained and validated by using the cases that do match the names in the gazetteer.

We will then move on, in collaboration with the rest of the GEO-ReSeT consortium, to train a multi-modal large language model (MMLLM) that will serve as a foundation model for Earth observation tasks.

This model will finally be evaluated on several agro-environmental tasks.

Application must be sent through the following link : https://recrutement.inria.fr/public/classic/en/offres/2024-07756

Profil du candidat :
Main activities
Description of the state-of-the-art in unstructured text geoparsing, with a focus on approaches leveraging LLMs.
Collection of a database of geographic named entities linked to their geographic footprint (e.g. point or polygon). Collection of a database of unstructured online text that is likely to contain a reference to a geographic location.
Development of an NLP pipeline to link each piece of geographic text to its likely geographic footprint.
Participate in the design and training of a multi-modal large language model (MMLLM) using remote sensing and geoparsed text.
Evaluation of the final model on two of the following case studies at a national or continental scale: ecosystem type mapping, crop type mapping or land-use mapping.

Formation et compétences requises :
Skills
Python programming.
Deep Learning with Python (preferably with Pytorch).
Experience with NLP.
Experience with GIS would be a plus.

Adresse d’emploi :
Montpellier, France