BDA 2024 – Les 40èmes journées de la conférence BDA « Gestion de Données – Principes, Technologies et Applications »

Date : 2024-10-21 => 2024-10-24
Lieu : Orléans du 21 au 24 octobre 2024, au Centre International Universitaire pour la Recherche (Hôtel Dupanloup), en plein centre ville.

Appel à Participation à la Conférence BDA 2024

Nous avons le plaisir de vous annoncer la 40ème édition de notre conférence BDA « Gestion de Données – Principes, Technologies et Applications », qui se tiendra à Orléans du 21 au 24 octobre 2024.

Programme de la Conférence

La conférence proposera un riche programme comprenant des articles scientifiques, des démonstrations, ainsi que trois keynotes invités de renom :

Paolo Papotti (EURECOM)
Katia Hose (Vienna University of Technology)
Asterios Katsifodimos (Delft University of Technology)

Informations Pratiques

Le programme détaillé de la conférence est disponible sur notre site : https://bda2024.sciencesconf.org/
Les inscriptions sont ouvertes et peuvent être effectuées sur le site https://bda2024.sciencesconf.org/registration?lang=fr

Profitez du tarif réduit en vous inscrivant avant le 22 septembre.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Research engineer/Postdoc in Deep Learning and Oceanography

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 months
Contact : ronan.fablet@imt-atlantique.fr
Date limite de publication : 2024-10-15

Contexte :
As part of AI Chair OceaniX and a national initiative for the development of neural approaches for ocean monitoring, modeling and forecasting ocean dynamics, we open research engineer and postdoc positions to join the INRIA Odyssey team and the Mathematical and Electrical Engineering department at IMT Atlantique, Brest, France.

Sujet :
Additional information is available here: https://institutminestelecom.recruitee.com/l/en/o/ingenieur-r-d-deep-learning-ocean-cdd-24-mois

Contact: ronan.fablet@imt-atlantique.fr

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
IMT Atlantique, Brest, France

Ingénieur.e gestion de données pour l’IA en écologie – CNRS Montpellier

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CNRS
Durée : 12 mois
Contact : vincent.miele@cnrs.fr
Date limite de publication : 2024-10-15

Contexte :
La personne travaillera au sein de l’initiative Deepfaune (https://www.deepfaune.cnrs.fr) qui a pour objectif de développer des modèles de classification automatique des espèces animales dans les images ou vidéos de pièges photographiques. Cette initiative participe à une collaboration européenne sur le sujet au sein du projet Biodiversa BigPicture.

Sujet :
La mission sera d’évaluer et d’améliorer les pipelines de gestion de données (images, vidéos de sauvage) actuellement mis en œuvre, tout en participant à l’intégration de nouveaux jeux de données venant de toute l’Europe. D’autres missions liées à la gestion et la curation de données et à leur préparation pour l’utilisation de modèle d’intelligence artificielle pourront également être à réaliser. Ces activités se dérouleront dans un cadre collaboratif très dynamique.

Pour candidater :
https://emploi.cnrs.fr/Offres/CDD/UMR5175-SIMCHA-004/Default.aspx

Les activités à réaliser sont :
– Evaluation, révision et écriture de pipeline de gestion de données.
– Gestion de fichiers entre serveurs locaux et distants.
– Mise en place d’une curation automatisée de données.
– Rédaction d’un plan de gestion de données.
– Mise des données aux standards sélectionnées (e.g. camtrapDP).
– Création de rapports sur la base de données.- En fonction de l’expérience en intelligence artificielle, entraînement et évaluation de modèles.
– En fonction de l’intérêt de la personne, implication possible dans les discussions sur le rôle de l’initiative Deepfaune dans les programmes de suivis en écologie.

Profil du candidat :
Débutant.e.s accepté.e.s, expérience appréciée.

Formation et compétences requises :
Savoirs :
– Expérience de la gestion de données
– Connaissances en intelligence artificielle (optionnel)

Savoir-faire :
– Bonne maitrise de Linux et du bash
– Bonne maitrise de Python
– Bonne maitrise de la gestion de projet avec git
– Maitrise courante de l’anglais professionnel

Savoir-être :
– Capacité organisationnelle importante
– Attention marquée aux aspects partenariaux et relationnels
– Autonomie
– Intérêt pour la faune sauvage et la biodiversité (optionnel)

Adresse d’emploi :
Campus CNRS de Montpellier.

L’agent sera affecté au Centre d’Ecologie Fonctionnelle et Evolutive à Montpellier (CEFE) sous la responsabilité de Simon Chamaillé-Jammes. L’agent travaillera en proche collaboration avec Vincent Miele (Laboratoire d’Ecologie Alpine, Chambery), qui codirige l’initiative Deepfaune avec S. Chamaillé-Jammes. Des échanges fréquents avec Gaspard Dussert, doctorant sur l’initiative Deepfaune, ainsi qu’avec Bruno Spataro, ingénieur informatique, tous deux basés au Laboratoire de Biométrie et Biologie Evolutive à Lyon. De nombreuses interactions se feront à distance en visioconférence, mais des missions régulières à Chambery ou Lyon sont à prévoir.

International workshop on Scalable and Deep Graph Learning and Mining (SGLM)

Date : 2024-12-17

Call for Papers
Graphs serve as flexible and powerful models for representing diverse types of data encountered in modern research and industries. These include the WWW, social networks, biological networks, communication networks, transportation networks, energy grids, and many others. Unlike traditional tabular data formats, graphs enable the representation of entities along with their attributes or properties, as well as the relational structure between entities, making them invaluable for capturing complex data relationships and patterns. Additionally, graphs can accommodate unstructured and heterogeneous data, further enhancing their versatility in handling a wide range of data types and structures.
The significance of extracting knowledge and making predictions from graph data has grown rapidly in recent years. However, there remains a need for ongoing scientific exploration to formalize new problem types that align effectively with real-world applications. Additionally, investigating the algorithmic, statistical, and information-theoretic aspects of these problems is essential for advancing our understanding. Of particular interest to the workshop is the increasingly popular field of graph representation learning. These intermediate real-valued representations enable the application of learning and mining algorithms developed for non-relational data to graph structures. Given the rapid progress in this area, ensuring trustworthy AI on graphs requires focused attention.

The main aim of this workshop, scheduled to be held in conjunction with IEEE BigData, is to serve as a scientific forum for discussing the latest advancements in these areas. We welcome both theoretical and practical contributions, fostering interactions among participants. Additionally, we will schedule conferences or talks specifically focused on these topics to further enrich the discussions.

Topics
We cordially invite submissions covering theoretical aspects, algorithms, methods, and applications within the following (non-exhaustive) list of areas:

Computational or statistical learning theory related to graphs.
Theoretical analysis of graph algorithms or models.
Semi-supervised learning, online learning, active learning, transductive inference, and transfer learning in the context of graphs.
Graph and vertex embeddings and representation learning on graphs.
Explainable, fair, robust, and/or privacy preserving ML on graphs, and graph sampling.
Analysis of social media, chemical or biological networks, infrastructure networks, knowledge graphs.
Benchmarking aspects of graph based learning
Libraries and tools for all of the above areas.
Knowledge graph applications
Representation Learning over Knowledge Graphs
Dynamic knowledge graphs
Large Language Models for Knowledge Graphs
Knowledge Graphs for Large Language Models
Prompt engineering and knowledge graphs
Paper Submission
The desired workshop format is full day. The workshop accepts two types of submissions:

Long papers (full research papers / up to 10 pages (references included), in the IEEE 2-column format)
Short papers of 2-4 pages (for work in progress)
Papers should be formatted to IEEE Computer Society Proceedings Manuscript Formatting Guidelines (https://www.ieee.org/conferences/publishing/templates.html).
The submission deadline is October 01, 2024 for abstracts and for full papers.
Submissions should be made through cyberchair at:

Paper Submission Page

We also invite the submission of 2-4 pages extended abstracts as highlight papers or late breaking research papers. Highlight papers should summarize full papers that have been published, or accepted for publication.

Description of the submission review process, including key dates and coverage of how conflicts of interest are handled

Papers will be subject to three (3) blind peer reviews. Selection criteria include originality of ideas, correctness, clarity and significance of results and quality of presentation.

We are pleased to announce that authors of accepted papers from our Workshop are invited to submit an extended version of their work to our special issue in the Journal of Supercomputing.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Faculty position (associate professor) at Telecom Paris in Machine-Learning for Natural Language Processing

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LTCI, Télécom Paris
Durée : CDI
Contact : mathieu.labeau@telecom-paris.fr
Date limite de publication : 2024-10-11

Contexte :
Telecom Paris’s machine learning, statistics and signal processing group (a.k.a S²A group), within the laboratoire de traitement et communication de l’information (LTCI) and the Image, Data & Signal (IDS) department, is inviting applications for a permanent (indefinite tenure) faculty position at the Associate Professor level (Maitre de Conferences) in *Machine learning for Natural Language Processing*.

Sujet :
Main missions

The person recruited must have the experience and expertise required to carry out the following research and teaching assignments

Research activities

• Develop groundbreaking research in the field of theoretical or applied machine learning, aligned with the topics of the S²A group and the Images, Data & Signals department with a focus on Deep Learning. While the position is open to all applications within that field, expertise in Natural Language Processing (including the processing of natural language as text, speech, or information retrieval) or a desire to work with natural language data in the future is preferred. Additionally, the IDS department and S²A team have a particular interest in the following transversal themes: – Generative models – Conversational AI – Bias and Explainability in AI – Frugal Machine Learning
• Develop both academic and industrial collaborations on the same topic, including collaborative activities with other Telecom Paris research departments and teams, and research contracts with industrial players
• Set up research grants and take part in national and international collaborative research projects

Teaching activities

• Participate in teaching activities at Telecom Paris and its partner academic institutions (as part of joint Master programs), especially in machine learning and Data science, including life-long training programs

Impact
• Publish high quality research work in leading journals and conferences
• Be an active member of the research community (serving in scientific committees and boards, organizing seminars, workshops, special sessions…)

Profil du candidat :
As a minimum requirement, the successful candidate will have:

• A PhD degree
• A track record of research and publication in the area of machine/deep learning
• Experience in teaching
• Good command of English

The ideal candidate will also (optionally) have:
• Experience in Natural Language Processing
• A post-doctoral or international experience in an academic or industrial laboratory

NOTE:
The candidate does *not* need to speak French to apply, just to be willing to learn the language (teaching will be mostly given in English)

Other skills expected include:
• Capacity to work in a team and develop good relationships with colleagues and peers
• Good writing and pedagogical skills

Formation et compétences requises :

Adresse d’emploi :
Télécom Paris
19 place Marguerite Perey
91120 Palaiseau
France

Document attaché : 202407301130_2024_AssociateProf_S2A.pdf

Ingénieur⋅e logiciel Pl@ntNet − CDD 24 mois, Montpellier

Offre en lien avec l’Action/le Réseau : Musiscale/– — –

Laboratoire/Entreprise : INRAE & INRIA
Durée : 24 mois
Contact : antoine.affouard@inria.fr
Date limite de publication : 2024-10-11

Contexte :
Nous recherchons un⋅e ingénieur⋅e logiciel pour la plateforme Pl@ntNet, en CDD de 24 mois dans le cadre de la mise en œuvre du projet « One Forest Vision » (OFVi) (https://oneplanetsummit.fr/en/coalitions-82/one-forest-vision-initiative-251) visant l’adaptation de la plateforme Pl@ntNet à l’étude des milieux forestiers tropicaux (notamment en Afrique tropicale).

Détails de l’offre : https://jobs.inrae.fr/ot-22660

Sujet :
Dans ce cadre, vos activités seront les suivantes :
• Développements dans un environnement Node.js (API, Web),
• Intégration de données et standards ouverts, dans les bases de données (non-)relationnelles Pl@ntNet, pour l’adaptation à de nouveaux contextes, et incluant toutes les étapes de la chaîne de traitement,
• Consommation de services Web pour l’intégration et l’échange de données,
• Mise en place de tests de non-régression, pour les différents services développés, déploiement d’outils de suivi et d’alerte.

Profil du candidat :

Formation et compétences requises :
Formation : Bac+5 informatique ou équivalent

Connaissances souhaitées :
• Développement Javascript (Node.js)
• Gestion / exploitation de bases de données NoSQL orientées documents (ArangoDB) et de bases de données relationnelles (PostgreSQL)
• Notions en développement Web (HTML / CSS / Javascript)
• Notions en administration de serveurs Linux
• Gestion de gros volumes de données
Expérience appréciée : débutant⋅e⋅s accepté⋅e⋅s

Adresse d’emploi :
Montpellier

Ensemble constrained clustering for time series analysis, with application to industry data

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube laboratory
Durée : 2 years
Contact : lafabregue@unistra.fr
Date limite de publication : 2024-10-11

Contexte :
Automated data acquisition systems and increasing storage capacities have made time series data available across a wide
range of domains, from earth observation to industry. However, this data is often provided with insufficient or no labels, thus preventing the use of supervised methods. In this context, unsupervised methods can be valuable to help users extract information, such as identifying different behaviors on a production line. Nevertheless, when it comes to time series analysis, these methods face several drawbacks.

First, the diverse nature of sensors and sources used to generate
temporal data results in significant heterogeneity in terms of
format, volume, quality, and richness of information. For example, a single production line can include a large set of different sensors, each constrained by its manufacturer’s API. This diversity has led to a wide range of categorization methods for analyzing time series, e.g., based on elastic metrics, frequency decomposition, and pattern extraction , each with its own advantages and limitations, which can also complement one
another.

Secondly, clustering approaches often yield results that do not align with the experts’ expectations or intuitions. This is especially true when considering the aforementioned heterogeneity of time series data. Therefore, incorporating some expert knowledge, even if it doesn’t encompass the full spectrum of actual classes, can significantly enhance the quality of the clustering results. This knowledge is often expressed in the form of constraints. However, these methods often suffer from the negative impact of constraints, resulting in a decrease in quality when constraints are added.

Finally, asking experts to define all classes at the outset of the project is unreasonable. It is indeed often the case that not all classes can be semantically defined before a data analysis has been carried out. It is more practical to engage experts throughout the entire process as they progressively unfold the data processing and analysis within an iterative cycle of interactions between the expert and the learning system. The goal of this interaction is to bridge the gap between the results generated by the algorithms and the expert’s thematic insights. This process is designed to make the results more comprehensible to the expert.

Sujet :
The main task of this post-doc is to develop an ensemble clustering method that relies on a diversity of viewpoints (i.e. representations or metrics). It will use constraints given iteratively by the user to select and combine the proper viewpoints. This should result in a better clustering that is a consensus of the most suitable viewpoints, in adequacy with the expert’s knowledge, to leverage potential negative effects of constraints. To achieve this goal, we need to fulfill four objectives:
● Select a subset of sufficiently independent/diverse existing metrics/representations (required to have complementary viewpoints) relevant to clusterize time series;
● Define a generic ensemble method to obtain a consensus clustering result from the previously selected viewpoints that maximize the respect of the expert’s knowledge;
● Propose a generic method to iteratively update the clustering by integrating new expert’s knowledge in interaction with the expert;
● Validate the method operability by focusing on Industry data, mainly relying on a demonstration production line of one of our industry partners

The person recruited will be co-directed by Nicolas Lachiche (50%), specialist of complex data mining, and Baptiste Lafabrègue (50%), time series analysis specialist. He or she will actively collaborate with the SDC team at ICube in Strasbourg, and more particularly with Nassime Mountasir, a 3rd-year PhD student working on predictive maintenance issues

Profil du candidat :
● PhDinComputerScience, specializing in machine learning/explainability.
● Solid knowledge of Machine Learning methods. Experience in time series analysis and/or predictive maintenance would be also valuable.
● Goodverbal (English or French) and written (English) communication skills.
● Interpersonal skills and the ability to work individually or as part of a project team.

Formation et compétences requises :

Adresse d’emploi :
Illkirch, south of Strasbourg (Pôle API, 300 Bd Sébastien Brant, 67400 Illkirch-Graffenstaden)

Document attaché : 202407291327_EnsembleTimeSeries_offer.docx.pdf

PROLONGATION Offre de thèse : Exploration de méthodes d’assemblage de modèles pour la prédiction en spectroscopie proche infrarouge

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CIRAD UMR Agap Institut
Durée : 36 mois
Contact : denis.cornet@cirad.fr
Date limite de publication : 2024-09-22

Contexte :
La spectroscopie proche infrarouge (NIRS) est une technique d’analyse rapide, non destructive et à faible coût, très largement utilisée dans de nombreux domaines tels que la santé, la chimie, l’agro-alimentaire et notamment l’agronomie. Elle permet de déterminer la composition chimique et les propriétés fonctionnelles d’échantillons de produits tels que les grains, fourrages, aliments, et tissus. Les données spectrales générées par NIRS sont riches en informations mais nécessitent des traitements statistiques avancés pour des prédictions
précises. Des méthodes comme la régression PLS ont été historiquement utilisées, mais les avancées en apprentissage machine (réseaux de neurones, SVM, random forest, etc.) et l’accès à d’importantes bases de données NIRS ont permis l’adoption croissante de ces méthodes d’intelligence artificielle, qui démontrent souvent de meilleures performances prédictives.
La démocratisation des spectromètres et l’augmentation croissante d’utilisateurs non spécialistes, au Nord comme au Sud, renforce la nécessité de développer une approche générique et performantes de la calibration de modèles NIRS. Le stacking, méthode qui combine les prédictions de multiples modèles, a démontré son potentiel pour exploiter les forces complémentaires de différents algorithmes et améliorer les performances de prédiction.
Cependant, les stratégies de stacking restent sous-explorées pour l’analyse des données NIRS. Dans ce contexte, le package Python Pinard (a Pipeline for Nirs Analysis ReloadeD, https://pypi.org/project/pinard/) développé par l’équipe encadrante fournit une base idéale pour l’implémentation et le test des approches de prédiction à base de stacking.

Sujet :
L’objectif principal de cette thèse est de développer et optimiser des stratégies de stacking adaptées à la prédiction à partir de spectres NIRS en s’appuyant sur le package Pinard. Pinard
fournit déjà des outils pour le traitement et l’analyse des données NIRS, y compris des modèles prédictifs individuels, mais ne propose pas actuellement de méthodologies d’assemblage de modèles. Cette recherche vise à combler cette lacune en intégrant des techniques avancées de stacking, permettant une amélioration significative des performances
prédictives.
En particulier, le travail de thèse s’articulera autour des axes suivants (qui peuvent évoluer en cours de doctorat et qui sont d’importances variés) :
• Axe 1 : étudier et concevoir des méthodes de standardisation des données pour nourrir les différentes classes de modèles de la stack ; en particulier en ce qui concerne les contraintes des modèles de machine learning ou des sources différentes. Ce travail inclura également une prise en main et une analyse poussée des jeux de données à disposition.
• Axe 2 : sélectionner, intégrer et hyperparamétrer des modèles de prédictions (existants ou nouveaux) au sein d’une stack « traditionnelle » et étudier l’impact de chacun sur la précision
globale en fonction des jeux de données et des méthodes d’assemblage (sélection aléatoire, sélection basée sur la performance, sur la diversité des algorithmes, sur la dissemblance des prédictions, etc.).
• Axe 3 : Concevoir et explorer des stratégies efficaces afin d’améliorer les stratégies de stacking de modèles en termes de précision, d’efficacité et de sobriété :
– Heuristiques issues de l’intelligence artificielle distribuée (systèmes multi-agents) ou de l’optimisation (méthodes évolutionnistes),
– Calcul temps réel de la contribution et/ou de l’explicabilité des modèles,
– Organisation et sélection dynamique des prétraitements de données,
– Hyperparamétrisation partielle temps réel,
– Etc.
L’axe 3 est au cœur de la problématique de cette thèse et devrait légitimement représenter une grande partie du travail du doctorant.
• Axe 4 : Travailler sur la diffusion des résultats obtenus que ce soit en facilitant la réutilisation de la stack ou l’accès aux outils et méthodes :
– Transfert de modèles à de nouveaux analytes / jeux de données / machines,
– Etude de l’explicabilité sous-jacente des modèles de la stack et identification des composants du signal,
– Intégration des développements dans le package Pinard.
Ce travail fournira des approches innovantes et performantes pour exploiter la richesse des données NIRS. Ainsi, il permettra d’améliorer la précision et la robustesse des analyses NIRS
pour des problématiques telles que l’identification rapide de variétés adaptées aux défis climatiques, la détection et quantification de contaminants biotiques et abiotiques dans les
récoltes, l’optimisation de la qualité et la valeur nutritive des aliments transformés, etc. contribuant de fait à des thématiques chères au CIRAD telles que la sécurité alimentaire, la
gestion durable des ressources et l’amélioration de la santé dans les pays du Sud.

Profil du candidat :
Master en informatique, bioinformatique, mathématiques appliquées, statistiques, ou sciences agronomiques avec une spécialité data science.

Formation et compétences requises :
– Développement en Python
– Data science et/ou statistiques
– Anglais (lu, écrit, parlé)
– Connaissances en R (optionnel)
– Traitement du signal (optionnel)
– Appétence pour la pluridisciplinarité

Adresse d’emploi :
Avenue Agropolis – 34398 Montpellier Cedex 5

Document attaché : 202407241258_[EN] PhD offer nirs 2024.pdf

AISSAI Heterogeneous Data and Large Representation Models in Science Workshop

Date : 2024-09-30 => 2024-10-03
Lieu : Toulouse, France

Dear all,

We are happy to announce the AISSAI Heterogeneous Data and Large Language Representation Models in Science Workshop that will be held in Toulouse (France) from September 30 to October 3, 2024.

We look forward to seeing you there.

Catherine Biscarat, Sylvain Caillou, Jan Stark, on behalf of the organizers

 

AISSAI Heterogeneous Data and Large Representation Models in Science Workshop

Toulouse (France), September 30 – October 3 2024

 FIRST ANNOUNCEMENT

 
 
 
The third workshop of the AISSAI trimester on “Artificial Intelligence for the two infinites” will be held in Toulouse (France) from September 30th to October 3rd, 2024. This workshop will be devoted to Heterogeneous Data and Large Representation Models in Science

This event is sponsored by the CNRS AISSAI center and hosted by the Laboratoire des 2 Infinis – Toulouse (L2IT).

Please find complete information on the scientific program, call for abstracts and registration on the workshop’s Indico website. Registration is free (but mandatory) and includes lunches and social events.

Scientific program

In recent years, we have witnessed remarkable transformations in the AI/ML landscape. Particularly in computer vision and natural language processing, there is a notable emergence of Large Representation Models (LRMs) trained on extensive datasets, often referred to as foundation models. These LRMs possess the capability to encode information at a high level of abstraction, enabling the training of models on multimodal data such as text, image, sound, video, and more. This improvement in how models represent objects augments significantly their ability to understand and make sense of the world.

In the realm of science, we expect a similar revolution, triggered by the integration of heterogeneous multimodal scientific data from various sensor systems or sources into LRMs. Scientific data are often heterogeneous and multimodal in nature, originating from various sensors in embedded systems (robotics, aerospace), from different detector subsystems or different instruments in fundamental physics, or from different signal sources in a scientific experiment in general. The models can combine representations from neural networks with symbolic representations integrating a priori knowledge of the scientific domain.

The aim of this workshop is to bring together scientists from different fields (just to list a few: computer sciences, cosmology, human sciences, mathematics, physics, robotics, statistics, etc.) and with different profiles (experimentalists, theorists, developers) to discuss these topics at the forefront of AI/ML research, fostering collaboration and innovation in this rapidly evolving field. 

The program is planed to be a mix of high-profile guest speaker presentations and contributed talks.

This workshop will delve into a range of topics, which include but are not limited to:

  • Constructing machine learning models capable of learning from diverse data types.
  • Managing multimodal data from varied sources, or heterogeneous data from scientific instruments that combine multiple detector technologies, for ML applications.
  • Investigating contrastive embeddings tailored for heterogeneous and multi-modal scientific data alongside shared embedding representations.
  • Exploring the integration of neuro-symbolic AI and multi-level representations.
  • Mathematical modeling of combined representation.
  • Exploring explainability and interpretability of Large Representation Models in the scientific context.
  • Embracing frugality and size management in Large Representation Models.
  • Possibly on a longer timescale, exploring numerical encodings for large language representations in scientific contexts. 

Website (Indico)

https://indico.in2p3.fr/event/33412/

Important dates

These dates may change.

  • Registration opening: open now
  • Abstract submission opening: open now
  • Abstract submission dead-line: August 15th
  • Abstract acceptance dead-line: August 31th
  • Program release: September 7th
  • Registration closing: September 15th
  • Workshop start: September 30th

Scientific advisory committee

Sylvain Caillou (L2IT, IN2P3, CNRS/UT3) – chair
Alexandre Boucaud (APC, IN2P3, CNRS)
Tobias Golling (Université de Genève)
François Lanusse (Polymathic AI)
Daniel Murnane (Copenhagen University)
Thomas Oberlin (ISAE-SUPAERO, ANITI, Université Paul Sabatier)
Jan Stark (L2IT, IN2P3, CNRS/UT3)
Gordon Watts (Washington University)

Local organisation committee

Catherine Biscarat (L2IT, IN2P3, CNRS/UT3) – chair
Sylvain Caillou (L2IT, IN2P3, CNRS/UT3)
Jocelyne Gauthier (L2IT, IN2P3, CNRS/UT3)
Jan Stark (L2IT, IN2P3, CNRS/UT3)
Jeanette Thibaut (L2IT, IN2P3, CNRS/UT3)

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Postdoctoral Position – Systems Biology of Neuronal Vulnerability in Neurodegenerative Diseases, Paris, France

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CNRS UMR 8256
Durée : 2 ans
Contact : christian.neri@inserm.fr
Date limite de publication : 2024-11-30

Contexte :
ANR project
Brain-C Lab, Institute of Biology Paris-Seine (IBPS), Paris
see http://www.ibps.upmc.fr/en/research/biological-adaptation-and-ageing/brainc

interested candidates should immediatly send a letter of motivation, a full CV and the names and emails of two-three references to christian.neri@inserm.fr and lucile.megret@sorbonne-universite.fr

Sujet :
A 2-year position is immediately available in the Brain-C Lab in Paris to address outstanding questions about the temporal and molecular dynamic of neurodegenerative disorders and define new therapeutic rationales for early-stage intervention in these disorders. The successful applicant will will use the machine learning methods available in BioGemix —our machine learning platform for biological precision in leveraging complex omics data— to analyze complex omics data obtained in models of amyotrophic lateral sclerosis (ALS) and compare resulting models to computational models of neurodegenerative disorders such as Huntington’s disease (HD). In collaboration with mathematicians and bioinformaticians inside and outside the team, The successful applicant will also have the possibility to develop innovative machine-learning approaches for modelling and simulating gene regulatory networks and for optimal target selection. This position is a unique opportunity to further develop expertise and skills in a multidisciplinary team and network of direct collaborators that cover systems modeling, cellular neurobiology and preclinical/clinical research.

Profil du candidat :
The candidates are expected to be highly-qualified and to have strong collaborative skills and commitment to team work along with strong ability to work independently, and to have track record of expertise & writing papers as demonstrated by publications and pre-prints. The position is full time and on site, and candidates should have less than 5 years of postdoctoral experience and a strong interest for research.

Formation et compétences requises :
Training and required skills:
Candidates should hold a Ph.D. in Informatics/Bioinformatics or Mathematics or Probability & Statistics or Physics. Candidates that hold a diploma from high-profile Engineer Schools (e.g. Ecole Polytechnique, Supelec, Centrale, EPFL, ETZ) are welcome to apply.
• Demonstrated experience and autonomy in probability and statistics for the analysis of complex datasets (probabilistic models, R)
• Data modeling skills, e.g. application of optimal transport and network inference concepts to omics data analysis.
• Good autonomy in machine programming (at least one of the following languages: Python, C/C++, Java).
• Skills in database management or web technologies (javascript, Php) are desirable but not mandatory.
• Knowledge of genome sciences and omics technologies will be a plus.

Adresse d’emploi :
Employment address:
IBPS, Campus de Jussieu
9 Quai St Bernard
75005 Paris – France

Document attaché : 202407161554_Annonce_bioinfo_poste_Postdoc_2024.pdf