Archives
Le traitement du langage naturel (NLP) à l’ère de l’IA générative, des sciences cognitives et de la transformation sociétale
Date : 2024-10-01 => 2024-10-03
Lieu : Mila – Quebec AI Institute (Montréal, Canada) et hybride
* Cet événement de trois jours vise à explorer le potentiel de transformation des technologies langagières et leurs implications pour la société *
Grâce à des présentations, des débats et des sessions interactives, l’atelier vise à encourager la collaboration, l’échange de connaissances et la réflexion critique entre les chercheur·euse·s, les praticien·ne·s, les décideur·euse·s politiques et les parties prenantes de toutes les disciplines. En s’intéressant à la recherche de pointe, aux dilemmes éthiques et aux applications du monde réel, les participant·e·s acquerront une compréhension globale du paysage multiforme du NLP, de l’IA et des sciences cognitives, ainsi que de leurs implications profondes pour la transformation de la société.
L’événement est ouvert aux chercheur·euse·s en IA, en NLP et dans des domaines connexes, issus du monde universitaire et de l’industrie, ainsi qu’aux étudiant·e·s à la maîtrise et au doctorat dans tous les domaines de l’IA.
* Programmation *
+ La première journée est consacrée au NLP à l’ère de l’IA générative, où les participant⋅e⋅s examineront les dernières avancées dans les techniques de NLP alimentées par l’IA générative ou au-delà. Les discussions porteront sur les capacités, les défis et les considérations éthiques associés à ces technologies, offrant un aperçu de leur état actuel et de leurs futures trajectoires.
+ La deuxième journée, intitulée Rapprocher les esprits : Explorer l’intersection des sciences cognitives et de l’IA dans l’apprentissage des langues, explore la convergence des sciences cognitives et de l’IA dans la compréhension de l’acquisition du langage humain et la construction de systèmes linguistiques intelligents. Les orateur⋅trice⋅s et les participant⋅e⋅s se pencheront sur les théories cognitives de l’apprentissage des langues, les modèles informatiques inspirés de la cognition humaine et les applications pratiques de l’enseignement des langues et de la communication pilotés par l’IA.
+ La troisième journée, l’accent sera mis sur Comment les grands modèles de langage vont transformer la société, en examinant les implications sociétales plus larges des grands modèles de langage (LLM) et leur influence omniprésente dans divers domaines, notamment l’éducation, les médias, les soins de santé et la gouvernance. Les discussions porteront sur les considérations éthiques, les préjugés, la protection de la vie privée et la démocratisation de l’accès à l’information, dans le but de favoriser une réflexion critique et un déploiement responsable des grands modèles de langage au profit de la société.
Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.
BDA 2024 – Les 40èmes journées de la conférence BDA « Gestion de Données – Principes, Technologies et Applications »
Date : 2024-10-21 => 2024-10-24
Lieu : Orléans du 21 au 24 octobre 2024, au Centre International Universitaire pour la Recherche (Hôtel Dupanloup), en plein centre ville.
Appel à Participation à la Conférence BDA 2024
Nous avons le plaisir de vous annoncer la 40ème édition de notre conférence BDA « Gestion de Données – Principes, Technologies et Applications », qui se tiendra à Orléans du 21 au 24 octobre 2024.
Programme de la Conférence
La conférence proposera un riche programme comprenant des articles scientifiques, des démonstrations, ainsi que trois keynotes invités de renom :
Paolo Papotti (EURECOM)
Katia Hose (Vienna University of Technology)
Asterios Katsifodimos (Delft University of Technology)
Informations Pratiques
Le programme détaillé de la conférence est disponible sur notre site : https://bda2024.sciencesconf.org/
Les inscriptions sont ouvertes et peuvent être effectuées sur le site https://bda2024.sciencesconf.org/registration?lang=fr
Profitez du tarif réduit en vous inscrivant avant le 22 septembre.
Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.
Research engineer/Postdoc in Deep Learning and Oceanography
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IMT Atlantique
Durée : 24 months
Contact : ronan.fablet@imt-atlantique.fr
Date limite de publication : 2024-10-15
Contexte :
As part of AI Chair OceaniX and a national initiative for the development of neural approaches for ocean monitoring, modeling and forecasting ocean dynamics, we open research engineer and postdoc positions to join the INRIA Odyssey team and the Mathematical and Electrical Engineering department at IMT Atlantique, Brest, France.
Sujet :
Additional information is available here: https://institutminestelecom.recruitee.com/l/en/o/ingenieur-r-d-deep-learning-ocean-cdd-24-mois
Contact: ronan.fablet@imt-atlantique.fr
Profil du candidat :
Formation et compétences requises :
Adresse d’emploi :
IMT Atlantique, Brest, France
Ingénieur.e gestion de données pour l’IA en écologie – CNRS Montpellier
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : CNRS
Durée : 12 mois
Contact : vincent.miele@cnrs.fr
Date limite de publication : 2024-10-15
Contexte :
La personne travaillera au sein de l’initiative Deepfaune (https://www.deepfaune.cnrs.fr) qui a pour objectif de développer des modèles de classification automatique des espèces animales dans les images ou vidéos de pièges photographiques. Cette initiative participe à une collaboration européenne sur le sujet au sein du projet Biodiversa BigPicture.
Sujet :
La mission sera d’évaluer et d’améliorer les pipelines de gestion de données (images, vidéos de sauvage) actuellement mis en œuvre, tout en participant à l’intégration de nouveaux jeux de données venant de toute l’Europe. D’autres missions liées à la gestion et la curation de données et à leur préparation pour l’utilisation de modèle d’intelligence artificielle pourront également être à réaliser. Ces activités se dérouleront dans un cadre collaboratif très dynamique.
Pour candidater :
https://emploi.cnrs.fr/Offres/CDD/UMR5175-SIMCHA-004/Default.aspx
Les activités à réaliser sont :
– Evaluation, révision et écriture de pipeline de gestion de données.
– Gestion de fichiers entre serveurs locaux et distants.
– Mise en place d’une curation automatisée de données.
– Rédaction d’un plan de gestion de données.
– Mise des données aux standards sélectionnées (e.g. camtrapDP).
– Création de rapports sur la base de données.- En fonction de l’expérience en intelligence artificielle, entraînement et évaluation de modèles.
– En fonction de l’intérêt de la personne, implication possible dans les discussions sur le rôle de l’initiative Deepfaune dans les programmes de suivis en écologie.
Profil du candidat :
Débutant.e.s accepté.e.s, expérience appréciée.
Formation et compétences requises :
Savoirs :
– Expérience de la gestion de données
– Connaissances en intelligence artificielle (optionnel)
Savoir-faire :
– Bonne maitrise de Linux et du bash
– Bonne maitrise de Python
– Bonne maitrise de la gestion de projet avec git
– Maitrise courante de l’anglais professionnel
Savoir-être :
– Capacité organisationnelle importante
– Attention marquée aux aspects partenariaux et relationnels
– Autonomie
– Intérêt pour la faune sauvage et la biodiversité (optionnel)
Adresse d’emploi :
Campus CNRS de Montpellier.
L’agent sera affecté au Centre d’Ecologie Fonctionnelle et Evolutive à Montpellier (CEFE) sous la responsabilité de Simon Chamaillé-Jammes. L’agent travaillera en proche collaboration avec Vincent Miele (Laboratoire d’Ecologie Alpine, Chambery), qui codirige l’initiative Deepfaune avec S. Chamaillé-Jammes. Des échanges fréquents avec Gaspard Dussert, doctorant sur l’initiative Deepfaune, ainsi qu’avec Bruno Spataro, ingénieur informatique, tous deux basés au Laboratoire de Biométrie et Biologie Evolutive à Lyon. De nombreuses interactions se feront à distance en visioconférence, mais des missions régulières à Chambery ou Lyon sont à prévoir.
International workshop on Scalable and Deep Graph Learning and Mining (SGLM)
Date : 2024-12-17
Call for Papers
Graphs serve as flexible and powerful models for representing diverse types of data encountered in modern research and industries. These include the WWW, social networks, biological networks, communication networks, transportation networks, energy grids, and many others. Unlike traditional tabular data formats, graphs enable the representation of entities along with their attributes or properties, as well as the relational structure between entities, making them invaluable for capturing complex data relationships and patterns. Additionally, graphs can accommodate unstructured and heterogeneous data, further enhancing their versatility in handling a wide range of data types and structures.
The significance of extracting knowledge and making predictions from graph data has grown rapidly in recent years. However, there remains a need for ongoing scientific exploration to formalize new problem types that align effectively with real-world applications. Additionally, investigating the algorithmic, statistical, and information-theoretic aspects of these problems is essential for advancing our understanding. Of particular interest to the workshop is the increasingly popular field of graph representation learning. These intermediate real-valued representations enable the application of learning and mining algorithms developed for non-relational data to graph structures. Given the rapid progress in this area, ensuring trustworthy AI on graphs requires focused attention.
The main aim of this workshop, scheduled to be held in conjunction with IEEE BigData, is to serve as a scientific forum for discussing the latest advancements in these areas. We welcome both theoretical and practical contributions, fostering interactions among participants. Additionally, we will schedule conferences or talks specifically focused on these topics to further enrich the discussions.
Topics
We cordially invite submissions covering theoretical aspects, algorithms, methods, and applications within the following (non-exhaustive) list of areas:
Computational or statistical learning theory related to graphs.
Theoretical analysis of graph algorithms or models.
Semi-supervised learning, online learning, active learning, transductive inference, and transfer learning in the context of graphs.
Graph and vertex embeddings and representation learning on graphs.
Explainable, fair, robust, and/or privacy preserving ML on graphs, and graph sampling.
Analysis of social media, chemical or biological networks, infrastructure networks, knowledge graphs.
Benchmarking aspects of graph based learning
Libraries and tools for all of the above areas.
Knowledge graph applications
Representation Learning over Knowledge Graphs
Dynamic knowledge graphs
Large Language Models for Knowledge Graphs
Knowledge Graphs for Large Language Models
Prompt engineering and knowledge graphs
Paper Submission
The desired workshop format is full day. The workshop accepts two types of submissions:
Long papers (full research papers / up to 10 pages (references included), in the IEEE 2-column format)
Short papers of 2-4 pages (for work in progress)
Papers should be formatted to IEEE Computer Society Proceedings Manuscript Formatting Guidelines (https://www.ieee.org/conferences/publishing/templates.html).
The submission deadline is October 01, 2024 for abstracts and for full papers.
Submissions should be made through cyberchair at:
Paper Submission Page
We also invite the submission of 2-4 pages extended abstracts as highlight papers or late breaking research papers. Highlight papers should summarize full papers that have been published, or accepted for publication.
Description of the submission review process, including key dates and coverage of how conflicts of interest are handled
Papers will be subject to three (3) blind peer reviews. Selection criteria include originality of ideas, correctness, clarity and significance of results and quality of presentation.
We are pleased to announce that authors of accepted papers from our Workshop are invited to submit an extended version of their work to our special issue in the Journal of Supercomputing.
Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.
Faculty position (associate professor) at Telecom Paris in Machine-Learning for Natural Language Processing
Offre en lien avec l’Action/le Réseau : DOING/– — –
Laboratoire/Entreprise : LTCI, Télécom Paris
Durée : CDI
Contact : mathieu.labeau@telecom-paris.fr
Date limite de publication : 2024-10-11
Contexte :
Telecom Paris’s machine learning, statistics and signal processing group (a.k.a S²A group), within the laboratoire de traitement et communication de l’information (LTCI) and the Image, Data & Signal (IDS) department, is inviting applications for a permanent (indefinite tenure) faculty position at the Associate Professor level (Maitre de Conferences) in *Machine learning for Natural Language Processing*.
Sujet :
Main missions
The person recruited must have the experience and expertise required to carry out the following research and teaching assignments
Research activities
• Develop groundbreaking research in the field of theoretical or applied machine learning, aligned with the topics of the S²A group and the Images, Data & Signals department with a focus on Deep Learning. While the position is open to all applications within that field, expertise in Natural Language Processing (including the processing of natural language as text, speech, or information retrieval) or a desire to work with natural language data in the future is preferred. Additionally, the IDS department and S²A team have a particular interest in the following transversal themes: – Generative models – Conversational AI – Bias and Explainability in AI – Frugal Machine Learning
• Develop both academic and industrial collaborations on the same topic, including collaborative activities with other Telecom Paris research departments and teams, and research contracts with industrial players
• Set up research grants and take part in national and international collaborative research projects
Teaching activities
• Participate in teaching activities at Telecom Paris and its partner academic institutions (as part of joint Master programs), especially in machine learning and Data science, including life-long training programs
Impact
• Publish high quality research work in leading journals and conferences
• Be an active member of the research community (serving in scientific committees and boards, organizing seminars, workshops, special sessions…)
Profil du candidat :
As a minimum requirement, the successful candidate will have:
• A PhD degree
• A track record of research and publication in the area of machine/deep learning
• Experience in teaching
• Good command of English
The ideal candidate will also (optionally) have:
• Experience in Natural Language Processing
• A post-doctoral or international experience in an academic or industrial laboratory
NOTE:
The candidate does *not* need to speak French to apply, just to be willing to learn the language (teaching will be mostly given in English)
Other skills expected include:
• Capacity to work in a team and develop good relationships with colleagues and peers
• Good writing and pedagogical skills
Formation et compétences requises :
Adresse d’emploi :
Télécom Paris
19 place Marguerite Perey
91120 Palaiseau
France
Document attaché : 202407301130_2024_AssociateProf_S2A.pdf
Ingénieur⋅e logiciel Pl@ntNet − CDD 24 mois, Montpellier
Offre en lien avec l’Action/le Réseau : Musiscale/– — –
Laboratoire/Entreprise : INRAE & INRIA
Durée : 24 mois
Contact : antoine.affouard@inria.fr
Date limite de publication : 2024-10-11
Contexte :
Nous recherchons un⋅e ingénieur⋅e logiciel pour la plateforme Pl@ntNet, en CDD de 24 mois dans le cadre de la mise en œuvre du projet « One Forest Vision » (OFVi) (https://oneplanetsummit.fr/en/coalitions-82/one-forest-vision-initiative-251) visant l’adaptation de la plateforme Pl@ntNet à l’étude des milieux forestiers tropicaux (notamment en Afrique tropicale).
Détails de l’offre : https://jobs.inrae.fr/ot-22660
Sujet :
Dans ce cadre, vos activités seront les suivantes :
• Développements dans un environnement Node.js (API, Web),
• Intégration de données et standards ouverts, dans les bases de données (non-)relationnelles Pl@ntNet, pour l’adaptation à de nouveaux contextes, et incluant toutes les étapes de la chaîne de traitement,
• Consommation de services Web pour l’intégration et l’échange de données,
• Mise en place de tests de non-régression, pour les différents services développés, déploiement d’outils de suivi et d’alerte.
Profil du candidat :
Formation et compétences requises :
Formation : Bac+5 informatique ou équivalent
Connaissances souhaitées :
• Développement Javascript (Node.js)
• Gestion / exploitation de bases de données NoSQL orientées documents (ArangoDB) et de bases de données relationnelles (PostgreSQL)
• Notions en développement Web (HTML / CSS / Javascript)
• Notions en administration de serveurs Linux
• Gestion de gros volumes de données
Expérience appréciée : débutant⋅e⋅s accepté⋅e⋅s
Adresse d’emploi :
Montpellier
Ensemble constrained clustering for time series analysis, with application to industry data
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : ICube laboratory
Durée : 2 years
Contact : lafabregue@unistra.fr
Date limite de publication : 2024-10-11
Contexte :
Automated data acquisition systems and increasing storage capacities have made time series data available across a wide
range of domains, from earth observation to industry. However, this data is often provided with insufficient or no labels, thus preventing the use of supervised methods. In this context, unsupervised methods can be valuable to help users extract information, such as identifying different behaviors on a production line. Nevertheless, when it comes to time series analysis, these methods face several drawbacks.
First, the diverse nature of sensors and sources used to generate
temporal data results in significant heterogeneity in terms of
format, volume, quality, and richness of information. For example, a single production line can include a large set of different sensors, each constrained by its manufacturer’s API. This diversity has led to a wide range of categorization methods for analyzing time series, e.g., based on elastic metrics, frequency decomposition, and pattern extraction , each with its own advantages and limitations, which can also complement one
another.
Secondly, clustering approaches often yield results that do not align with the experts’ expectations or intuitions. This is especially true when considering the aforementioned heterogeneity of time series data. Therefore, incorporating some expert knowledge, even if it doesn’t encompass the full spectrum of actual classes, can significantly enhance the quality of the clustering results. This knowledge is often expressed in the form of constraints. However, these methods often suffer from the negative impact of constraints, resulting in a decrease in quality when constraints are added.
Finally, asking experts to define all classes at the outset of the project is unreasonable. It is indeed often the case that not all classes can be semantically defined before a data analysis has been carried out. It is more practical to engage experts throughout the entire process as they progressively unfold the data processing and analysis within an iterative cycle of interactions between the expert and the learning system. The goal of this interaction is to bridge the gap between the results generated by the algorithms and the expert’s thematic insights. This process is designed to make the results more comprehensible to the expert.
Sujet :
The main task of this post-doc is to develop an ensemble clustering method that relies on a diversity of viewpoints (i.e. representations or metrics). It will use constraints given iteratively by the user to select and combine the proper viewpoints. This should result in a better clustering that is a consensus of the most suitable viewpoints, in adequacy with the expert’s knowledge, to leverage potential negative effects of constraints. To achieve this goal, we need to fulfill four objectives:
● Select a subset of sufficiently independent/diverse existing metrics/representations (required to have complementary viewpoints) relevant to clusterize time series;
● Define a generic ensemble method to obtain a consensus clustering result from the previously selected viewpoints that maximize the respect of the expert’s knowledge;
● Propose a generic method to iteratively update the clustering by integrating new expert’s knowledge in interaction with the expert;
● Validate the method operability by focusing on Industry data, mainly relying on a demonstration production line of one of our industry partners
The person recruited will be co-directed by Nicolas Lachiche (50%), specialist of complex data mining, and Baptiste Lafabrègue (50%), time series analysis specialist. He or she will actively collaborate with the SDC team at ICube in Strasbourg, and more particularly with Nassime Mountasir, a 3rd-year PhD student working on predictive maintenance issues
Profil du candidat :
● PhDinComputerScience, specializing in machine learning/explainability.
● Solid knowledge of Machine Learning methods. Experience in time series analysis and/or predictive maintenance would be also valuable.
● Goodverbal (English or French) and written (English) communication skills.
● Interpersonal skills and the ability to work individually or as part of a project team.
Formation et compétences requises :
Adresse d’emploi :
Illkirch, south of Strasbourg (Pôle API, 300 Bd Sébastien Brant, 67400 Illkirch-Graffenstaden)
Document attaché : 202407291327_EnsembleTimeSeries_offer.docx.pdf

