Post-doc à Lille : Cartographie de concentrations de polluants par apprentissage profond

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Nord Europe et Groupe TERA
Durée : 24 mois
Contact : christelle.garnier@imt-lille-douai.fr
Date limite de publication : 2021-11-21

Contexte :
Dans le cadre du plan de relance visant à préserver l’emploi en Recherche et Développement (R&D), IMT Nord Europe et Groupe TERA recrutent pour répondre aux défis d’un projet collaboratif ayant pour objectif de développer un démonstrateur à taille réelle de la potentialité de la mesure sur un site industriel complexe alliant déploiement optimisé de capteurs et traitement en temps réel des données pour visualiser la dynamique temporelle à très fine résolution (moins d’une minute) et à haute résolution spatiale (moins de 50 mètres) des concentrations en PM (Particulate Matter).
Pour ce faire, un partenariat sera établi avec un industriel de la zone industrielle de Fosse-Berre et l’AASQA de la région concernée ATMO SUD. 
En accord avec les objectifs du plan de relance, ce post-doc peut déboucher sur un poste dans le département R&D du Groupe TERA. 

Sujet :
Ce poste a pour objectif la réalisation d’une cartographie permettant la spatialisation en temps quasi réel de la pollution à l’échelle d’une zone à risque.
Les principales actions à conduire sont les suivantes :
• Définir une méthodologie permettant d’établir une stratégie de déploiement (définition des dynamiques spatiale et temporelle des capteurs) suivant l’objectif, l’échelle et le niveau de qualité de la cartographie. Ces travaux permettront ensuite d‘optimiser le nombre et la répartition spatiale des capteurs / points de mesures en intégrant si besoin des point(s) de référence sur la zone géographique délimitée (via une ou des station(s) de mesures hautes performances),
• Développer des méthodes de reconstruction à partir de l’état de l’art (krigeage avec processus Gaussiens) et d’outils plus récents, comme l’apprentissage profond utilisant des architectures de réseaux de neurones. Il faudra prendre en compte la qualité des informations (incertitudes suivant capteurs) et l’intégration de données exogènes (météo, topologie…) pour améliorer la qualité de la cartographie.

Profil du candidat :
Doctorat en science des données, traitement du signal ou des images, intelligence artificielle, informatique ou mathématiques appliquées obtenu au cours des années 2019, 2020 ou 2021.

Formation et compétences requises :
• Connaissance des méthodes d’apprentissage automatique, en particulier d’apprentissage profond, et/ou des méthodes d’interpolation spatio-temporelle (krigeage).
• Eventuellement, connaissances de base en sciences de l’environnement.
• Utilisation des outils actuels de science des données : langage Python et framework de deep learning (comme PyTorch, TensorFlow ou Keras).

Adresse d’emploi :
IMT Nord Europe, Lille (contrairement à ce qui est indiqué sur le site de l’IMT). Quelques missions à prévoir dans la société Groupe TERA à Marseille. 

Document attaché : 202109280851_2021_Fiche_Postdoc_Cartographie_Polluants.pdf

Thèse CIFRE : Architecture des données avec BNPParibas Real Estate

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEDRIC, CNAM
Durée : 3 ans
Contact : elena.kornyshova@lecnam.net
Date limite de publication : 2021-11-30

Contexte :
Définition de l’architecture des données pour la gestion contextuelle de leur qualité dans le secteur bancaire

Il est aujourd’hui largement reconnu que l’utilisation de données non appropriées, obsolètes ou incomplètes à un impact négatif sur les systèmes d’information et sur la qualité des services qu’ils délivrent. Les problèmes engendrés par une mauvaise qualité des données ont un impact évident sur l’image de l’entreprise mais peut à terme avoir un impact sur sa survie. Dans le secteur bancaire, assurance et immobilier, la qualité des données est un sujet critique et les exigences de la qualité sont encore plus élevées vu la nature des données manipulées (données privées, financières) et les réglementations en cours.
La donnée est au cœur de nombreux processus opérationnels et de décision. Le rôle de l’évaluation de la qualité est alors d’ajouter des informations permettant d’éviter le biais ou les fausses conclusions que pourrait induire des données erronées ou imprécises. Cependant, cette évaluation est complexe et multidimensionnelle nécessitant l’intégration du contexte (de production, d’acquisition et d’usage de la donnée). Une démarche contextuelle de gestion de la qualité des données nécessite une vision globale du système information afin de mieux déterminer et comprendre, les risques liés à la non qualité, les divers acteurs impliqués dans le processus de transformation de la donnée et leur impact sur la qualité et les dimensions de qualité et leur qualification dans le contexte. Une telle vision peut s’appuyer sur l’architecture d’entreprise (AE) qui adresse les problématiques de gestion de l’entreprise et de son système d’information dans son ensemble.
L’architecture d’entreprise est une approche globale de l’entreprise qui permet, grâce à la mise en place d’une discipline d’architecture, d’aligner le système d’information aux objectifs stratégiques et aux besoins métiers. Elle fournit aux différents acteurs une description structurée de l’ensemble de ses ressources sous forme d’un cadre (cartographie, cible et référentiel). Les référentiel ’architecture contiennent, entres autres, les règles et les principes pour qu’une entreprise puisse compléter sa mission de façon pérenne (1, 13). Différentes approches adressent ces problèmes notamment les approches d’urbanisation des SI (2).
L’architecture des données fait partie de l’architecture du système d’information de toute entreprise. La démarche d’AE comprend la création d’un référentiel des données et l’établissement des principes spécifiques à cette dimension du SI (par exemple, « les données sont saisies une fois », « les données sont fournies par leur source ») afin d’assurer la cohérence, la pérennité et l’adaptabilité d’utilisation de la gestion des données.
Concernant la qualité dans le domaine d’AE, peu de travaux s’y intéressent de façon holistique. (3) définit un ensemble d’attributs de qualité adaptés au domaine de l’architecture d’entreprise en faisant une extension du standard ISO 9126 et souligne que des critères de qualité doivent être établis pour l’ensemble de principes d’architecture ainsi que pour chaque dimension de l’architecture (y compris celle des données). Appliqué à l’AE, (4) définit deux types de qualité, interne et externe, en parlant de la qualité des modèles de l’AE en général.
Le travail de recherche adressé dans ce projet de thèse a pour but de définir l’architecture de données correspondant au niveau de qualité attendu et en fonction du contexte donné. Plusieurs objectifs devront être atteints afin de résoudre le problème posé :
Les travaux existants sur les données adressent la définition de la qualité (5, 6), sa modélisation (7, 8, 9) et son évaluation (10, 11). De nombreux travaux reconnaissent la nature multidimensionnelle de la qualité des données (12). La qualité d’une donnée s’évalue selon diverses dimensions telles que la complétude, la fraîcheur, l’actualité, la pertinence etc. Ces dimensions ne sont pas toujours indépendantes et la qualité globale nécessite souvent un juste équilibre entre ces diverses dimensions. Une des problématiques de recherche qui reste ouverte est la qualification et la quantification de ces interdépendances.
Un autre facteur qui rentre en compte est le fait que la qualité engendre un coût et que l’arbitrage est souvent décidé par le coût plus que par le besoin de qualité. Cependant, bien qu’il existe des approches adressant l’évaluation du coût de la qualité, il est souvent difficile de juger de ce coût et il serait plus judicieux de le comparer au coût de la non qualité.
Ensuite, la qualité n’est jamais un objectif absolu et toutes les approches qui s’appuient sur la définition de seuils d’acceptabilité pour les dimensions de la qualité sont contestables puisque la fixation de ces seuils est souvent subjective. Il est plus judicieux de considérer une vision contextuelle de la qualité où les objectifs de qualité devraient être paramétrés par les contextes d’usage. Ceci nécessite d’abord la définition du concept de contexte d’usage et de ses composantes. Il convient ensuite de définir une approche permettant d’élaborer des stratégies de la qualité en fonction du contexte.
Enfin, une architecture de données doit être définie afin d’établir les services d’architecture d’entreprise pour la gestion de cette qualité (14). Cette architecture devrait prendre en compte la nature des données, les processus impliqués et/ou influencés par ces données. Ceci passe par la formalisation du concept de qualité contextuelle et la définition d’une démarche permettant de développer une telle architecture.

Sujet :
Le travail qui sera mené dans cette thèse vise à proposer une approche de gestion contextuelle de la qualité des données en se basant sur les principes de l’architecture des données. Cette approche sera développée pour être utilisée dans le secteur bancaire.
Cette approche devra :
– Comporter un ensemble de solutions comprenant un cadre méthodologique et des modèles. Ces solutions devront être suffisamment génériques pour permettre leur utilisation dans divers contextes lors de la construction de nouveaux systèmes,
– Fournir une démarche permettant d’assister l’application de ces solutions pour gérer la qualité d’un système existant,
– Etre contextuelle en tenant compte du contexte d’usage des données dans l’évaluation et l’amélioration de leur qualité. Une telle approche vise à élaborer des stratégies personnalisées pour la gestion de la qualité des données. Cette personnalisation portera sur le choix des dimensions de qualité à considérer, la manière de les évaluer et le poids à leur affecter dans l’évaluation globale tout en tenant compte de leur contexte d’usage,
– S’inscrire dans la démarche d’architecture d’entreprise, afin d’assurer la cohérence de la gestion de la qualité des données avec les exigences d’évolution du système d’information de l’organisation,
– Etre outillée en implémentant la démarche méthodologique proposée par des outils adéquats,
– Etre validée sur des cas d’application et des données réelles.

Profil du candidat :
Bac+5 en informatique

Formation et compétences requises :
Architecture d’entreprise, Ingénierie des systèmes d’information.
Autonomie, capacités rédactionnelles

Adresse d’emploi :
2 rue Conté, Paris 75003

Document attaché : 202109271428_CIFRE – Data Quality.pdf

Post-doctoral position (24 months) Representing and enriching events in knowledge graphs

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : IRIT
Durée : 24 mois
Contact : hernande@irit.fr
Date limite de publication : 2021-11-30

Contexte :
XP-event project (2021-2024)
An event is defined as “anything that happens, anything that fits over time”: meetings, phone calls, purchases, but also business buyouts, change of management, health crises, etc. The events are shared at through various communication channels that can be private (internal documentation, emails, Slack, Teams, phone, etc.) or public (press, Twitter, Facebook, etc.). Knowledge of these events is essential for humans to make decisions which themselves will have an impact on future events. Many innovative applications can benefit or even emerge from a technology capable of extracting events from various sources, representing them, aggregating them and exploiting them to predict future events. We can for example cite: anticipating demand for sanitary products, the supervision of cultural, advertising or festive events, but also the study of competition, the study of commercial markets, etc. .
One of the main obstacles to the deployment of these applications is the excessively high cost of their development when it is carried out on an ad hoc basis by competing players. The XP-Event project proposes to respond to this difficulty by setting up a common base for all the applications organized around the notion of event. This project is led by a consortium naturally formed by two companies (GeoTrend and Emvista) and a research team from the IRIT laboratory sharing this vision and each having significant scientific and technological heritage in the field.

Sujet :
The candidate will contribute to the tasks in which IRIT is involved, and will be more particularly in charge of realizing and implementing the proposed solutions. The first task concerns the representation of event graphs. The first task will be to define an adapted ontology and a process allowing to exploit it to access or represent in RDF the graphs of the industrial partners of the project, which are graphs of quite different nature. The second task aims at defining a process to evaluate the quality of the event graphs. Evaluation will be based on the ontology structure as well as on reasoning from the knowledge graph. The third task concerns the enrichment of these graphs. Two types of approaches will be implemented in the project, and for each of them research will be needed to advance the state of the art. The first approach consists in extracting information from texts. Each of the industrial partners already has its own processing chain that it will improve and unify. The second approach consists in exploiting the current state of a graph but also the structure of an event in the ontology to suggest the addition of new nodes or new relations to the graph. This approach will be implemented through learning algorithms from graph.

Profil du candidat :
Applicants are required to have a PhD in computer science, and strong background ideally in two areas of artificial intelligence: semantic web technologies (ontology engineering, linked data management and querying, SPARQL, SHACL, RuleML, …), and machine learning from graphs and vector representations, recursive neural networks, etc.

Formation et compétences requises :
Good programming skills (Python, OWL API) and experience in participating in collaborative projects is required. In addition, the candidate must have a taste for innovation, and the ability to dialogue and collaborate with industrial partners. Experience in managing graph warehouses (Virtuoso, Strabon, Neo4j…) is desired. Fluency in written / spoken English is required too. Fluency in French language will be a plus.

Adresse d’emploi :
Location : Institut de Recherche en informatique de Toulouse (IRIT) – UPS, 118 Route de Narbonne F-31062 Toulouse Cedex – France and et UT2J, 5 allées Antonio Machado 31300 Toulouse
Duration: 24 months – starting on January 1st, 2022
Host team: MELODI https://www.irit.fr/en/departement/dep-artificial-intelligence/melodi-team/
The candidate will work with four academic researchers from MELODI (F. Benamara, Ph. Muller, N. Aussenac-Gilles and N. Hernandez). He will collaborate with the partner companies in the project, namely Geotrend, located in Toulouse, and Emvista, located in Montpellier.
Income: between 2300 and 2800 euros before taxes (brut) monthly according to past experience
Applicants should upload their application files before November 1st 2021 on the following web page : . Application files should contain at least a full Curriculum Vitae including a complete list of publications, a cover letter indicating their research interests, achievements to date and vision for the future, as well as either support letters or the name of 2 persons that have worked with them.
Candidates should contact: N. Aussenac-Gilles and N. Hernandez

Document attaché : 202109271225_ProfilPostDoc.pdf

Postdoc: Cross-lingual and cross-domain terminology

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : L3i – La Rochelle Université
Durée : 2 ans
Contact : antoine.doucet@univ-lr.fr
Date limite de publication : 2021-11-30

Contexte :
Interested in joining a young NLP group of 10+ people located in a historical town by the Atlantic Ocean? And walk 10 minutes from the lab to the beach. We have open positions in the context of 2 ongoing Horizon 2020 projects: Embeddia and NewsEye as well as related projects. In 2020-2021, we have among others published long papers in CORE A* and A conferences ACL, JCDL, CoNLL, ICDAR, COLING, ICADL, etc.

To address this very project, the project team will consist of senior staff, 2 post-doctoral researchers and 2-3 PhD students, one of which is jointly supervised in the Józef Stefan Institute in Ljubljana, coordinator of H2020 Embeddia. In this context, you will first be in charge of building a state of the art of existing related approaches, tools and resources, then to conduct further research and experiments, as well as participate in the supervision of PhD students.

Sujet :
Applications are invited for a postdoctoral researcher position around the topic of project Termitrad: keyword and terminology alignment 1) across languages and 2) across domains. In short, the overall objective of the project is to improve the relevance of the keywords describing research papers (and, time allowing, the quality of abstracts). One the one hand (cross-lingual alignment), we will rely on a corpora of journal articles with both French and English keywords and abstracts, both in as written by authors and in versions curated by experts. On the other hand (crossdomain alignment), we will work with use cases provided by researchers from different fields using different terms to describe similar concepts.

Profil du candidat :
Who we search for:
– PhD in statistical NLP, IR, or ML, ideally with further postdoctoral experience
– proven record of high-level publications in one or more of those fields
– fluency in written and spoken English (French language skills are irrelevant)

Keywords: terminology alignment, cross-lingual word embeddings, named-entity recognition and linking, deep/machine learning, statistical NLP, (text) mining.

Formation et compétences requises :
Who we search for:
– PhD in statistical NLP, IR, or ML, ideally with further postdoctoral experience
– proven record of high-level publications in one or more of those fields
– fluency in written and spoken English (French language skills are irrelevant)

Keywords: terminology alignment, cross-lingual word embeddings, named-entity recognition and linking, deep/machine learning, statistical NLP, (text) mining.

Adresse d’emploi :
La Rochelle Université, Avenue Einstein 17000 La Rochelle

Document attaché : 202109231621__2021-PosteTermitrad.pdf

SMART FOOD PRODUCTION PLANNING WITH DEMAND RESPONSE

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ONIRIS
Durée : 3 ans
Contact : veronique.cariou@oniris-nantes.fr
Date limite de publication : 2021-10-15

Contexte :
Face au réchauffement climatique, l’un des enjeux majeurs des processus industriels réside dans
l’optimisation de leur consommation énergétique, de manière à en limiter l’impact environnemental
et en particulier l’empreinte carbone générée. Ceci est particulièrement vrai pour l’industrie
agroalimentaire, 3e
secteur industriel le plus consommateur d’énergie. Pour répondre à un tel enjeu,
l’une des alternatives vise à substituer certains procédés fonctionnant à partir de combustibles fossiles
par des procédés, à faible empreinte carbone, faisant appel notamment à l’énergie électrique.
Parallèlement, les évolutions numériques et technologiques offrent un cadre prometteur pour une
optimisation et un réajustement dynamique de la planification industrielle par l’exploitation des
données et l’utilisation d’algorithmes de modélisation.

Sujet :
Ce projet s’inscrit dans la mise en œuvre d’une ligne de production agroalimentaire décarbonée avec
le développement d’un outil de planification des processus industriels agroalimentaires à J+1
répondant aux besoins de production en optimisant le sourcing électrique auprès des marchés
énergétiques et des systèmes de production sur site d’électricité renouvelable ensuite stockée puis
autoconsommée. Afin de prendre en compte les incertitudes inhérentes à la production d’électricité
renouvelable et au process industriel, un jumeau numérique sera mis en œuvre pour un
réajustement dynamique de la planification au jour J.

Profil du candidat :
Les profils recherchés sont de type master en science des données / mathématiques appliquées ou
diplôme d’ingénieur avec un intérêt prononcé pour les applications de planification industrielle et
d’optimisation énergétique dans le contexte agro-alimentaire.
Goût pour la recherche appliquée dans un cadre pluri-disciplinaire et collaboratif.

Formation et compétences requises :
Master en science des données / mathématiques appliquées ou
diplôme d’ingénieur.
Compétences requises :
₋ Apprentissage automatique, modélisation statistique, optimisation et recherche
opérationnelle, génie industriel, programmation (Python, R).

Adresse d’emploi :
ONIRIS
SIte de la Géraudière
44322 NANTES Cedex 3

Document attaché : 202109221546_PhDThesis_SFP2DR_french_english.pdf

Post-doc. : Deep Learning for opinion mining in human testimonials related to industrial accident

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS lab., University of Rouen Normandy, Rouen, F
Durée : 18 months
Contact : simon.bernard@univ-rouen.fr
Date limite de publication : 2021-10-15

Contexte :
The Machine Learning team at the LITIS laboratory, the computer science laboratory of the University of Rouen Normandy, is looking for a post-doctoral researcher on a 18-months contract, starting as soon as possible. The position will be financed by the ANR research project CATCH (french acronym for “Automatic Understanding of Human Sensors Testimonials”), which involves the R&D center of the company Saagie, specialized in B2B DataOps solutions, Atmo Normandie, one of the approved French air quality monitoring associations and LITIS.

The ambition of the CATCH project is to propose artificial intelligence and deep learning tools to take into account and automatically exploit the multitude of human testimonies related to an industrial accident and its consequences on the environment and health. By involving the population in the collection and analysis of data, particularly through social networks, and by providing effective means for interpreting this data, the proposed solution should contribute to providing answers to the worrying problem of industrial accidents and their consequences.

The overall objective is first to draw up a precise cartography of the nuisances in order to follow the propagation and the evolution of the phenomena in time, and then to analyze and characterize the sentiment of the population and its evolution throughout the crisis. To do so, we intend to exploit testimonials collected on the ODO platform of Atmo Normandie, which combines these testimonies with geographical information, in conjonction with data extracted from the micro-blogging platform Twitter. Since these data are primarily texts, state-of-the-art approaches from the Natural Language Processing (NLP) field are favored, in particular, self-supervised deep learning methods such as Transformers that are known to be the most performant today for a wide range of NLP tasks.

Sujet :
The objective of this research work is twofold:
1. The automatic generation of a map of nuisances around the site of an industrial incident to monitor the propagation and the evolution of the phenomena over time.
2. The automatic recognition of the population’s perception and its evolution throughout the crisis.

Related to these tasks, the post-doctoral researcher will be in charge of proposing solution for:
• extracting and linking twitter data with testimonials from the ODO dataset, which is fully labelled and associates textual testimonies with geographical data. The interest in establishing this link is to be able to enrich the data from the ODO platform to refine the mapping of nuisances in real time. This could be achieved for example, by using pseudo-labelling techniques1 or Constrative Representation Learning methods which have recently been applied to text data.
• detecting in all the testimonials collected from Twitter or from the ODO platform, the presence (or absence) of several pre-identified emotions (e.g. surprise, fear, anger, sadness, disgust, etc.), several of which can be expressed at the same time.

This research work will therefore involve being familiar with the state-of-the-art NLP deep learning methods and in particular with their applications to sentiment analysis and opinion mining tasks. It will also require experience with the use and exploitation of data from Twitter in a data science context.

Profil du candidat :
Applicants must have a Ph.D. in computer science or applied mathematics, with a focus on machine learning or data mining.

Applications should include:
• curriculum vitae
• statement of past research accomplishments, career goal and how this position will help you achieve your goals
• two representative publications
• contact information for at least two references

Formation et compétences requises :
• have strong programming skills (Java, Python, etc.) and in-depth understanding of statistics and machine learning.
• have already worked with deep learning architecture dedicated to texts (RNNs, Transformers, etc.) and/or images (CNNs, FCNs, GANs).
• have a productive publication record.

Adresse d’emploi :
Location : LITIS lab., University of Rouen Normandy, Rouen, France (www.litislab.fr)
Duration : 18-months, starting as soon as possible
Salary : ~2100€ / month (before income tax), including social security coverage in line with French regulations

Application must be sent to :
• Simon BERNARD, University of Rouen Normandy, simon.bernard@univ-rouen.fr
• Clément CHATELAIN, INSA Rouen Normandy, clement.chatelain@insa-rouen.fr
• Alexandre PAUCHET, INSA Rouen Normandy, alexandre.pauchet@insa-rouen.fr

Document attaché : 202109221352_PostDocPosition_ ANRCATCH_LITIS.pdf

Offre de thèse en systèmes d’information pour les sciences du patrimoine

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoires ETIS (UMR 8051) et MAP (UMR 3595)
Durée : 3 ans
Contact : dan.vodislav@u-cergy.fr
Date limite de publication : 2021-10-15

Contexte :
Cette thèse est financée par la Fondation des Sciences du Patrimoine (FSP), qui assure la gouvernance du LabEx Patrima et de l’EquipEx Patrimex, et qui soutient des projets de recherche collaboratifs et transdisciplinaires sur le patrimoine culturel matériel. La FSP est également coordinatrice de l’EquipEx+ ESPADON, lancé cette année, dont l’objectif est la création d’une plateforme instrumentale avancée d’étude des objets du patrimoine matériel, associée à une plateforme numérique qui assure l’interopérabilité et la gestion efficace des données produites par cette plateforme et par les études sur les objets, tout au long de leur cycle de vie.
L’un des objectifs centraux d’ESPADON est la création de l’objet patrimonial augmenté (OPA), qui associe à l’objet matériel l’ensemble des données produites lors des études sur cet objet: données descriptives, d’analyse instrumentale, de spatialisation, de transformation, etc., mais aussi des données spécifiques à divers domaines d’application: art, conservation-restauration, études historiques, médiation culturelle, etc., qui enrichissent continuellement les connaissances sur l’objet et les possibilités d’étude multi-aspects.
La création de l’OPA implique la conception de modèles de données communs et modulables, de méthodes de production, intégration, pérennisation, enrichissement, partage, consultation de données, ainsi que la réalisation de systèmes efficaces et intuitifs mettant en pratique ces méthodes.
Ces éléments contribuent à l’élaboration d’un modèle de médiation technologique dédié à la création de l’OPA, s’adressant à l’ensemble des acteurs des sciences du patrimoine.
La thèse est un premier pas dans cette direction, en s’appuyant dans l’élaboration de ces modèles et méthodes sur des travaux déjà initiés par la communauté et sur un dialogue avec les différents acteurs du projet, représentatifs de la diversité des sciences du patrimoine. En particulier, le travail de thèse s’appuiera sur un corpus incluant dès le départ 4 objets de natures différentes, pour couvrir une diversité significative d’aspects.

Sujet :
Les principaux objectifs scientifiques de la thèse sont :
● L’élaboration d’un modèle de données pour l’objet patrimonial augmenté, en utilisant une approche basée sur les ontologies autour de CIDOC-CRM et les différents modèles spécifiques déjà proposés par la communauté, en développant des approches modulaires, flexibles et adaptables à la grande diversité d’objets d’étude et de caractéristiques. Une attention particulière sera accordée à la représentation des changements et de la dynamique de la création des connaissances.
● La définition d’un protocole de production et de gestion des données utilisant ce modèle, en respectant les principes FAIR tout au long du cycle de vie des OPA.
● La conception d’un modèle et de techniques d’intégration distribuée de données de sources diverses, autour du modèle OPA, avec un accent particulier sur l’interopérabilité de sources d’informations déjà existantes dans la communauté. On s’appuiera sur des approches d’intégration de données en utilisant des ontologies.
● La conception de méthodes automatiques d’enrichissement sémantique des données, que ça soit pour l’extraction de connaissances à partir de données peu structurées ou pour la déduction de liens sémantiques, spatiaux ou temporels entre concepts.
● L’implémentation d’algorithmes efficaces pour les méthodes mentionnées, associée à l’intégration de modules logiciels déjà développés pour réaliser une première version du système d’information ESPADON, avec un accent particulier sur la consultation intuitive, accessible à diverses catégories d’utilisateurs, des connaissances sur les OPA.

Profil du candidat :
S’agissant d’un sujet de recherche dans le domaine des systèmes d’information, de la gestion de données et de connaissances, mais avec des fortes ouvertures interdisciplinaires, des candidatures sont attendues de plusieurs secteurs disciplinaires relevant de Sciences et Technologies de l’Information et de la Communication avec, si possible, des expériences dans les applications numériques à la documentation du patrimoine.
Date limite de candidature: 15 octobre 2021

Formation et compétences requises :
Diplôme donnant accès à une inscription en thèse de doctorat – Master recherche ou équivalent

Adresse d’emploi :
Région Ile de France

Document attaché : 202109211552_Mediapat.pdf

Journée commune AFIA-THL / ARIA / GDR TAL “Accès interactif à l’information”

Date : 2021-12-09
Lieu : Paris (Jussieu)

Le GDR-TAL (Groupement de recherche en Traitement Automatique de la Langue) et deux associations : l’AFIA (Association française pour l’intelligence artificielle), au travers de son collège Technologies du Langage Humain (TLH) et l’ARIA (Association de Recherche d’Information et Applications) organisent une journée commune sur le thème de l’”Accès interactif à l’information” le 09 décembre 2021 à Paris (Jussieu).

L’objectif de cette journée est de réunir chercheurs-euses en Intelligence Artificielle, en Traitement Automatique des Langues et en Recherche d’Information travaillant sur les aspects interactifs de l’accès à l’information. Cette journée sera alors l’occasion de confronter les expériences de la recherche interactive dans différents domaines d’applications, tant du côté avancé de la recherche que du côté des applications industrielles.

La journée sera composée de deux présentations invitées, de sessions avec présentations courtes suivie de posters et démonstrations pour susciter les discussions, et se terminera par une table ronde.

Nous sollicitons des communications pouvant porter sur tous les thèmes de l’accès interactif à l’information, incluant, de façon non limitative :
– Agents conversationnels (ex : chatbots, incarnation/avatars, génération de dialogues) ;
– Annotation et construction de corpus ;
– Apprentissage actif ;
– Apprentissage par renforcement ;
– Construction de ressources (en particulier Francophones ou multilingues) ;
– Evaluation de systèmes interactifs ;
– Explicabilité (ex: du choix des informations proposées par un chatbot, transparence des systèmes) ;
– Influence de la qualité des ressources, biais, équité/impartialité ;
– Interaction multimodale ;
– Interface homme-machine-robot ;
– Modélisation de l’utilisateur ;
– Personnalisation (persona et côté utilisateurs) ;
– Recherche d’information immersive ;
– Résumé automatique interactif ;
– Retour de pertinence (relevance feedback) ;
– Système questions / réponses.

Les propositions de communications orales sont attendues avant le *** 8 novembre 2021 *** sous la forme d’un résumé d’une à deux pages comprenant un titre, une liste d’auteur.e.s, une liste de mots-clés et un résumé du contenu de la présentation proposée en respectant la feuille de style (latex) ci-dessous :
https://jaii2021.sciencesconf.org/data/pages/Modele_de_document_pour_JAII2021.zip

Les soumissions seront effectuées via easychair : https://easychair.org/my/conference?conf=jaii2021

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Poste Ingénieur d’Etudes en développement informatique au labex IMU (Lyon)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : laboratoire ERIC
Durée : 18 mois
Contact : julien.velcin@univ-lyon2.fr
Date limite de publication : 2021-10-30

Contexte :
Travail en relation avec le LabEx IMU porteur pour le compte de l’UdL de l’action 14 « Think and do tank » du projet TIGA « L’industrie (re)connectée et intégrée à son territoire et ses habitants » coordonné par la Métropole de Lyon. L’ingénieur(e) travaillera plus particulièrement dans le cadre de l’observatoire développé au sein de l’Action 14 par l’action conjointe de l’agence d’urbanisme de Lyon et le laboratoire ERIC.

Plus de détails ici : https://www.universite-lyon.fr/offres-d-emploi/poste-ingenieur-d-etudes-en-developpement-informatique-h-f-au-labex-imu-240399.kjsp?RH=1486549846826

Sujet :
L’ingénieur(e) aura pour mission de développer une application Web en lien avec le système d’information mis en place pour le projet TIGA (bases de données statistiques et spatiales). Cette interface devra pouvoir être manipulée par un utilisateur novice via un appareil mobile comme un smartphone. Elle comporte deux composants essentiels :
1. Des éléments de visualisation des données issues du projet (dataviz)
2. Des éléments d’interaction avec l’utilisateur (sliders, texte éventuellement) qui devront pouvoir être enregistrés dans le SI.

Profil du candidat :
Ingénieur Informatique
Développement Web

Formation et compétences requises :
BAC+5 en Informatique

Adresse d’emploi :
Laboratoire ERIC
Université Lyon 2
5 avenue Pierre Mendes France 69500 Bron

PhD position in computational statistics and machine learning

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Telecom Paris, Institut Polytechnique de Paris
Durée : 36 mois
Contact : pavlo.mozharovskyi@telecom-paris.fr
Date limite de publication : 2021-10-30

Contexte :
3-year PhD position in statistics and machine learning is vacant at Telecom Paris – one of the leading French engineering schools, a member of Paris Polytechnic Institute. The position is within the project funded by the Starting Grant of the French National Agency for Research in category Artificial Intelligence (ANR JCJC, CE23).

Sujet :
The successful candidate is expected to conduct research on the topics including both theoretical and computational constituents focused on development of large-scale and robust statistical and machine learning methodology. For the project’s details, please do not hesitate to contact me directly.

Profil du candidat :
Expected qualifications of the successful candidate:
– Master or similar degree in statistics / data science / machine learning / artificial intelligence.
– Knowledge of programming in languages of machine learning: R / Python, C / C++, or similar.
– A good command of English.

Formation et compétences requises :
To candidate, following documents are to be sent on pavlo.mozharovskyi@telecom-paris.fr (please also feel free to write on this address for more details about the position):
– Motivation letter.
– Curriculum vitae.
– Copy(ies) of diploma(s).
– Name(s) / email(s) of at least two references.

Earliest starting date: 1st of October 2021.

Adresse d’emploi :
Telecom Paris,
19 place Marguerite Perey,
F-91120 Palaiseau, France