Introduction de capacités de rejet et de modèles de langage externalisés dans des systèmes d’apprentissage profond pour la lecture de texte en conditions difficiles

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA / ANTAI
Durée : 36 mois
Contact : guig@irisa.fr
Date limite de publication : 2022-07-10

Contexte :
Depuis 2011, l’Agence Nationale des Traitements Automatisés des Infractions (ANTAI) pilote le programme interministériel de traitement automatisé des infractions routières constatées par des radars. Au Centre de Traitement des Amendes (CNT) de Rennes, les photos en provenance de ces radars routiers sont traitées afin de localiser et de reconnaitre la plaque d’immatriculation et le pays d’origine du véhicule en infraction. Cette opération est réalisée par une chaine de traitement automatique qui s’appuie sur des moteurs de lecture automatique de plaques (LAP) du marché.

Les LAP employés aujourd’hui souffrent de deux limites principales. La première limitation vient du fait que les photos prises par les radars sont parfois bruitées ou bien que des éléments viennent se placer entre le capteur et la plaque (par exemple, de la végétation ou une boule d’attelage). La seconde est due à l’apprentissage biaisé et figé du modèle de langage en raison d’un apprentissage conjoint du modèle graphique de plaques et du modèle de langage

Au-delà des LAP, ces limitations soulèvent des questions fondamentales en apprentissage automatique, en premier lieu sur la mesure de la confiance dans la décision (capacité de rejet, explication), en second lieu sur des architectures performantes permettant de découpler la modélisation des différentes composantes (images, caractères, modèle de langue) tout en gardant les bénéfices d’une modélisation globale (end-to-end).

Sujet :
L’objectif général de la thèse est donc de développer de nouvelles approches en apprentissage automatique appliqué à la LAP, permettant de développer des systèmes performants, facilement adaptables et adaptés à l’interaction avec les utilisateurs validant la décision.

Lever ces limites passe par la construction d’une LAP reposant sur un modèle avec les spécificités suivantes :

1. Capacité de rejet. Le modèle devra être capable d’indiquer qu’il ne sait pas décider de la valeur de l’immatriculation ou d’un ou plusieurs de ses caractères. En pratique, la connaissance du caractère ou des caractères à problème permettra d’interroger une base de données et éventuellement de lever l’ambiguÏté. Doter un modèle d’une capacité de rejet soulève plusieurs questions scientifiques autour de la définition du domaine de validité d’un réseau de neurone, de la définition de mesures de confiance sur tout ou partie de la décision, ou encore de l’explicabilité pour faciliter le travail de validation par les annotateurs.

2. Modèle de langage externalisé. Le modèle devra permettre l’entrainement séparé de la partie reconnaissance des caractères et apprentissage des dépendances inter-caractères et de la partie modélisation du langage, en restant cependant aussi proche que possible d’une architecture de bout en bout dont les performances restent meilleure que celle des approches en deux étapes. On s’attachera donc à définir un modèle intermédiaire entre l’approche séparée et l’approche conjointe, où l’interaction entre les deux étapes est forte tout en permettant d’adapter l’une ou l’autre indépendamment.

Le travail s’appuiera fortement sur les données et l’expertise existante au sein de l’ANTAI, cette dernière disposant de l’ensemble des images prises par les radars routiers depuis le début du programme accompagnées des annotations validées.

Dans un premier temps, on s’intéressera à la problématique du rejet avec une approche bout en bout à l’état de l’art en s’appuyant sur des architectures de type transformer. On étudiera pour cela l’apport du mécanisme d’attention [14,15] et/ou des cartes de saillance [16]. On pourra également s’intéresser à la caractérisation du domaine de validité des données en entrée.

Dans un second temps, on s’intéressera à la problématique de découplage de l’apprentissage du modèle de reconnaissance des caractères et de l’apprentissage du modèle de langage. Une première approche consiste à empiler des modèles appris séparément : un modèle CNN multi-label, transformers ou RCNN pour reconnaître les chiffres/lettres (ou faire des hypothèses) et un modèle de langage type RNN ou transformers par dessus. On s’efforcera ensuite d’introduire un modèle de couplage fort entre les deux de manière à tendre vers une architecture de bout en bout. En particulier, les mécanismes d’attention offre une piste prometteuse, en les couplant à une étape de fine tuning. La génération de données, e.g., à l’aide de la partie décodeur d’un transformer, constitue une autre piste permettant d’anticiper l’évolution du modèle de langage.

Profil du candidat :
La candidate ou le candidat devra posséder un bagage solide en apprentissage automatique, idéalement avec une application à l’un des domaines suivants : traitement automatique de la langue naturelle, vision par ordinateur, analyse de documents.

Formation et compétences requises :
Master 2 ou diplôme d’ingénieur.

Adresse d’emploi :
Rennes

Document attaché : 202205301226_Introduction de capacités de rejet et de modèles de langage externalisés dans des systèmes d’apprentissage profond pour la lecture de texte en condit

PhD Position – Apprentissage d’embeddings de codes : Applications à l’enseignement de la programmation

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO (Laboratoire d’Informatique Fondamentale d’
Durée : 3 ans
Contact : guillaume.cleuziou@univ-orleans.fr
Date limite de publication : 2022-07-15

Contexte :
Improving the pedagogical efficiency of programming training platforms is a fast-growing problem that requires the construction of fine-grained and exploitable representations of learners’ programs. In this PhD thesis, we are interested in learning representations (or embeddings) of programs for pedagogical purposes.

Two main strategies for learning program embeddings have been proposed so far: approaches based on the observation of program execution results (Wang et al., 2018) and those based on the syntactic analysis of programs (Alon, 2019). In this thesis, we will consider an original approach at the intersection of these two strategies based on a representation of programs via an abstract execution sequence and thus aiming to jointly take advantage of both functional and syntactic descriptions of programs (Cleuziou&Flouvat, 2021).

Sujet :
In order to carry out this work, it will be necessary to draw inspiration from models developed for text mining purpose and to study their adaptability for computer programs. Given the specificities of this type of data (restricted vocabulary, importance of ‘words’ order, etc.), it will be interesting to consider either simple (e.g. word2vec), recurrent (e.g. LSTM, GRU), convolutive or Transformer-like (e.g. BERT) neural models.

The fundamental part of the thesis will be backed up by applicative concerns on educational data, aiming at the development of ‘Augmented Pedagogy’ environments for teachers. The aim will be to identify support tasks on which the teacher could be assisted (e.g. detection of learner ‘drop-outs’, suggestion of feedbacks, etc.) and to implement them in a Research & Development process integrated with the digital tools used by the institution’s training courses.

Profil du candidat :
Proficiency (speaking and writing) in French or in English.

Strong skills in programming languages such as Java and Python.

Experience in machine learning, data mining and deep learning.

Interest in Educational data analysis is appreciated.

Formation et compétences requises :
Master’s degree and/or engineering school degree in Mathematics/Computer Science.

Adresse d’emploi :
LIFO (Laboratoire d’Informatique Fondamentale d’Orléans)
Université d’Orléans
France

Document attaché : 202205301010_IA4CSE_PhD_Proposal_2022.pdf

Ph.D. position/Offre de thèse – CYU – ETIS Lab

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ETIS
Durée : 3 ans
Contact : michele.linardi@cyu.fr
Date limite de publication : 2022-06-08

Contexte :
Explainable deep learning models for time series analytics.

Sujet :
We are looking for a Ph.D. student to join (the 1st of October 2022) the team MIDI (https://www.etis-lab.fr/midi/) of the Etis laboratory (CYU).

The candidate will pursue a Ph.D. degree in Computer Science in Deep Learning and Data Science areas, studying application to temporal data (time series).

The research activity will get coordinated by Professor Vassilis Christophides (https://www.etis-lab.fr/2022/01/13/vassilis-christophides/) and Associate Professor Michele Linardi (https://www.etis-lab.fr/2022/01/12/michele-linardi/). The Ph.D. project will also benefit from our current industrial collaborations.

The interested applicants can find attached to this mail all the details of the proposition and the information on how to apply.

Profil du candidat :
– Master’s degree in computer science or data science.
– Advanced programming skills in Python (C++/Java is a plus).
– Strong mathematical background, including Linear Algebra and Statistics.
– Research experience in Machine learning, Deep Learning and Data Mining.
– Fluency in written and spoken English is essential.

Formation et compétences requises :

Adresse d’emploi :
CY Cergy Paris Université

Document attaché : 202205231432_Expl_DL_TS_Thesis_Proposal_CYU_Chris_Lin.pdf

[CFP] SimpleText@CLEF: Automatic Simplification of Scientific Texts

Date : 2022-05-27

Submission site : https://easychair.org/conferences/?conf=clef2022 (track SimpleText)
CEUR-WS templates (both Word and LaTex):

Submission deadline: 27 May 2022 (AoE)
Notification of Acceptance: 13 June 2022
Camera Ready: 1 July 2022
CLEF conference: 5 – 8 September 2022, Bologna – Italy

Being science literate is an important ability for people. It is one of the keys for critical thinking, objective decision-making and judgment of the validity and significance of findings and arguments, which allows discerning facts from fiction. However, scientific texts are often hard to understand as they require solid background knowledge and use tricky terminology. Although there were some recent efforts on text simplification, removing such understanding barriers between scientific texts and general public in an automatic manner is still an open challenge. SimpleText brings together researchers and practitioners working on the generation of simplified summaries of scientific texts. All perspectives on automatic science popularisation are welcome, including but not limited to: Natural Language Processing (NLP), Information Retrieval (IR), Linguistics, Scientific Journalism, etc.

We accept the following types of submissions:
– Regular papers of 10-12 standard pages length with an appropriate number of references.
– Short papers of 5-6 standard pages length with additional pages for references.
– Extended abstracts of 500-1000 words with bibliographic references. Bibliographic references are excluded from word count. Previously published papers can be accepted as extended abstracts (please, provide a reference to your previous work in this case).

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Senior Researcher (permanent position – CDI) in Security and Trusted Artificial Intelligence in Healthcare

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LaTIM Inserm UMR1101
Durée : CDI
Contact : gouenou.coatrieux@imt-atlantique.fr
Date limite de publication : 2022-05-23

Contexte :
l’Inserm recrute un Chercheur Senior (CDI) en sécurité et intelligence artificielle de confiance en santé, voir les liens ci-dessous pour plus de détails.

Date limite de candidature : 24 Juin 2022.

Salaire : 45 600 euros bruts annuels.

### English

Inserm is recruiting a Senior Researcher in security and trusted artificial intelligence in healthcare. The links below detail the job offer.

Application deadline: 2022/06/24.

Salary: 45 600 euros gross per year.

https://pro.inserm.fr/wp-content/uploads/2022/04/chaire-cybaile-.pdf

Appel à candidatures : 2 chaires industrielles en intelligence artificielle

Sujet :
https://pro.inserm.fr/wp-content/uploads/2022/04/chaire-cybaile-.pdf

Profil du candidat :
https://pro.inserm.fr/wp-content/uploads/2022/04/chaire-cybaile-.pdf

Formation et compétences requises :
https://pro.inserm.fr/wp-content/uploads/2022/04/chaire-cybaile-.pdf

Adresse d’emploi :
MT Atlantique Bretagne-Pays de la Loire
Campus de Brest
Technopôle Brest-Iroise
CS 83818
29238 Brest cedex 03

Calcul haute performance pour l’optimisation d’une analyse IACT basée sur la comparaison d’images

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : LAPP
Durée : 36 mois
Contact : flavien.vernier@univ-smb.fr
Date limite de publication : 2022-05-23

Contexte :
Le LAPP est un laboratoire de l’Institut de Physique Nucléaire et de Physique des Particules (IN2P3), institut du Centre National de la Recherche Scientifique (CNRS) qui coordonne les programmes dans ces domaines. Le LAPP est une unité mixte de recherche (UMR 5814) du CNRS et de l’Université Savoie Mont-Blanc (USMB). Plus de 150 chercheurs, enseignants-chercheurs, ingénieurs, techniciens, administratifs, étudiants et visiteurs étrangers y travaillent. Les recherches menées au LAPP ont pour but l’étude de la physique des particules élémentaires et de leurs interactions fondamentales, ainsi qu’à explorer leurs liens avec les grandes structures de l’Univers. Le LAPP est impliqué dans les expériences du LHC (ATLAS, LHCb), celles des neutrinos (SuperNémo, STEREO, LBNO, ..), d’astrophysique (HESS, CTA) ou des ondes gravitationnelles (Virgo). La localisation du laboratoire à 50 kms du CERN, et la présence d’un laboratoire de physique théorique dans les mêmes locaux, en font un laboratoire très attractif pour tous les scientifiques de ce domaine de recherche. Le LAPP héberge également un mésocentre de calcul et de stockage de taille intermédiaire mais qui contribue de manière significative aux traitement de données des grandes expériences de physique telles ATLAS, LHCb ou CTA.

Sujet :
L’expérience Cherenkov Telescope Array (CTA) deviendra, dans un futur proche, le plus grand observatoire d’astronomie gamma au monde.
À ce jour, un premier prototype de télescope de grande taille (Large Size Telescope, LST-1) est opérationnel sur le site de La Palma.
Un effort du LAPP, dans le cadre du système de contrôle et d’acquisition des données de CTA (Array Control And Data Acquisition system}, ACADA), a permis de développer et de fournir une analyse en temps réel, basée sur des algorithmes de reconstruction simples et robustes.
Celle-ci est en phase de déploiement sur le site de La Palma et traite les données du prototype LST-1 en utilisant seulement quelques cœurs de calcul.
Cet algorithme traitera, à terme, les données de $13$ à $19$ télescopes à La Palma, soit environ 17 Go/s et environ 27 Go/s sur le site du Chili.

Une des missions de l’analyse en temps réel de CTA consistera à envoyer des alertes aux autres observatoires d’astronomie multi-messagers.
Cette analyse devra composer avec les repointages très rapides des LST.
Elle devra également évaluer le plus vite possible si une alerte reçue d’un de ces observatoires doit être suivie et devra permettre d’ajuster le pointé des télescopes à la volée pour obtenir une détection de meilleure qualité.
Ces alertes concerneront principalement l’étude de phénomènes transitoires tels que les AGN variables ou les sursauts gamma (Gamma Ray Burst),
Phénomènes qui nécessitent une meilleure sensibilité à basse énergie ce qui permet une détection plus rapide.
Une méthode de reconstruction, basée sur la comparaison d’images, provenant des télescopes, à des modèles préalablement calculés, permet d’obtenir une bien meilleure sensibilité à basse énergie.
Malheureusement, les implémentations actuelles sont extrêmement lentes et ne permettent donc pas un traitement en temps réel des données acquises.
Activités
Nous proposons donc une thèse d’informatique dont le but est d’optimiser cette méthode de reconstruction afin de permettre son utilisation en tant qu’analyse en temps réel.
Dans un premier temps, l’étudiant en thèse optimisera l’algorithme classique à l’aide des méthodes du calcul haute performance et pourra tester son efficacité en profitant de la présence de LST-1 et de la construction future de LST-2, 3, 4 et également des futurs télescopes de moyenne taille (Medium Size Telescope, MST). Cette méthode sera aussi testée à l’aide de simulations.
Ensuite, des méthodes de comparaison plus efficaces, basées sur des algorithmes de calcul haute performance (tables de hashage, page rank, etc), seront développées et évaluées afin de permettre une analyse en temps réel sur le site complet. L’utilisation de GPU peut également être envisagée.

Profil du candidat :
Le candidat devra être scientifiquement curieux, motivé par la découverte et le travaille sur des projets d’envergures. Il devra avoir des bases solides en mathématique et informatique, ainsi qu’une volonté de les approfondir.

Postuler en ligne
https://emploi.cnrs.fr/Offres/Doctorant/UMR5814-CORFEU-003/Default.aspx

Formation et compétences requises :
Formation
Bac+5 en informatique

Compétences / qualifications demandées
Compétences générales :
• travail en équipe
• présentation de travaux dans des conférences internationales
Connaissance mathématiques :
• méthode de Krylov / méthode QR / page rank
• algorithme de Levenberg-Marquardt
Connaissances des architectures matériels :
• CPU (vectorisation, niveau de cache)
• GPU (architecture et modèles de programmation)
Langages de programmation :
• C++ (C++17)
• CUDA
• une connaissance de python 3 est un plus
Compilation/gestion de programmes :
• cmake 3
• make
• g++-9 ou plus récent
• git / gitlab
• une connaissance des dernières fonctionnalités de nvc++ est un plus

Adresse d’emploi :
LAPP
9 Chem. de Bellevue,
Annecy-le-Vieux,
74940 Annecy

PhD position: Hate speech detection at CNRS@CREATE Singapore

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CNRS@CREATE Singapore
Durée : 48 mois
Contact : farah.benamara@irit.fr
Date limite de publication : 2022-05-30

Contexte :
Program DesCartes is a large French-Singapore program led by CNRS@CREATE, the first international subsidiary of CNRS.

We are recruiting 14 students (having a Bachelor/Master or currently in M1 or M2) to pursue a PhD, mostly in Singapore in top 15 university worldwide and some in France, all co-advised by French and Singaporean researchers, particularly around the fields of IA.

A (non-exhaustive) list of PhD topics can be found at:

DESCARTES PhD


We have schemes for very competitive salaries for PhDs in Singapore (~3.000 euros/month ++)

Students interested need to contact ASAP:
descartes-hiring@cnrsatcreate.sg

More information can be found at https://www.cnrsatcreate.cnrs.fr/descartes/

Sujet :
Hate Speech (HS) and harassment are particularly widespread in online communication, especially due to users’ freedom and anonymity and the lack of regulation provided by social media platforms. This phenomenon has determined a growing interest in using artificial intelligence and Natural Language Processing techniques to address social and ethical issues. An extensive body of work has been proposed to automatically detect HS relying on a variety of deep learning methods (Founta and Nunes, 2018; Schmidt and Wiegand, 2017). Most research focus on HS as expressed in texts without taking into account the contexts in which they have been uttered. This PhD aims to bridge the gap by investigating for the first time how HS are expressed and detected in multi-party dialogues. We will propose new context-based deep learning methods that leverage the conversation thread to account for hateful contents and how they evolve as the dialogue proceeds.

This project is part of the DesCartes program, https://www.cnrsatcreate.cnrs.fr/descartes/, that aims to develop disruptive hybrid AI to serve the smart city and to enable optimized decision-making in complex situations, encountered for critical urban systems.

References

Paula Fortuna, Sérgio Nunes:A Survey on Automatic Detection of Hate Speech in Text. ACM Comput. Surv. 51(4): 85:1-85:30 (2018)

Anna Schmidt, Michael Wiegand: A Survey on Hate Speech Detection using Natural Language Processing. SocialNLP@EACL 2017: 1-10

**Supervision**

Jian Su (Institute for Infocomm Research (A*STAR, https://colips.org/~sujian/ )), Shafiq Joty (Nanyang Technological University (NTU), https://raihanjoty.github.io/ ) and Farah Benamara (Toulouse University, https://www.irit.fr/~Farah.Benamara/ )

**Duration**

4 years

**Location**

CNRS@CREATE Singapore (https://www.cnrsatcreate.cnrs.fr/about-us/)

Profil du candidat :
–>Master degree in Computer science with solid background in NLP and/or machine learning

Formation et compétences requises :
–> A good experience in deep learning approaches for NLP

–> Good programming skills in Python

Adresse d’emploi :
**How to apply**

Send your CV together with a list of publications to Jian Su (sujian@i2r.a-star.edu.sg), Shafiq Joty (srjoty@ntu.edu.sg) and Farah Benamara (farah.benamara@irit.fr) before May 27th 2022

Migration et intégration de données hétérogènes et multi-sources

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : CERI Systèmes Numériques – IMT Nord Europe
Durée : 5 mois
Contact : jerry.lonlac@imt-nord-europe.fr
Date limite de publication : 2022-07-31

Contexte :
L’objectif de travail du stage est de concevoir et de mettre en place un outil permettant la migration et l’intégration d’un ensemble de données issues de diverses sources et représentées sous différents modèles (données relationnelles, données liées, données XML, etc.) dans une base de données communes. Pour effectuer cette tâche, des règles de migration devront être établies pour s’adapter à la structure de la base de données qui contient préalablement quelques données. Afin de limiter la duplication des données dans la base de données après l’intégration, un travail préliminaire d’alignement de données devra être réalisé. Pour garantir une migration efficace des données, l’intégration des données importées devrait satisfaire quelques contraintes parmi lesquelles : le maintien de la cohérence de la base données ; le maching/l’appariement entre les champs de données provenant de différentes sources et ceux de la base de données, phase préalable essentielle à la migration.

Sujet :
L’objectif de travail du stage est de concevoir et de mettre en place un outil permettant la migration et l’intégration d’un ensemble de données issues de diverses sources et représentées sous différents modèles (données relationnelles, données liées, données XML, etc.) dans une base de données communes. Pour effectuer cette tâche, des règles de migration devront être établies pour s’adapter à la structure de la base de données qui contient préalablement quelques données. Afin de limiter la duplication des données dans la base de données après l’intégration, un travail préliminaire d’alignement de données devra être réalisé. Pour garantir une migration efficace des données, l’intégration des données importées devrait satisfaire quelques contraintes parmi lesquelles : le maintien de la cohérence de la base données ; le maching/l’appariement entre les champs de données provenant de différentes sources et ceux de la base de données, phase préalable essentielle à la migration.

Profil du candidat :
– M2 ou dernière année d’école d’ingénieurs sur un cursus informatique
– Connaissances en Intelligence Artificielle (Data mining, Machine Learning)

Formation et compétences requises :
– Connaissances en intégration/analyse de données massives, ETL
– Connaissances en développement d’applications web
– Bon niveau en programmation (SQL, XML, C++, python)
– Bon niveau en communication (écrit/oral) en français et/ou en anglais.

Adresse d’emploi :
IMT Nord Europe
941, rue Charles Bourseul
CS 10838
59508 DOUAI Cedex – France

Document attaché : 202205200849_Proposal_for_internship_IMT_Nord_Europe-Data_integration.pdf

PhD Position on Datalog Reasoning – INRIA/LIRMM

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : INRIA/LIRMM
Durée : 3 ans
Contact : david.carral@inria.fr
Date limite de publication : 2022-07-31

Contexte :
This PhD proposal is funded by the bilateral project R4Agri (https://www.dfki.de/en/web/news/ai-supported-decision-making-systems-for-agriculture-german-french-project-r4agri-launched). The goal of the projet is to carry fundamental research on hybrid IA techniques which will have later a potential for technological transfert, in particular in the context for automatized agronomy.

Sujet :
The topic of the PhD revolves around Datalog reasoning on Knowledge Graphs. Targeted issues include explanations and probabilistic reasoning.

Profil du candidat :
The ideal candidate for this position has a strong interest in symbolic AI, together with solid skills in theoretical computer science. A background on programming is also very much appreciated.

Topic description :
https://www-sop.inria.fr/members/David.Carral/files/r4agri-phd-topic.pdf

Formation et compétences requises :
Technical topics include (among others) first order logic, symbolic reasoning, and databases.

Adresse d’emploi :
Inria Montpellier
860 Rue de St – Priest
Montpellier

Document attaché : 202205190832_r4agri-phd-topic.pdf

Call For Papers: GRAPH-QUALITY Workshop Co-located with ECML-PKDD, 23 September 2022

Date : 2022-05-18 => 2022-06-01
Lieu : Grenoble, France

Call For Papers: GRAPH-QUALITY Workshop Co-located with ECML-PKDD, 23 September 2022

https://graphquality.github.io/

*************************************************************

[Please accept our apologies if you receive multiple copies of this Call for Papers (CFP)]

The GRAPH-QUALITY Workshop at ECML-PKDD 2022 aims to explore the theoretical and practical aspects of quality of data, models and evaluation in the context of graph-based data mining and machine learning. We invite contributions in the area of Data and Model Quality for Mining and Learning with relational data (measures, algorithms, models, tools, evaluations, etc.) to be presented at the GRAPH-QUALITY workshop which is to be held at the European Conference on Machine Learning and Principles and Practices of Knowledge Discovery from Data (ECML-PKDD), in Grenoble, France – 23 September 2022.

Topics of interests

Anomaly detection on graphs
Assessment of fairness and bias in the context of graphs, graph models (including representations), and subsequent tasks such as link prediction
Explainable graph models and predictions
Graph models and representations learning in the context of missing data and noise
Privacy preserving data mining and machine learning for relational data
Probabilistic methods and uncertainty estimation on networks
Algorithms and metrics for quality preservation on relational data

Submission Information

All papers will be peer-reviewed single-blind. We welcome many kinds of papers, such as (and not limited to):

Novel research papers
Work-in-progress papers
Vision and position papers
Appraisal papers of existing methods and tools (e.g., evaluations, lessons learned)

Authors should indicate in their abstract the kind of submissions that the paper belongs to, to help reviewers better understand their contributions. Submissions must be in PDF, written in English and formatted according to the single-column CEUR-ART style (downloadable at http://ceur-ws.org/Vol-XXX/CEURART.zip). Novel research papers should be 10 to 16 pages (including references), work-in-progress, vision/position, and appraisal papers should be 6-10 pages (including references). Accepted papers will be presented as a poster in the poster sessions and a few will be selected to also give an oral presentation.

Authors may opt-in to have their paper possibly published in workshop proceedings at CEUR-WS. All papers will be posted on the workshop website. The proceedings containing the opt-in papers will be submitted for inclusion to CEUR-WS. Assuming a sufficient number of high-quality papers, the proceedings are likely to be accepted, but conforming to CEUR-WS policy it cannot guarantee beforehand that the proceedings will indeed be published. Papers in the CEUR-WS series are published Open Access, without fee, under the CC-BY 4.0 licence (exceptions for Crown or US government employees). You as the author remain to hold the copyright.

For accepted papers, at least one author must register for the conference and attend the workshop in-person to present the work.

Submit via EasyChair: https://easychair.org/my/conference?conf=graphquality2022

Important Dates

Submission: June 20, 2022

Notification: July 18, 2022

Early registration deadline for the conference: July 22, 2022

Camera-ready: August 12, 2022

Programme and papers online: Monday 5 Sep 2022

Workshop date: September 23, 2022

Futher information and Contact

Organizers: Nidhi Hegde, Christine Largeron, Jefrey Lijffijt, Osmar R. Zaïane

Website URL: https://graphquality.github.io/

E-mail: graphquality22@gmail.com

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.