Kickoff meeting action PLATFORM

When:
17/01/2020 all-day
2020-01-17T00:00:00+01:00
2020-01-18T00:00:00+01:00
Where:
Visio

AGENDA
10-10:30 – Tour de table et rappel de l’action
Notre action vise à examiner les impacts des algorithmes décisionnels sur les choix des consommateurs. Pour ce faire, nous organiserons des datathon et hackathon pour la conception et déploiement d’expériences contrôlées.
Datathon: effort de collecte de données, préférences, méta données via des mesures directes (questionnaires) ou indirectes (collecte de données à l’insu des sujets)
Hackathon: effort d’analyse de ces données principalement en utilisant des mesures statistiques et des algorithmes
Donc, pour organiser un datathon et un hackathon, il faut savoir quelle hypothèse nous recherchons.

Laurent/Béa. Note : Il serait souhaitable de consacrer un peu de temps lors de cette réunion pour avoir une vision globale sur les données qu’il est possible de récolter. Exemple : Position sur la page, liste des alternatives, prix, date, timing, trace individuelle… (tu nous as par exemple donner la liste des observables pour Total, est-il possible d’avoir la même chose pour booking, tripadvisor, facebook (par adAnalyst), etc.

10:30-11:30
Christophe: Sur le fond les questions qui m’intéressent sont a) quel est l’importance de l’effet des moteurs de recommandations ( qui peuvent différer par les données et les algo utilisés) sur les comportements effectifs (browsing, achats, partage etc). b) dans quelle mesure sont-ils acceptés et évalués par les consommateurs ?. A la première question il faudrait je pense une approche par expérimentation naturelle, la seconde se prête plus à une expérience en laboratoire (les réponses mesurées se faisant plutôt par des échelles de jugement subjectifs.
L/B : Nous sommes également intéressés par les questions soulevés par Christophe sur (1) impact et (2) acceptabilité. Voici d’autres pistes de réflexion sur ces sujets :
– Est-ce que la recommandation simplement réduit le coût de recherche en proposant la meilleure alternative au consommateur (selon l’offre proposée) ou alors modifie les préférences.
– Est-ce que l’impact de la recommandation est plus forte lorsque elle va dans le sens des croyances du consommateur. Et si c’est la cas, alors les recommandations vont restreindre le répertoire des choix. En d’autres termes, est-ce que les recommandations diminuent (augmentent) le champ des possibles.
– Est-ce que le degré d’ouverture (paramétrisation) de l’algorithme produisant la recommandation agit sur l’acceptabilité. Hypothèse : s’il l’on donne plus ou moins la main au consommateur, la recommandation sera plus acceptée (et donc efficace ?)
Boîte noire vs. algorithme basé sur l’historique vs. algorithme paramétré par l’utilisateur.
– Trouver le point de rupture de l’acceptabilité (par ex : « il est pour moi rédhibitoire que l’algorithme utilise x donnée ».) Arbitrage entre simplifier sa vie par les recommandations et la liberté
– Dynamique de la relation de confiance entre le consommateur et la recommandation
Autres questions (en vrac) :
– Hiérarchiser les déterminants des choix (prix, avis, notes, commentaires, place dans la page internet, etc.)… et la place de la recommandation parmi ces déterminants.
– Impact du format de la recommandation (produit), tri par pertinence, étoiles, avis.

Cas d’usage pour la révélation de préférences et de biais comportementaux
● Datathon 1.1 (co-leads : L. Muller et A. Tsoukias) : Formalisation de modèles de révélation de préférences et de biais
○ Collecter les préférences
○ Comparer les préférences : avec des données existantes pour lesquelles nous avons des choix enregistrés (e.g., choix d’un hôtel sur un site type tripadvisor.com ou booking.com) et également à travers des expériences dans le contexte contrôlé du laboratoire (on-line ou in-situ)
OBJECTIF: Design d’expériences pour la collecte de préférences
● Datathon 1.2 (co-leads : M. Öztürk et A. Fadhuile) : Définition de cas d’usage sous forme de couples (hypothèse/théorie, données). Plusieurs applications :
○ Biais social, c’est-à-dire sur l’influence de consommateurs tiers dans ses propres choix (exemple : notes attribuées en ligne, forum, etc.).
○ Biais d’ancrage, c’est-à-dire l’influence de l’amorçage sur la décision d’achat et sur le nombre de pages visitées ensuite (ex : affichage de prix et/ou produits en première page internet).
○ Biais statu quo: Occurrence dans les choix des options par défaut (ex : standard, options, etc.). = BIAIS STATU QUO… à rapporter avec la question de l’équité dans le classement algorithmique
OBJECTIF: Quelles hypothèses voulez vous vérifier ?

Hackathon pour le design et déploiement des expériences (co-leads : C. Benavent, O. Goga et B. Roussillon) :
● Hackathon pour étendre AdAnalyst pour cibler un ensemble précis d’internautes, de vérifier s’ils ont vu ou cliqué sur des publicités, et de leur demander de répondre à des questionnaires.
OBJECTIF: Quelles mesures directes/indirectes ? => les choix/achats, likes, questionnaire, choice experiment, beauty contest, enchères, etc.

Oana et Sihem: extension AdAnalyst avec le mouse tracking (indirectes) et les pop-ups (directes) – 2 stagiaires financés par l’ANR Jeune Chercheur d’Oana (Salim et Rosa jusqu’au 15/06)

● Hackathon pour la construction d’expériences contrôlées en laboratoire. L’enjeu est ici d’augmenter la validité externe des résultats issus d’expériences de laboratoire et la validité interne des résultats issus des méta-données.
Ceci est, il me semble, un enjeu transversal qui s’appliquera aux différentes questions.
OBJECTIF: Quelles hypothèses voulez vous vérifier ?
Oana et Sihem: Mesure de l’attitude des individus vis-à-vis de la pub en ligne (information ads sur les politiques publiques et product ads)
Oana et Sihem: Fouille de l’évolution des habitudes de consommation des clients TOTAL (stagiaire Abdou jusqu’au 30/06 financé par projet européen de Sihem)
Christophe: Travail sur l’influence des commentaires positifs/négatifs sur les réservations Airbnb

11:30-12
Prochaines étapes

URL :