Recherches
SCIAM est une société de conseil en innovation et transformation des organisations fondée sur le dialogue entre technologies et sciences humaines
Nos travaux
En lien avec l’Ecole Normale Supérieure et l’Ecole d’Intelligence Collective de l’Université Mohammed VI Polytechnique, nous hébergeons une activité de recherche de pointe sur les sujets de sciences cognitives, sciences comportementales et d’intelligence collective pour sans cesse développer notre expertise dans les méthodes de transformations éprouvées scientifiquement.
Nos chercheurs
Cette thèse examine l’interaction complexe entre l’intonation et la structure informationnelle en français. La faible association en production entre la très fréquente montée initiale de la fréquence fondamentale et la frontière gauche du focus contrastif non correctif sert de cas d’étude.
Les interactions entre les nombreux paramètres (extra-)linguistiques influençant la distribution de cet accent secondaire prénucléaire rendent difficile l’appréhension de son rôle en perception pour l’accès à l’intention référentielle. Cette thèse soutient que l’on ne peut faire l’économie d’une modélisation probabiliste rationnelle, telle qu’adjointe à la phonologie de laboratoire afin de documenter le poids de chaque paramètre dans l’utilisation de la montée initiale liée au focus. Sous l’hypothèse qu’un lien fort existe entre production et représentations perceptives abstraites, ce travail élabore différentes méthodes et leurs limites pour contribuer à délimiter sa pertinence pour l’accès à l’intention.
Les résultats corroborent le caractère faible de l’association. Des énoncés parallèles impliquant un contraste entre les constituants non répétés sont utilisés. En production, la montée initiale se révèle un marqueur anticipé et non-local de l’empan du constituant focalisé à venir. Testé en perception, l’utilisation adaptée de la montée initiale pour anticiper le référent du focus ne dépend pas de l'empan du constituant avec lequel elle est associée, mais de l’informativité de leur association au cours de l’expérience récente avec le locuteur. Cette thèse propose une rationalité à cet écart entre production et perception en considérant sa faible conventionnalisation dans l’input.
Mots clés : intonation, prosodie, focus, linguistique probabiliste, traitement prédictif.
Dans les condensats de Bose-Einstein spinoriels (CBES), plusieurs états de spin coexistent, donnant lieu à des dynamiques pilotées par des interactions dépendantes du spin (interactions de contact (IC) et dipôle-dipôle (IDD)). En lien étroit avec les travaux expérimentaux de notre groupe, ce manuscrit présente une analyse théorique du comportement dynamique des CBES. On s’intéresse à la situation où les CBES se trouvent dans l’état fondamental ferromagnétique à magnétisation maximale, et qui sont portés hors de l’état d’équilibre.
Nous associons régulièrement des connaissances à des entités collectives. Il existe même des communautés collectives qui se consacrent à produire des connaissances, c’est le cas des différentes communautés scientifiques. Cette thèse s’intéresse au lien entre l’épistémologie individuelle et l’épistémologie collective. Je montre que l’épistémologie classique ne permet pas de rendre compte de manière satisfaisante de cette connaissance collective (Pettit 2004; List et Pettit 2011; Goldman 2014a; Lackey 2016; P. Engel 2015) pour deux raisons principales que sont d’une part la faiblesse inhérente des épistémologies individuelles post-Gettier (Gettier 1963) et le dilemme discursif qui impose des contraintes aux agrégations des attitudes (List et Pettit 2011). Il faudrait logiquement en conclure que...
La performance des modèles d'apprentissage automatique dépend de la qualité de la représentation des données.
On dit qu'une bonne représentation est celle qui facilite les tâches ultérieures. L'apprentissage définit le problème de l'apprentissage d'une bonne représentation qui est alignée avec la tâche cible en aval. Les approches existantes ont démontré une excellente capacité à produire de bonnes représentations pour la tâche en aval. Cependant, ces modèles n'offrent qu'un contrôle limité, voire aucun contrôle, sur les représentations latentes. Les autoencodeurs variationnels et les réseaux adversoriels génératifs ont révélé la possibilité de résoudre ce problème. Cependant, le contrôle explicite de la représentation latente reste un problème non résolu dans le domaine de la vision par ordinateur. L'apprentissage de la représentation latente de ces approches d'apprentissage pourrait ne pas avoir les propriétés souhaitées pour le problème d'apprentissage. Par conséquent, une question fondamentale en matière d'apprentissage de représentation est de savoir comment les contrôler pour les rendre plus efficaces. Le travail présenté dans cette thèse étudie le défi que représente le contrôle de l'espace de représentation latent afin d'améliorer la tâche en aval telle que l'apprentissage automatique, la génération d'images et les tâches de classification.
La mise à jour dynamique des logiciels permet de modifier ces derniers sans interrompre les services qu'ils fournissent. C'est un enjeu important à une époque où les logiciels sont omniprésents et où leur indisponibilité peut être coûteuse (service commercial) ou même dangereuse (système de sécurité). De nombreux mécanismes aux propriétés et besoins variés permettent d'atteindre cet objectif. Ces mécanismes sont employés par des plates-formes dédiées à des types de logiciel et/ou de mises à jour spécifiques. En se spécialisant, ces plates-formes facilitent l'écriture de mises à jour dynamiques mais peuvent être mal adaptées à l'application de certaines modifications imprévues. Il convient alors de sélectionner et combiner les mécanismes les mieux adaptés à chaque mise à jour afin d'assurer une meilleure compatibilité des plates-formes avec les différents logiciels et mises à jour. C'est autour de cet objectif que s'organisent les contributions de ce manuscrit: - Étudier les plates-formes et identifier des modèles génériques de plate-forme et de mise à jour - Étudier les besoins et les propriétés des mécanismes de mise à jour ainsi que leurs capacités à être combinés. - Développer des plates-formes configurables permettant de sélectionner les mécanismes les mieux adaptés pour chaque mise à jour. Les résultats obtenus ouvrent des pistes vers une nouvelle génération de plates-formes ainsi que vers de nouvelles utilisations de la mise à jour dynamique. Le troisième axe a mené au développement de Pymoult, plate-forme configurable pour programmes Python. Cette plate-forme fournit de nombreux mécanismes au travers d'une API de haut niveau adaptée à la conception de mises à jour dynamiques.
Abstract
Pour lutter contre la perte d’autonomie liée au vieillissement dû à des altérations physiques et/ou psychiques, les nouvelles technologies, oeuvrent à retarder sa survenue, la détecter, l’évaluer et proposer des solutions modernes et innovantes. Dans ce contexte, notre projet de thèse vise à exploiter l’apport des techniques d’analyse et de traitement de données pour le suivi du comportement humain.Cette thèse cible deux parties importantes et complémentaires : la première réalise la synthèse journalière de l’ensemble des actions effectuées par la personne, afin de nous renseigner sur son degré d’autonomie. La deuxième partie propose une solution moderne basée sur l’exécution d’exercices physiques sous forme de mouvements contrôlés reconnus et corrigés.
Nos Thésards
A l'interface entre sciences comportementales, l'intelligence collective, politiques publiques et management, les recherches d’Hugo ont pour objectif de comprendre et d'atténuer le "sludge", c'est-à-dire les frictions excessives liées aux processus administratifs qui entravent l'action et génèrent des coûts pour les organisations et les individus. Ces frictions peuvent avoir des conséquences personnelles, organisationnelles et sociétales, que ce soit en compromettant l'impact des politiques publiques, en réduisant la productivité et les performances économiques des entreprises, ou en limitant l'accès des individus à leurs droits, à des opportunités ou à des services.
En utilisant des méthodologies expérimentales, Hugo explore les mécanismes cognitifs à l'origine du sludge et de ses effets, ainsi que des interventions comportementales pour les atténuer. Par ailleurs, il développe une méthodologie intégrant des outils issus de la psychologie, de l’économie et de l'intelligence collective pour réaliser des audits du sludge au sein des organisations, basés sur des évaluations coûts-bénéfices des procédures. In fine, ces travaux visent à promouvoir une simplification administrative fondée sur les preuves.
Si le rôle de la discrimination statistique dans l'inégalité de traitement subie par les populations victimes de discriminations est désormais bien connu, des travaux récents montrent que ses conséquences sont démultipliées par des biais cognitifs provoquant une distorsion de l'information sur les qualifications. La thèse s'appuie donc sur les travaux sur les stéréotypes afin d'examiner les freins à leur remise en cause, notamment dans le processus de recrutement.
Nous abordons le problème des données limitées et de mauvaise qualité pour les modèles d'IA.
Pour traiter ce problème nous utilisons les modèles de langues génératifs (LLM) pour surmonter ces obstacles.
Les données de mauvaise qualité peuvent être des données textuelles sans étiquette ou des données trop bruitées pour le problème.
Par exemple, un email client peut contenir une demande qui n'apparait pas dans les problèmes déjà identifiés ou une demande trop vague. Pour résoudre cela, nous utilisons les LLM génératifs pour interpréter le contexte et identifier l'étiquette manquante, en créant des prompts de haute qualité.
Une autre piste envisagée est la génération de texte de hautes qualités et entraîner des modèles de classification sur ces données dans le but de compenser les problèmes d'étiquetage.
Nous utilisons des données de benchmarks internationaux et évaluerons les modèles de langue en mode zero-shot.
Ces travaux nous permettront de développer des stratégies d'amorçage efficaces pour des données souvent rencontrées dans l'industrie, qui sont limitées ou de mauvaise qualité.