Invités

Hedi Karray

Hedi Karray

Curriculum Vitæ

M. Hedi KARRAY est Professeur de génie informatique à l’Université de Technologie Tarbes Occitanie Pyrénées UTTOP. Il a eu son doctorat de l’Université de Franche-Comté en 2012 et son Habilitation à Diriger des Recherches de l’Institut National Polytechnique de Toulouse en 2019. Il dirige le groupe de recherche PICS (Planification, Interoperabilité et Coordination des Systèmes Dynamiques) au Département Systèmes du Laboratoire Génie de Production. Il est est aussi chercheur associé au Centre national de recherche ontologique de l’Université de Buffalo. Il est le co-président du chapitre français de l’IEEE SMC et le directeur général du “Knowledge Graph Alliance”. Hedi Karray est l’un des principaux initiateurs de l’intiative Industrial Ontologies Foundry. Il a coordonné et participé à plusieurs projets de recherche appliqués aux domaines industriels comme OntoCommons.eu et ANR CHAIKMAT. Il est également le responsable du master international Industrie 4.0 à l’UTTOP.

Présentations lors de PFIA
 lun, 13:45

Commonsense knowledge for trusted flexible Manufacturing

! En direct

Dans l’ère de l’Industrie 4.0, la capacité de s’adapter rapidement aux changements est essentielle pour l’usine du futur. Le projet CHAIKMAT a pour but de développer une méthode novatrice fondée sur l’intelligence artificielle (IA) pour renforcer la flexibilité de la chaine de production, augmenter la clarté des décisions prises et solidifier la relation de confiance entre l’homme et la machine. L’approche suggérée met l’accent sur l’IA orientée vers l’utilisateur, évaluant la capacité des machines à adopter de nouveaux processus de production et offrant aux spécialistes des explications compréhensibles concernant les mécanismes décisionnels. CHAIKMAT va coordonner l’utilisation des ontologies, des raisonnements sémantiques, et des grands modèles de langages par le biais d’un graphe de connaissances du bon sens dans la fabrication.

La présentation sera en français avec des transparents en anglais.


Nathalie Nevejans

Nathalie Nevejans

Curriculum Vitæ

Nathalie Nevejans est professeure de droit à l’Université d’Artois (France). Spécialisée en droit et éthique de la robotique et de l’IA, elle est titulaire de la Chaire IA Responsable (ANR-19-CHIA-0008). Autrice de nombreux articles, elle participe à des événements nationaux et internationaux provenant tant du monde académique que de divers secteurs professionnels (industrie, santé, assurance, etc.) Elle est aussi régulièrement auditionnée en tant qu’experte auprès de diverses instances européennes sur le droit et d’éthique de l’IA. Elle est membre du Centre Droit, Éthique et Procédures (UR 2471). Son livre « Traité de droit et d’éthique de la robotique civile », LEH éditions (1232 pages), paru en 2017, a été récompensé par le prix Francis Durieux 2019 de l’Académie des sciences morales et politiques.

Présentations lors de PFIA
 mar, 09:00

La réglementation de l’intelligence artificielle dans l'Union européenne

! En direct

Face aux risques potentiels que pourraient causer certains usages de l’intelligence artificielle (IA), l’Union européenne a choisi la voie de la réglementation. Le Règlement sur l’IA, appelé AI Act, devrait être définitivement adopté pour l’été 2024. Ce sera la première législation au monde destinée à encadrer largement la mise sur le marché ou en service, ou encore l’utilisation des systèmes d’IA, y compris les modèles et systèmes GPAI, par les fournisseurs et les déployeurs. L’AI Act introduit une classification des systèmes d’IA selon les risques qu’ils peuvent engendrer et instaure une gradation des contraintes légales pour leur mise en conformité en fonction de leur niveau de risque, depuis le risque minimal jusqu’aux usages totalement interdits. La violation de ces règles sera sanctionnée par des amendes administratives importantes. Bien que l’AI Act constitue une avancée importante pour la sécurité juridique des entreprises et la protection des personnes, susceptible d’inspirer le reste du monde, ce texte n’est cependant pas dénué de défauts.


Prof. Simon Parsons

Simon Parsons

Curriculum Vitæ

Simon received his PhD from University of London in 1993, and held academic positions at Queen Mary and Westfield College, Massachusetts Institute of Technology, City University of New York, University of Liverpool and King’s College London before joining Lincoln. At King’s, Simon led the expansion of activity that resulted in the recent re-establishment of a separate Department of Engineering. Simon’s research interests centre on the design and analysis of autonomous systems, in particular with respect to how teams of autonomous systems can decide what to do in complex environments, and how they can explain these decisions.

Présentations lors de PFIA
 mar, 13:45

Using AI to make agriculture more sustainable

! En direct

Food is important. All of us rely on it, every day, to survive. At the same time, the methods that have been used to grow our food over the last 80 years raise concerns about long-term sustainability. Modern agriculture relies heavily on chemical herbicides and pesticides which have side-effects that cause ecological damage, and intensive agricultural practices have degraded soils and led to costly erosion. More sustainable agriculture is urgently needed, and artificial intelligence (AI) can help achieve it.

In this talk, I will look at ways that AI can help to make our food supply more sustainable. All the examples will be based on work at the University of Lincoln, some that I have been involved in, and some that is the work of my colleagues. Broadly speaking this work falls into three categories: modifying existing practices by making use of AI; identifying new practices that are only feasible because of AI; and efforts to increase the pipeline of AI practitioners who are engaged in making agriculture sustainable.


Virginie Do

Virginie Do

Curriculum Vitæ

Virginie Do is a Research Scientist at Meta, working on safe & responsible AI. She recently completed her PhD at Université Paris Dauphine-PSL and Meta (Facebook AI Research). Her PhD focused on fairness in recommender systems. Her work has been recognized with an Outstanding Paper Award at AAAI 2022 and a L’Oreal-UNESCO French Young Women In Science award.

Virginie Do est chercheuse à Meta, travaillant sur l’IA sûre et responsable. Elle a récemment terminé son doctorat à l’Université Paris Dauphine-PSL et Meta (Facebook AI Research). Sa thèse porte sur l’équité dans les systèmes de recommandation. Ses travaux ont été récompensés par le prix du meilleur article AAAI 2022 et le prix Jeune Talent L’Oreal-UNESCO pour les Femmes et la Science.

Présentations lors de PFIA
 mer, 09:00

Prix de thèse AFIA

! En direct

Machine learning algorithms are widely used in the recommender systems for personalizing content recommendations based on user preferences. However, these algorithms can inadvertently promote certain producers while overlooking others, raising ethical and societal concerns about fairness and representation. This work aims to create fairer recommendation algorithms that balance user preferences with content producer welfare. Addressing the challenges of defining fairness for ranked recommendations and preserving computational efficiency, we propose a framework grounded in social choice theory. This framework guides the development of new recommendation methods that fairly distribute exposure to content producers without compromising recommendation quality. Our methods are substantiated by theoretical guarantees of fairness, convergence and computational efficiency, as well as real-world dataset evaluations.

Les algorithmes d’apprentissage automatique (machine learning) sont largement utilisés dans les systèmes de recommandation pour personnaliser les suggestions de contenu en fonction des préférences des utilisateurs. Cependant, ces algorithmes peuvent involontairement favoriser certains producteurs tout en négligeant d’autres, soulevant des préoccupations éthiques et sociétales concernant l’équité et la représentation. Ce travail vise à créer des algorithmes de recommandation plus équitables qui équilibrent les préférences des utilisateurs avec le bien-être des producteurs de contenu. En abordant les défis liés à la définition de l’équité et à l’efficacité computationnelle, nous proposons un cadre ancré dans la théorie du choix social. Ce cadre guide le développement de nouvelles méthodes de recommandation qui distribuent équitablement l’exposition aux producteurs de contenu sans compromettre la qualité des recommandations. Nos méthodes sont étayées par des garanties théoriques concernant l’équité, la convergence et l’efficacité computationnelle, ainsi que par des évaluations sur des jeux de données.


Enrico Motta

Enrico Motta

Curriculum Vitæ

Prof Enrico Motta is a Professor of Knowledge Technologies at the Knowledge Media Institute (KMi) of the UK’s Open University. He also holds a part-time professorial position at the Department of Information Science and Media Studies of the University of Bergen in Norway. His work spans a variety of research areas including data science, semantic and language technologies, intelligent systems and robotics, and human-computer interaction. He has authored over 400 refereed publications and his h-index is 71. His current activities include the use of AI techniques in the academic publishing industry; the deployment of intelligent robots in healthcare and urban settings; and the use of AI techniques to enable large-scale news analytics and support data journalism.

Présentations lors de PFIA
 jeu, 09:00

Machine Learning and Knowledge Engineering to enable sensemaking: Case Studies in Robotics and News Analytics

! En direct

For over a decade my research group in scholarly and news analytics has developed a number of tools and methods which allow us to identify and make sense of the key trends and dynamics characterising academic research and, more recently, news media. Our solutions include (but are not limited to) methods that automatically generate granular ontologies characterising the space of research topics; visual analytics solutions that make sense of the dynamics of research communities; an innovative approach to forecasting the emergence of new research areas; large-scale knowledge graphs to support scientific research; an approach to capture the range of opinions about a topic, as expressed in the media; and others. A key feature of our solutions is the integration of large scale data analytics with knowledge-based analyses and techniques, to improve not just performance but also a system’s explanation capabilities. In this talk I will provide an overview of our research in these areas, presenting both the novel capabilities we have realised and the resulting user-centric deployments.


Pierre Zweigenbaum

Pierre Zweigenbaum

Curriculum Vitæ

Pierre Zweigenbaum est Directeur de Recherche au CNRS au sein du Laboratoire Interdisciplinaire des Sciences du Numérique (LISN) à l’Université Paris-Saclay, où il a notamment dirigé l’équipe de traitement automatique des langues (ILES). Avant cela, il a passé vingt ans à l’Assistance publique - Hôpitaux de Paris et à l’Inserm. Ses recherches portent sur le traitement automatique des langues appliqué aux textes médicaux. Ses travaux lui ont valu la reconnaissance de l’American College of Medical Informatics (Fellow ACMI, 2014) et de l’International Academy of Health Sciences Informatics (Fellow IAHSI, 2019). Il est également membre du Comité scientifique consultatif de la Plateforme des données de santé. Actuellement coordinateur des projets ANR KEEPHA et PREDHIC sur l’extraction d’informations dans des textes médicaux, il fait partie d’une large collaboration visant à promouvoir des communs numériques pour le traitement automatique du français en santé.

Présidence de sessions
Présentations lors de PFIA
 lun, 16:20

Récentes avancées de l’inférence en langue naturelle pour les essais cliniques

Mathilde Aguiar, Pierre Zweigenbaum, Nona Naderi

! En direct
 lun, 17:10

Équilibrer qualité et quantité : comparaison de stratégies d'annotation pour la reconnaissance d'entités nommées en cardiologie

Virgile Barthet, Laura Monceaux-Cachard, Christine Jacquin, Cyril Grouin, Joconde Weller, Pascal de Groote, Emmanuel Morin, Pierre Zweigenbaum

! En direct
 jeu, 13:45

Grands modèles de langue : l'avenir du traitement automatique des langues en santé ?

! En direct

Le traitement automatique des langues est sous le feu des projecteurs grâce à la notoriété récente des grands modèles de langue. Je tenterai de cerner les points clés de ce succès, de montrer comment nous en sommes arrivés là, et soulignerai les difficultés qui restent à résoudre. J’examinerai dans ce contexte le rôle que les grands modèles de langue peuvent jouer dans le domaine médical, les enjeux qu’ils soulèvent dans ce domaine, et comment arriver néanmoins à en bénéficier, notamment dans le contexte français.

 jeu, 14:50

Table ronde - Quel avenir pour la recherche en l'IA à l'heure des LLMs ? espoirs, enjeux, limites

Pierre Zweigenbaum, Éric Gaussier, Davide Buscaldi, Cassia Trojahn dos Santos

! En direct

Table ronde commune CNIA, IC et RJCIA.


Samuel Tronçon

Samuel Tronçon

Curriculum Vitæ

Samuel Tronçon est chercheur à Résurgences R&D et philosophe : il s’est spécialisé en informatique appliquée aux sciences sociales. Son travail se situe à l’interface entre les sciences sociales et l’informatique. Il conçoit des modèles théoriques avec l’ambition de combiner la puissance des outils formels avec la profondeur de la recherche de terrain. Ses principaux thèmes de Recherche sont : les interactions sociales, les dynamiques d’apprentissage et de collaboration, les émergences de formes et de discours dans les réseaux et le patrimoine immatériel vivant. Il est membre fondateur du groupe LIGC (Logique et Interaction: vers une géométrie cognitive) et du groupe LOCI (Locativité et interactivité en informatique, linguistique et sciences sociales). Il est mobilisé depuis 2017 sur l’instrumentation des dynamiques participatives dans la gestion des enjeux sociaux et environnementaux sur les territoires, au travers notamment d’un Programme Investissement d’Avenir avec l’INRAE et l’Université Paul Valery.

Présentations lors de PFIA
 ven, 09:00

Le cyber-réductionnisme en question ; renoncer, succomber ou refonder ?

! En direct

Comme dernier avatar de la modernité, l’IA participe de tous les fantasmes quant au prétendu nouveau monde qui vient. L’utopie techno des uns fait la dystopie punk des autres. On voit la “marque” IA partout faire surface comme promesse de productivité, d’efficacité et de temps libre. On l’associe, bon gré mal gré, à toutes les dimensions, sérieuses ou pas, du grand rêve futuriste : la robotique, les sciences cognitives, la science fiction ou le transhumanisme. Et on passe allègrement du jeu de l’imitation comme expérience de pensée ou fiction théorique, au drame annoncé par les uns, si ce n’est désiré par les autres, du grand remplacement par les machines dans la société si ce n’est l’évolution.

Pourtant, jusqu’ici, ce que j’appellerai par précaution l’“intelligence computationnelle”, était un domaine de recherche plutôt confidentiel, éclaté en différentes branches ne se réclamant pas toutes du projet de construire des « intelligences » dites « artificielles ». Cet état de fait, combiné aux freins technologiques auxquels se confrontait le domaine, ont fait que nous avions le luxe de pouvoir tracer une séparation claire entre scientifiques des champs de l’IC/IA d’un côté, et évangélistes, futurologues ou artistes de l’autre. Avec la phase 3 de l’histoire de l’IC/IA, ces frontières se sont brouilllées. Des scientifiques et des ingénieurs se retrouvent en promoteurs, conscients ou pas, de tous les narratifs du complexe technico-socio-culturel qu’est devenue l’IA. D’autres cherchent à éviter la compromission en espérant revenir à un état dans lequel l’IA ne serait qu’un moyen, totalement sous contrôle, ou ne serait pas. Or, la recherche, ne peut et ne doit être partie prenante d’une idéologie ou d’un marketing social, même sous couvert des meilleures intentions. C’est pourtant le cas.

Néanmoins, plutôt que de se plaindre de la situation actuelle, il faut peut être se contenter de regarder les choses en face. Car, et c’est probablement le fait le plus important, l’IA nous échappe et sort de plus en plus du giron de la science pour prendre sa place en tant qu’objet culturel et technologique. Et il devient donc de plus en plus urgent de nous poser simplement la question du “que faisons-nous ?” plutôt que de nourrir la confusion généralisée du “où allons nous ?”.

L’objet de cette conférence est de reposer la question des fondements et de la méthode dans le champ de l’informatique théorique et de l’IA. Nous présenterons une analyse critique du discours actuel, et nous rappellerons les fondements scientifiques qui permettent de développer une pensée de l’intelligence computationnelle débarassée de ses sous-entendus idéologiques.

Événements
APIA CNIA IC JIAF RJCIA Agents et IA Santé et IA Société et IA Tutoriels Organisation
Types de présentations
Invitation Présentation Ateliers Tutoriels Organisation Démonstration Poster Table ronde