Programme des 6 et 7 juin 2012

Télécharger le Programme
Mercredi 6 juin

8h30Accueil
Café et muffins seront servis

9h00Mot d'ouverture
Roger Nkambou, directeur du Doctorat en informatique Cognitive (UQAM)

9h10Détection et analyse des activités de criminalité sur Internet
Jean-Michel Doan (LEXSI)


9h50Analyse des émotions dans les transcriptions de conversations téléphoniques
Soumaya Chaffar (Nuances communications) 

Durant les conversations téléphoniques avec les centres d’appels, les appelants peuvent exprimer différents émotions comme la colère ou la satisfaction. Nous cherchons à détecter de telles émotions afin de résoudre les problèmes émergeantes et d’améliorer ainsi la satisfaction des clients vis-à-vis des produits et des services offerts. Nous avons adopté une approche purement linguistique pour la détection des émotions à partir de la voix. 104638 expressions extraites des transcriptions de conversations entre agents et appelants ont été utilisées pour entrainer et tester différents algorithmes de classification supervisée (NBM, SVM et régression logistique). Différents attributs, par exemple sac de mots ou Ngrams,  ont été alors utilisés pour l’analyse émotionnelle. Nous  présenterons plus en détails la démarche suivie ainsi que  les différents résultats obtenus.
10h30Pause café

10h50Middle school students’ experiences during an enquiry-based learning project
Jamshid Beheshti, Charles Cole, Andrew Large, Dhary Abuhimed, Isabelle Lamoureux (McGill, Digital Humanities)

As part of a larger project on interventions agents in information seeking, we report the results of the first phase of the study on middle school students’ affective and cognitive experiences during information processing in an enquiry-based learning project.  We collected data through surveys, interviews and observations on the information processing of grade eight students over a four-month period.  A total of 44 students from two classes in an English-language private school in Montreal participated in the study.   Based on weekly surveys, we attempted to measure affective and cognitive experiences of students with 30 dichotomous variables, 22 of which were robust enough to be included in the final analysis.  The Cronbach’s alpha of 0.746 indicates an underlying latent construct, and consistency among the variables.  Factor analysis reduced the variables into five major factors: Goals, Organization, Consultation, Positive emotion, and Negative emotion, which are labelled as affective experience.  The results show that the Negative emotion has minimal effect on students, while Consultation and Organization fluctuate throughout the information process.  The significance of the results is discussed.
11h30OntoCASE, un outil d’ingénierie ontologique fondé sur une élicitation semi-formelle et graphique de la connaissance d’un domaine
Michel Héon (Cotechnoe)


En ingénierie ontologique, la construction d’une ontologie formelle passe successivement par l’étape d’élicitation de la connaissance experte; par l’étape de codification formelle de la connaissance en ontologie du domaine et par l’étape de validation de l’ontologie produite. OntoCASE est un assistant informatique qui regroupe trois dispositifs. Le premier dispositif (eLi) offre à l’expert du domaine, le moyen d’éliciter sa connaissance en utilisant un langage semi-formel graphique (notamment le langage de Modélisation par Objets Typés MOT). L’utilisation d’eLi et de MOT a pour principal objectif d’assurer un guidage représentationnel permettant de pré-formaliser la connaissance. Comparativement à une élicitation directement représentée en langage ontologique à la « Ontology Web Language » (OWL), l’objectif est dans ce cas de stimuler la créativité tout en évitant la surcharge cognitive induite par une formalisation trop poussée de la pensée. Le deuxième dispositif, OntoFORM, met à la disposition du cogniticien un système expert qui sert à la formalisation du modèle semi-formel graphique en ontologie formelle dans la notation OWL. En comparaison avec le processus manuel, OntoFORM accélère considérablement la codification de l’ontologie la faisant passer de plusieurs jours à quelques minutes. Le dernier dispositif, OntoVAL, offre au cogniticien et à l’expert de contenu un système expert qui permet d’évaluer, en termes de langage du domaine, la syntaxe et la sémantique de l’ontologie du domaine.
12h10Pause midi
 
13h30Résultats du programme de recherche sur l’ingénierie ontologique et le Web sémantique (PRIOWS)
Gilbert Paquette (Chaire de recherche CICE, TELUQ)

Ce programme de trois ans, financé conjointement par le CRSNG et Hydro-Québec, se termine cet été. Il se compose d’un projet d’innovation en gestion de l’information technique chez Hydro-Québec et de quatre projets de recherche portant sur le traitement des ontologies, sur la modélisation des connaissances et des scénarios de travail et de formation, sur le référencement sémantique des ressources et sur l’assistance aux usagers en fonction de leurs connaissances et de leurs compétences.
13h50Un cadre pour la restructuration des modèles ontologiques par l'Analyse relationnelle de concepts.
Amine Rouane-Hacène et Roger Nkambou (GDAC, UQAM)


La construction, la maintenance et l’évolution d’une ontologie sont des activités d’ingénierie ontologique qui, lorsqu’elles ne sont pas bien encadrées, peuvent introduire des anomalies pouvant mener à une détérioration de la qualité de l’ontologie cible. On peut citer par exemple l’incomplétude vis-à-vis le domaine représenté ou la redondance des éléments ontologiques modélisés. Dans le contexte du projet PRIOWS, nous avons développé un cadre complet, constitué d’une suite d’outils permettant de restaurer la qualité structurelle et sémantique d’une ontologie. Notre approche consiste à restructurer l’ontologie de départ par la technique d’analyse formelle de concept et de produire une ontologie améliorée selon les besoins de son contexte d’usage. Nous présenterons l’ensemble des outils développés ainsi que les défis scientifiques et techniques auxquels nous nous sommes confrontés.
14h30Modélisation semi-formelle et formelle des scénarios de travail et de formation
Josianne Basque, Michel Léonard et Sophie Callies (Chaire CICE et Centre LICEF)


Nous avons expérimenté la technique semi-formelle de modélisation de connaissances MOT (Modélisation par objets typés) proposée par Paquette (2002) dans le but de représenter les connaissances mobilisées dans la pratique professionnelle d’experts œuvrant dans divers contextes de travail. Ces expérimentations impliquaient généralement de petits groupes d’employés d’expérience ainsi que de la relève, de manière à favoriser l’explicitation des connaissances expertes mais également le transfert de cette expertise en cours même de séances de modélisation.  Les modèles semi-formels ainsi co-construits peuvent ensuite être transformés en modèles de scénarios de travail pouvant être exécutés sur la plateforme TELOS développée au Centre de recherche LICEF. Ces scénarios peuvent servir de guide interactif aux employés en cours d’exécution de leur tâche. Ils peuvent aussi servir de scénarios de formation. Nous présenterons la méthodologie de modélisation semi-formelle que nous avons élaborée sur la base de nos expérimentations ainsi que deux exemples de transformation de modèles semi-formels en scénarios exécutables.
15h20Pause café
15h40Référencement sémantique et outils de recherche par connaissance et par compétence 
Délia Rogozan, Gilbert Paquette, Julien Contamines, et Denis Gareau

Nous présentons d'abord la plus récente extension de l’ontologie technique du TELOS. Cette extension, destinée à représenter formellement le référencement des ressources, se compose d'une typologie des descripteurs sémantiques utilisés pour décrire les ressources par connaissance et par compétence. Nous distinguons entre référencement global et référencement contextuel à un scénario, une innovation essentielle pour la conception équilibrée des scénaios et pour l’assistance aux usagers. Ensuite, nous présentons deux outils du système TELOS que nous avons conçu sur la base de cette extension. Le premier est le référenceur sémantique qui permet à l’utilisateur d’associer aux ressources des références (c.à.d. descripteurs sémantiques) provenant des ontologies du domaine et des référentiels de compétences. Le deuxième est une suite des fonctions de recherche permettant à l’utilisateur d'interroger le référencement déclaré dans l'ontologie technique du TELOS afin d'identifier des ressources ciblées sur les besoins et ses activités des usagers. 
16h20Processus de recommandation fondé sur un modèle de la tâche et un modèle usager par compétence 
Olga Marino, Gilbert Paquette, Rim Bejaoui, et Perry Lake

Aussi bien dans les processus pédagogiques que dans les processus d’affaires à forte concentration d’expertise, la réalisation d’une activité peut être une tâche complexe, faisant intervenir des ressources et des compétences spécialisées. Nous allons présenter ici un système de recommandation par agents, qui prend en compte les compétences et connaissances de l’acteur responsable de la tâche, l’information sémantique des ressources liées à l’activité et le modèle de la tâche sous-jacent au processus. Le système a été développé sur la plateforme TELOS  et met en relation plusieurs de ses composants : l’éditeur de scénarios, le gestionnaire de tâches, le référenceur sémantique et le gestionnaire de ressources.

Jeudi 7 juin

 9h00GIT / Gestion de l'information technique: un projet d’innovation géré par ontologie
Chantal Gamache (Hydro-Québec) et François Magnan (LICEF et CDS)


Afin de capturer l'expertise technique dans certains domaines ciblés, Hydro-Québec Production a développé en partenariat avec le LICEF et la firme CDS une méthodologie de gestion des connaissances. Ces travaux sont basé sur le système TELOS réalisé dans le cadre du projet pancandien LORNET dirigé par le LICEF. Cette méthodologie est identifiée comme la Gestion de l'information technique (GIT) puisqu'elle permet un accès centralisé aux différents éléments d'information technique venant de divers systèmes d'information. Les premières étapes de la méthodologie s'appuient sur l'ontologie en définissant le contexte sémantique du cas d'usage étudié. Elle se conclut à travers la mise en place d'une application avec des interfaces ciblées pour les usagers. Ces interfaces permettent une navigation libre ainsi qu'un accès plus dirigé selon le contexte de travail.
 9h40La croissance exponentielle de l'information, problème ou opportunité?
Yves Salembier (Coginov)

L'information croit de façon exponentielle, une croissance de 40% en 2011, 90% non-structurée (vidéos, images, sons, documents, courriels, etc.), les systèmes traditionnels:  gestion documentaire, gestion des connaissances, BI, base de données doivent se redéfinir pour faire face à ces nouveaux défis.  L'ajout d'une composante sémantique permettant d'extraire les concepts et les entités, de produire des sommaires et de catégoriser automatiquement les documents est primordiale si on désire préserver l'accès à l'information (findabilité et actionabilité).
10h20Pause café
 
10h45Logiciels de reconnaissance et de sélection des actions pour l’aide à la décision dans situations dynamiques et complexes
Simon Chamberland, Froduald Kabanza (Menya Solutions), Abder Benaskeur, Hengameh Irandoust (Recherche et développement pour défense Canada) et Éric Beaudry (UQAM)

La prise de décision dans des situations dynamiques et complexes engendre une charge cognitive considérable pour les personnes concernées. Pour pallier ce problème, la compagnie Menya Solutions fournit à ses clients, dans plusieurs domaines, des logiciels capables d’analyser une situation impliquant plusieurs acteurs, de comprendre les actions et les buts de ces acteurs, de prédire l’évolution de leurs interactions, de recommander des actions à suivre, et de faire un suivi dans l’exécution de ces actions. Dans cette présentation, nous parlerons plus particulièrement des applications que nous avons développées pour la marine canadienne, capables de reconnaître les unités ennemies durant les opérations navales, de recommander des plans pour contrer leurs attaques et de faire un suivi des engagements pour réviser les actions planifiées et attirer l’attention des commandants sur des événements critiques.
11h25Prise de décision automatique sous incertitude : Aider les robots et les astronautes à conquérir l'espace!
Éric Beaudry (UQAM)


Les missions spatiales sont complexes, coûteuses et risquées. Pour ces raisons, tout doit être planifié dans les moindres détails. Durant cet exposé, nous présenterons des travaux récents, réalisés en collaboration avec la NASA, sur la planification automatique de missions spatiales. Dans un premier temps, nous présenterons les caractéristiques et les défis liés à la planification de ces missions. Par exemple, dans le cas des robots martiens, beaucoup de contraintes techniques doivent être considérées. Dans le cas des activités extravéhiculaires dans l'espace (EVA) des astronautes, des « facteurs humains » doivent être considérés. Dans un deuxième temps, nous présenterons notre approche pour générer des plans sous incertitude pour ces missions. Cette dernière repose sur l'exploitation d'une recherche dans un espace d'états où les variables temporelles sont modélisées à l'aide de variables aléatoires.
12h10Pause midi
 
13h30Définir le jeu vidéo : un survol des processus de production de sens et d’appropriation
Maude Bonenfant (UQAM)


Tout le monde connaît les jeux vidéo. La grande majorité d’entre nous y avons joué. Certains y consacrent même plusieurs heures par jour. Pourtant, plus on se penche sur la question du jeu, plus le concept semble nous échapper à travers des généralités, des préjugés, des méprises. Une des principales erreurs commises par les chercheurs est de confondre la notion de jeu, en tant que définition contextualisée spatiotemporellement, de la fonction de jeu, qui concerne l’ensemble des conditions de possibilité de l’exercice du jeu. À partir de cette distinction essentielle, nous pouvons mieux comprendre les processus de production du sens à l’oeuvre lors des expériences vidéoludiques et les façons de concevoir les modes d’appropriation des joueurs et les manières dont le sens et les usages sont parfois détournés.
14h10Jeu sérieux, monde virtuel SCIENCE EN JEU et projet de gym cérébral
Caroline Julien  (CREO)


14h50Pause café
 
15h05La sensibilité au contexte, modèles et implémentations
Charles Gouin-Vallerand (chercheur-postdoctoral à Carnegie Mellon University et futur professeur à la TELUQ)


Depuis une dizaine d’années, le visage de l’informatique et son implication dans nos vies a dramatiquement changé. L’essor des technologies mobiles et du Web, combiné à d’autres technologies informatiques nous amène vers l’ubiquité de l’informatique, i.e. la présence de plus en plus répandue de l’informatique dans nos vies et dans les objets qui nous entourent. À titre d’exemple, aux États-Unis seulement, 48% des adultes américains (98 millions) en février 2012 possédaient un téléphone intelligent. Grâce à de tels appareils, il est possible à partir des capteurs embarqués et du contenu du Web d’apporter des services adaptés aux utilisateurs en tenant compte de leur profil, de leur historique, de l’emplacement où ils se situent et de l’environnement qui les entourent.  Ce que l’on appelle la sensibilité au contexte. La présentation se développera donc autour de la sensibilité au contexte,  avec une perspective personnelle sur les efforts de modélisation, d’implémentation et d’utilisation de celle-ci.
15h45Les ressources informationnelles (systèmes d’information) à la rescousse de la gestion des connaissances, des compétences et du savoir dans les organisations
Robert Innes (président de GCI)

Les organisations font face à un défi de taille, soit celui de gérer les connaissances, les compétences et le savoir, dans un contexte de régression des ressources financières, matérielles et humaines. Seules les ressources informationnelles semblent être en progression. Cette conférence présente une approche intégrée d’utilisation des ressources informationnelles quant à la gestion des processus de génération, d’acquisition, d’utilisation et d’application des connaissances, des compétences et du savoir.
16h30Table ronde
Caroline Julien (CREO), Raouf Naggar (IREQ, Hydro Québec), Yves Salembier (Coginov)    
17h30Cocktail, séance d'affichage et remise du prix de la meilleure affiche
 


Affiches (jeudi 7 juin à 17h30)

 #1Une approche cognitive du concept de Social Business
Sébastien Caron (UQAM)

Pour tous ceux qui suivent les médias sociaux, l’investissement des entreprises dans l’implémentation du concept de social business en entreprise n’est pas une surprise. Ce concept est intimement lié aux idées de réseaux sociaux, d’entreprise 2.0, de « crowdsourcing », des communautés d’utilisateurs, de marketing social, etc. qui se sont imposés dans le paysage technologique aux cours des dernières années. En tant qu’observateurs des tendances technologiques, on peut sans doute conclure que ce n’était qu’une question de temps avant que les réseaux et médias sociaux envahissent l’entreprise. Ceci dit, les chiffres restent tout de même impressionnants. Forrester estime à 61% le taux de croissance du marché des applications sociales d’entreprise avec une prévision de 6.4 milliard de dollars américain pour l’année 2016 (1). Il s’agit de montant considérable pour une industrie qui repose encore que sur une vague idée de ce que l’on entend par social business. En effet, pour l’instant, les seules définitions proposées proviennent des principaux fournisseurs de plateforme social business ou de groupes de consultants intéressés par le taux de croissance de ce marché. Difficile d’évaluer les solutions proposées quand le problème qu’est censé résoudre le social business n’a pas encore été défini. Les approches et modèles issues de l’informatique cognitive offrent des moyens utiles pour mieux comprendre et définir ce nouveau domaine des technologies d’information. En effet, un des objectifs proposés par le social business consiste à remettre l’être humain au cœur des processus d’entreprise pour mieux gérer les exceptions liées aux traitements automatisés et centralisés réalisés par les progiciels d’entreprise. Il n’existe plus un type de consommateur mais plusieurs consommateurs ayant des besoins, problèmes spécifiques. Les solutions proposées par ces progiciels n’ont pas été conçues pour répondre à ces besoins personnalisés. En remettant le travailleur de la connaissance (1) au centre des décisions, le social business repositionne le rôle des technologies d’information en entreprise en les positionnant comme un prolongement des fonctions cognitives de l’être humain plutôt qu’une solution alternative. Notre proposition est un modèle définissant le contenu et la portée du social business. Nous adoptons un point de vue cognitif s’inspirant du modèle SECI proposé par Nonaka et Takeuchi. Afin de lier le concept de collaboration au concept de gestion des connaissances, nous redéfinissons les 4 sources épistémologiques de la connaissance (l’extériorisation, l’extériorisation, la combinaison et la socialisation (3)) pour y intégrer l’action. La représentation du problème, des besoins à l’aide de données, information et connaissances est ainsi lié aux actions, activités et processus (cycle perception-action). Le concept de social business y est ainsi présenté comme une organisation des capacités humaines et technologiques permettant d’exploiter au mieux l’intelligence collective des entreprises.   
 #2Vers la création d'un corpus annoté sémantiquement pour la langue Arabe
Wajdi Zaghouan (UQAM)

L’étiquetage des rôles sémantiques est une tâche qui a connu récemment un développement considérable.  C’est dans ce cadre que le projet Propbank pour la langue anglaise a été lancé il y a quelques années. Le corpus Propbank qui est une couche sémantique ajoutée au Penn Treebank se compose de deux parties : d'une part les fichiers cadres (frames) comportant les divers prédicats avec leurs arguments possibles, d'autre part les fichiers de l’annotation des rôles sémantiques de ces prédicats. Plus précisément, la tâche consiste à associer à des constituants en position d’arguments d’un prédicat (le verbe dans ce cas) la nature de leur relation avec ce prédicat. Selon la méthode Propbank, un numéro est donné aux arguments pour distinguer leur fonction dans la phrase. L’agent est consigné comme l’argument Arg0, le thème ou patient est l’argument Arg1 et ainsi de suite comme l'illustre l'exemple suivant : Paul mange une pomme [Prédicat Manger], [Arg0 Paul], [Arg1 une pomme]. En plus des arguments numérotés spécifiés pour chaque verbe, les constituants restants qui apparaissent dans la phrase sont annotés comme arguments modificateurs Arg-M. Ils représentent sémantiquement des concepts primitifs tels que la cause [CAU], le lieu [LOC], le temps [TMP] ou la manière [MAN]. Par exemple : Paul a quitté rapidement la maison ce matin aurait la représentation suivante : [Prédicat Quitter], [Arg0 Paul], [Arg1 la maison], [Arg-M-MAN rapidement],[Arg-M-TMP ce matin]. Enfin, le Propbank permet de faire l'annotation des antécédents des arguments 'vide' du verbe comme dans l'exemple suivant: J'ai pris la décision [*] de quitter. Le sujet du verbe quitter dans cet exemple est représenté par la catégorie vide [*] dans l'arbre syntaxique de type Treebank. Dans le Propbank, toutes les catégories sans lien avec un syntagme nominal dans la phrase seront liées par une chaîne de 'coréférence ' représentée dans l'annotation du type Propbank pour l'exemple précédent par : [Prédicat quitter], [Arg0: [*] -> J’ai]. Dans cette communication, nous présentons les différentes composantes du corpus PropBank nouvellement créé pour la langue Arabe. Nous discutons de notre méthodologie ainsi que les outils utilises pour l’annotation et la création des fichiers cadres. Enfin, nous illustrons les particularités de la langue arabe et les difficultés posées par celle-ci lors de la création de ce corpus. Une fois ce travail terminé, le corpus sera mis librement à la disposition des chercheurs et contribuera ainsi à l'avancement de la connaissance dans le domaine du traitement automatique des langues naturelles en général et du domaine de la traduction automatique en particulier. De plus, ce travail pourra servir à la construction d'outils capables de faire l'annotation sémantique des rôles de type Propbank d'une manière semi-automatique grâce aux méthodes informatisées d'apprentissage automatique basées sur des corpus annotés sémantiquement comme celui que nous proposons de construire (Diab et al. 2008). 
 #3L'infonuagique éducative
Claude Coulombe (TELUQ)

Plus qu’une mode, mais bien révolution dans la révolution, l’infonuagique1 (cloud computing) forcera le déplacement des applications pédagogiques dans le nuage. Plus encore, l’infonuagique remet en question le rôle de l’université. L’article présente d’abord l’infonuagique, ses avantages et inconvénients. Puis nous relaterons quelques expériences avec Amazon, Sakai, Moodle et Google Apps. Enfin nous verrons les défis qu’auront à relever les universités. La portée géographique de l’infonuagique et son faible coût par étudiant annoncent un « marché » de l’éducation supérieure planétaire. Les grandes universités américaines, Stanford et MIT en tête, utilisent déjà l'infonuagique comme levier dans une stratégie d'internationalisation de leurs activités. Des entreprises privées emboîtent le pas avec la fondation début 2012 de Udacity par Sebastian Thrun qui relève le défi de l’université sans mur et gratuite. Si une institution comme l’encyclopédie Britannica a pu être détrônée en quelques années, quel est l’avenir des universités traditionnelles? Pour nos universités deux virages s’imposent. D’abord un virage pédagogique vers les compétences puis un virage technologique qui passera par la mise-en-place d’une infrastructure infonuagique communautaire d’agrément2 des compétences en utilisant des eportfolios. L’objectif est d’établir une « barrière des compétences » qui puisera sa légitimité dans la réputation et la proximité avec les populations desservies.
 #4Système de recommandations phylogénétiques
Ahmed Halioui, Petko Valtchev et Abdoulaye Banire Diallo (UQAM)

La phylogénétique moléculaire, une branche de la bioinformatique, possède un vocabulaire spécifique combinant des expressions propre à la biologie, à la génétique et à l’informatique nécessaire à l'étude de l’évolution. L’augmentation dramatique de données génomiques et la grande diversité des méthodes et modèles informatiques utilisées lors de l’inférence phylogénétique, rendent cette analyse phylogénétique de plus en plus complexe. En outre, à travers les tâches de l’analyse, une grande variabilité dans l’utilisation des outils bioinformatiques, les jeux de données et méthodes d’analyses est présente dans la littérature, rendant la comparaison de différentes études portant sur les mêmes espèces difficiles. Des solutions en ligne fournissent des pipelines d’analyses (Phylogeny.fr, Bioextract.org) semi-automatiques, mais aucun d’eux ne défini une "pratique standard" pour la réalisation de ces arbres phylogénétiques en se basant sur différents types de données e.g. protéines virales, ADN de plantes, etc. Nous proposons une architecture d’un système de recommandations phylogénétiques permettant la réalisation de protocoles d’analyses « standard », basé sur une analyse d’études phylogénétiques types et acceptés dans le domaine de la phylogénétique. Ce système sera basé sur une fouille de textes phylogénétiques présentant différentes approches et résultats. La tâche d’acquisition de données se fera par l’analyse d'un corpus de 10000 articles, une base de données disponible dans le laboratoire du professeur A. Diallo. Récemment, une ontologie partielle de l’analyse phylogénétique a été définie, cependant elle ne contient pas les outils, méthodes et référence nécessaires à la production de flux de travaux.
 #5 Collecte d’informations dans les réseaux de capteurs sans fil en utilisant le Système Multi-Agents
Mohamed Sahbi Benlamine et Elbiaze Halima (UQAM)


Un réseau de capteurs sans fil (RCSF) est composé d’un ensemble d’unités de traitements embarquées, appelées nœuds. L'un des défis les plus importants à prendre en considération est la ressource énergétique limitée (généralement une batterie) et la capacité de communication réduite dont dispose un capteur. De plus, et toujours dans le but de diminuer la consommation d’énergie, l'information récoltée devrait être traitée en local. Toute information non utile ou redondante serait alors éliminée. De plus, les caractéristiques de distributivité de ce genre de réseaux et d’autonomie des capteurs ont orienté les nouveaux travaux dans ce domaine vers l’utilisation du paradigme des Systèmes Multi-Agents (SMA) pour permettre une modélisation plus générique et la possibilité de décrire plus facilement de nouveaux types de capteurs, de réseaux ou de protocole. Dans ce contexte, nous proposons une nouvelle approche pour la création et la simulation d’une méthode distribuée de gestion des informations collectées par les capteurs en utilisant une approche multi-agents. Cette méthode sera validée par une expérimentation en passant par une phase de simulation afin d’évaluer les performances et détecter d’éventuelles erreurs c'est-à-dire l’étude des performances d’un système multi-agents fonctionnant sur un réseau de capteurs sans fil.
 #6Wavelets, Features Ranking, and Automatic Cancer Detection in Mammograms
Salim Lahmiri and Mounir Boukadoum (UQAM)

In the Western World, breast cancer is the most common form of cancer in the female population and is expected to affect more women in the future. Early detection of breast cancer is one of the most important factors helping to recover from the disease. Indeed, better treatment can be provided if cancer is detected early. There is a large literature that deals with automatic cancer detection in mammograms. The main purpose of this study is to examine the effect of common statistical features extracted from the wavelet domain to characterize the texture of breast tissue. In particular, the image is processed with the discrete wavelet transform. Then, six statistics are computed from the high frequency channel coefficients. They are the mean, standard deviation, smoothness, third moment, entropy, and uniformity. In order to identify the most informative statistical features, the Bhattacharyya criterion is used to rank the extracted features. Finally, support vector machines (SVM) are used to perform classification task. The Bhattacharyya criterion indicates that the most relevant features in a descending order are the mean, standard deviation, entropy, smoothness, uniformity and third moment. Based on ten fold cross validation technique, the SVM achieves the highest correct classification rate of 94.46%+/-0.0238 when average and standard deviation statistics form the main features vector. The obtained sensitivity and specificity of the automatic classification system are respectively 95.45%+/-0.0267 and 91.27%+/-0.0336. Adding the other statistical features to the previous vector leads to a decrease of the correct classification rate to 93.37%+/-0.0254.
 #7Une architecture à trois niveaux pour la simulation du comportement humain
Othalia Larue, Pierre Poirier et Roger Nkambou (UQAM)

Nous présentons une architecture à trois niveaux pour la simulation du comportement humain, basée sur le modèle tripartite de Stanovich (2010). Ce modèle permet d'expliquer la manière dont le comportement réflexif et le comportement adaptatif émerge chez l'humain de l'interaction de trois niveaux cognitifs distincts. Cette architecture symbolique dynamique est implémentée grâce à un système multi-agent. Nous décrivons notre méthodologie et une première validation: une simulation de tâche de Stroop classique et sémantique.  

 
 #8Modèle d’architecture cognitive distribuée
Rémi Wognin (TELUQ)