Résumé
Le terme agent intelligent désigne dans l’usage spécialisé de la veille un outil de recherche. Il correspond à un logiciel de type métamoteur comportant de multiples fonctionnalités de recherche et de traitement de l’information. Or, depuis quelques années, les moteurs de recherche ont intégré la technologie agent pour devenir de véritables systèmes multi-agents et ont conquis le marché de la recherche informationnelle. Ces derniers permettent de réduire l’entropie du Web et ils commencent à apporter des solutions au problème de la surcharge d’informations sur le disque dur de l’utilisateur. En effet, de nouveaux systèmes capables d’indexer le Net et le disque de l’internaute sont disponibles. Ainsi devraient émerger des outils complets d’indexation et de traitement de l’information. Si cette technologie comporte bien des avantages pour l’utilisateur, elle pose des problèmes de confidentialité et présente des dangers de faire naître une société sous constante surveillance. Malgré ces risques de dérapage, la technologie agent devrait mettre à la portée de tous les hommes et femmes l’énorme documentation de l’humanité, à la fois littéraire et scientifique, sous forme de bibliothèque universelle. Par ailleurs, la convergence des moteurs de recherche et de la téléphonie mobile devrait donner un pouvoir accru aux consommateurs.
Nous avons posé comme hypothèse directrice que les moteurs de recherche ont incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails contribuent à gérer les évolutions économiques et sociétales d’Internet.
Notre hypothèse a été validée à partir de l’observation des usages et des utilisateurs et de l’analyse des documents scientifiques du domaine. Nous avons proposé un modèle à la fois explicatif du succès du moteur de recherche Google et prédictif des évolutions possibles.
Il nous reste à suivre les développements des interfaces spécialisées et des problèmes relatifs à la présence des moteurs sur le disque de l’usager.
The term intelligent agent signifies in the specialized terminology of Internet monitoring a search tool. It corresponds to software of the meta-search engine type comprising of many search and information processing functions. However, for a few years, the search engines have integrated agent technology to become true multi-agent systems and conquered the information search market. The latter make it possible to reduce the entropy on the Web, and they are beginning to manage the problem of data overload on the end-user’s hard disk. Indeed, new systems able to indexer both the Net and the PC hard disk are being tested. Thus complete all-round search tools for data-processing should emerge. If this technology comprises many advantages for users, it poses problems of confidentiality and presents dangers to give birth to a global society under constant monitoring. In spite of these risks, agent technology should put at everyone’s disposal the whole of mankind’s literary and scientific works in the form of a universal library. Moreover, the coming together of search engine technology and mobile telephony should enhance the negotiating power of the consumer.
Our hypothesis stated that search engines had incorporated the functions associated with intelligent agents previously. They are extending their presence onto the user’s hard disc. Thus, the agents contribute to the management of the Internet as it develops economically and socially.
Our hypothesis was validated after observing the usage and the users and after analysing scientific documents in the field of study. We have endeavoured to propose a model explaining the success of Google, and predicting possible developments.
We still must follow how specialized interfaces will emerge and the problems relating to the presence of search engine technology on the user’s hard disc.
INTRODUCTION GÉNÉRALE
En inventant l’expression « intelligence artificielle » en 1956, lors d’une Conférence pluridisciplinaire au Collège de Dartmouth aux Etats-Unis, quelques chercheurs américains, John McCARTHY, Martin MINSKY, Nathaniel ROCHESTER et Claude Shannon ont inauguré une ère nouvelle associant étroitement la pensée humaine et l’outil informatique. Pour beaucoup, cependant, l’intelligence ne peut être que l’apanage de l’humain. En effet, il est fréquent d’employer l’adjectif « intelligent » pour qualifier les capacités cognitives. Le dictionnaire Le Petit Robert[1] propose d’ailleurs les définitions suivantes : « qui a la faculté de connaître et de comprendre » ou « qui est, à un degré variable, doué d’intelligence ». Les exemples cités par cet ouvrage s’appliquent aussi bien aux êtres humains qu’aux animaux. Richement connotée et valorisée, l’intelligence serait donc exclusivement de l’ordre du vivant. On ne saurait, par conséquent, l’employer pour désigner un programme informatique.
Curieusement, dans sa dernière version, Le Petit Robert a ajouté une définition propre à l’intelligence informatique libellée de la manière suivante : « qui possède des moyens propres de traitement et une certaine autonomie de fonctionnement par rapport au système informatique auquel il est connecté ». Pourtant, l’idée même d’une machine indépendante capable de traiter des informations et d’agir sans intervention humaine n’est pas anodine sur le plan éthique, économique et social. La littérature et le cinéma ont d’ailleurs exploité ce thème qu’ils ont progressivement introduit dans la conscience collective.
Dans la pratique, sont apparus dans les années 1990, des programmes informatiques présentant ces caractéristiques. L’essor d’Internet à partir de 1995 a, en effet, favorisé la création de programmes capables de récupérer et de filtrer des documents disponibles sur le réseau des réseaux. On leur a donné, à tort ou à raison, le nom d’« agent intelligent ». Mais de même que l’intelligence se rapporte généralement à l’humain, de même le terme agent, selon Le Petit Robert, s’applique à une « personne chargée des affaires et des intérêts d’un individu, d’un groupe ou d’un pays pour le compte desquels elle agit » ou « jouant le rôle d’intermédiaire dans les opérations commerciales, industrielles et financières ». En d’autres termes, les « agents intelligents[2] » résultent de la conjonction de deux attributs humains : agir et penser.
Bien que la recherche sur les agents informatiques au sens le plus large remonte aux années soixante-dix, ce terme a été utilisé pour la première fois en 1997 pour décrire les agents programmes et les agents d’interface intelligente conçus pour Internet. En particulier, l’article de Gilles DERUDET[3], intitulé « La révolution des agents intelligents » dresse un panorama de cette technologie émergente. Quelques ouvrages[4] paraissent à la même époque sur ce sujet.
Concrètement, cette notion recoupe de multiples applications : les métamoteurs de recherche en-ligne et les logiciels du même type, les aspirateurs de sites Web, les comparateurs de prix, les outils de filtrage, les interfaces intelligentes et les programmes de profilage des internautes et de leurs usages. Nous verrons ultérieurement que cette définition devrait s’appliquer également aux moteurs de recherche à bien des égards.
Quoi qu’il en soit, les agents intelligents proposés au public sur Internet sous forme de logiciels n’ont pas connu le succès escompté. Les usagers leur ont préféré les moteurs de recherche jugés plus simples d’utilisation, plus rapides et plus efficaces. Quelles sont donc les causes de l’engouement généré par ces derniers au détriment des premiers ? Quelles sont les conséquences de ce choix sur le développement de la société de l’information ? Que sont devenus, dans ces circonstances, les agents intelligents ? Autant d’interrogations auxquelles nous tenterons d’apporter des éléments de réponse.
Ainsi, nous avons choisi d’étudier les enjeux économiques et sociétaux des agents intelligents d’Internet en observant les usages des outils de recherche. Notre intérêt pour cette technologie est né des enseignements suivis en 1997 à l’Université de Paris II, et à celle de Paris VII dans le cadre d’un Diplôme d’Etudes Approfondies en nouvelles technologies de l’information et de la communication. A cette époque, la presse spécialisée vantait les mérites de ces programmes censés révolutionner la recherche documentaire sur Internet. Or, en 2004, il n’est plus question d’agents intelligents dans la presse informatique (le terme est remplacé par celui d’agent logiciel ou de programme agent) et l’intérêt des médias de masse s’est déplacé vers la concurrence entre les moteurs de recherche et les portails.
En 1998, nous avons proposé à nos étudiants de l’École Polytechnique un module d’enseignement (en langue anglaise) intitulé « L’homme et la machine ». A cette occasion, une attention toute particulière a été portée sur les représentations induites par cette relation complexe. Les étudiants ont manifesté leur vif intérêt pour la question et ont pris position pour ou contre la possibilité de construire une machine intelligente.
Le cinéma et la littérature nous apportaient de nombreuses illustrations où apparaissaient clairement les craintes mais aussi la dimension utopique liée à cette problématique. A l’évidence, l’imaginaire entre dans la relation entre l’humain et la technique. Et malgré le rationalisme de nos étudiants, la part de rêve et de symbolisme reste présente, s’agissant d’une technologie ou d’une innovation qualifiée d’intelligente. Pour cette raison, nous avons décidé d’analyser les enjeux d’une technologie qui ne laisse personne indifférent tant les implications sur le plan économique et sociétal sont importantes.
L’originalité du sujet réside dans le fait que cette technologie récente est encore mal connue. En effet, Internet tous publics ne date que de 1995. Son essor a été rendu possible par l’invention du World Wide Web et par la création du navigateur Netscape. Dès lors, le Web marchand a pu voir le jour. Bien que la notion d’agent en informatique ait d’ores et déjà fait l’objet de nombreuses parutions avant 1995, peu de publications abordaient la question des usages et des attitudes des usagers face aux logiciels dédiés à Internet.
Néanmoins, nous attirons l’attention sur le fait que les pratiques des usagers évoluent rapidement et sont susceptibles de modifier le paysage multimédia. Ainsi, un logiciel aussi populaire soit-il peut être amené à disparaître du jour au lendemain. Le sort de Netscape en est une illustration puisqu’il a été remplacé par Internet Explorer, intégré dans le progiciel Windows de Microsoft. En d’autres termes, une killer application, selon l’expression consacrée par les Américains (à savoir une innovation révolutionnaire et rapidement appropriée par les usagers) peut à tout moment bouleverser le marché et rendre obsolète une technologie largement diffusée. En définitive, le rythme des innovations rend l’interprétation des interactions entre le social et la technique d’autant plus délicate que nous ne disposons que de très peu de recul.
Quoi qu’il en soit, il est possible de tracer les grandes lignes des évolutions technologiques en la matière sur la période des quinze dernières années. Aux débuts d’Internet en France, au milieu des années 90, la performance des moteurs de recherche restait très médiocre. Tous les espoirs se portaient alors sur les prouesses escomptées des agents intelligents. Pourtant, avec l’arrivée de Google, à partir de 1998, les moteurs se sont imposés grâce à l’amélioration de leur base d’indexation et de leurs algorithmes de tri et de classement. L’analyse des usages, à ce jour, montre très clairement que les moteurs constituent un enjeu économique majeur.
En l’occurrence, la gratuité des services de recherche documentaire permet aux internautes d’accéder à toutes les sources d’information. Pour ce faire, ils empruntent généralement un moteur de recherche[5]. En contrepartie, celui-ci leur transmet des annonces publicitaires sous la forme de liens personnalisés correspondant aux centres d’intérêt des usagers. Ainsi, ces dot.com génèrent un chiffre d’affaires grâce à la publicité et à la vente des licences de leur technologie.
A titre indicatif, en 2003, une partie importante des flux d’informations transite par les moteurs de recherche qui centralisent[6] les stocks de données sur Internet et les rendent accessibles. On estime qu’en 2003 le chiffre d’affaires publicitaire[7] engendré par les moteurs était de 3 milliards de dollars avec un taux de croissance annuelle de l’ordre de 35%.
Cela étant, il subsiste un intérêt pour les logiciels agents spécialisés dans la recherche informationnelle sur Internet. Ces programmes sont développés par de petites sociétés financées par le capital risque et utilisés par des professionnels de la veille. A titre indicatif, les cadres commerciaux, documentalistes ou veilleurs professionnels travaillant pour le compte d’autres sociétés constituent cette catégorie.
Cependant, aucun agent logiciel n’a, à ce jour, produit un impact significatif sur la demande. Malgré cela, les professionnels suivent attentivement l’évolution de cette technologie tout en se servant essentiellement des moteurs et des annuaires. En d’autres termes, l’utilisation des logiciels spécialisés dans la veille sur Internet reste pour l’instant expérimentale.
Parallèlement, une forte concentration économique du secteur des moteurs de recherche a pu être observée, faisant suite à l’effondrement du marché des dot.com. A titre d’exemple, la firme Yahoo a racheté, en 2002, la société Inktomi[8], puis Overture[9], qui avait elle-même absorbé auparavant les moteurs Fast[10] et AltaVista[11]. Ces opérations financières lui ont permis de se passer des services de Google et de concurrencer ce dernier. En 2004, seuls trois grands dispositifs équipés de moteurs de recherche, à savoir Google, Yahoo et MSN de Microsoft subsistent. Les autres moteurs et portails représentent une faible part de marché[12].
Pour toutes ces raisons, la presse et la télévision se focalisent sur la concurrence entre les trois portails les plus fréquemment utilisés par les internautes. Ainsi, l’introduction en bourse de Google a été largement médiatisée, tout comme le conflit entre cette firme californienne et Microsoft pour dominer le marché.
Cela étant, une technologie reste virtuelle tant qu’elle n’est pas diffusée et appropriée par des utilisateurs. Si nous nous sommes au préalable attaché à la mise en place de la technologie agent par le truchement des moteurs de recherche, notre seconde démarche concerne l’internaute.
Pour comprendre les raisons de l’adoption des moteurs par la majorité des internautes au détriment des logiciels du type métamoteur, nous avons choisi d’observer deux groupes d’usagers : les étudiants et les universitaires d’une part, et les professionnels de la veille d’autre part.
Le premier groupe est constitué par les étudiants, les enseignants, les chercheurs, et les documentalistes de plusieurs établissements d’enseignement supérieur et de recherche à Paris et en région parisienne[13]. Nous justifions ce choix de la manière suivante. Nous avons accès à une population composée d’universitaires et d’étudiants qui peuvent se connecter facilement à Internet et qui s’en servent quotidiennement. Ils l’utilisent soit comme messagerie, soit comme moyen de recherche documentaire ou informationnelle. Il nous est possible de suivre l’évolution de leurs usages dans le temps.
D’ailleurs, l’échantillon observé est constitué par des premiers groupes à adopter l’usage d’Internet en France, à la fois pour ses loisirs et ses études, car des salles informatiques ont été mises à leur disposition dès 1995. L’observation de ce milieu nous semblait d’autant plus réalisable que nous avons, par nos activités d’enseignant, accès à trois grands campus dispensant des enseignements fort diversifiés. Par conséquent, il ne nous a pas été difficile de distribuer nos questionnaires.
Cependant, nous avons intégré dans notre corpus d’usagers un groupe de contrôle plus particulièrement concerné par l’évolution des agents intelligents de type logiciel. Nous avons pensé que ce groupe nous fournirait des renseignements pertinents sur ces logiciels qui n’ont pas pénétré le marché grand public. D’ailleurs, il est possible que certains produits puissent avoir un impact sur la demande des entreprises.
Toutefois la participation de ce second groupe a posé quelques difficultés. Certains professionnels de la veille économique et stratégique ont, en effet, refusé de répondre à notre enquête pour des raisons de confidentialité. Cependant, une trentaine de questionnaires dûment complétés ont pu être récoltés grâce à deux forums sur Internet : ADBS[14] et veille-concurrence[15].
C’est pourquoi nous avons distribué deux questionnaires, le premier sur support papier auprès des étudiants et des universitaires afin de connaître leurs usages en matière de recherche d’information sur Internet. Quant au second, il a été proposé aux professionnels par le biais du courrier électronique. Dans cette perspective, nous avons posté un message sur l’un ou l’autre des deux forums. Les personnes intéressées nous ont alors adressé une demande de questionnaire qu’ils nous ont ensuite retourné par attachement de courrier électronique.
Pour préparer les enquêtes, nous avons procédé à des entretiens semi-directifs. Nous avons interrogé certains spécialistes en économie et en sciences de l’information, et quelques usagers engagés dans la veille économique. Afin d’approfondir notre problématique, nous avons entrepris quelques interviews auprès d’experts après avoir analysé les réponses des questionnaires.
L’analyse des contributions des forums spécialisés nous a également permis de connaître les préoccupations des professionnels à l’égard de la technologie agent. Notre première démarche consistait à faire un état des lieux d’une technologie qui avait fait l’objet, au moins en apparence, d’un rejet des usagers et nous avons voulu en connaître la raison.
Notre troisième démarche consistait à examiner l’offre technique et le discours des éditeurs de logiciels afin de connaître le type de représentations qu’ils cherchaient à véhiculer pour promouvoir leurs produits (logiciels) ou leurs services. Nous nous sommes penché plus particulièrement sur les pages Web des éditeurs de logiciels et des sites Web des journaux spécialisés dans l’économie d’Internet. Une partie de notre corpus documentaire est constituée d’articles scientifiques sur le sujet d’agents intelligents, essentiellement en langue anglaise. Nous nous attendions à un décalage important entre le discours techniciste et la réception des usagers. Pour analyser nos résultats, nous avons utilisé le logiciel Sphinx. Il s’agit d’une application de création d’enquêtes et d’analyse de données, développée par la société le sphinx, installée à Annecy et à Grenoble[16].
Afin d’intégrer notre recherche dans un contexte plus large, nous avons commencé par poser le problème suivant: en quoi la technologie agent influe-t-elle sur le développement de la société de l’information ? Cette expression est attribuée à Jacques Delors[17], président de la Commission Européenne en 1992. Selon M. Delors, la société de l'information ne serait pas née avec Internet. Elle ne correspond pas uniquement à une simple transformation technique car « le changement à l’œuvre dans la fusion de l’informatique et de l’audiovisuel comme dans l’avènement des communications numériques implique bien davantage qu’une révolution technologique supplémentaire[18]. » Il s'agit plutôt d'un phénomène dynamique global, à la fois technologique, économique et sociétal. L’expression décrit un modèle de société dans laquelle l'information s'échange de manière planétaire et instantanée, sous une forme multimedia unique caractérisée par la numérisation de toutes les formes de communication. « L’économie se dématérialise, des activités productives s’externalisent, les services dominent, la détention comme la circulation de l’information deviennent décisives[19]. » Les industries de la communication comprenant l’informatique, l’audiovisuel, les télécommunications et le multimédia contribuent ensemble à faire émerger ce secteur dynamique de l’économie. « L’ouverture du monde multimédia (son-texte-image) constitue une mutation comparable à la première révolution industrielle[20]. » C’est sur ce secteur que l'ensemble du processus d'innovation, de production et d'échange s'appuie et se développe :
« Il ne s’agit pas d’imposer d’en haut un schéma d’autant plus abstrait qu’on ne sait pas si notre intuition d’un bouleversement de notre vie quotidienne sera vérifiée. L’enjeu est bien plutôt d’animer la rencontre des opérateurs de réseaux, des promoteurs des services électroniques et des concepteurs d’applications, afin que les priorités des uns devenant des hypothèses solides de travail pour les autres, le projet prenne corps. [21]»
Il ne s’agit pas, pour nous, de réduire cette question à un quelconque déterminisme technique, mais de chercher à comprendre la complexité d’interactions économiques et sociales mises en œuvre en mettant l’accent sur les usages prévus par les concepteurs et réellement observés chez les utilisateurs. Après avoir analysé les résultats de nos enquêtes et de nos entretiens, nous nous sommes rendu compte de l’échec des logiciels agents auprès du public, et de l’appropriation massive des moteurs de recherche. Nous avons pensé que la technologie agent existait toujours et qu’elle était devenue transparente. Comment une technologie devenue invisible aux yeux des usagers peut-elle transformer le développement d’une société qui se construit autour des transferts et de la mise en réseau des informations, des connaissances et des savoirs ?
Notre corpus se limite aux outils de recherche d’information, que ce soit des agents logiciels ou les moteurs ou métamoteurs. De même que nous n’examinons que les produits destinés au grand public ou aux professionnels appartenant à de petites structures. Nous n’y incluons pas les systèmes de gestion des connaissances, par exemple. En effet, les grands groupes ne font que commencer d’investir dans cette technologie. En plus, il est trop tôt pour connaître la manière dont celle-ci s’est implantée dans les milieux professionnels ou si le KM connaîtra les succès escomptés.
Il est également difficile de comprendre toutes les implications de la technologie agent sur toute la société d’information. Il nous a fallu porter notre attention uniquement sur certains aspects. L’un des problèmes majeurs de cette société émergente est celui de la surcharge d’informations générée par la croissance exponentielle d’Internet, surcharge qui entraîne stress et fatigue[22]. Nous avons constaté que l’internaute est confronté à une quantité excessive d’informations disponibles sur Internet. Le nombre de pages consultables augmente tous les jours en même temps que les moteurs de recherche indexent et stockent sur leurs bases de données de plus en plus de documents. Le problème qui se pose à la société de l’information n’est plus celui du manque d’information mais celui de sa surabondance. Viennent ensuite la fiabilité de l’information et l’intégrité de ses sources. L’ensemble stocké constitue une sorte de mémoire collective, ce qui implique des problèmes sérieux d’accès, de validité et de protection. C’est aux moteurs de recherche et aux annuaires qu’il incombe de veiller à cette tâche.
L’internaute doit gérer un cycle complexe d’opérations qui consistent à rechercher l’information, à la stocker, à la récupérer lorsqu’il en éprouve le besoin. Si Internet représente pour lui un environnement surchargé d’information, le disque dur de son ordinateur devient également très vite saturé de documents récupérés sur le Web ou de signets à organiser. En d’autres termes, l’entropie ou incertitude de trouver ce qu’il cherche se situe à la fois localement et sur le réseau des réseaux. L’objectif de tout outil de recherche consiste à réduire l’incertitude chez l’usager à l’égard de la quantité gigantesque de pages proposées par les moteurs ou autres supports documentaires. Si ces derniers fonctionnent relativement bien, la gestion interne du disque dur de l’usager reste à améliorer. C’est un des défis que les moteurs cherchent à relever.
Trouver l’information dont on a besoin sur un moteur de recherche, cela pose également d’autres problèmes. L’expérience et l’expertise de l’usager entrent en ligne de compte malgré l’amélioration algorithmique des outils de recherche. Une requête réussie est souvent l’affaire d’un choix judicieux de termes et parfois de découvertes inattendues. Lorsque l’usager récupère un document, il n’a jamais la certitude que le site soit authentique, qu’il ne s’agisse pas d’un canular ou d’une désinformation. La labellisation des ressources sur Internet reste très insuffisante. Or ce facteur peut déterminer en partie la confiance que l’usager a en un site Web, surtout commerçant. Les agents à l’avenir devraient apporter des solutions à ce problème. Par ailleurs, le langage xML[23] devrait améliorer la lecture sémantique et par conséquent l’indexation des documents.
Notre question de départ nous amène à nous demander comment les usagers se servent des outils de recherche pour acquérir des documents sur Internet et quels sont les aspects positifs et négatifs de ce processus sur le plan sociétal et économique. Comment expliquer l’adoption des moteurs de recherche plutôt que les logiciels agents ? L’analyse de l’offre technologique et des usages confirmés d’outils de recherche permet-elle de nous éclairer sur les rapports entre la technique, le social et l’économique ? Nous chercherons à apporter quelques réponses à cette question.
Nous proposons, comme hypothèse directrice, que les moteurs de recherche ont incorporé les fonctionnalités autrefois associées aux logiciels agents. Ils étendent leurs technologies sur le PC de l’usager. Ainsi les agents intégrés dans les moteurs ou portails contribuent à gérer les évolutions économiques et sociétales d’Internet.
Cette hypothèse se compose de trois sous-hypothèses :
Les moteurs de recherche ont incorporé les fonctionnalités autrefois associées aux logiciels agents. [1]
Il nous faut d’abord expliquer comment la technologie agent s’intègre dans les moteurs et portails. Cette intégration constitue l’un des facteurs qui expliquerait leur appropriation par le plus grand nombre d’usagers. La présence de l’IA, peut-être dérangeante, reste invisible. Il nous semble vraisemblable que cette intégration technologique fait partie du processus de concentration caractéristique du marché des logiciels d’une part, et du processus de globalisation.
Néanmoins, les moteurs de recherche ne suffisent pas à réduire la surcharge d’informations subie par l’usager. Un modèle semble émerger, associant moteurs de recherche en-ligne et logiciels agents intégrés dans le système d’exploitation de l’usager. Les moteurs, portails et éditeurs de systèmes d’exploitation entrent en concurrence pour faire adopter leur dispositif de moteur de recherche interne. L’objectif est d’interconnecter en permanence le moteur (ou portail) et l’ordinateur de l’usager. L’enjeu est de taille puisqu’une partie considérable des flux d’informations vers les sites marchands transitent par les moteurs de recherche[24]. Ce processus qui consiste à faire adopter un programme sur le PC de l’usager permettra de fidéliser ce dernier. Nous examinerons les conséquences de cette stratégie. Nous expliquerons comment les barres d’outils, parmi d’autres dispositifs, peuvent apporter des solutions au problème de surinformation et quelles sont leurs véritables fonctions. Cette affirmation constitue la seconde partie de l’hypothèse directrice :
Les moteurs de recherche étendent leurs technologies sur le PC de l’usager. [2]
Les agents informatiques sont indispensables au développement de l’internet marchand, notamment les moteurs de recherche qui jouent un rôle pivot entre les usagers et les sites commerciaux. Cependant, il existe un certain nombre de problèmes liés à la validité de l’information et à l’intégrité des sites. Les moteurs de recherche peuvent apporter une solution à ce type de problème. Ils peuvent également jouer un rôle central dans le développement de la convergence des médias : Internet et téléphonie mobile.
Ainsi les agents intégrés dans les moteurs ou portails contribuent à gérer les évolutions économiques et sociétales d’Internet. [3]
La gratuité des services de recherche informationnels implique un échange d’informations entre l’usager et le moteur ou portail. Cet échange comporte des avantages (économiques) pour le développement du commerce en-ligne, fournit une source de revenus aux intermédiaires (les moteurs de recherche) et favorise l’innovation technique. Cependant, il comporte également des risques (sociétaux) en ce qui concerne la confidentialité et la protection de la vie privée. Les usagers ne sont peut-être pas conscients de cet échange bien que celui-ci comporte un certain nombre d’inconvénients. Quels dangers les programmes informatiques représentent-ils pour l’usager ? Quelles solutions peut-on envisager pour protéger ce dernier contre les abus de la surveillance informatique ? Nous examinerons les technologies mises en œuvre afin de profiler les demandeurs d’informations à des fins publicitaires et marketing.
Quel rôle l’imaginaire joue-t-il dans la diffusion d’une innovation ? Si le terme « agent intelligent » est très riche en connotations et charges symboliques, le terme « moteur de recherche » resterait peut-être plus neutre, et n’entraînerait pas de réaction de la part de l’utilisateur. L’usager se méfie, à notre avis, des systèmes que les concepteurs affublent de l’adjectif « intelligent ». Certains documents écrits par les chercheurs en intelligence artificielle et des articles de la presse constituent une source d’informations à analyser dans cette perspective, de même que certains propos des usagers interrogés lors de nos enquêtes. Ainsi, nous examinerons la part du mythe et du symbolique qui entre en ligne de compte dans la diffusion et l’appropriation d’une nouvelle technologie.
Afin de répondre aux différentes questions de notre recherche, nous avons examiné plusieurs cadres de référence. Ceux-ci nous ont fourni un ensemble de concepts et de comptes rendus d’expériences susceptibles d’orienter notre investigation. Notre recherche s’inscrit tout d’abord dans le cadre des sciences de l’information, plus précisément dans celui de la sociologie des usages développée en France depuis une quarantaine d’années. Nous faisons appel également aux théories économiques développées récemment afin d’expliquer la nouvelle économie d’Internet et les modèles économiques émergents. Ensuite, nous avons porté notre attention sur la théorisation de l’intelligence artificielle et des agents intelligents.
Le cadre de référence scientifique s’inscrit dans la recherche en Sciences de l’Information et de la Communication. En effet, l’étude des usages et de l’appropriation d’une nouvelle technologie a déjà fait l’objet de recherches approfondies. Dominique WOLTON[25] et Philippe BRETON[26] ont étudié les usages d’Internet ou de toute autre nouvelle technique du point de vue sociologique. Philippe BRETON a mis en évidence l’utopie[27] qui accompagne la mise en place de l’idéologie de communication à partir de 1942.
D’autres auteurs ont proposé une théorisation des usages antérieurs aux débuts d’Internet en France. A titre d’exemple, Victor SCARDIGLI insiste sur l’importance du contexte social. Il oppose une vision techno-logique à une vision socio-logique. La première est « la logique techniciste par rapport à la logique sociale de mise en place de nouvelles technologies. »[28] Selon ce directeur de recherches au CNRS, les deux logiques « s’articulent intimement plus souvent qu’elles ne s’opposent.[29] » La socio-logique met l’accent sur l’importance du contexte historique et politique propre à chaque pays et le rôle des différents acteurs impliqués dans la définition des usages[30]. Ce sociologue présente quatre caractéristiques de la techno-logique fondée sur le mythe du Progrès scientifique : un discours techniciste qui confirme ce mythe comme bienfaisance sociale , « chaque innovation technique paraît à point nommé pour résoudre les grands défis des sociétés contemporaines. »[31]
La technique devient un objet en soi, « un idéal qui assure le bonheur[32] » dans tous les domaines, un outil au service de l’économie et de la société. Il s’agit d’une vision utopique de la technologie. Les avantages dépassent les nuisances[33]. La techno-logique peut devenir une logique d’action ou une stratégie de prise de pouvoir, et cherche à imposer le bon usage de l’innovation[34]. Elle définit le mode de diffusion des innovations dans la société (irradiation ou impact)[35].
Anne-Marie LAULAN, quant à elle, étudie les phénomènes de résistance dans le domaine de la communication. Pour ce professeur, l’une des fondatrices des sciences de l’information et de la communication (SIC), la résistance des usages dénote « la réaction multiple, diverse et créatrice et toujours active que les citoyens, les utilisateurs, les publics apportent aux offres techniques qui leur sont faites. »[36] L’usage, selon Anne-Marie LAULAN, sort du cadre strictement utilitaire pour inclure le contexte qu’elle décrit en termes d’imaginaire social et de représentations symboliques des utilisateurs. Cet aspect apporte un appui théorique à notre troisième hypothèse.
« Au niveau de l’imaginaire, les engouements et les peurs se manifestent métaphoriquement, au travers d’amalgames, d’assimilations, d’affabulations où la dimension technique se trouve transmutée au plan symbolique. »[37]
Notre position consistera à vérifier les dimensions sociales, culturelles et symboliques qui sous-tendent les usages des techniques qui nous intéressent. En effet, chercher des informations implique le transfert à autrui de sa démarche et de son parcours à travers le réseau. En d’autres termes, l’observateur est observé. Le sujet devient l’objet d’étude du système. La quête d’information est aussi productrice de nouvelles données, donc de valeur économique. La recherche d’informations est un acte social comportant de multiples conséquences.
Selon Anne-Marie LAULAN, l’état de la société à un moment donné va favoriser ou au contraire freiner l’usage de telle ou telle technologie. « On ne répétera jamais assez l’importance du contexte politique, économique, social par rapport aux systèmes d’information. »[38]
Le contexte que nous examinons évolue dans un cadre de la mondialisation économique et financière et de la distribution planétaire d’une grande partie de l’information en temps réel grâce à Internet. Les applications pressenties par les milieux techniciens sont souvent, voire presque toujours, adaptées, détournées et parfois même rejetées. Par exemple, les logiciels, appelés agents par la presse spécialisée et les éditeurs et concepteurs de logiciels, n’ont pas réussi à pénétrer le marché grand public. Peut-on expliquer cette résistance ? C’est ce que nous cherchons à faire en analysant les résultats de nos enquêtes.
« La résistance déborde singulièrement le cadre fonctionnel de l’objet technique… les voies de la résistance prennent leur origine dans les désirs, les conflits, les combats des individus et des groupes. Nous avons déjà souligné le profond clivage entre la visée techniciste, productiviste et fonctionnelle des fabricants des appareils et les relations passionnelles et symboliques que les utilisateurs et les usagers établissent avec ces mêmes outils. Les premiers veulent conquérir, capter, les seconds rusent, apprivoisent, abandonnent, s’approprient. »[39]
La problématique d’Anne-Marie LAULAN nous paraît extrêmement riche en ce qui concerne notre propre problématique, notamment lorsque nous portons un regard sur les stratégies des portails. En effet, les contraintes économiques jouent un rôle important dans leur développement. C’est par le biais du business model qu’il est possible de les appréhender.
Comme Anne-Marie LAULAN, Michel de CERTEAU[40] développe la notion de ruse et de détournements des usages. L’usager se sert de tactiques afin de s’approprier les outils de communication. Michel de CERTEAU présente les statistiques sur la consommation culturelle comme « le répertoire avec lequel les utilisateurs procèdent à des opérations qui leur sont propres[41]. » Il considère que l’usage en tant que consommation « a pour caractéristiques ses ruses, son effritement au gré des occasions, ses braconnages, sa clandestinité, son murmure inlassable, en somme une quasi-invisibilité, puisqu’elle ne se signale guère par des produits propres (où en aurait-elle la place ?) mais par un art d’utiliser ceux qui lui sont imposés[42]. » De surcroît, il convient de tenir compte du contexte d’usage.
Pierre CHAMBAT (1992), quant à lui, met l’accent sur les pratiques de communication et leurs représentations dans la société. Il insiste sur « les difficultés d’introduire de nouveaux usages dans la société. » C’est que pour lui l’obstacle essentiel tient à « une série de confusions, caractéristiques de l’idéologie techniciste : l’assimilation entre innovation technique et innovation sociale, entre applications et usages, l’identification entre la communication fonctionnelle, techniquement efficace et la communication sociale, infiniment complexe. »[43] Notre position consistera à chercher à identifier les représentations que les utilisateurs ont des systèmes intelligents et des moteurs de recherche.
L’ouvrage de Jacques PERRIAULT a constitué notre introduction à l’étude des usages. C’est pourquoi nous lui consacrons quelques pages. Professeur de sciences de l’information et de la communication de l’Université de Paris X, il étudie les mythes attachés aux innovations concernant l’information et la communication, en mettant l’accent sur leur enracinement dans l’histoire et l’imaginaire. En analysant les pratiques liées à la télévision, Jacques PERRIAULT se donne comme objectif de « ne plus se focaliser sur la pratique familiale de la télévision, mais de considérer désormais l’ensemble de pratiques de communication au moyen de divers appareils … de comprendre les usages qui en sont faits ainsi que leur rôle dans l’économie des relations familiales. »[44]
Il emprunte à Pierre SCHAEFFER le terme machine à communiquer pour désigner les appareils de communication, et pose comme hypothèse que les utilisateurs possèdent une stratégie d’utilisation. Jacques PERRIAULT est conscient qu’il existe « de multiples pratiques déviantes par rapport au mode d’emploi, qui étaient autre chose que des erreurs de manipulation. »[45].
Il observe que l’utilisation d’un appareil est souvent « impossible à décrire, car il est complexe et en partie machinal. »[46] C’est l’homme qui est au cœur de l’observation, et il faut selon ce chercheur tenir compte des contextes psychologiques, sociologiques, culturels et économiques afin de comprendre « comment s’établit et se propage l’usage»[47].
Il est également nécessaire d’étudier les usages de façon diachronique, de tenir compte du substrat de longue durée. Les usages correspondent-ils à un modèle unique de fonctionnement chez différents usagers ou à une multiplicité d’utilisations ? De « grandes divergences dans les formes d’usage et de grands regroupements » impliquent qu’il existe un modèle identique de fonctionnement chez de multiples usagers[48].
Il voit dans les usages « un composé complexe d’instrumentalité et de symbolique. Les deux sont souvent associés, dans des proportions diverses. La relation est dynamique et s’inscrit dans des durées très variables. Ce sont ici les usagers, les mouvements historiques dans lesquels ils s’inscrivent qui constituent l’aune de la mesure. »[49]. Aujourd’hui les innovations arrivent très rapidement et la durée qui permettrait de prendre du recul se rétrécit très vite.
L’usage comporte un aspect instrumental et un aspect symbolique, mythique voire magique ou religieux. Jacques PERRIAULT énumère cinq mythes liés à la machine à communiquer : le mythe de Prométhée et du progrès ; le projet de corriger les déséquilibres de la société grâce à la technique ; le mythe de l’ubiquité ; le mythe de l’instantanéité ; le mythe de l’homme artificiel[50]. Ces mythes restent d’actualité. L’usager, par exemple, veut recevoir de l’information en temps réel. Quelques secondes d’attente lui apparaissent très longues. Avec Internet, les rapports entre l’espace et le temps sont bouleversés[51].
Jacques PERRIAULT souligne le rôle symbolique qui sous-tend les usages.
« L’usage n’est que rarement purement instrumental. Il se double souvent d’un rôle symbolique qu’affecte à l’appareil celui qui s’en sert. Là non plus, on ne constate pas des milliers de rituels différents, mais une analogie, sinon une identité de comportements chez un grand nombre d’utilisateurs. »[52] Cet aspect soulève la question de méthode d’interprétation. Comment accéder à la dimension symbolique d’un usage ? »
Il poursuit son analyse en définissant l’usager comme « un agent de contexte » avec ses propres mythes, règles et ressources, qui ignore les mythes associés à la conception de la machine[53]. L’utilisateur se situe au nœud d’interactions complexes reliant son projet, son désir profond et son modèle d’utilisation. Il existe une « sorte de négociation entre l’homme, porteur de son projet, et l’appareil, porteur de sa destinée première. »[54] De même qu’il met en exergue une « négociation entre l’usager et la sphère technicienne dont l’enjeu est la place et le rôle à assigner à la machine. »[55] Cette négociation entre l’usager et l’appareil peut aboutir à la conformité, au détournement de l’usage, au rejet instrumental ou symbolique[56].
La technologie connaît, dans des milieux différents, des utilisations diversifiées puisque les usages entre l’homme et l’appareil sont négociés et varient en fonction de l’époque et du lieu. « La relation d’usage s’opère d’ailleurs à des niveaux très différents qui vont de la microsituation à la période historique. »[57]. Il est clair pour nous que l’attitude vis-à-vis des agents intelligents et de l’intelligence artificielle pourra différer d’un pays à un autre.
Jacques PERRIAULT analyse ce qu’il appelle la logique des usages. Il constate que le comportement des usages est souvent « en décalage par rapport au mode d’emploi d’un appareil. »[58] En d’autres termes, entre les fonctionnalités possibles d’un agent et celles que l’internaute utilise régulièrement, il peut y avoir un décalage important. Celui-ci apparaît clairement dans les réponses que nous avons analysées.
Certains facteurs, liés « à la société globale, à son imaginaire, à ses normes»[59] déterminent la décision de se servir d’un appareil, ou d’en abandonner l’usage, ou d’en modifier l’emploi. Jacques PERRIAULT distingue trois états différents de la relation d’usage. D’abord il fait une distinction entre l’instrument et la fonction pour laquelle il est employé, l’évolution de cette relation dans le temps, et enfin, la différence entre l’inventeur et l’usager. Les usagers « dans leur logique propre ne partagent que rarement les fantasmes de ceux qui leur proposent l’appareil. »[60] Il faut différencier entre le langage publicitaire des sites Web des offreurs, des articles scientifiques des chercheurs et les réalités d’usage du côté de la demande. Où faut-il situer les membres des communautés qui se construisent autour d’un logiciel ?
Une double décision chez l’usager est à l’origine de l’usage : acheter et se servir de l’appareil[61]. Certains éléments interviennent dans la décision d’achat et le processus d’emploi : le projet ou anticipation d’usage qui peut se modifier ; l’appareil (instrument) ; et la fonction assignée. Certains usages n’ont rien à voir avec la fonctionnalité de l’objet tels ceux qui touchent aux symboles du pouvoir, de la compétence ou de la distinction[62].
Jacques PERRIAULT note que la première forme de l’usage est celui conforme au protocole de l’inventeur[63]. Ensuite viennent les modifications et altérations :
« Une première altération de l’usage consiste donc à moduler la gamme des capacités de l’appareil. Une sorte d’équilibre se constitue progressivement par interactions successives entre projet, instrument et fonction. Lorsqu’on se procure une machine, le projet d’emploi est souvent très vaste. Puis au fil des échecs, de l’expérience, les ambitions se restreignent. »[64]
Mais l’usage conforme peut devenir aussi une fin en soi. « L’usager réel s’identifie à l’usager rêvé. »[65] L’usage peut devenir figé, stéréotypé. Il existe plusieurs catégories d’altération d’un usage : la modulation ou sous-usage[66] lorsqu’un projet autre que l’original ou une autre fonction est introduite. Ainsi le Minitel proposait l’accès à des bases de données tandis que les usagers ont introduit une forme de messagerie non prévue par ses concepteurs. Les créations alternatives[67] apparaissent lorsque le projet et l’appareil changent bien que la fonction demeure. La substitution désigne la situation dans laquelle le projet et la fonction de communication sont maintenus, mais il y a changement d’outil. Il existe une incertitude sur l’ajustement après expérience. On change les usages en ajoutant des fonctionnalités nouvelles[68]. Enfin, il peut y avoir un changement d’appareil et de fonction pour un projet, tel le Citizen Band remplacé par le Minitel, chat[69] (ou bavardage sur Internet).
Enfin, ce chercheur constate qu’il y a stabilisation de l’usage dans un milieu donné après un laps de temps[70]
En définitive, l’analyse de Jacques PERRIAULT nous a permis de saisir la complexité psychologique et sociologique liée aux usages et à l’appropriation d’une technologie. Sa réflexion nous a aidé à enrichir notre grille d’analyse. Nous avons choisi d’observer méticuleusement les aspects symboliques et mythiques liés aux agents et aux moteurs, de confronter les représentations des concepteurs avec celles des usagers et d’y consacrer un chapitre.
Pour le sociologue Dominique WOLTON, la compréhension de la communication, domaine dans lequel s’inscrivent les technologies de l’intelligence artificielle, passe par l’analyse des relations entre trois facteurs, « le système technique, le modèle culturel dominant, le projet qui sous-tend l’organisation économique, technique, juridique de l’ensemble des techniques de communication…(l’essentiel) est dans la compréhension des liens plus ou moins contradictoires entre système technique, modèle culturel et le projet d’organisation de la communication. »[71]
Notre position consistera à examiner les relations entre la technique, le social, l’économique, afin d’appréhender les facteurs déterminants de l’appropriation à la fois des usages des agents intelligents et de leurs substituts, les moteurs de recherche. En effet, une nouvelle technique comporte une part de rêve et de frayeur. Une certaine mythologie l’entoure. L’intelligence artificielle n’y fait pas exception.
Pour Alex MUCCHIELLI, l’informatique et les TIC (technologies d’information et de communication) relancent le mythe de Prométhée, mais aussi le mythe de l’apprenti sorcier[72]. C’est que les TIC peuvent nous asservir, porter atteinte à notre vie privée, accroître la prospérité ou augmenter le niveau de chômage, creuser un fossé entre les pays riches et pauvres, entre les citoyens aisés et les plus démunis. Autrement dit, augmenter la fracture numérique.
« L’imaginaire du progrès existe donc. Il est une production symbolique de notre culture. Le phénomène "technologies nouvelles" est une caractéristique de notre époque. Il mobilise toutes les énergies autour d’une nouvelle foi dans le progrès, bien que la réalité apporte chaque jour des raisons de relativiser cette croyance. »[73]
Josiane JOUËT, professeur à l’Institut Français de Presse (Université de Paris II) insiste sur la double médiation des TIC, entre la logique sociale et la logique technique, « car l’outil utilisé structure la pratique, mais la médiation est aussi sociale car les mobiles, les formes d’usage et le sens accordé à la pratique se ressourcent dans le corps social[74]. » Elle s’interroge sur « la part du propre qui revient à l’usager[75]. » En effet, « l’usager se construit ses usages selon ses sources d’intérêts[76]. » Pour ce chercheur, l’appropriation définie comme la manière dont l’usager construit ses usages, « se fonde sur des processus qui témoignent d’une mise en jeu de l’identité personnelle et de l’identité sociale de l’individu[77]. » L’appropriation serait donc une construction personnalisée des usages. Josiane JOUËT évoque trois dimensions dans l’appropriation des TIC : l’une subjective et collective, une autre cognitive et empirique et une troisième identitaire.
La première souligne les usages que l’utilisateur invente et sur les significations que la technologie revêt pour lui ainsi que l’autonomie qu’il déploie. Cependant, cette dimension est aussi sociale.
La seconde implique des processus d’acquisition de savoir et de savoir-faire. L’usager doit découvrir la logique et les fonctionnalités de l’objet et apprendre les codes et les modes opératoires. L’auteur observe que dans la plupart des cas, « l’usager se contente d’une maîtrise partielle des fonctionnalités » et que « cette exploitation minimale s’avère souvent suffisante pour satisfaire l’attente que l’acteur investit dans son usage[78] ».
L’appropriation comporte une mise en jeu de l’identité personnelle et sociale de l’usager. Si les usages apportent des satisfactions d’ordre individuel, ils s’intègrent dans la sphère sociale et professionnelle. La maîtrise de l’outil informatique est un facteur de succès professionnel :
« Cependant, la réalisation du moi se repère aussi dans certains usages professionnels des TIC, en particulier auprès des professions intellectuelles supérieures, des cadres, pour lesquels l’accomplissement personnel est fortement lié à la réussite professionnelle[79]. »
Les travaux de Josiane JOUËT nous ont permis de réfléchir à la relation entre l’appropriation d’une technique et les enjeux professionnels des usagers. Si les utilisateurs des logiciels agents (aspirateurs de site ou métamoteurs) font partie des professionnels de la veille, il est fort possible que cette catégorie d’usagers s’intéresse ostensiblement à cette technologie en le faisant savoir à sa clientèle potentielle. En effet, les sites professionnels font état de l’usage des agents intelligents comme étant un élément incontournable de toute stratégie de veille sur Internet[80].
[1] Édition 2000.
[2] La neuvième édition du Dictionnaire de l’Académie Française ne fait aucune mention du terme. Elle ne donne que les définitions du mot « agent » appliqué aux humains. Sur le site ATILF http://atilf.atilf.fr/Dendien/scripts/generic/cherche.exe?71;s=802167780 , consulté le 5 juillet 2004.
[3] Gilles DERUDET, « La révolution des agents intelligents », Internet Professionnel, N° 9, mai, 1997, pp. 74-79.
[4] A. CAGLAYAN, ET C. HARRISON, Agent Sourcebook, A Complete Guide to Desktop, Internet, and Intranet agents, Wiley Computer Publishing, New York, 1997.
J.M. BRADSHAW, Software Agents, AAAI Press/ The MIT Press, Boston, 1997.
MÜLLER, Jörg P., The Design of Intelligent Agents, A Layered Approach, Springer, Berlin, 1996.
[5] Environ 10% du temps selon une étude de première position XITI (entre janvier et décembre 2001), publiée par ADFM.com, « les parts de marché des moteurs de recherche », (sans date), article consulté le 2 juillet 2004, http://www.01adfm.com/win-xp/InfMot01.htm. Cependant, en novembre 2004, 39% du trafic provient des moteurs de recherche, Mediametrie-eStat ,Communiqué de Presse du 19/11/2004, « Origine du trafic », page consultée le 7 janvier 2005. Cf. annexe 15, http://www.estat.fr/actu_read.php?id=272
[6] En index et en mémoire-cache.
[7] Lev GROSSMAN, « Search and Destroy », Time, 2 février 2004, p. 36.
[8] Société spécialisée dans la technologie de recherche. Achetée le 23 décembre 2002 pour 235 millions de dollars. Tom KRAZIT, « Yahoo buys search firm Inkromi for $235m”, IDG News service, Computerworld, le 23 12 2002, http://www.computerworld.com/news/2002/story/0,11280,77047,00.html, consulté le 31 mai 2005.
[9] Acheté le 15 juillet 2003, pour 1,6 milliard de dollars. Source : Stéphanie OLSEN, Margaret KANE, « Yahoo to buy Overture for $1.63 billion », News.com, le 14 7 2003, http://news.com.com/2100-1030_3-1025394.html, consulté le 31 mai 2005.
[10] Acheté le 23 avril 2003 pour 70 millions de dollars, le moteur grand public de la firme Fast est alltheweb. Source : Margaret Kane, « Overture to buy search services », News.com, le 25 février 2003, http://news.com.com/Overture+to+buy+search+services/2100-1023_3-985850.html, consulté le 31 mai 2005.
[11] Acheté le 19 février 2003 pour 140 millions de dollars. Source : Margaret Kane, « Overture to buy search services », News.com, le 25 février 2003 consulté le 31 mai 2005.
[12] Selon Panorama Médiamétrie-eStat d’octobre 2004, Google représente 73% du trafic, Yahoo 8%, Wanadoo et Voila 6%, et MSN 5%. Altavista ne représente qu’1% en France. Notons que les deux fournisseurs d’accès cités sont utilisés également pour faire des requêtes. http://wcdt.mediametrie.fr/resultats.php?resultat_id=67&rubrique=net, consulté le 28 novembre 2004.
[13] Il s’agit de l’Université de Paris II, de l’ENST et de l’École Polytechnique.
[14] L’Association des professionnels de l’information et de la documentation, créée en 1963. Elle compte plus de 5600 membres. Site : http://www.adbs.fr/site/ consulté le 28 11 2004.
[15] Veille-concurrence est un forum géré par MEDIAVEILLE (http://www.mediaveille.com et http://www.doubleveille.com), destiné aux professionnels de la veille et de l’intelligence économique, site : http://fr.groups.yahoo.com/group/veille-concurrence/ consulté le 28 11 2004.
[16] http://www.lesphinx-developpement.fr/
[17] Jacques DELORS, Pour entrer dans le XXIe siècle : emploi, croissance, compétitivité : le livre blanc de la Commission des Communautés européennes, M. Lafon, Paris, 1994.
[18] Idem, p. IV.
[19] Ibid, p. 13.
[20] Ibid, p. 22.
[21] Ibid, p. IV.
[22] Le terme « information fatigue syndrome » a été créé par le psychologue David Lewis en 1996 et défini comme la fatigue et le stress résultant d’une quantité excessive d’informations, « the weariness and stress that result from having to deal with excessive amounts of information. », source : http://www.wordspy.com/words/informationfatiguesyndrome.asp, consulté le 12 avril 2004.
[23] Une description complète d’xML (extensible markup language) : http://www.w3.org/TR/REC-xml/ consulté le 30 11 2004.
[24] On peut mesurer ce trafic, non pas en temps passé sur un site, mais en nombre de requêtes par jour. Google, par exemple, est réputé recevoir 200 millions de requêtes par jour. Source : http://influx.joueb.com/news/99.shtml, consulté le 10 09 2004.
[25] Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999.
[26] Philippe BRETON, Le culte d’Internet, Une menace pour le lien social ?, La Découverte, Paris, 2000.
[27] Philippe BRETON, L’utopie de la communication, La Découverte, Paris, 1992.
[28] Victor SCARDIGLI, Le sens de la technique, PUF, 1992 p. 22.
[29] Idem, p. 22.
[30] Ibid, p. 24.
[31] Ibid, p. 23.
[32] Ibid, p. 23.
[33] Ibid, p. 23.
[34] Ibid, p. 24.
[35] Ibid, p. 24.
[36] Anne-Marie, LAULAN, La résistance aux systèmes d’information, Rez (Actualité des Sciences humaines), Paris, 1985, p.9.
[37] Idem, p. 12.
[38] Ibid, p. 147.
[39] Ibid, p. 146.
[40] Michel de Certeau, L’invention du quotidien, tome 2, « Arts de faire », Gallimard (Coll. 10-18), 1994, p. 50-54.
[41] Idem, p. 52.
[42] Ibid, p. 53.
[43] Pierre CHAMBAT, Communication et lien social, Cité des Sciences et de l’industrie, Descartes, Paris, 1992, p. 11.
[44] Jacques PERRIAULT, La logique de l’usage-essai sur les machines à communiquer, Flammarion, Paris, 1989, p. 12.
[45] Idem, p. 13.
[46] Ibid, p. 16.
[47] Ibid, p. 116.
[48] Ibid, p. 203.
[49] Ibid, p. 213.
[50] Ibid, p. 66-69.
[51] Les premières publicités de Wanadoo ou de Bouygues télécom ont d’ailleurs mis en relief cet aspect d’instantanéité et d’ubiquité des rencontres faites sur Internet.
[52] Ibid, p. 200.
[53] Ibid, p. 214
[54] Ibid, p. 220.
[55] Ibid, p. 219.
[56] Ibid, p. 230.
[57] Ibid, p. 213.
[58] Ibid, p. 202.
[59] Ibid, p. 202.
[60] Ibid, p. 202.
[61] Ibid, p. 205.
[62] Ibid, p. 206.
[63] Ibid, p. 206.
[64] Ibid, p. 207.
[65] Ibid, p. 207.
[66] Ibid, p. 208.
[67] Ibid, p. 209.
[68] Ibid, p. 210.
[69] Le terme chat vient du verbe anglais qui signifie bavarder. Il s’agit d’une conversation en-ligne avec un groupe de participants souvent anonymes. Chacun envoie un message dactylographié.
[70] Ibid, p. 217.
[71] Dominique WOLTON, Internet et après, une théorie critique des nouveaux médias, Flammarion, Paris, 1999, p. 16.
[72] Alex MUCCHIELLI, Les sciences de l’information et de la communication, Paris, Hachette « Coll. les Fondamentaux », 3e édition, 2001, p. 34.
[73] Idem, p. 35.
[74] Josiane JOUËT, « Pratiques de la communication et figures de la médiation. Des médias de masse aux technologies de l’information et de la communication », Paul Beaud, Patrice Flichy et alii, Sociologie de la communication, Paris, CENT, Réseaux, 1997, p. 293.
[75] Josiane JOUËT, « Retour critique sur la sociologie des usages », Réseaux, N° 100, p. 502.
[76] Idem, p. 502.
[77] Ibid, p. 503.
[78] Ibid, p. 503.
[79] Ibid, p. 503.
[80] Decisionnel.net (http://www.decisionnel.net/), agentland (http://www.agentland.fr/) par exemple.