News W4

You will find article in Shakespeare's language here or on Pulse
Wish you a great reading 

Publications Recentes

  • Si vous êtes en mal d'articles ;-) Si vous êtes en mal d'article de ma part, vous trouverez 7 articles qui ont été publiés sur Pulse de LinkedIn en 2016Vous pouvez les consultez ici -> https ...
    Publié à 2 janv. 2017 à 06:28 par Jean-Michel Davault
  • Conseil et mesure du stress au travail   Conseil et mesure du stress au travail Vous avez besoin de sensibiliser vos salariés à la prévention du stress au travail, à une bonne hygiène alimentaire, à une bonne protection ...
    Publié à 28 févr. 2016 à 11:48 par Jean-Michel Davault
  • La Puissance du Web fois 4 Il y a presque un an j'ai "découvert" une société pourtant trentenaire, pourtant récompensée plusieurs fois par des prix de dimension mondiale ("Awards") (dont un le même jour et ...
    Publié à 2 juin 2015 à 00:14 par Jean-Michel Davault
  • Eclairage : une poche de gain de productivité peu connue Le web sous un aspect peu connu pour tous ceux qui travaillant en lumière artificielle en hiver derrière leur écran: il faut choisir la lumière sous laquelle nous travaillons !Après ...
    Publié à 12 oct. 2014 à 08:33 par Jean-Michel Davault
  • Désirs d'ailleurs Prologue   "Désirs d'ailleurs" ... Le choix de ces deux noms, leur association ainsi que l'usage du pluriel, sont le fruit d'un arbitrage collectif entre 4 personnes que le ...
    Publié à 17 oct. 2013 à 02:26 par Jean-Michel Davault
Affichage des messages 1 - 5 de 15 Afficher plus »

Si vous êtes en mal d'articles ;-)

publié le 2 janv. 2017 à 06:28 par Jean-Michel Davault

Si vous êtes en mal d'article de ma part, vous trouverez 7 articles qui ont été publiés sur Pulse de LinkedIn en 2016
Vous pouvez les consultez ici -> https://www.linkedin.com/in/jeanmicheldavault

Bonne lecture et au plaisir
Jean-Michel Davault

Conseil et mesure du stress au travail

publié le 28 févr. 2016 à 11:48 par Jean-Michel Davault


 

Conseil et mesure du stress au travail



Vous avez besoin de sensibiliser vos salariés à la prévention du stress au travail, à une bonne hygiène alimentaire, à une bonne protection contre les les effets du stress oxydatif (soleil, rayonnement électromagnétique, ...) ?

Faite une animation d'une heure sur la pause de midi pour sensibiliser les personnes du "stress oxydatif" et de moyens de prévention. Cela vous permettra de réduire les congés pour fatigue ou surménage. Offrez un moment convivial à vos salariés et vous vous y retrouverez.

Avec une présentation collective et accessible de 15 mn, des démos concrètes de la vie quotidienne, un BioPhotonic Scanner qui est un matériel connecté high tech éprouvé, sur la base du volontariat, chaque personne pourra mesurer son niveau de protection face au "stress oxydatif".

 

Site internet dédié

 


 

La Puissance du Web fois 4

publié le 23 mai 2015 à 01:06 par Jean-Michel Davault   [ mis à jour : 2 juin 2015 à 00:14 ]

Il y a presque un an j'ai "découvert" une société pourtant trentenaire, pourtant récompensée plusieurs fois par des prix de dimension mondiale ("Awards") (dont un le même jour et au même endroit que l'iPad d'Apple en 2010), pourtant proche de ces sociétés du 21ème siècle anticipées dans la première partie du livre "la confiance collaborative en réseau" ...

Depuis, après une analyse des projets auxquels j'avais contribué tout au long de l'année 2014 et surtout après ma participation au Salon du Luxe à Shanghai fin octobre 2014, je suis arrivé à la conclusion que cette société avait des ingrédients de succès réels et particulièrement uniques illustrant particulièrement la puissance du web et les services nouveaux qui pouvaient être délivrés :

- une capitalisation d'expérience utilisateur croisant les marchés en forte croissance du mieux vieillir, de l'anti-âge, de la cosmétique et de la nutrition (des bases de données et du big data à gogo) sur un marché en plein boom estimé à 1000 milliards de dollars en 2025 ;

- une proximité réelle entre le client et un savoir-faire unique, en évitant les excès d'une publicité non sollicitée ;

- un ensemble de produits physiques, raisonnés , dont certains dans la catégorie des "objets connectés" (un BioPhotonic scanner de 3ème génération d'à peine 1,7 kg, l'arrivée d'un nouveau scanner personnel capable de délivrer un produit cosmétique ultra frais personnalisé à la maison en septembre/octobre 2015,...);

- un business model favorisant l'esprit entrepreneurial, le travail en équipe et s'axant sur les compétences des personnes. On peut vraiment parler ici de "social business", concept fort éloigné d'ailleurs de la dimension marketing et publicitaire que certains ont tendance à accoler à ce dit "social business" en le confondant avec ce que l'on appelle communément le "marketing de réseau";

- des outils de travail en équipe représentatifs de la puissance du web actuelle ; des outils informatifs et pédagogiques dématérialisés efficaces ; des outils de reporting des plus puissants mis dans les mains d'entrepreneurs distribués ;

- une action caritative et humanitaire sur le terrain mesurable : plus de 404 millions de repas distribués à jour à travers le monde ainsi que des micro-projets ciblés comme la protection des baobabs au Malawi non seulement à cause des propriétés biologiques particulières de ces arbres mais aussi parce que ces arbres peuvent redistribuer 12000 litres d'eau par an aux habitants alentours...

Bref cette société, encore classée dans les "mid-cap" a de forts chances de devenir l'une des plus solides sociétés du 21ème siècle dans les 5 prochaines années. En tout cas elle a déjà glané un grand nombre de récompenses tant en innovation technologique ou sociale que considérée par Forbes comme parmi les 100 sociétés "digne de confiance",  dont la confiance financière en étant côtée 5A1 ou 5A2 par Dun & Bradstreet ces dernières années...

Ah la confiance ! C'est actuellement un des biens les plus précieux au monde ... A un prochain article ou si vous êtes intéressé par Nu Skin [NUS] et Pharmanex contactez moi. Merci de votre confiance régulière :-)

Jean-Michel Davault

Eclairage : une poche de gain de productivité peu connue

publié le 12 oct. 2014 à 08:33 par Jean-Michel Davault

Le web sous un aspect peu connu pour tous ceux qui travaillant en lumière artificielle en hiver derrière leur écran: il faut choisir la lumière sous laquelle nous travaillons !

Après presque deux ans d'échanges, voici  un article qui devrait vous intéresser car la qualité d’éclairage du poste de travail a une influence directe sur la productivité dans l’entreprise.

Il y a pourtant beaucoup à gagner en améliorant ce poste souvent oublié. 

Les scientifiques du monde entier ont démontré que la lumière du jour régule le sommeil et le rythme biologique, elle influence l’humeur et la concentration; enfin, elle permet de renforcer les défenses immunitaires et le squelette grâce à la vitamine D.   

La plupart des sources de lumière artificielle reproduisent, en général, fort imparfaitement la lumière naturelle.  C’est une raison pour laquelle, en automne et en hiver, la fatigue, les difficultés de concentration et la baisse des défenses immunitaires apparaissent. 

La qualité de l’éclairage sur les lieux de travail influence l’efficacité au travail, le bien-être, la concentration, la motivation et au final la productivité.

En France, le docteur Claude Gronfier, docteur en neuroscience et chercheur au sein du département de chronobiologie à l’INSERM, explique les effets positifs delumière du jour sur la sécurité, la productivité, la santé et le bien-être autravail : 

« Les effets de lumière se font ressentir sur notre horloge interne, sur le sommeil, sur notre humeur, sur nos performances cognitives, sur le système cardio-vasculaires, sur la sécrétion de certaines hormones et sur notre métabolisme en général. » 

Spectre de la lumière du jour


Des études américaines, des universités de l’Illinois et de Cornell, ont quant à elles démontré que l’absence de lumière du jour ou un trop grand éloignement des fenêtres avaient des conséquences négatives sur la qualité du sommeil, sur la concentration et sur la vitalité des personnes.

Ces phénomènes  sont  liés à la  perception  de la lumière par des capteurs  situés dans l’œil. Ces capteurs influencent la production d’un ne urotransmetteur, la sérotonine (associée au bien-être) et d’une  hormone, la mélatonine (hormone  du sommeil). Ces capteurs sont  sensibles  à toute les couleurs (définies par des longueurs d’ondes) qui composent le spectre de la lumière naturelle, c’est la  raison  pour laquelle un illuminant  artificiel doit reproduire  fidèlement  le spectre de la lumière naturelle pour proposer les mêmes bénéfices. Pour mieux comprendre, ce qui diffère entre la lumière naturelle et la lumière artificielle, ci-dessous une comparaison des spectres de plusieurs types de lampes artificielles.


3 graphes de comparaison de spectres

Les schémas parlent d’eux-mêmes, les effets biologiques induits par ces différents types de lampes ne sont pas similaires.

La lumière naturelle favorise la synthèse de la vitamine D

La lumière naturelle est notre première source de vitamine D avant l’alimentation. Ce sont les UVA et les UVB qui permettent la synthèse de la vitamine D. Cette vitamine est indispensable au bon fonctionnement du corps et de notre système immunitaire. S’Il y a moins d’absentéisme dans les entreprises et les écoles à partir du printemps, ce n’est pas parce qu’il y a moins de virus mais bien parce que l’exposition plus longue et plus fréquente à lumière naturelle permet au corps de synthétiser davantage de vitamine D. En automne et en hiver, un éclairage artificiel lumière du jour contribue à réduire l’absentéisme dans les écoles et les entreprises (jusqu’à – 40 %) et à apporter du confort et du bien-être dans l’entreprise. La vitamine D joue un rôle primordial pour maintenir un taux de calcium suffisant dans le sang pour renforcer les os. Sciences et Avenir, revue de vulgarisation scientifique sérieuse, a développé ces points dans un article paru en juillet 2014

La lumière du jour permet une vision parfaite. "Ne dit-on voir comme en plein jour ? 

Les caractéristiques de la lumière naturelle se décomposent de la manière suivante :

    -        Un indice de rendu des couleurs de 100/100

    -         Une température de couleurs en degré Kelvin de 5500 K

    -         Une couverture du spectre complet des couleurs

Pour offrir la même qualité de vision, les éclairants artificiels doivent se rapprocher de l’ensemble de ces caractéristiques ce qui n’est pratiquement jamais le cas. Pourtant, des équipes de chercheurs en Europe, en Asie et en Australie ont établi le lien entre le manque de lumière du jour et le développement de la myopie chez les enfants. 40 % des enfants en France et 90 % des enfants en Asie souffrent de myopie.

Le phénomène est lié au manque d’exposition à la lumière naturelle. La lumière du jour contribue à ralentir la croissance de l’œil et à prévenir l’allongement excessif de l’œil, responsable de la myopie.

Imiter la lumière du jour est une entreprise difficile

Reproduire la lumière du jour n’est pas chose facile, on l’a vu, il faut respecter de nombreuses caractéristiques et notamment se rapprocher le plus possible du spectre de couleurs de la lumière naturelle. Cela suppose l’utilisation de matériaux de très haute qualité et un processus de fabrication rigoureux.  

Pourquoi mentionner ici spécifiquement des lampes dite "True-Light"?  Ces lampes, actuellement accessibles au plus grand nombre, est un exemple d'innovation. L'innovation, est en effet la capacité de passer d'une idée (de recherche) à une véritable rupture industrielle ou d'usages. Ces lampes "True-Light" ont été initialement développées à la demande de la NASA dans les années 1960 pour pallier le manque de lumière naturelle des astronautes américains. Depuis lors, les lampes lumière du jour à spectre complet ont été constamment perfectionnées en s’adaptant aux nouvelles technologies dont la technologie LED. Les lampes "True-Light" offrent des solutions industrielles, c’est la raison pour laquelle elles équipent de nombreuses entreprises, bâtiments publics, écoles, établissements de santé et des particuliers en Europe.

Innover en adoptant un éclairage artificiel lumière du jour sur les lieux de travail va dans le sens du développement durable de l’entreprise et de la société. 

En France, l’éclairage de 80 % des postes de travail n’est pas conforme à la norme européenne selon l’AFE (Association Française de l’Eclairage) 

L’homme n’est pas fait pour vivre dans le noir, au même titre que l’eau et l’air, la lumière est indispensable, elle pourrait se révéler le médicament de demain. 

Plus que la quantité de lumière, c’est sa qualité qui compte. En profitant davantage de la lumière naturelle lorsqu’elle est disponible et en prêtant une plus grande attention à l’éclairage fonctionnel des lieux de travail : bureaux, écoles, usines etc… l’individu et la société tout entière ont beaucoup à gagner.

Jean-Michel Davault en collaboration avec la société Luxcédia 

PS : A quelques jours du salon LuxExpo2014 ou nous serons présent avec FCI, France Chine International et des TPE/PME Bretonnes

Désirs d'ailleurs

publié le 2 oct. 2013 à 03:31 par Jean-Michel Davault   [ mis à jour le·17 oct. 2013 à 02:26 par Jean-Michel Davault ]

Prologue

 

"Désirs d'ailleurs" ... Le choix de ces deux noms, leur association ainsi que l'usage du pluriel, sont le fruit d'un arbitrage collectif entre 4 personnes que le hasard a permis de réunir autour d'une table. Moins de 5 minutes auront été nécessaires à créer l'unanimité autour de cette proposition.

Il fallait en effet trouver un nom de groupe original et si possible non encore utilisé jusqu’à présent, du moins par les personnes présentes... Ce nom devait également être le reflet des caractéristiques identitaires de chacune des 4 personnes.

Et ce nom retint l'attention ...

 

Désirs d'ailleurs?

 

Les spécificités de l'homme par rapport à l'intelligence artificielle et aux machines,  son insatiable curiosité, se caractérisent par

son inextinguible besoin de nouveauté(s),

son incroyable capacité de discerner ce qui est réalisable au sein d'une probabilité théorique epsilonesque de réussite,

sa capacité à réaliser des rêves, par-delà la virtualité du 3ème acte d'un film si célèbre qu'est I.A. de Steven Spielberg. 

L'innovation va bien au-delà de la notion élémentaire de processus, un pur processus étant dénué de toute humanité. Il est en effet limité dans le temps et dans l'espace en avec la tendance à enfermer l'homme dans des cases sans, le plus souvent, lui laisser la possibilité d'en sortir.

Bref, pour innover il faut d'abord des Hommes puis des Process(us). Cela ne vous rappelle-t-il rien?

 

L'innovation est sans doute l'expression combinée d'une sorte de vœu et de l'énergie créatrice humaine qui invite soit à un acte créateur, soit à un renouvellement. Par-delà le rationnel technologique, il y a l'irrationnel de l'être et du désir. Désirs qui poussent d'ailleurs l'Homme à trouver de nouvelles frontières sur terre et, au-delà, à poursuivre ainsi le rêve des découvreurs qui jalonnent l'histoire de l'humanité. 

L'innovation consiste à faire preuve d'énergie par-delà un plan personnel. Ceux qui ont réussi dans l'innovation c'est à dire ceux qui ont su gérer le passage de leur idée à l'industrialisation de cette idée, ont tous eu la capacité à, non seulement fédérer d'autres énergies humaines, mais aussi les élever à une dimension industrielle qui de nos jours devrait aller de pair avec une logique de développement durable. Quant au style personnel de management et de gouvernance pour y parvenir, il existe un spectre aussi large que celui de la lumière. Pour certains comme Andrew Grove c'est la paranoia , pour d'autres comme Steve Jobs c'est le perfectionnisme et pour d'autres enfin comme Ray Ozzie c'est la façon dont les hommes peuvent travailler ensemble en confiance dématérialisée (*) connu sous le nom de groupware et de (travail) collaboratif.  

Terminons par une "invitation au voyage" : moderne comme la dernière publicité de Louis Vuitton, ancienne et osée de Baudelaire ou touristique comme DESIR D'AILLEURS, marque déposée à l'INPI .

 

Voyagez donc, Innovez ;-)

  

(*) Confiance dématérialisée : ensemble des mécanismes et technologies qui font qu’il y a un transfert de la confiance humaine par voies numériques – cf la première partie du livre « la confiance collaborative en réseaux »


Quatre Lois pour les Réseaux Sociaux

publié le 31 déc. 2012 à 03:58 par Jean-Michel Davault   [ mis à jour : 18 sept. 2013 à 01:31 ]

L’idée de cette contribution résulte d’une réflexion autour :

- de projets en intelligence artificielle,

- de lectures tant scientifiques que romanesques,

- de nombreux échanges culturels et de voyages,

- de films de science-fiction, de lois en vigueur concernant la protection des données personnelles,

- de conditions générales d’utilisation de services web,

- de la notion de lois régissant les comportements collectifs au sein d’une société globalisée accompagnées de la notion de « droits et devoirs » qui définit l’espace d’expression de la liberté individuelle et sa limite face au respect de l’intérêt général.

L’objectif de cet article est de contribuer à la réflexion sur l’utilisation d’algorithmes de plus en plus complexes pour un nombre de plus en plus grand d’utilisateurs par des sociétés commerciales de plus en plus puissantes.

La personne qui a sans doute le plus réfléchi sur les impacts de l’intelligence artificielle dans une société ou une civilisation est certainement Isaac Asimov avec ses trois lois robotiques.

Jusqu’à présent l’application de ces lois restait du domaine de la science-fiction car les technologies disponibles, les enjeux commerciaux, les implications pour le plus grand nombre demeuraient plus ou moins contrôlables.

La situation change, ou va immanquablement changer d’ici 2019. Les technologies inertes et du vivant se croisent. La puissance de calcul (17,59 petaflops) à faible coûts alliée à la miniaturisation des composants électroniques, l’utilisation de plus en plus systématique d’agents intelligents, la capacité de répondre à des questions en langage naturel (IBM, Nuance, Siri, …), le « cloud computing », l’impératif besoin de protection des données personnelles (Instagram, Facebook, Google,..) montrent que l’implémentation de « lois universelles » protégeant chaque individu et l’humanité devient impérative.

En cette aube de 2013,  « les entités utilisant le plus d’intelligence artificielle » auxquelles sont confrontés les êtres humains sont principalement les Réseaux Sociaux.

Tout réseau social de la planète utilise en effet de plus en plus de systèmes complexes, d’agents artificiels et, maintenant, d’algorithmes d’intelligence artificielle s’approchant de plus en plus du comportement humain avec le possible biais de vouloir s’affranchir du contrôle du plus grand nombre par commodité ou dans un unique souci de rentabilité.

Chaque personne, être humain, de son côté veut contrôler au mieux les informations qu’elle publie sur le Réseau Social et en garder « la propriété ».

Le Réseau Social, lui, est une sorte d’entité autonome devant rendre des services aux êtres humains assimilables à une humanité (des centaines de millions à des milliards d’utilisateurs). Le Réseau Social a des règles et des lois dont une est de maximiser la rentabilité de ses services, une autre d’être en règle avec les lois locales ou plus globales…

On peut donc comparer un Réseau Social a un Robot et chaque utilisateur à un être humain appartenant à l’Humanité. Ainsi, tentons d’appliquer les trois lois d’Isaac Asimov au Réseau Social :
 
  • Loi Zéro : Un réseau social ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un réseau social ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un réseau social doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un réseau social doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

Reste maintenant à définir comment mettre en œuvre concrètement ces lois…

La démarche imaginative de l’intelligence d’affaires et ses conséquences

publié le 21 oct. 2012 à 06:54 par Jean-Michel Davault   [ mis à jour : 21 oct. 2012 à 23:26 ]

1.       La démarche imaginative de l’intelligence d’affaires :

Le domaine du « Big Data » c'est-à-dire celui des données dématérialisées de masse est vaste. Nous pouvons nous restreindre à la « business intelligence » ou « l’intelligence d’affaires » ou nous laisser vaquer à une démarche imaginative. Nous avons concilié les deux ici afin de vous intéresser.

La démarche de traitement des « Big Data » se décompose en plusieurs phases :

-       la gestion des données (stockage),

-       la corrélation et l’analyse,

-       l’interprétation des résultats,

-       la synthèse et la structuration des données (donner du sens, signification, mise en cohérence).

Nous aboutissons à la production :

-       de nouvelles connaissances signifiantes et exploitables directement,

-       de tendances, de modèles de comportements (patterns),

-       de prédictions, d’anticipations.

Nous vous invitons à visionner cette vidéo de 6 minutes qui vous permettra de bien mesurer les enjeux associés à un moteur de savoir, une reconnaissance vocale, de l’analyse ou collecte d’informations vidéo contextuelles : 


2.    Les conséquences organisationnelles et managériales d’une démarche « Big Data »

La démarche « Big Data » entraîne davantage de transversalité, de travail collaboratif, de suivi et de reporting ainsi qu’une valorisation de l’intelligence collective dans l’entreprise (organigramme aplati, structure matricielle par objectifs ou projets, mise à l’index des « silos » en dehors des besoins stratégiques de sécurité ou de sûreté) :

Les nouvelles formes et méthodes de travail se développent (collaboration, mise en commun des ressources et des connaissances, coworking, effacement de la frontière entre vie professionnelle et personnelle…),

Un nouveau management/leadership s’affirme (transversal, agile),

Une forte autonomisation des salariés est requise, corrélée avec l’accroissement de la responsabilité individuelle,

Des besoins importants de formation des salariés s’imposent pour faire monter ces derniers en compétences et pour l’actualisation permanente de leurs connaissances,

Le recrutement des profils recherchés est ardu car encore rares (au croisement de trois cultures : informatique, modélisation mathématique et économique)

Des réaffectations de salariés sont également à prévoir du fait des gains de productivité obtenus.

Ainsi, la démarche « Big Data » invite à porter une vraie attention aux questions éthiques, à la préservation des libertés individuelles et de la vie privée, aux risques psychosociaux qu’induit cette nouvelle technologie.

Ne sous-estimez donc pas le besoin en accompagnement opérationnel du changement car il touche votre organisation, votre management, vos salariés, vos équipes en mode projet et vos relations partenaires.

3.      Focus : Le « Big Data » et la sécurité en vidéosurveillance

La majorité des sites possédant une vidéosurveillance génèrent une grande volumétrie de données. La détection « d’anomalies » dans le flux massifs de données produites par la vidéosurveillance est un sujet d’actualité dont l’importance se développera massivement dans les prochaines années.

Pour ce qui concerne la gestion des villes, des polices municipales, on passe de l’e-verbalisation sur la base d’images à l’e-verbalisation vidéo dont d’ailleurs le contrôle règlementaire est amené à évoluer. 



Nous observons que la production de nouvelles connaissances et de modèles prédictifs conduit à la création de nouveaux métiers et amène à une adaptation législative, de gouvernance, d’organisation, de management et de formation.

Sans  entrer  dans  le  débat  politique, nous  discernons   donc clairement  qu’un  des  enjeux de l’innovation est  le   « maintien et le développement de l’emploi » dans sa globalité. 


En collaboration avec le cabinet DP+ Conseil, Dominique Piel, contactez-nous 


Vidéosurveillance et analyse intelligente en temps réel

publié le 12 sept. 2012 à 02:34 par Jean-Michel Davault

Vidéosurveillance et analyse intelligente en temps réel

La vidéosurveillance génère des flux de données de plus en plus importants. La plupart du temps ces données sont analysées a posteriori et nécessitent beaucoup de personnel. Rares ou très couteux sont les systèmes complets, et fiables, qui permettent de travailler en temps réel.

Les raisons sont multiples. La plus visible est relative à la grande volumétrie de données à traiter. Vient ensuite la notion d’intelligence artificielle ou d’apprentissage en complément, voire en lieu et place, de l’intelligence humaine. Il faut en effet des algorithmes de reconnaissance visuelle qui génèrent des informations textuelles de qualité. Enfin, les solutions existantes sont lourdes à configurer et chères à mettre en place. Les déceptions quant à la fiabilité de ces systèmes depuis 2005 ont été nombreuses.

Prenons l’exemple de la multiplication des vols sur chantier de matière première, en particulier de métaux, et d’engins de chantier. Un chantier est un « lieu ouvert » c'est-à-dire en interaction directe avec les éléments naturels (pluie, vent, animaux sauvages, animaux domestiques, …). La mise en place d’une solution basique à base de détecteurs de présence soit dissuade l’intrusion, soit déclenche des alarmes d’intrusion. Elle permet rarement de confirmer ces alarmes, d’analyser une situation, d’apporter un historique d’évènements . L’utilisation de traceurs n’empêche pas le vol mais augmente le risque du voleur. Etc.

Un système de vidéosurveillance, de base, quant à lui, composé de caméras unidirectionnelles, de caméras dôme, analogiques ou numériques, infra-rouge ou dans le spectre visible, est relié à un centre de télésurveillance ou à un centre de surveillance. Les caméras sont  scrutées par un ou plusieurs opérateurs qui visionnent un grand nombre de caméras. La fatigue, le trop grand nombre de caméras à surveiller, la peur de faux positifs et parfois le manque de formation font qu’une intrusion ou un vol est détecté avec un retard suffisant pour qu’il soit « trop tard ». Commence alors une longue analyse manuelle des flux vidéo pour comprendre l’intrusion et tenter de retrouver les coupables.

Un système de vidéosurveillance plus avancé permet, souvent en complément d’une solution basique, de configurer et de gérer des modules d'analyse automatique et de détection d'événements à base de caméras. Ce dernier génère alors un grand nombre de notifications, généralement par e-mail ou par messages XML, auprès d’un CRA (Centrale Réceptrice d’Alarme). Le passage d’un animal par exemple comme un chat ou un rat déclenche des alarmes. Un lieu fréquenté gène aussi beaucoup ces systèmes automatiques. Discerner dans la masse d’information des seuils demeure un challenge.

Trois éléments principaux ressortent :

-          Il faut associer une intelligence artificielle aux caméras ;

-          Il faut être capable de gérer de grands volumes d’information à un faible coût ;

-          Il faut contextualiser des informations en provenance d’alarmes.

Nous avons travaillé avec une société spécialisée dans la reconnaissance d’images et de vidéo qui collectionne un grand nombre d’études de cas opérationnels. Les algorithmes de reconnaissance sont reconnus. Ils ont, entre autre, équipé le système de vidéosurveillance utilisé lors du sommet du G20 à Cannes en 2011.  N’hésitez pas à nous contacter.

Imaginez que vous soyez un avocat européen

publié le 9 juil. 2012 à 13:41 par Jean-Michel Davault   [ mis à jour : 9 juil. 2012 à 13:50 ]

En tant qu'avocat exerçant en Europe, vous savez que 23 langues officielles sont parlées dans l'Union Européenne. Vous ne pouvez pas lire tous les matins l'information publiée dans toutes ces langues. Ainsi, vous vous restreignez à deux ou trois langues en espérant que vous ne raterez pas d'information pertinente. Que diriez-vous d'un système qui permette de contextualiser ces informations afin que vous puissiez avoir une vision d'ensemble?  

En tant qu'avocat, chaque mot utilisé est particulièrement important. Combien de fois avez vous recontré une difficulté pour retrouver un terme précis? Combien de fois avez-vous eu du mal à retrouver un document avec un ou plusieurs mots clefs? N'auriez-vous pas préféré retrouver ce document grâce à son contexte? 

En tant qu'avocat, l'utilisation de termes potentiellement ambigus est à proscrire puisqu'ils peuvent eux-même créer des contextes ambigus, et vice-versa. Combien de fois n'avez-vous pas été obligé de parcourir de longues listes de documents simplement parce que le mot clef que vous utilisiez était lui-même ambigu? Pourquoi ne pourriez-vous pas utiliser au sein de votre cabinet d'avocat un système qui désambiguise automatiquement cette liste des documents? 

En tant qu'avocat, combien de fois avez-vous rêvé d'un système qui générerait automatiquement et avec pertinence, d'un simple click, des "Articles Similaires" à partir  du document que vous êtes en train de consulter?

Et bien, vous ne rêvez pas ! Ce type d'application est possible en s'appuyant sur la technologie mARCTM !

Découvrez mARCTM ou lisez cette étude.

Testez la fonction "Article Similaire" sur Wikipédia de janvier 2010 (via le bouton "SA" button en face de chacune des lignes de résultat) grâce à cet environnement de démonstration. 

Contactez nous 

mARC - Démonstrateur

publié le 26 juin 2012 à 07:41 par Jean-Michel Davault   [ mis à jour : 18 déc. 2013 à 05:45 ]

 

Dans un article précédent nous vous présentions la définition de la mémoire Associative à Renforcement de Contexte (mARCTM).

 

Dans cet article, nous vous fournissons un premier retour de notre démonstrateur qui compare mARCTM à un « Meilleur de Classe » des moteurs de recherche. Bien que nous ne publions pas ici l’intégralité de cette étude, vous devriez y trouver suffisamment d’information pour revenir vers nous si vous trouvez ce démonstrateur intéressant pour développer votre business.

 

Démonstration expérimentale:

Afin de démontrer nos dires, notamment les points 1,2,4 et 5 nous avons monté une plateforme expérimentale de comparaison entre un moteur procédural performant, en l’occurrence « Meilleur de Classe », et un moteur de recherche basique, clone fonctionnel de « Meilleur de Classe », exploitant une mémoire mARCTM.

 

But de l’expérimentation :

Comparer de manière « plausible » deux dispositifs fonctionnellement équivalents afin de vérifier les avantages liés à la mise en œuvre d’une mARCTM.

Les données : Les corpus choisis sont  les articles de Wikipédia en Français (Fr), et en Anglais (En).
base Fr pour la mARC:             1 million d’articles         base En pour la mARC :           3,5 million d’articles
base Fr pour Google :              1,4 million d’articles      base En pour Google :             3,9 million d’articles


*la différence entre le nombre d’articles dans les 2 cas est due au fait que Wikipédia évolue, et que « Meilleurs de Classe », en tant que moteur Web est à jour, alors que les données dont nous disposons correspondent  à l’état de Wikipédia en février 2010 environ.

Les dispositifs :

1) Restriction des recherches de « Meilleur de Classe » aux domaines fr.wikipedia.org, et en.wikipedia.org

2) Une simulation de moteur de recherche procédural à approche mot-clef, exploitant une version logicielle pré-commerciale de mARCTM.

Le nom de code du moteur de recherche et d’indexation est Syncytiotrophoblaste, et sera sans doute utilisé en tant qu’exemple de programmation d’applications basiques à base de mémoire mARCTM dans la documentation de la version commerciale de la mARCTM.

Il adopte le « Look & Feel » de « Meilleur de Classe », y compris des fonctionnalités avancées telles que l’assistance à la saisie de requête, la requête dynamique en cours de saisie.

Il offre en sus un certain nombre de fonctionnalités importantes, aisées à implémenter à la l’aide d’une mARCTM, dont :

- Une recherche par similarité contextuelle d’articles (mentionné par le sigle « SA »), 
- Un méta-moteur de recherche d’images en fonction de la requête,
- Une assistance à la saisie de requête par suggestion d’associations et de formes.

Il n’est pas un moteur de recherche contextuel à proprement parler, car un tel design n’aurait pas permis de faire une comparaison point à point avec une référence du marché.

Le fait de simuler un mode de recherche type « mot clef » implique l’utilisation de la mARCTM en mode dégradé, à l’exception de la fonctionnalité de recherche d’article par similarité.

L’algorithme d’indexation utilisé est lui aussi orienté mot clef, et non purement contextuel, ce qui surcharge la base de données interne de mARCTM.

En d’autres termes, le design technique, très élémentaire de cette application, n’exploite que partiellement les possibilités de la mARCTM sous-jacente.

3) Environnement

Architecture répartie de « Meilleur de Classe » d’un côté,  serveur  Intel core I5 chez OVH de l’autre.

Le serveur hébergé chez OVH contient deux mARCTM, l’une pour l’indexation Fr, l’autre pour l’indexation En,  ainsi qu’un serveur Web Apache. L’OS est une version de Windows 7 virtualisé dans une partition VMWare.

4) Validité du comparatif

Il n’est pas évident, à priori que les deux plateformes soient comparables. Toutefois une analyse un peu plus fine de l’architecture répartie de « Meilleur de Classe » indique, qu’en première approximation, les résultats peuvent être comparés.

Après discussion avec des ingénieurs extérieurs, ceux-ci sont d’avis que les conditions du test sont significatives, voire même que la plate-forme utilisant le démonstrateur mARCTM est légèrement défavorisée.

Résultats : Indépendance vis-à-vis des données :

L’indexation et la requête sont traitées exactement de la même façon sur le corpus anglais et français par l’application de recherche.

Nous sommes en mesure de démontrer  les mêmes comportements sur les corpus d’articles de Wikipédia allemand, espagnol, italien, alsacien et breton.

Le prototype de mARCTM utilisé fonctionne à l’aide de 2 hypothèses simplificatrices :
- Le signal est segmenté en paquet de 8 bits
- Le caractère  « SPACE » est un segmenteur du signal primaire.

De ce fait, la version actuelle de mARCTM ne permet pas de valider universellement l’indépendance vis-à-vis des données.

Toutefois, elle prouve ad minima, que mARCTM est indépendant de la langue stockée.

La preuve est donc partielle.

Résultats : Compacité :

Pour l’application de moteur de recherche voici les tailles des différents éléments : contenu de la mémoire mARCTM, information d’indexation,  information de résolution inverse.

mARC (Mb)

Indexation Mb

Reverse Indexation Mb

Total

Data Mb

Ratio %

Fr 500 900 731 2100 4000 52,5
En 600 1600 1500 3700 11000 33,6
On constate :

1) La taille de la mARCTM ne varie pas linéairement en fonction des données stockées, mais, au pire, en Log du nombre de données stockées.

2) L’index, à savoir toute l’information nécessaire au moteur de recherche, représente environ 50% de la taille initiale des données, au maximum.
Aujourd’hui, les index de type « Full Text » proposés par les principaux serveurs SQL du marché, ou des moteurs de recherche type Indri, Sphinx et autres,  coûtent entre
100% et 300 % du volume des données initiales.

Nous ignorons quel est le ratio index/données dans le cas de « Meilleur de Classe ».

Conclusion, mARCTM en elle-même est bien compacte comme précisé en début de cette étude. Les applications du type indexation à base de mARCTM sont elles aussi bien plus compactes que leurs homologues  à base de mémoire linéaire (RAM).

Le gain en terme d’indice index/données  entre indexation mARCTM et indexation classique est  compris entre 2 et 6 en faveur de l’application à base de mARCTM.

Une stratégie d’indexation moins orientée « recherche par mot clef » et plus contextuelle (type Article Similaire – SA), permettrait de façon évidente et aisée de diminuer d’un ordre de grandeur (x10)  l’empreinte de l’information statique de l’indexation,  en sous-traitant à la mARCTM la résolution dynamique des relations au runtime (lors de l'exécution).
Résultats : Vitesse :

Cette application ne permet pas de mesurer directement  la vitesse de la mARCTM. Toutefois, comme elle est basée sur son utilisation, le gain de vitesse par rapport à une technologie en pointe à base de mémoire linéaire, ne peut qu’être imputée à l’usage de la mARCTM.

Dans les temps de réponse de l’application de recherche, le pourcentage CPU mobilisé par la mARCTM n’excède quasiment jamais 10% du temps de réponse, le reste étant dévolu aux E/S disque, formatages de données,  API, communication.

Protocole :

Nous avons utilisé une liste de l’ordre de 100 requêtes parmi les plus populaires en 2011 et 2010 pour respectivement  Wikipédia En et Fr.

Un second volet de test est basé sur l’utilisation des titres des articles en tant que nouvelle requête, ainsi qu’à un copier/coller d’une portion du texte de l’article afin de suivre la tendance de l’évolution de la taille des requêtes constatée ces dernières années.

Chaque recherche  été effectuée 4 fois. La première afin de mesurer la performance hors cache, les trois autres afin d’obtenir une moyenne de la requête optimisée par la mise en cache probable.

Les valeurs retenues sont celles mesurées au niveau moteur et indiquées par les deux applications comparées. Elle ne mesure que le temps nécessaire à la résolution de la requête, et non pas l’ensemble du processus Web  de formatage et de transmission des résultats.

Le taux de rappel  réel a également été mesuré.

Attention, dans le cas de « Meilleurs de Classe », pour des raisons de marketing,  l’affichage du taux de rappel n’est que potentiel.
Exemple : « 
Environ 72 000 résultats (0,26 secondes) »

Le taux de rappel réel n’excède jamais 800 résultats. Le seul moyen de le mesurer est d’aller à la dernière page de résultats.

Exemple : « Pour limiter les résultats aux pages les plus pertinentes (total : 606), Google a ignoré certaines pages à contenu similaire. Si vous le souhaitez, vous pouvez  relancer la recherche en incluant les pages ignorées »

Il est en revanche inutile de relancer la recherche en incluant les pages ignorées, le taux de rappel de variant généralement pas, ou de quelques unités au maximum.

Dans le cas de Syncytiotrophoblaste, le taux de rappel indiqué est toujours le taux de rappel réel, et tous les articles sont accessibles.

Vous trouverez en annexes 2 le résultat des mesures effectuées dans les 4 cas de figure : Fr, En, requêtes populaires, requêtes longues.

Les temps de requête moyens ont été extrapolés à partir de la règle de Pareto qui s’applique en général  bien à la logique cache/nocache, à savoir :

1ere requête (nocache) * 20% +  moyenne des 3 requêtes suivantes (cache) *80%

Cohérence :

Pour les tests portant sur les requêtes les plus populaires, il apparait que le temps de réponse moyen de « Meilleur de Classe » pour la restriction aux domaines wikipedia.fr, et wikipedia.en, est respectivement de : 119, et 132 ms.

Les mêmes requêtes,  étendues à tous le Web (non publiées ici afin d’éviter la surcharge) mesurent un temps de réponse moyen d’environ  320 ms, du même ordre de grandeur que la revendication de « Meilleur de Classe » à 250 ms.  Ces résultats démontrent la cohérence de nos hypothèses de départ ; que « Meilleurs de Classe » privilégie et optimise les recherches sur certains domaines, dont Wikipédia., et d’autre part, chaque cluster de serveurs participant à la résolution d’une requête est très peu stressé, comme l’indique la stabilité des temps de réponse de « Meilleurs de Classe ». 

Ce comparatif s’avère donc plausible, selon nous.
Conclusions :
La lecture des résultats amène aux conclusions suivantes :

-          L’application de recherche exploitant une mARCTM logicielle est plus rapide d’au moins un ordre de grandeur (un facteur  10).

-          La mise en œuvre d’une mARCTM augmente implicitement l’efficacité du mécanisme de cache des données d’un facteur 2 environ, par rapport aux mécanismes les plus sophistiqués actuellement déployés. Nous pensons que la mise en œuvre de mécanismes de cache explicites basés sur la prévision contextuelle, serait à même de présenter le même facteur d’amélioration d’un ordre de grandeur (x10) en ce domaine.

-          Une mARCTM permet  à notre application une recherche par similarité dynamique  à partir de l’ensemble des contextes d’un document, en un temps moyen de l’ordre de 52 ms, soit entre 3 et 5 fois plus rapidement qu’une requête simple orientée  « mot clef » avec un moteur de recherche traditionnel, pour un résultat en pertinence indiscutable.


Il est à noter qu’une simulation imparfaite de recherche contextuelle à l’aide de mots clefs, et d’opérateurs ET, OU,  implique une combinatoire explosive, équivalente à plusieurs centaines de requêtes procédurales classiques,  impossible à gérer à grande échelle.

Pour une requête à n termes, le nombre de requêtes logiques est de l’ordre de
(2n-1 – 1) pour n>1.

Remarque : Avec syncytiothrophoblaste, une fois la première page de résultat accédée, ce sont tous les résultats qui sont en cache. En conséquence,  le temps d’accès moyen par page de 20 résultats est de l’ordre de 5 ms.  Avec « Meilleur de Classe », le chargement de page est équivalent à une requête non cachée, à chaque fois, donc entre 70 et 300 ms.

Il est à noter que dans le cas de notre application, il n’y a aucune optimisation de la requête en elle-même, chaque changement de page provocant la réévaluation globale de la requête, comme dans le cas de « Meilleur de Classe ». Une optimisation  triviale consisterait à conserver le résultat de la requête dans une variable de session afin d’optimiser le parcours des pages de résultats. Le temps de réponse descendrait alors à environ 0,5 ms / page, indépendamment de la complexité de la requête.

Sachant que la moyenne des requêtes engendre le parcours d’environ 2,5 pages,  on peut interpoler aisément le temps de réponse moyen pour un moteur de recherche optimisé à base de mARCTM, à moins de 5 ms, soit un ratio de plus de 25 comparé à un moteur procédural comme « Meilleurs de Classe ».

Un ensemble optimisé, à base de mARCTM commerciale, et d’un développement industriel de moteur de recherche permettrait d’espérer non pas un gain de 1 ordre de grandeur (x10), mais plus proche de 2 ordres de grandeur (x100). 

Résultats : facilité de programmation

Voici le code php de l’application Syncytiotrophoblaste pour la recherche par similarité par article.

4 accès élémentaires à la mARC via l’API, et du code d’initialisation et de formatage des résultats.

Toute la complexité de la détection et sélection de contexte est intégralement sous-traitée de manière transparente à la mARC en quelques ms.

public function connexearticles ($rowid)

       {

       //     echo " similar article ";

$this->s->Execute ($this->session, 'CONTEXTS.CLEAR');
$this->s->Execute ($this->session, 'RESULTS.CLEAR');
$this->s->Execute ($this->session, 'CONTEXTS.SET','KNOWLEDGE',$this->knw );
$this->s->Execute ($this->session, 'CONTEXTS.NEW');
$this->s->Execute ($this->session, 'TABLE:wikimaster2.TOCONTEXT',$rowid);
$this->s->Execute ($this->session, 'CONTEXTS.DUP');
$this->s->Execute ($this->session, 'CONTEXTS.EVALUATE';
$this->s->Execute ($this->session, 'CONTEXTS.FILTERACT','25','true' );
$this->s->Execute ($this->session, 'CONTEXTS.NEWFROMSEM','1','-1','-1' );
$this->s->Execute ($this->session, 'CONTEXTS.SWAP');
$this->s->Execute ($this->session, 'CONTEXTS.DROP');
$this->s->Execute ($this->session, 'CONTEXTS.SWAP');
$this->s->Execute ($this->session, 'CONTEXTS.DUP');
$this->s->Execute ($this->session, 'CONTEXTS.ROLLDOWN','3');
$this->s->Execute ($this->session, 'CONTEXTS.UNION');
$this->s->Execute ($this->session, 'CONTEXTS.EVALUATE');
$this->s->Execute ($this->session, 'CONTEXTS.INTERSECTION');
$this->s->Execute ($this->session, 'CONTEXTS.NORMALIZE');
$this->s->Execute ($this->session, 'CONTEXTS.FILTERACT','25','true' );
$this->s->Execute ($this->session, 'CONTEXTS.TORESULTS','false','25');
$this->s->Execute ($this->session, 'RESULTS.SelectBy','Act','>','95');
$this->s->Execute ($this->session, 'RESULTS.SortBy','Act','false');
$this->s->Execute ($this->session, 'RESULTS.GET','ResultCount');
$count = $this->s->KMResults; 

       }

Conclusion Partielle

Techniquement, les différentes caractéristiques  de la mémoire mARCTM sont ici indirectement démontrées. 

Toutefois,  il reste à déterminer si les contextes détectés et formés au sein de la mARCTM sont directement utilisables. En d’autres termes, lorsqu’il s’agit d’un signal de type texte, ces contextes sont-ils directement  interprétables par un humain ?
Une autre façon de voir les choses est de savoir si un moteur de recherche utilisant une mARCTM apporte une certaine pertinence, au sens intuitif du terme, par rapport à un système classique ?

Contactez-nous pour échanger plus avant si vous êtes intéressé car nous avons restreint la publication de la seconde partie de cette étude.

Conclusion globale :

En matière de pertinence, de sélection automatique des articles les plus intéressants, et d’exploration de la base de document, il apparait clairement que l’application à base de mARC offre des possibilités bien supérieures à tous les moteur procéduraux orientés mots-clefs actuels.
Tous droits réservés.

1-10 of 15