Cette liste de définitions n'est pas exhaustive mais elle vise à expliquer simplement certains éléments essentiels appartenant au champ de l'IA et de l'IA au travail.
Des vidéos pédagogiques courtes pour découvrir quelques notions essentielles des technologies de l'IA et des effets de l'IA au travail, disponible dans cette playlist Youtube de 14 vidéos produites pour le DiAG.
Intelligence artificielle
L'intelligence artificielle (IA) est une discipline scientifique qui étudie la création de systèmes intelligents, c'est-à-dire de systèmes capables de raisonner, de comprendre et d'agir de manière autonome.
Une définition de l'IA a été proposée par le professeur John McCarthy (1955), l'un des pères fondateurs de l'IA : "L'intelligence artificielle est la science et l'ingénierie du fait de rendre les machines intelligentes, c'est-à-dire de leur permettre de simuler la faculté de raisonner, d'apprendre et d'agir comme un être humain." Cette définition est générale et permet de couvrir l'ensemble des domaines de l'IA. Elle met l'accent sur le fait que l'IA vise à créer des machines capables de reproduire les capacités cognitives humaines.
D'autres définitions plus spécifiques ont également été proposées. Par exemple, la définition donnée par le Parlement européen (2020) est la suivante : "L'intelligence artificielle est tout outil utilisé par une machine afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité."
Cette définition met l'accent sur le fait que l'IA vise à créer des machines capables de reproduire des comportements humains complexes.
L'IA est une discipline complexe et multidisciplinaire qui repose sur des connaissances provenant de nombreux domaines tels que les mathématiques, les statistiques, l'informatique, l'ingénierie, la psychologie, la neuroscience, etc.
Système à base d'intelligence artificielle (SIA)
Un système d'IA est un logiciel informatique qui est capable de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions, qui influencent l'environnement avec lequel il interagit. Pour être qualifié de système d'IA, le logiciel doit avoir été développé à l'aide d'une ou plusieurs techniques énumérées dans l'annexe I du futur règlement européen sur l'IA.
Les techniques énumérées dans l'annexe I du futur règlement européen sur l'IA comprennent :
L'apprentissage automatique (machine learning) qui permet au logiciel d'améliorer ses performances au fil du temps grâce à l'analyse des données.
L'apprentissage profond (deep learning) qui est une forme d'apprentissage automatique qui utilise des réseaux de neurones pour traiter les données.
L'intelligence artificielle conversationnelle (chatbots) qui permet aux logiciels de communiquer et d'interagir avec les humains de manière naturelle.
La robotique qui permet aux logiciels de contrôler des robots physiques.
La définition d'un système d'IA est extrêmement large. De nombreuses technologies peuvent être qualifiées de systèmes d'IA, y compris des technologies qui sont déjà largement utilisées telles que les moteurs de recherche, les assistants personnels et les systèmes de recommandation.
Liste des systèmes d'IA interdits : dans la mesure où le monde entre dans une ère de réinvention technologique permanente, la Commission européenne se donne la latitude de mettre à disposition une liste fine des systèmes d'IA interdits. Cette liste pourrait inclure des systèmes d'IA qui présentent des risques importants pour les droits fondamentaux ou la sécurité publique.
Algorithme
Un algorithme est un ensemble de règles ou d'instructions qui permet à un programme informatique de traiter des informations, de résoudre un problème et d'accomplir des tâches.
Il peut être utilisé pour apprendre et analyser des données, reconnaître des modèles, prendre des décisions ou générer du texte, des images ou des sons.
Données d’entraînement
Les données d'entraînement sont des ensembles de données utilisés pour aider les modèles d'IA à apprendre. Elles peuvent être sous forme de texte, d'image, de code ou d'autres formats. Les données d'entraînement sont utilisées pour entraîner les modèles d'IA à reconnaître des modèles et à prendre des décisions en fonction de ces modèles.
Plus les données d'entraînement sont nombreuses et diversifiées, plus le modèle sera précis et capable de généraliser à de nouvelles situations.
Les données d'entraînement sont souvent étiquetées pour permettre au modèle de comprendre la relation entre les entrées et les sorties. Par exemple, dans un modèle de reconnaissance d'image, les images peuvent être étiquetées avec des catégories pour aider le modèle à apprendre à reconnaître les objets dans les images.
Approche symbolique
L’IA symbolique consiste à automatiser l’expertise humaine dans une machine en utilisant des techniques fondées sur un raisonnement formel. Cette approche se base sur l’intégration de type “si X alors Y”. En agrégeant ces règles à des connaissances, le système est alors apte à prendre des décisions.
Les deux principaux inconvénients de cette approche sont la modélisation des règles en grande partie manuelle et le manque de flexibilité : l’IA a beaucoup de mal à s’adapter aux événements imprévus.
Approche connexionniste
En opposition à l’approche symbolique, l’approche connexionniste est incarnée par les réseaux de neurones et le deep learning. Cette approche ne vise pas à créer un système qui sait réaliser une tâche directement, mais de le programmer pour apprendre à réaliser une tâche. Autrement dit, il crée des associations lui-même entre des entrées et des sorties.
Par opposition à l’approche symbolique, très formelle et donc facilement interprétable, documentable et prouvable, l’approche connexionniste est probabiliste et empirique. L’explicabilité des algorithmes peut donc s'avérer difficile.
Apprentissage automatique (Machine learning)
En 1959, Arthur Samuel, un des pionniers de l’intelligence artificielle, définit le machine learning comme “la capacité d’une machine à apprendre sans être explicitement programmée pour”. En s’entrainant sur une tâche et en mesurant la performance à chacun des essais, alors le système est capable de se construire une représentation de comment réaliser la tâche.
Le machine learning est particulièrement intéressant quand aucun expert n’est capable d’expliciter comment réaliser la tâche, que les solutions changent au cours du temps ou que les solutions doivent être adaptées aux cas particuliers.
Nous retrouvons plusieurs types d’apprentissage associés au machine learning. Nous en évoquerons trois qui nous semblent primordiaux :
Supervisé
Non supervisé
Par renforcement
Apprentissage par renforcement
Il s’agit de l’apprentissage par essai-erreur. Le système va réaliser des actions et mesurer s’il se rapproche ou s’il s’éloigne de l’état souhaité. A chacune des itérations, le système se perfectionne et devient plus performant.
Sous-domaine de l'apprentissage automatique développant des systèmes qui sont formés en recevant des "récompenses" ou des "punitions" virtuelles pour des comportements plutôt qu'un apprentissage supervisé sur des paires d'entrées-sorties correctes. En février 2015, DeeMind a décrit un système d'apprentissage par renforcement qui a appris à jouer à divers jeux informatiques Atari. En mars 2016, AlphaGo, le système de DeepMind, a battu le champion du monde du jeu de Go.
Apprentissage supervisé
Apprentissage en partant d’un ensemble de données annotées dont nous connaissons le résultat.
Exemple : en fournissant au système l’ensemble des caractéristiques des maisons vendues en France ainsi que leur prix (annotation), celui-ci est capable de prédire le prix d’une maison en fonction des caractéristiques.
L'apprentissage supervisé a été utilisé pour la détection des courriels indésirables en formant des systèmes sur un grand nombre de courriels, chacun d'entre eux ayant été étiqueté manuellement comme étant un courriel indésirable ou non.
Apprentissage non supervisé
Sous-domaine de l'apprentissage automatique développant des systèmes qui stockent les connaissances acquises lors de la résolution d'un problème et les appliquent à un problème différent mais connexe. Ici le système apprend à partir des données, mais sans en connaître la finalité. En réalisant des statistiques, il va alors identifier des regroupements cohérents entre des données.
Exemple : en fournissant au système des données sur le fonctionnement de ma machine de fabrication. Il peut identifier des éléments annonciateurs d’une panne.
Intelligence artificielle générative (GenAI)
L'IA générative est une branche de l'intelligence artificielle qui permet aux machines de créer de nouveaux contenus, comme du code informatique, des conversations, du texte, des images, des objets 3D, de la musique, des vidéos ou encore des voix et des avatars... Elle s'appuie sur des algorithmes d'apprentissage automatique pour apprendre à partir de données existantes et générer de nouveaux contenus qui ressemblent à celles qu'elle a apprises.
Un exemple simple d'IA générative est un générateur de texte. Ce générateur peut apprendre à partir d'un ensemble de données de textes, comme des articles de journaux ou des livres. Il peut ensuite utiliser ces données pour générer de nouveaux textes, comme des articles de nouvelles ou des histoires.
Un autre exemple populaire est la génération texte-image, dont le procédé est la création d’une image à partir d'une description textuelle.
IA faible et IA forte
L’IA faible désigne un système très spécialisé, performant et autonome dans sa tâche. Elle est censé simplifier les tâches des travailleurs. Elle est conçue pour effectuer une tâche particulière de manière efficace et précise, mais elle n'est pas capable d'apprendre ou d'évoluer au-delà de ses compétences.
L’IA forte désigne un système qui disposerait d’une intelligence générale, d’un libre arbitre et d’une conscience de soi. C’est un système qui dépasserait l’humain.
L’IA forte est actuellement de la science fiction, aucun système ne répond à ces critères. Jean-Gabriel Ganascia, professeur d’IA , Président du comité d’Ethique du CNRS: "le discours public en France fait une large part à la question des conséquences de l’IA d’après-demain, ce qui est à la fois spéculatif et subjectif, tandis que le sujet des conséquences directes de l’IA aujourd’hui et demain est relégué en deuxième plan".
Intelligence artificielle générale (IAG)
L'intelligence artificielle générale (IAG) est une forme d'intelligence artificielle très avancée, qui serait capable de comprendre et de raisonner sur le monde d'une manière comparable à celle des humains. Elle pourrait effectuer un large éventail de tâches cognitives "comme les humains", y compris la résolution de problèmes, l'apprentissage, la créativité et la communication, tout en améliorant ses propres capacités.
IA multimodale
L'IA multimodale est une forme d'intelligence artificielle qui combine et analyse plusieurs sources d'informations (comme le texte, les images, les vidéos et la parole) avec différents algorithmes de traitement intelligents, pour générer une compréhension globale d'un sujet.
Elle est utilisée dans divers domaines tels que la reconnaissance de visage, détecter l'âge ou le sexe, faire de la traduction automatique, etc.
Traitement du langage naturel (TLN)
Le traitement du langage naturel (TLN) est un domaine de l'intelligence artificielle qui permet aux machines de comprendre, d'interpréter et de générer du langage naturel. Il utilise des techniques d'apprentissage automatique et d'apprentissage profond pour apprendre les nuances du langage humain, telles que la syntaxe ou la sémantique.
Les applications courantes du traitement du langage naturel incluent la traduction automatique, la reconnaissance vocale, la génération de texte et l'analyse de sentiments.
Grand modèle de langage (LLM)
Un Grand Modèle de Langage (LLM) est un modèle d'IA qui est entraîné sur de grands volumes de données textuelles dont l'objectif est de comprendre des langages et de générer ainsi des contenus nouveaux, dans des langages équivalents aux humains. Les LLM sont des modèles de traitement du langage naturel qui utilisent des réseaux de neurones pour apprendre à prédire la probabilité d'un mot donné en fonction du contexte dans lequel il est utilisé.
Ils sont capables de générer du texte cohérent et naturel, ce qui les rend utiles pour une variété d'applications telles que la traduction automatique, la génération de texte et la réponse aux questions .
Apprentissage en profondeur (Deep learning)
Le Deep Learning quant à lui est une sous-discipline du Machine Learning qui utilise des réseaux de neurones artificiels profonds pour résoudre des problèmes complexes. En comparaison du Machine Learning, le Deep Learning utilise des modèles beaucoup plus sophistiqués et complexes. Il va être utilisé pour la reconnaissance de formes, la prédiction, la génération de contenu, la classification et d’autres tâches.
Utilisation de réseaux neuronaux comportant de nombreuses couches ("profondes") d'un grand nombre (millions) de neurones artificiels. Avant l'apprentissage en profondeur, les réseaux neuronaux artificiels ne comportaient souvent que trois couches et des dizaines de neurones ; les réseaux d'apprentissage en profondeur comportent souvent sept à dix couches, voire plus.
Réseau de neurones artificiels
Un réseau de neurones artificiels (RNA) est un type de modèle d'apprentissage automatique qui simule le fonctionnement du cerveau humain. Il est composé de nœuds interconnectés, appelés neurones, qui sont capables d'apprendre et de s'adapter au fil du temps. Les neurones artificiels sont organisés en couches, chacune étant composée de plusieurs neurones interconnectés. Les neurones d'une couche sont connectés aux neurones de la couche suivante, formant ainsi un réseau de neurones.
Les modèles informatiques inspirés des connexions ont été étudiés depuis les années 1940.
Robots humanoïdes
Robots physiques semblables à des êtres humains (souvent bipèdes) qui intègrent diverses technologies informatiques et robotiques et qui sont capables d'effectuer diverses tâches humaines (y compris le déplacement sur des terrains, la reconnaissance d'objets, la parole, la détection d'émotions, etc.).
Le robot humanoïde Pepper d'Aldebaran Robotics et de Softbank est utilisé pour assurer le service à la clientèle dans plus de 140 magasins Softbank Mobile au Japon.
Robotique en essaim
Systèmes multi-robots coordonnés, impliquant souvent un grand nombre de robots essentiellement physiques.
Chatbots
Les chatbots sont des agents conversationnels. l'IA a des systèmes conçus pour simuler une conversation le plus naturellement possible avec des utilisateurs humains, en particulier ceux qui sont intégrés dans des applications de messagerie.
En décembre 2015, la General Services Administration du gouvernement américain a décrit comment elle utilise un chatbot nommé Mrs. Landingham (un personnage de la série télévisée The West Wing) pour aider à l'intégration des nouveaux employés.
Automatisation des processus robotiques
Classe de "robots" logiciels qui reproduisent les actions d'un être humain interagissant avec les interfaces utilisateur d'autres systèmes logiciels. Cela permet l'automatisation de nombreux flux de travail de "back-office" (par exemple, finance, ressources humaines) sans nécessiter une intégration informatique coûteuse.
Par exemple, de nombreux flux de travail nécessitent simplement le transfert de données d'un système à l'autre
Éthique de l’intelligence artificielle
Ensemble de règles et de principes visant à garantir qu’un système d’intelligence artificielle ne nuise pas aux humains, que ce soit intentionnellement ou non. Ces règles peuvent concerner la collecte et le traitement des données, la lutte contre les biais et d’autres aspects de la conception des modèles et de l’utilisation des systèmes d’IA.
Considérations éthiques
Prise en compte des implications éthiques de l’IA, telles que les risques potentiels pour la vie privée, l’équité et l’utilisation abusive des données ou des modèles, ainsi que d'autres questions de sécurité. Les considérations éthiques sont essentielles pour garantir que l’IA soit développée et utilisée de manière responsable.
Sécurité de l’IA
Domaine interdisciplinaire (recherche et ingénierie) qui s’intéresse aux impacts de l'IA, visant à garantir que l’intelligence artificielle soit développée et utilisée de manière sûre et responsable.
Les chercheurs en sécurité de l’IA s’intéressent aux risques potentiels de l’IA tels que les attaques malveillantes, les erreurs de conception et l’utilisation abusive.
Test de Turing
C'est le test qui évalue la capacité d’une machine à simuler un comportement humain, en particulier une conversation avec un humain. L'objectif du test est de déterminer si les réponses proviennent d'un humain ou d'une machine. La machine réussit le test si un humain ne peut pas distinguer la réponse de la machine de celle d'un autre humain.
Biais
Les biais sont des écarts ou erreurs dans les données d’apprentissage d’un modèle d’IA qui peuvent entraîner des résultats biaisés. Les biais d’IA peuvent être présents dans les données d’origine, dans le processus d’apprentissage du modèle ou dans l’utilisation du modèle.
Des biais d’IA courants sont lié aux stéréotypes, au genre, à la couleur de peau, à l’orientation sexuelle, etc.
Garde-fous
Mesures de restrictions techniques, organisationnelles ou politiques mises en place pour prévenir les risques potentiels liés à l’IA et que les modèles ne créent pas de contenu indésirable (tels que les attaques malveillantes, les erreurs de conception et l’utilisation abusive). Les garde-fous peuvent inclure des réglementations gouvernementales, des codes de conduite professionnels ou des normes industrielles.
Différentes études ont montré les transformations potentielles du travail par les systèmes à base d’intelligence artificielle (SIA). Yann Ferguson et Charly Pécoste de l'Icam, site Toulouse (d'après leur travaux "L’IA au travail : propositions pour outiller la confiance", 2022), ont défini 6 critères de responsabilité de l'IA qu’il convient d’adopter avant, pendant et après l’intégration d’un système d'IA en entreprise. Ces critères renvoient à des éléments d’épanouissement et de respect au travail, qui peuvent être affectés par l’intégration d’un SIA dans l'entreprise.
Tâche automatisable : identification
D’après le Conseil d’Orientation pour l’emploi, une tâche est automatisable si elle n’implique pas de :
Flexibilité :
cadence machine, la tâche est encadrée par des normes de production horaire, répétition d’une même série de gestes ou d’opérations.
Capacité d’adaptation :
pas d’interruption pour effectuer une autre tâche non prévue, application stricte d’ordres, de consignes ou de modes d’emploi.
Capacité à résoudre des problèmes :
situation anormale durant laquelle le travailleur fait appel à d’autres pour résoudre des problèmes.
D’interactions sociales :
contact avec le public limité, rythme de travail non imposé par une demande extérieure.
Si une seule de ces exigences est requise par la tâche, alors les chances d’automatisation sont faibles.
Emploi automatisable : méthode de calcul et estimation
Si un emploi présente plus de 70% de ses tâches automatisables, alors on considère qu’il peut être lui-même automatisé. Entre 50 et 70%, on parle davantage de transformation du travail pour une collaboration humain/machine.
Sur cette base, l’OCDE a estimé qu’en France 9% des emplois étaient automatisables et 30% transformés. Un emploi automatisable ne l’est pas nécessairement pour des raisons de performances financières, organisationnelles…
Il apparaît donc primordial de s’intéresser aux transformations induites par l’IA.
La reconnaissance
Dans le travail, la reconnaissance s'allie souvent au mérite qui a pris une place considérable dans les organisations et détermine notamment les gratifications symboliques et matérielles.
D’après Brun et Dugas (2005), nous pouvons distinguer quatre dimensions de la reconnaissance au travail :
La reconnaissance existentielle qui porte sur l’individu et non sur le seul salarié ;
La reconnaissance de la pratique qui porte sur la manière d’exécuter le travail ;
La reconnaissance des efforts consentis qui portent sur l’engagement, l’intensité voire les risques encourus ;
La reconnaissance des résultats effectifs, observables, mesurables et contrôlables.
Ce critère re-problématise les enjeux de déplacement de la valeur du travail en pointant sur la nécessité pour les organisations de produire des nouveaux indicateurs qui permettront de définir et de positionner la reconnaissance au travail.
Un système d'intelligence artificielle (SIA) peut altérer les déterminants de la reconnaissance personnelle (singularité du collaborateur) et professionnelle (pratiques déployées, efforts consentis, résultats obtenus) en déplaçant une partie de l’intelligence que le collaborateur déploie vers l’application.
Exemple d'un cas d'usage concret :
Une tâche de fixation de porte sur un avion, qui repose sur un petit nombre de techniciens capables d'assurer cette pose après une dizaine d'itérations. Un SIA divise ce nombre par deux en calculant des points que le technicien doit ensuite suivre. Cette tâche n'implique plus d'expertise particulière, le SIA rend les techniciens substituables.
Ceux-ci refusent de l'utiliser.
Le savoir-faire
L’identité professionnelle se construit en rapport à un savoir-faire : une école, un diplôme puis l’expérience contribuent chez l’individu à se construire une identité pour soi et pour autrui. Ce savoir-faire sert de base à sa légitimité, elle-même constitutive de son statut et de sa position, parfois durement acquise.
En transformant les pratiques, en automatisant certaines dimensions de l’intelligence-métier, certains SIA peuvent dévaloriser certains savoir-faire constitutifs d’une identité professionnelle, d’une position dans l’organisation, du prestige. Ils peuvent aussi solliciter de nouvelles compétences de haut niveau.
L’innovation de processus, en déplaçant la valeur du travail, met toujours fin à un monde au sein duquel les opérateurs s’étaient constitués des pratiques, des règles, des routines efficaces qui ont établi un statut, une identité. La nouvelle technologie « permet/autorise de faire » ou « oblige à faire », mais aussi « empêche de faire » ou « plus comme avant » (Bobilier Chaumon, 2016).
Exemple d'un cas d'usage concret :
Un sous-traitant du constructeur automobile qui développe un SIA dédié à la généralisation des connaissances empiriques, mobilisées en situation de dysfonctionnement du processus. Jusqu'à présent, ces interventions extra-ordinaires sollicitaient l'expérience des travailleurs les plus qualifiés. Le SIA reçoit des notifications de dysfonctionnement des capteurs, alerte les travailleurs et guide la remédiation via des montres connectées et des écrans.
L'autonomie
L’autonomie qualifie la possibilité pour le travailleur de devenir sujet, de s’éprouver comme l’auteur de ses œuvres, d’affirmer ses choix, d’agir de lui-même. Le principe d’autonomie oppose le travail authentique, expressif et personnel au travail mécanique, déshumanisé et « abstrait ».
L’autonomie est devenue un principe de justice central au travail : chaque travailleur est conduit à juger de la justice de son travail en fonction de la liberté, de l’autonomie et de la réalisation de soi qu’il lui permet (F. Dubet, 2006). A l’opposé, le sentiment d’injustice résulte de la fatigue, de l’usure, de l’absence d’intérêt pour la tâche, du sentiment de mépris et d’impuissance sur sa propre activité. L’autonomie consacre la réalisation de soi comme juste et l’aliénation comme injuste.
Exemple d'un cas d'usage concret :
Dans les entrepôts qui recourent au voice picking, des opérateurs qui suivent un itinéraire fixé par le SIA. Auparavant, les opérateurs expérimentés le définissait de façon autonome pour élaborer une "belle palette", c'est-à-dire une palette équilibrée dont la construction facilite la mobilité.
Les relations humaines
Le travail crée des relations humaines primordiales au bien-être des travailleurs.
De nombreux systèmes à base d’IA (SIA) automatisent ou interfèrent dans des tâches sociales, c’est-à-dire des tâches qui se basent essentiellement sur une communication humaine. France Stratégie pointe alors un risque de désengagement relationnel, en raison d’une « déshumanisation des pratiques et un appauvrissement des interactions sociales, lesquels constituent très souvent la raison d’être de certains métiers ». La communication peut aussi être appauvrie par les stratégies de dialogue standardisées des machines qui déterminent les réponses et parfois mêmes les questions à partir d’architectures de choix.
Exemple d'un cas d'usage concret :
Des "voice picking" ou "commandes vocales" qui guident les préparateurs de commande dans les entrepôts, a généralement une compréhension réduite à une cinquantaine de mots et son usage tend de surcroît à limiter la réponse humaine à deux : "Répétez" et "OK".
En outre, sortir de ce lexique configuré, pour saluer un collègue par exemple, provoque un message d'erreur de type "chiffre contrôle faux".
La responsabilité
Au travail, chaque changement conduit à une nouvelle distribution des responsabilités individuelles et des rapports que chacun entretient avec le résultat global. La responsabilité exprime le devoir de répondre de ses actes, toutes circonstances et conséquences comprises, c’est-à-dire d'en assumer l'énonciation, l'effectuation, et par la suite la réparation voire la sanction lorsque l'attendu n'est pas obtenu. Plus une organisation est complexe, plus les responsabilités sont partagées entre un grand nombre d’individus et plus le sentiment de responsabilité à l’égard du tout se brouille.
L’intégration de machines intelligentes peut affecter la distribution des responsabilités suivant six mécanismes :
Fragmentation de la responsabilité entre le travailleur et la machine intelligente ;
Difficultés d’attribution croissante de la responsabilité dues à l’augmentation des parties prenantes (concepteur, ingénieur, programmeur, utilisateur etc.) ;
L’emprise des algorithmes sur la pratique pourrait délier moralement le travailleur de son activité ;
L’efficacité voire la supériorité présumée du SIA peut générer des conduites de retrait par excès de confiance, de contentement ou de prudence ;
L’automatisation d’une tâche peut conduire à son invisibilisation. Progressivement, la tâche automatisée échappe à l’attention, à la conscience de la situation du travailleur qui se focalise sur les tâches sur lesquelles il intervient ;
Le problème de l’explicabilité des algorithmes d’apprentissage automatique dont l’effet de « boîte noire » est considéré un obstacle majeur à l’acceptabilité sociale des SIA.
Exemple d'un cas d'usage concret :
L'intégration d'un cobot dans une activité de contrôle bactériologique du lait, qui est bloquée par l'impossibilité d'imputer des responsabilités en cas de crise sanitaire. Aucun service n'est prêt à endosser la responsabilité d'une erreur de cobot.
La surveillance
Dans l’imaginaire collectif, les machines sont associées à des systèmes de surveillance et de contrôle.
Dans certaines situations, non seulement l’employeur peut, mais doit surveiller l’activité du salarié, lorsque la finalité est de protéger des installations comportant un risque élevé d’explosion ou de diffusion de matières dangereuses ou de détournement de celles-ci par des tiers non autorisés, et d’assurer la protection de personnes exposées à des risques particuliers en raison de ces activités.
En dehors de ces situations spécifiques, ce droit est soumis à un contrôle de proportionnalité : il doit être justifiable par les intérêts légitimes de l’employeur.
Exemple d'un cas d'usage concret :
Une entreprise expérimentant l'usage du robot social Pepper de la société SoftBank Robotics, qui déambulait notamment dans les salles de pause pour leur proposer de les divertir. Les salariés s'en méfiaient en raison de la caméra sur son front qui lui sert de capteur d'interaction, mais qu'ils imaginaient être une caméra de surveillance. Les pilotes de l'expérimentation ont alors collé un post-it qui disait "Je ne vous filme pas" pour lever les inquiétudes.
Travaux de Yann Ferguson et Charly Pécoste, de l'Icam site Toulouse :
"L’IA au travail : propositions pour outiller la confiance" (2022)
L'outil MAIAT (Mesure de l’Acceptabilité sociale de l’IA au Travail), élaboré par Yann Ferguson et Charly Pécoste, de l'Icam :
https://dev2.icam.fr/toulouse/GEI/Confiance/Controleur/critere.php
Rapport du Conseil d’orientation pour l’emploi :
"Automatisation, numérisation et emploi - Tome 2 : l’impact sur les compétences" (2017)
Rapport de l'OCDE :
"SYNTHÈSES SUR L’AVENIR DU TRAVAIL : Automatisation et travail indépendant dans une économie numérique" (2016)
Site ActuIA - Actualité sur l'IA :
"Portail de l'intelligence artificielle, à destination des chercheurs, étudiants, professionnels et passionnés"
Rendez-vous en Phase 2
Etablissez le diagnostic de vos tâches professionnelles pour découvrir dans quelle mesure des SIA peuvent être impliqués pour vous accompagner dans votre travail.