Intelligence artificielle (IA)
Sur cette page
- Qu’est-ce que l’IA?
- Quelles sont les utilisations actuelles et potentielles de l’IA sur le lieu de travail?
- Quelle législation régit l’utilisation de l’IA?
- Quels sont les avantages potentiels en matière de santé et de sécurité liés à l’utilisation de l’IA?
- Quelles sont les répercussions potentielles de l’IA sur la santé et la sécurité?
- Quelles sont les façons d’aborder les répercussions sur la santé et la sécurité?
- Quelles sont les considérations clés lors de l’utilisation de systèmes d’IA au travail?
- Pourquoi les requêtes sont-elles importantes lors de l’utilisation de l’IA pour créer du contenu?
Qu’est-ce que l’IA?
Haut de la pageL’intelligence artificielle (IA) est un terme générique qui décrit des ordinateurs ou des logiciels capables de détecter des motifs spécifiques ou non spécifiques, de faire des prévisions, de prendre des décisions, de générer des résultats ou du contenu et d’optimiser des processus. Les systèmes ou les outils d’IA analysent de grandes quantités de données pour percevoir, raisonner, apprendre et agir de manière autonome ou semi-autonome afin d’atteindre des objectifs spécifiques.
Par exemple, l’IA est utilisée lorsque :
- Les assistants virtuels à commande vocale comprennent notre voix.
- Les plateformes de diffusion en continu recommandent des émissions que nous pourrions aimer.
- Les voitures autonomes reconnaissent les mouvements de la circulation et les panneaux de signalisation.
- Les filtres à pourriels bloquent les courriels indésirables.
- Les applications de cartographie fournissent des orientations et des suggestions.
Quelles sont les utilisations actuelles et potentielles de l’IA sur le lieu de travail?
Haut de la pageL’IA est utilisée dans de nombreux types d’outils de travail. Elle aide à automatiser des tâches simples et complexes et soutient la prise de décision et la gestion du travail.
Des exemples incluent la robotique, l’informatique prêt-à-porter, les inspections d’équipement et la maintenance prédictive. L’IA peut également être utilisée dans des outils, comme le clavardage robotisé, l’équipement de protection individuelle intelligent et des simulateurs de formation. Certaines organisations utilisent l’IA pour le recrutement et la gestion du travail, y compris le suivi du rendement et l’attribution des tâches.
Au travail, la technologie dotée de l’IA pourrait :
- Optimiser l’attribution des tâches et des ressources
- Aider avec les tâches administratives
- Automatiser les tâches répétitives
- Prévoir les besoins en charge de travail et en production
- Prévoir les besoins d’entretien
- Faire le suivi du rendement au travail
- Surveiller et ajuster l’environnement (température, humidité, niveaux de bruit, qualité de l’air, etc.)
- Attribuer des tâches et des ressources
- Inspecter des chantiers (y compris l’utilisation de drones)\
L’IA peut être utilisée pour effectuer des tâches physiques et cognitives, y compris la conduite, le soutien au travail juridique ou l’assistance dans les décisions médicales. De ce fait, l’IA est introduite dans de nombreux domaines, comme la fabrication, l’agriculture, la santé, l’hôtellerie, le transport, l’exploitation minière, le secteur pétrolier et gazier, le service à la clientèle.
Quelle législation régit l’utilisation de l’IA?
Haut de la pageEn date d’août 2025, aucune législation spécifique ne régit l’utilisation et le développement de l’IA au Canada. Toutefois, le contexte réglementaire évolue. Diverses lois ont été introduites, mais elles ne sont pas encore en vigueur.
En septembre 2023, le « Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancée » a été annoncé par le gouvernement fédéral. Ce code temporaire et volontaire fournit aux organisations des normes communes pour démontrer leur responsabilité lors de l’élaboration et de l’utilisation de systèmes d’IA générative jusqu’à ce qu’une réglementation formelle soit en vigueur.
En 2022, le gouvernement du Canada a introduit la Loi sur la mise en œuvre de la Charte numérique (projet de loi C-27), une loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données, et la Loi sur l’intelligence artificielle et les données (LAID). La LAID a été présentée dans le cadre du projet de loi C-27 établissant un cadre pour réglementer la conception, l’élaboration et le déploiement de l’IA.
Veuillez remarquer que des lois, y compris celles sur les droits de la personne, la vie privée et la santé et la sécurité au travail, peuvent s’appliquer à certaines utilisations de l’IA, même si le terme « intelligence artificielle » n’est pas utilisé directement.
Des exemples de loi en matière de santé et de sécurité au travail qui pourraient s’appliquer à l’utilisation de l’IA en milieu de travail incluent des exigences liées à ce qui suit :
- Obligation générale de prendre des mesures raisonnables pour protéger les travailleurs.
- Identification des dangers, évaluations des risques, et contrôles des dangers
- Robotique, automatisation et protection de la sécurité
- Maîtrise des sources d’énergie dangereuses
- Ergonomie
- Santé et sécurité psychologiques
Quels sont les avantages potentiels en matière de santé et de sécurité liés à l’utilisation de l’IA?
Haut de la pageL’IA peut éventuellement améliorer la santé et la sécurité au travail de plusieurs manières pratiques. En voici des exemples :
- Automatisation des tâches dangereuses : Les robots alimentés par l’IA peuvent effectuer des tâches à risques élevés, réduisant l’exposition des travailleurs à des environnements dangereux.
- Détection des dangers et prévision des incidents : Les systèmes de surveillance en temps réel peuvent déterminer des conditions ou des comportements dangereux. L’IA peut également analyser les données de sécurité historiques pour prévoir de futurs incidents.
- Surveillance de la santé des travailleurs : Les dispositifs portables et les capteurs peuvent faire le suivi de la fatigue, du stress, des signes vitaux et des facteurs environnementaux, comme la qualité de l’air et la température, permettant une intervention précoce.
- Détection et soutien en santé mentale : Les outils alimentés par l’IA, comme le clavardage robotisé, peuvent évaluer les modèles de communication pour signaler des préoccupations potentielles en matière de santé mentale et offrir un soutien ou des ressources personnalisées.
- Simulations de formation : L’IA soutient des environnements de formation immersifs fondés sur des scénarios, qui améliorent les compétences en matière de sécurité sans risque réel.
- Rédaction et communication de programmes : L’IA générative peut aider à rédiger des politiques en matière de sécurité et à traduire des exigences complexes en matière de santé et de sécurité en un langage accessible.
Toute technologie habilitée par l’IA utilisée pour la santé et la sécurité doit être appropriée pour l’organisation et le type de travail effectué. L’introduction de l’utilisation de l’IA pour améliorer la santé et la sécurité doit être supervisée par des personnes qualifiées, qui peuvent vérifier que les résultats générés auront les effets souhaités. Des évaluations des risques complètes devraient être effectuées avant la mise en œuvre et sur une base continue afin de s’assurer que tout nouveau danger et les répercussions sur les travailleurs sont déterminés, évalués et contrôlés. Consultez le document Réponses SST sur « Intégration de nouvelles technologies en milieu de travail » pour de plus amples renseignements.
Quelles sont les répercussions potentielles de l’IA sur la santé et la sécurité?
Haut de la pageLes risques et défis potentiels de l’IA sur le lieu de travail comprennent :
Inexactitude du contenu généré par l’IA : Les résultats de l’IA peuvent être inexacts, obsolètes ou hors contexte. Des professionnels qualifiés devraient examiner le contenu généré par l’IA avant qu’il ne soit utilisé pour prendre des décisions. Lorsque l’information générée par l’IA est aveuglément acceptée, la mésinformation potentielle peut poser de nombreuses préoccupations en matière de santé et de sécurité, surtout compte tenu du cadre législatif complexe du Canada et de l’unicité de chaque milieu de travail. Les normes de santé et de sécurité, les conseils et les pratiques exemplaires provenant d’autres ressources peuvent également être manqués ou mal caractérisés en raison des limitations de la base de données de l’IA.
Défaillances de l’IA (hallucinations) : Les systèmes d’IA peuvent produire des renseignements absurdes ou inexacts, connus sous le nom d’hallucinations. Les hallucinations de l’IA sont similaires à la façon dont les humains voient parfois des figures dans les nuages ou des visages sur la lune. Ces erreurs proviennent de préoccupations, comme le surapprentissage, le biais ou l’inexactitude des données d’entraînement, et la complexité élevée du modèle.
Risques pour la sécurité et la confidentialité : La saisie d’informations sensibles ou personnelles dans des systèmes d’IA pourrait être risquée à moins que les mesures de confidentialité et de sécurité du système ne soient clairement comprises et vérifiées. La collecte de données confidentielles ou sensibles pour des systèmes alimentés par l’IA peut également soulever des préoccupations en matière de confidentialité chez les travailleurs et entraîner des sentiments de méfiance.
Biais et discrimination : Les systèmes d’IA peuvent refléter ou amplifier les biais présents dans les données sur lesquelles ils sont entraînés. Par exemple, un outil de recrutement formé sur des données démographiques limitées peut écarter des candidats qualifiés en fonction de caractéristiques non pertinentes, qui étaient sous-représentées dans les données de formation, comme le genre.
Impacts psychologiques et intensification du travail : Les outils de gestion de l’IA qui attribuent des tâches, surveillent le rendement et établissent des horaires pourraient ordonner aux travailleurs d’augmenter le rythme de travail. Ce rythme peut entraîner la réduction des pauses, du stress, une tension physique, un risque accru d’incidents et un épuisement. Lorsque les résultats en matière de rendement sont visibles par les pairs, la gestion des travailleurs par l’IA peut créer un environnement de concurrence malsaine et d’isolement accru. Les travailleurs peuvent également ressentir une pression plus élevée de performer afin de suivre le rythme des machines ou des systèmes productifs alimentés par l’IA.
Si l’on dépend trop des systèmes d’IA pour gérer le rendement, les travailleurs peuvent ressentir des répercussions sur leur santé mentale liées à la perte de contrôle sur la façon dont ils accomplissent leurs tâches. À mesure que l’IA permet l’automatisation de plus de tâches, les travailleurs pourraient également faire face à une insécurité d’emploi. Les technologies de surveillance peuvent créer des sentiments d’être constamment observé, ce qui affecte davantage la santé mentale.
Surcharge cognitive et charge cognitive insuffisante : Avec l’automatisation accrue, certains emplois pourraient devenir davantage axés sur la supervision plutôt que sur l’exécution des tâches. Ces opérateurs devront probablement superviser plusieurs processus de travail, ce qui augmentera les exigences psychologiques. D’autres peuvent être confrontés à des tâches répétitives et simplifiées, qui pourraient mener à la réduction de l’engagement. Les deux situations peuvent augmenter le risque d’erreurs et réduire la connaissance de la situation.
Risques ergonomiques : L’automatisation des processus pourrait introduire un nouveau rythme de travail ou rendre le travail plus répétitif et moins diversifié, augmentant le potentiel de blessures musculosquelettiques et d’autres problèmes ergonomiques.
Détérioration des compétences : Une dépendance excessive à l’IA pour détecter les dangers ou gérer les flux de travail peut réduire la capacité des travailleurs à cerner les enjeux de manière indépendante. Cette dépendance excessive peut entraîner une perte de compétences et des risques accrus pour la santé et la sécurité lors de défaillance des systèmes.
Manque de transparence : Si les travailleurs ne comprennent pas comment un système d’IA prend des décisions, ils peuvent trouver cela difficile de :
- travailler avec celui-ci,
- répondre aux problèmes,
- signaler des préoccupations.
Un manque de transparence sur la manière dont l’IA parvient à ses conclusions rend difficile l’évaluation de la fiabilité et de la sécurité des systèmes dotés d’IA.
Préoccupations éthiques et processus décisionnel : Les systèmes d’IA peuvent privilégier l’efficacité au détriment du bien-être humain. Lorsque les objectifs en matière de sécurité et de productivité sont en conflit, des cadres éthiques clairs sont nécessaires pour garantir des décisions qui protègent tout le monde au travail.
Lacunes en matière de recherche : Les répercussions à long terme de l’IA sur la santé et la sécurité au travail ne sont pas entièrement connus. Une évaluation continue est nécessaire pour garantir que les systèmes d’IA soutiennent la santé, la sécurité et le bien-être des travailleurs.
Quelles sont les façons d’aborder les répercussions sur la santé et la sécurité?
Haut de la pageLes répercussions de l’IA sur la santé et la sécurité au travail ne sont pas encore entièrement comprises, donc il est donc possible que de bonnes pratiques et des conseils spécifiques pour minimiser les répercussions sur les travailleurs ne soient pas disponibles pour le moment. Par conséquent, les organisations devraient évaluer en continu ces technologies et apporter des modifications lorsque cela est nécessaire pour protéger tout le monde au travail. Il est important de trouver et de traiter les dangers avant, pendant et après l’introduction de l’IA. Il faut faire régulièrement l’essai des systèmes pour repérer les enjeux tôt.
Exploiter les principes fondamentaux de la santé et de la sécurité au travail
Déterminer les dangers : Regarder comment le système d’IA pourrait créer de nouveaux dangers ou aggraver ceux qui existent déjà.
Évaluer les risques : Décider à quel point ces dangers sont susceptibles de causer des dommages et quelle pourrait être la gravité des dommages.
Mettre en place des contrôles : Prendre des mesures pour éliminer les dangers ou réduire les risques, en tenant compte de la hiérarchie des mesures de contrôle. Les contrôles pourraient inclure d’interdire ou de limiter l’utilisation de l’IA pour certaines tâches, de modifier les méthodes de travail, la formation et d’autres mesures.
Continuer à évaluer : Évaluer les mesures de contrôle en place, par exemple en mesurant les indicateurs de processus et de résultats, pour s’assurer qu’elles fonctionnent comme prévu et qu’elles maintiennent tout le monde en bonne santé et en sécurité.
Penser aux répercussions sur les travailleurs
Faire participer les travailleurs dès le début : Demander des commentaires avant de choisir ou de déployer des outils d’IA. Faire participer les travailleurs au processus de conception et tirer parti de leurs compétences et de leur expérience pour façonner l’utilisation de l’IA.
Utiliser une conception axée sur le travailleur : Tout comme on le fait en ergonomie, adapter le travail au travailleur. Intégrer les processus de travail numériques du point de vue des travailleurs qui sont aidés par la technologie plutôt que l’inverse.
Être transparent : Expliquer quelles données sont recueillies, comment elles sont utilisées et pourquoi.
Offrir une formation : Aider les travailleurs à comprendre comment la technologie de l’IA fonctionne et comment elle affecte leur emploi.
Avoir des objectifs clairs : Se concentrer à améliorer le travail, pas seulement à le faire plus rapidement. Il faut s’assurer que le travail reste engageant et intéressant pour éviter la déqualification et la charge cognitive insuffisante.
Prévoir les biais potentiels
Avant de mettre en œuvre un outil d’IA, il faut se demander :
- D’où proviennent ses données de formation?
- Que contiennent les données de formation?
- Qui a sélectionné et préparé les données de formation?, et comment?
L’organisation pourrait avoir besoin de conseils de la part de spécialistes de la santé et de la sécurité, de conseillers juridiques, d’experts en protection de la vie privée et en sécurité, ainsi que d’autres intervenants.
Manipuler les données avec soin
Avant de permettre aux systèmes d’IA de recueillir des données, demander :
- La collecte de données est-elle équitable et nécessaire?
- La vie privée des travailleurs est-elle protégée?
- Ces données sont-elles en sécurité?
- Qui a accès aux données? Habiliter les travailleurs en veillant à ce qu’ils puissent accéder aux mêmes données que celles utilisées par le système.
Mettre en place des politiques de données claires. Être honnête sur les données recueillies et la raison de la collecte.
Surveiller les risques en cybersécurité
Les systèmes d’IA peuvent être des cibles pour des cyberattaques ou être utilisés de manière abusive pour les lancer. Il faut obtenir de l’aide de professionnels en cybersécurité pour déterminer les faiblesses de vos systèmes et les corriger.
Quelles sont les considérations clés lors de l’utilisation de systèmes d’IA au travail?
Haut de la pageLe processus de détermination des dangers, d’évaluation des risques et de contrôle des dangers liés à l’IA est similaire à la manière de gérer d’autres dangers en matière de santé et de sécurité. Il est donc essentiel d’avoir une politique et des programmes de santé et de sécurité complets pour promouvoir et protéger la santé et la sécurité des travailleurs. Le programme devrait décrire le processus d’identification des dangers, d’évaluation des risques, de contrôle des dangers et d’évaluation des mesures de contrôle.
Si votre organisation prévoit d’utiliser des outils d’IA, ou le fait déjà, la direction devrait élaborer une politique liée à l’IA avec des objectifs qui s’alignent sur l’orientation stratégique de l’organisation. Cette politique devrait montrer un engagement clair à protéger la santé et la sécurité des travailleurs et inclure un plan pour des évaluations des risques et des améliorations continues. Cette politique peut également préciser quels outils d’IA sont approuvés, comment ils peuvent être utilisés, comment leur utilisation sera surveillée et examinée, et comment les renseignements personnels, les données sensibles et la propriété intellectuelle seront protégés. Des ressources, comme la norme ISO/IEC 42001:2023 - Système de management de l’intelligence artificielle, et les ressources du gouvernement du Canada sur l’utilisation responsable de l’intelligence artificielle peuvent être utiles lors de l’élaboration de cette politique.
Le fait de faire participer les travailleurs aux évaluations des risques peut aider à renforcer la confiance et à augmenter l’acceptation de la technologie. Par exemple, la tenue de séances informelles portes-ouvertes, où les travailleurs peuvent en apprendre davantage sur la technologie, donner leur avis et poser des questions peut favoriser la curiosité et réduire la peur. Puisque l’IA est un outil, les travailleurs doivent être formés pour l’utiliser de manière appropriée et sécuritaire. Parce que l’IA évolue rapidement, cette formation doit être continue afin que les travailleurs soient tenus au courant de ses capacités et de la manière de travailler en toute sécurité. Par exemple, lorsque l’on utilise des outils d’IA générative, comme ChatGPT, les résultats dépendent de la manière dont les questions sont posées. Les travailleurs doivent comprendre comment créer des requêtes, qui génèrent des renseignements précis et utiles, tout en vérifiant que les sources sont crédibles et que le contenu est correct.
Pourquoi les requêtes sont-elles importantes lors de l’utilisation de l’IA pour créer du contenu?
Haut de la pageLors de l’utilisation de modèles d’IA générative, comme les grands modèles de langage, des directives précises, appelées invites, sont nécessaires pour créer du texte, des images, du code et d’autres contenus. Les résultats précis produits par l’IA générative dépendent de la qualité des directives fournies dans la requête. Le processus de développement de directives efficaces pour guider les systèmes d’IA à produire le contenu souhaité est appelé rédactique. Les détails fournis dans la requête détermineront la qualité, l’exactitude et la pertinence du contenu généré par l’IA. Être détaillé inclut de s’assurer d’utiliser des requêtes spécifiques et claires, et d’expliquer des termes et concepts techniques complexes en utilisant un langage simple. Il est toujours bon de demander des références pour permettre une vérification du contenu avec la source de l’information. Le contenu doit être examiné attentivement par des personnes qualifiées pour s’assurer que les renseignements sont exacts, appropriés et qu’ils sont conformes aux pratiques exemplaires et à la réglementation. Il est également important de ne pas saisir de renseignements personnels, des données sensibles et la propriété intellectuelle à moins qu’il n’y ait une confiance totale dans la sécurité et la confidentialité des renseignements, et que cela soit autorisé par les politiques de l’organisation.
- Date de la première publication de la fiche d’information : 2025-12-31
- Date de la dernière modification de la fiche d’information : 2025-12-31