Ligne d’effort 2 : gestion du changement

Le défi 

Tirer largement parti de l’IA à l’échelle de l’entreprise nécessitera un changement et ce changement devra être pris en charge, surveillé et géré. La nature transformatrice et en évolution rapide de l’IA exige que le MDN et les FAC favorisent activement le développement de l’IA à l’échelle de l’organisation en adoptant une culture étant plus agile, novatrice, inclusive, axée sur les solutions et tolérante aux risques. Non seulement ces changements sont-ils nécessaires pour exploiter pleinement l’IA, mais ils sont aussi exigés de la part de l’organisation compte tenu de son engagement à l’égard de la transformation numérique et par des changements sécuritaires, techniques, industriels et sociaux rapides et souvent perturbateurs qui se produisent actuellement dans le monde.

Notre structure, nos processus et nos mesures incitatives actuels n’appuient pas entièrement ce changement nécessaire. Notre attention et nos dépenses ont été orientées vers le matériel militaire et nos structures et processus reflètent cette orientation. Nos processus limitent notre capacité à nous procurer l’IA ou à collaborer avec d’autres intervenants pour la développer, ce qui entrave l’expérimentation et l’innovation. Les données et les renseignements sont souvent disparates ou non disponibles et les responsables fonctionnels ne sont pas disposés à les partager en raison de problèmes de sécurité. Les styles traditionnels de leadership ont eu tendance à confier le pouvoir aux échelons supérieurs et à récompenser la conformité plutôt que l’innovation. Cela doit changer si nous voulons réussir la mise en œuvre de l’IA.  

Ce que nous devons faire 

Nous devons accepter la transformation numérique comme fondement de l’adoption de l’IA. La transformation numérique et l’adoption de l’IA exigeront de notre organisation qu’elle accepte une plus grande tolérance aux risques et aux échecs. La recherche et le développement en matière d’IA présentent un risque élevé et supposent souvent un tâtonnement avant que le succès ne soit atteint. Nous devrons accueillir l’expérimentation et une prise de risques appropriée et fournir des environnements protégés dans lesquels cela pourra être fait en toute sécurité. Nous devrons faire preuve de tolérance à l’idée d’échouer, tôt ou tard, en avançant dans le cadre de l’expérimentation et de la découverte des possibilités.

Nous devons apprendre à travailler horizontalement. Le travail au sein de commandements ou de structures organisationnelles verticales ne donnera pas les résultats que nous recherchons. Nous devons plutôt apprendre à travailler en collaboration dans l’ensemble de l’organisation. Dans la mesure du possible, nous devrions rechercher une capacité conjointe à réduire le cloisonnement propre à un domaine. Étant donné la complexité de la technologie, nous devons adopter une approche intersectionnelle, multidisciplinaire et interfonctionnelle en matière de conception de projets et de résolution de problèmes. Cette approche horizontale et interfonctionnelle permettra à la haute direction de doter les décideurs, à tous les échelons, du pouvoir nécessaire pour déterminer et mettre en œuvre des initiatives d’IA, tout en adoptant une diversité de perspectives qui serait perçue comme une force plutôt qu’une faiblesse.

Nous devons accepter la perturbation. L’IA est perturbatrice et nous devons être préparés au fait que son adoption entraînera des changements — parfois de profonds changements — à nos structures et à nos méthodes de travail. Nous devons accepter ce fait. Nous devons être disposés à remettre en question les méthodes orthodoxes et adopter de nouvelles méthodes pour atteindre nos objectifs, en utilisant l’innovation, la diversité, l’agilité et l’excellence qui existent au sein de l’Équipe de la Défense.

Nous devons nous adapter en permanence. Dans le passé, les changements technologiques ont entraîné des perturbations épisodiques de la culture, des processus et des rôles, suivies de périodes de stabilité. Avec l’apparition de l’IA et des technologies connexes, les cycles d’innovation ont été considérablement comprimés. Nous devrons être préparés à passer à un état d’adaptation continue, en étant attentifs aux nouvelles réalités et prêts à les intégrer à notre espace organisationnel et de combat. Plus particulièrement, le coût de l’expérimentation, du développement, de la mise en service et du maintien de l’IA devra être intégré dans les plans de développement des capacités de défense. Le MDN et les FAC exigeront plus de souplesse et d’agilité sur le plan de leurs processus de soutien dans leurs branches militaires et civiles, y compris la nécessité d’un examen et d’une mise à jour continus de la formation et des pouvoirs délégués pour maximiser l’action horizontale quant à la pensée et au but. Enfin, notre système de formation doit intégrer pleinement l’IA dans la mesure du possible pour permettre des systèmes générateurs de force individuels et collectifs, plus rapides et adaptatifs.

Comment nous nous y prendrons 

  1. Attribuer des pouvoirs décisionnels en matière d’IA à l’échelon approprié le plus bas afin de favoriser l’innovation. Bien que des centres d’excellence soient essentiels à la réussite de la mise en œuvre de l’IA, le développement local est tout aussi indispensable pour favoriser l’élaboration de solutions visant à répondre à des besoins précis. Les dirigeants doivent donc être dotés de pouvoirs en matière d’expérimentation et d’innovation, dans un environnement horizontal et interfonctionnel, tout en identifiant et respectant les processus d’adoption de l’IA développés par le CIAMF et qui sont le mieux adaptées aux circonstances spécifiques.
  2. Déterminer et modifier les mesures incitatives. Nous devons déterminer les manières dont nous pouvons utiliser efficacement des mesures incitatives, telles que les promotions, la reconnaissance ou les structures de développement de carrière, afin d’encourager les types de comportements nécessaires à l’adoption de l’IA à grande échelle. Nous devrons accroître les mesures incitatives visant à innover et à réduire les coûts et les risques d’échec en fournissant des environnements protégés en cas de défaillances précoces et en adoptant une approche sans reproche.
  3. Inclure l’IA comme un catalyseur de la capacité de défense qui nécessite un financement. Si le MDN et les FAC doivent réaliser leurs aspirations en matière d’IA, ils doivent s’engager à financer les catalyseurs techniques, numériques et de données ainsi que la recherche, l’engagement et le personnel que l’IA exige. Il faut établir les coûts de ces catalyseurs et ces coûts doivent être intégrés à la planification et au développement de programmes et de projets dès le début. De nouveaux programmes, projets et initiatives seront nécessaires pour évaluer la mise en œuvre potentielle de l’IA et les capacités existantes seront évaluées pour déterminer la nécessité d’intégrer les améliorations rendues possibles grâce à l’IA dans les systèmes existants.
  4. Identifier, hiérarchiser et surmonter les principaux obstacles à l’acquisition, au développement, à la mise à l’essai, à la validation, à la certification, à la mise en service et à la mise hors service responsables de l’IA. En plus du financement et du soutien des catalyseurs de l’IA, nous devons veiller à ce que les principaux organes de gouvernance de l’IA disposent du pouvoir et des ressources nécessaires pour réduire au minimum les obstacles liés aux politiques et aux processus touchant le développement, la mise en œuvre et l’adoption.

Agent conversationnel relatif aux politiques et aux normes

Capacité d’IA requise : robot conversationnel issu de l’IA qui peut donner des réponses aux questions sur la politique relative à la tenue militaire.

Techniques d’IA utilisées : traitement du langage naturel

Proposition de valeur : amélioration de la compréhension et du respect des politiques parmi les membres des FAC

Les documents de politiques contiennent des renseignements essentiels, mais ils peuvent être longs et difficiles à parcourir pour les membres du personnel qui cherchent des réponses à des questions précises. En réponse à ce défi, l’équipe de science des données du Bureau de la transformation numérique a produit un prototype fonctionnel qui pourrait aider les membres des FAC à trouver des réponses à leurs questions sur la politique relative à la tenue militaire. 

Élaboré à partir de rien par l’équipe de science des données à l’aide de technologies à « source ouverte » (« open source ») types de l’industrie, l’agent conversationnel permet aux utilisateurs de saisir des questions dans un langage naturel et de recevoir des renvois au passage qui, selon le système, comporte une réponse à la question de l’utilisateur, avec en plus des liens vers les politiques pertinentes. Le prototype contient également des fonctionnalités permettant aux utilisateurs de donner leur avis au sujet de la pertinence de la réponse aux fins d’amélioration de la précision de l’outil et d’envoyer à l’équipe des commentaires concernant leur expérience. Selon les développeurs de l’agent conversationnel, celui-ci est précis à plus de 90 p. dans ses réponses aux questions. Ce robot conversationnel n’a été déployé que dans des environnements d’essai afin de valider le principe du concept. Cette classe d’outils d’IA promet de pouvoir répondre à des questions sur d’autres types de politiques.

Détails de la page

Date de modification :