Comment votre organisation gère-t-elle l'IA ?

Tracer une voie dans le paysage de l'IA : de l'évolution de l'IA à la mise en œuvre responsable et aux informations exploitables.

Morgan Badoud
Senior Manager Digital Assurance
PwC Switzerland

L'IA : pas nouvelle, mais immensément plus puissante

L'intelligence artificielle (IA) est peut-être le mot à la mode du moment, mais elle n'est pas nouvelle du tout. L'IA résonne dans les couloirs des entreprises technologiques depuis des décennies. Récemment, cependant, elle a connu des changements monumentaux. De ses humbles débuts à l'ère de l'apprentissage profond, l'IA est passée du simple traitement de l'information à la génération d'un contenu entièrement nouveau. L'IA générative fait partie des avancées les plus récentes.

L'histoire de l'IA générative (Source: PwC)

L'IA générative est une ramification du spectre plus large de l'apprentissage profond. Plus précisément, elle est formée pour créer, enrichir et analyser des données non structurées telles que le texte, la voix et les images. Or, dans le monde des affaires, c'est précisément ce type de données qui est essentiel pour comprendre les besoins en constante évolution des parties prenantes. Plutôt que de se contenter d'analyser et d'interpréter, comme c'était la norme avec les modèles d'IA traditionnels, l'IA générative crée un nouveau contenu basé sur des modèles qu'elle déchiffre à partir de ses données d'apprentissage. Cette différence significative ouvre une multitude de possibilités. Imaginez que l'IA ne se contente pas de passer au crible des œuvres d'art, de la musique ou des textes existants, mais qu'elle crée de nouveaux chefs-d'œuvre, voire des mondes virtuels entiers. L'énorme potentiel de l'IA générative a des implications importantes pour les entreprises.

L'essor phénoménal de l'IA générative dans les entreprises...

En décembre 2022, le monde s'est réveillé et a remarqué l'ascension fulgurante de ChatGPT. Développé par OpenAI, ChatGPT a révolutionné le traitement du langage naturel et a été adopté par les utilisateurs à un rythme qui a laissé des titans comme Netflix, Facebook et Instagram loin derrière. ChatGPT a atteint un million d'utilisateurs en seulement cinq jours, contre dix mois pour Facebook et trois ans et demi pour Netflix, et le message était clair : la demande de technologies d'IA avancées monte en flèche.

Cette augmentation de la demande n'est pas une simple tendance passagère. Elle est le signe d'un changement dans le paysage économique mondial. Des chaînes de production aux départements financiers, des couloirs informatiques aux réunions de marketing, l'IA est la nouveauté qui stimule l'innovation, les nouveaux modèles d'entreprise et les investisseurs. De plus, les entreprises ne cherchent pas seulement à adopter l'IA générative - elles veulent créer leurs propres modèles d'IA sur mesure et adapter les solutions à leurs besoins uniques.

...s'accompagne de risques et de problèmes de confiance

Cependant, comme pour tout outil puissant, il existe des risques inhérents. Les entreprises doivent trouver un équilibre entre rapidité et confiance lorsqu'elles adoptent l'IA générative, en veillant à adopter une approche fondée sur les risques afin d'acquérir un avantage concurrentiel et de conserver la confiance des parties prenantes. Une gestion efficace des risques est essentielle pour tirer pleinement parti de cette technologie transformatrice.

Deux des principales préoccupations liées à l'IA, en particulier à l'IA générative, sont la protection des données et les problèmes de propriété intellectuelle. Les modèles haut de gamme tels que ChatGPT sont souvent hébergés sur des services en nuage, ce qui entraîne des vulnérabilités potentielles au niveau des données. En outre, l'utilisation de modèles génératifs peut porter atteinte à la propriété intellectuelle d'autrui, ce qui peut entraîner des problèmes juridiques. Une autre préoccupation importante concerne les données sur lesquelles le modèle est formé. S'il est formé sur des données biaisées, ses résultats peuvent refléter les mêmes biais. Il est donc essentiel que les organisations examinent attentivement les ensembles de données sous-jacentes de leur IA afin de garantir l'équité, la neutralité et la pertinence.

En outre, alors que les entreprises sont contraintes de collecter de grandes quantités de données, le principal défi consiste à savoir comment les utiliser efficacement. Il y a un risque à trop se fier aux données générées, en particulier sans évaluation critique. Avec leur style d'écriture engageant, les chatbots peuvent parfois fournir des informations supposées correctes qui sont en fait biaisées ou tout simplement erronées. Se fier à de telles données peut conduire à des décisions mal informées, potentiellement dommageables pour la qualité de service et la réputation d'une entreprise. Pour faire face au paysage de l'information générée par l'IA, il faut faire preuve de prudence, de curiosité et de discernement.

Une préoccupation sous-estimée concerne les nouvelles menaces de sécurité créées par l'utilisation d'outils pilotés par l'IA. L'IA n'est pas seulement utilisée pour améliorer les capacités des attaquants, mais elle crée de nouvelles catégories de risques qui doivent être traitées de manière spécifique. Les découvertes continues actuelles sur les faiblesses de l'IA montrent la fragilité des outils d'IA.

Les principaux risques associés à l'IA générative (Source: PwC)

Comment faire face aux risques liés à l'IA ? Commencez par poser les bonnes questions.

À mesure que l'intelligence artificielle devient partie intégrante des processus d'entreprise, il est primordial de comprendre et de gérer les risques qui y sont associés. Chaque organisation, quel que soit son secteur d'activité ou sa taille, doit développer une approche proactive de ces risques. Cela commence par poser les bonnes questions :

1. Alignement stratégique :

  • L'initiative de votre entreprise en matière d'IA s'aligne-t-elle parfaitement sur vos objectifs stratégiques et vos valeurs fondamentales ?
  • Existe-t-il des désalignements ou des conflits potentiels qu'il convient d'aborder ?

2. Évaluation des risques :

  • Avez-vous une vue d'ensemble claire de l'utilisation actuelle des outils basés sur l'IA intégrés dans vos processus opérationnels ?
  • Avez-vous recensé de manière exhaustive les principaux risques liés à vos initiatives en matière d'IA et les avez-vous classés par ordre de priorité ?
  • Quelles mesures préventives ont été prises pour atténuer les risques ?

3. Audit et assurance :

  • Dans le cadre des audits externes, quelle est l'efficacité de l'intégration des processus et des contrôles liés à l'IA ?
  • Votre processus d'audit nécessite-t-il des techniques spécialisées lors de l'examen des transactions financières ou des ensembles de données liés à l'IA ?

Prendre le temps de réfléchir à ces questions permet non seulement de s'assurer que l'IA s'aligne sur les objectifs de l'entreprise, mais aussi que sa mise en œuvre est harmonieuse, sécurisée et stratégique. Alors que l'IA continue de progresser rapidement, les entreprises doivent rester vigilantes et s'assurer que leurs fonctions d'audit interne et de gestion des risques sont bien équipées pour faire face aux défis et aux promesses de cette technologie disruptive.

Vers une mise en œuvre responsable de l'IA

Dans ce contexte, le discours sur le développement et la mise en œuvre responsables de l'IA prend de l'ampleur. Les aspects éthiques de l'IA générative, tels que les biais potentiels, la protection de la vie privée et les implications des "deepfakes", font l'objet d'un examen approfondi. Des cadres tels que l'AIC4 et l'ISO/IEC23894 apparaissent comme des lignes directrices importantes pour le développement d'une IA responsable. Il est important de noter qu'il existe actuellement de nombreuses initiatives visant à réglementer l'utilisation de l'IA, comme la loi européenne sur l'IA ou le projet américain de charte des droits de l'IA.

Un aspect parfois négligé est la manière dont les fonctions d'audit interne et de risque devraient évoluer pour s'adapter à l'IA. Ces fonctions doivent comprendre et s'aligner sur les objectifs de l'entreprise en matière d'IA, ainsi qu'auditer stratégiquement les ensembles de données de base pour garantir la conformité et la sécurité des données. Une compréhension approfondie des subtilités des systèmes d'IA générative est indispensable. En outre, une évaluation rigoureuse des résultats des modèles d'IA est vitale, afin de s'assurer qu'ils répondent aux critères d'équité, d'exactitude et de pertinence. En outre, il est primordial d'encourager une culture de la curiosité intellectuelle. L'IA générative doit être considérée comme un outil et non comme un substitut à l'intuition et à l'expertise humaines.

Les trois principales actions pour tirer le meilleur parti de l'IA

Pour utiliser l'IA de manière responsable et en exploiter tout le potentiel, les chefs d'entreprise doivent prendre trois mesures clés :

  1. Mettre en place une structure de gouvernance et un cadre de gestion des risques liés à l'IA à l'échelle de l'entreprise.
  2. Veiller à ce que les membres du conseil d'administration aient une bonne compréhension de la technologie de l'IA, de son potentiel et de ses limites.
  3. Envisager la création, au sein du conseil d'administration, d'un comité ou d'un sous-comité spécialisé dans la gouvernance et l'éthique de l'IA.

Le paysage de l'IA est dynamique et présente autant d'opportunités que de défis. Bien que les entreprises soient enthousiasmées par les avantages potentiels de l'IA, il est important de l'aborder avec prudence et de garder l'éthique et l'apport humain au premier plan. Les systèmes d'IA doivent être construits sur des principes éthiques solides, car ils affecteront tous ceux qui les utiliseront. 

L'IA générative offre des possibilités remarquables d'accroître l'efficacité et les compétences, mais son introduction doit s'accompagner d'une culture de la curiosité intellectuelle et d'une sensibilisation accrue aux risques inhérents. Nous devons nous rappeler qu'il s'agit d'un outil, et non d'un guide définitif, et insister sur l'équilibre essentiel entre le potentiel de l'IA et le jugement humain.


#social#

Contact us

Morgan Badoud

Morgan Badoud

Director, Digital Assurance & Trust, PwC Switzerland

Tel: +41 58 792 90 80