L’IA générative – comme ChatGPT et Bard – est utilisée par des millions de personnes pour créer des argumentaires de vente, rédiger des courriels et même écrire des blagues. Si les possibilités pour les entreprises d’appliquer l’intelligence artificielle afin de stimuler la productivité – et la rentabilité – semblent infinies, le moment est venu d’instituer une gestion des risques liés à l’IA afin de mettre en place des garde-fous qui équilibreront la valeur et les risques de ce phénomène à forte croissance.
L’IA générative fait référence à des outils puissants tels que GPT-4 et Amazon CodeWhisperer, ainsi qu’à des applications courantes telles que les prédictions de texte dans les courriels. Elle peut créer du contenu, corriger la grammaire, résumer des informations et écrire du code. Des outils d’IA spécialisés sont utilisés pour diagnostiquer des maladies et découvrir de nouveaux médicaments. Bien que l’intelligence artificielle existe sous une forme ou une autre depuis des années, l’IA d’aujourd’hui est facilement accessible, ne nécessite aucune compétence en programmation et peut effectuer plusieurs tâches simultanément.
Les gens ne se lassent pas de ce nouveau jouet brillant. À lui seul, ChatGPT a gagné plus d’un million d’utilisateurs actifs au cours de ses deux premiers mois d’existence. Pour les entreprises, l’IA offre de nouvelles possibilités d’acquérir un avantage concurrentiel. Elle peut automatiser, augmenter et accélérer les processus de travail. Elle peut également élargir vos capacités et votre champ d’action en réimaginant la manière dont le travail est effectué.
Cependant, l’IA n’est pas infaillible. L’actualité regorge de témoignages de chatbots qui se sont égarés, offrant de fausses informations, des réponses aléatoires et des répliques désobligeantes aux utilisateurs. Alphabet, la société mère de Google, a perdu 100 milliards de dollars en valeur boursière après que son dernier chatbot, Bard, a communiqué des informations inexactes dans une vidéo promotionnelle.
Les pratiques de gestion des risques liés à l’IA vous aideront à saisir de manière réfléchie la promesse de l’IA générative, tout en protégeant votre entreprise des dangers. Et le temps presse.
Risques liés à l’IA à surveiller
L’IA générative peut vous exposer à divers risques – et pour obtenir les meilleurs résultats, vous devez les gérer dès le départ. Voici cinq risques à surveiller :
- Parti pris. Les modèles d’IA sont formés sur des ensembles de données qui peuvent être biaisés ou ne pas être totalement représentatifs des groupes qu’ils servent – en partie parce qu’ils ont été développés par des êtres humains qui ont leurs propres préjugés naturels. Le risque de perpétuer la discrimination peut avoir des conséquences inquiétantes à grande échelle. Par exemple, il a récemment été constaté qu’un algorithme de justice pénale utilisé en Floride qualifiait à tort les accusés afro-américains de personnes « à haut risque » deux fois plus souvent que les accusés blancs. Il est également arrivé que des outils d’IA proposent aux femmes des limites de carte de crédit inférieures à celles de leurs maris.
- Protection de la vie privée. Les systèmes d’IA recueillent souvent des informations sensibles telles que les adresses IP et les activités de navigation, qui peuvent potentiellement conduire à l’identification des personnes. Si ces données sont mal manipulées ou divulguées lors d’une violation de données, les dommages pourraient être considérables. Par ailleurs, l’essor de la technologie des « deep fakes » et son pouvoir de tromperie ajoutent une nouvelle source d’inquiétude. Les « deep fakes » peuvent créer des images et des voix convaincantes de personnes réelles sans leur consentement.
- La sécurité. Grâce à des outils alimentés par l’IA, les criminels peuvent affiner leurs e-mails de phishing, accélérer les cyberattaques et générer des logiciels malveillants toujours plus sophistiqués. Les conséquences de ces failles de sécurité peuvent être graves, entraînant la compromission de données, des pertes financières et une atteinte importante à la réputation.
- Propriété intellectuelle. Les outils d’IA sont formés à l’aide de grandes quantités de données, qui peuvent inclure des documents protégés par la loi. Il peut y avoir violation des droits d’auteur, des marques ou des brevets lorsque les modèles d’IA génèrent du contenu qui utilise des éléments protégés sans en donner le crédit approprié.
- Transparence. Le contenu produit par l’IA ne peut souvent pas être expliqué. Il peut fournir différentes réponses à la même question. En outre, les contenus générés par l’IA ne citent pas les sources, ce qui rend difficile la vérification de l’exactitude et de la fiabilité des informations fournies. Les modèles d’IA sont également connus pour avoir des hallucinations, générant un contenu qui semble plausible mais qui est entièrement fictif.
Comment atténuer les risques liés à l’IA
Certaines organisations, comme JPMorgan, interdisent l’utilisation de ChatGPT sur le lieu de travail, tandis que d’autres, comme Amazon et Walmart, ont invité leur personnel à faire preuve de prudence lors de l’utilisation de l’IA. Il est important d’établir des garde-fous avec la gestion des risques liés à l’IA afin d’évaluer la valeur des outils d’IA par rapport aux risques possibles.
Pour limiter les risques, commencez par identifier les outils d’IA qui répondent le mieux à vos besoins et déterminez s’il s’agit d’applications prêtes à l’emploi ou de solutions personnalisées, car les risques seront différents. Établissez des restrictions d’utilisation, des limites éthiques et des lignes directrices claires. Veillez également à :
- Comprenez d’où proviennent vos données afin de minimiser les risques de biais.
- Maintenir la conformité avec les exigences réglementaires – en particulier en ce qui concerne la confidentialité des données et le contenu légalement protégé.
- Privilégiez les mesures de cybersécurité avec des mesures robustes de confidentialité des données telles que l’anonymisation et le cryptage des données.
- Mettre en place des contrôles, surveiller l’efficacité et procéder aux ajustements nécessaires.
Il est plus facile et moins coûteux de mettre en œuvre ces mesures dès le début que de revenir en arrière et d’apporter des corrections plus tard. Et n’oubliez pas de réévaluer régulièrement les outils et les applications que vous choisissez, car la technologie évolue très rapidement.
Équilibrer le risque et la valeur grâce à la gestion des risques par l’IA
L’IA est utilisée depuis des années dans la gestion des risques pour gérer efficacement les sinistres, prévoir les fraudes et évaluer les risques. Cependant, l’IA générative d’aujourd’hui présente des défis et des opportunités sans précédent. L’évolution de l’environnement exige une action rapide mais calculée pour trouver un équilibre entre le risque et la valeur.
Pour rester en phase avec cet environnement dynamique, réunissez toutes les parties prenantes afin d’identifier et de hiérarchiser les cas d’utilisation de l’IA en fonction de votre tolérance globale au risque – et assurez-vous que vous avez mis en place des structures pour atténuer l’exposition excessive. Maximisez la valeur de l’IA en garantissant un accès fluide aux sources de données dans toutes les fonctions, et mettez en place des pratiques de gouvernance solides pour une responsabilité transparente.
Les derniers outils d’IA recèlent un immense potentiel de transformation de vos opérations. Bien qu’il puisse être tentant de tirer rapidement parti de cette puissance, réfléchissez avant d’agir. Adoptez une approche axée sur les risques afin d’équilibrer le besoin d’agilité avec des contrôles efficaces.
Alors que les possibilités et les implications de l’IA générative continuent de se déployer à une vitesse fulgurante, il est crucial de développer une compréhension approfondie de la technologie que vous utilisez. Examinez la situation dans son ensemble, tenez compte de vos priorités et établissez des lignes directrices en matière de gestion des risques liés à l’IA afin de naviguer dans un paysage en constante évolution et de protéger votre entreprise.
Pour en savoir plus sur la découverte des risques difficiles à voir, téléchargez notre livre blanc, The Hunt for Hidden Risk, et découvrez logiciel ERM de Riskonnect de Riskonnect.