TMC Net, 23 octobre 2023

L’IA générative, caractérisée par sa capacité à créer du contenu, des données et même des textes et des images de type humain, continue de gagner en importance dans divers secteurs. Si elle promet des solutions innovantes, sa croissance fulgurante entraîne également une nouvelle série de risques pour les entreprises.

Ces risques concernent l’utilisation abusive de contenus générés par l’IA à des fins de désinformation et de fraude, les litiges en matière de propriété intellectuelle liés aux œuvres générées par l’IA et les implications éthiques de la prise de décision par l’IA. Ce qui est inquiétant, c’est que les organisations ne sont pas sensibilisées aux menaces de l’IA générative. J’ai récemment écrit un article à ce sujet.

Une nouvelle étude, publiée par RiskonnectL’étude, qui va un peu plus loin, révèle que seulement 9 % des entreprises se disent prêtes à gérer les risques liés à l’utilisation de l’IA générative au sein de l’entreprise, et que seulement 17 % des responsables du risque et de la conformité ont officiellement formé ou informé leurs organisations sur les risques liés à l’utilisation de l’IA générative.

Au premier plan, les questions de confidentialité des données et de cybersécurité sont importantes, 65 % des entreprises se déclarant préoccupées par la protection des informations sensibles et les cybermenaces potentielles. En outre, le risque que les employés prennent des décisions basées sur des informations inexactes générées par l’IA est une appréhension importante, affectant 60% des organisations, soulignant le besoin critique de garantir l’exactitude des données et la formation des employés.

Les préoccupations éthiques liées à l’utilisation abusive de l’IA par les employés et les implications éthiques plus larges des technologies de l’IA touchent 55 % des entreprises, ce qui nécessite la mise en place de lignes directrices éthiques solides. L’utilisation non éthique de l’IA peut impliquer la manipulation de contenus générés par l’IA à des fins frauduleuses ou malveillantes, comme la génération de faux avis, de vidéos « deepfake » ou de fausses informations, qui peuvent saper la confiance et la crédibilité.

Pour garantir une utilisation éthique de l’IA, il est nécessaire de former solidement les employés et d’établir des lignes directrices claires afin de prévenir les abus tout en respectant les principes d’équité, de transparence et de responsabilité.

L’étude a également révélé que la préparation des entreprises en matière de gestion des risques laisse à désirer, 63 % d’entre elles ne parvenant pas à simuler les pires scénarios. Cela témoigne d’une lacune dans l’anticipation et l’atténuation des risques imprévisibles. Seules 5 % des organisations se sentent suffisamment préparées pour évaluer, gérer et se remettre d’événements imprévisibles, ce qui souligne la nécessité de mettre en place des stratégies globales de gestion des risques.

Lisez l’article complet dans TMC Net.>>