Article par Ali Dixon Ricke, Mary Osborne et Franklin Manchester, Traduction Robin Drolet
Une étude récente menée par SAS et Coleman Parks a révélé de manière choquante que 92% des assureurs ont mis de côté un budget pour l'IA générative en 2025. Nous avons vu la puissance impressionnante de l'IA générative grâce à la croissance explosive de ChatGPT au cours de la dernière année. Les décideurs croient que l'IA générative peut stimuler l'innovation, améliorer l'expérience client et apporter des améliorations mesurables à l'analyse prédictive.
Considérations relatives à l'utilisation de la technologie d'IA générative
La réaction initiale de l'industrie d'évitement et d'interdiction en raison de la sécurité des données, de la confidentialité et des risques d'atteinte à la réputation a changé. Les dirigeants pensent que les avantages l'emportent sur les risques et la plupart exécutent des tests initiaux et déclarent qu'ils ont une compréhension assez bonne, sinon complète, de la technologie.
Cependant, la moitié des répondants ont 10% ou moins de leur budget 2025 dédié à la gouvernance et à la surveillance, tandis que 9% n'ont aucun budget qui lui est alloué. De plus, 58% décrivent leur formation comme minimale, et 38% n'ont pas de politique GenAI qui dicte comment les employés peuvent et ne peuvent pas l'utiliser. Bien que ces résultats soient similaires aux résultats obtenus dans d'autres secteurs, 7 de ces mêmes décideurs sur 10 utilisant ces outils au moins une fois par semaine, le scénario parfait de risque de baisse est en train d'être créé.
Les 10 choses que les leaders de l'assurance doivent savoir sur l'IA générative
Meilleures pratiques pour une stratégie d'IA générative
Sans une stratégie et un cadre de gouvernance bien définis en matière d'IA générative, l'IA générative peut être à la fois un risque majeur pour la vie privée et l'exploitation. La construction d'une stratégie de sécurité pour l'IA générative est toujours un sujet qui doit être pleinement compris, avec 75% des assureurs dans l'étude préoccupés par les risques d'atteinte à la vie privée.
Il est facile pour les gens de se laisser bercer par un faux sentiment de sécurité avec les LVM[1]. Les modèles publics sont omniprésents et faciles d'accès. Il y a beaucoup de valeur à gagner en expérimentant avec des robots LLM[2] pour explorer des idées et rechercher des informations cachées. En réfléchissant aux données à introduire dans le modèle, il est important de penser à la qualité des données. Plus de données n'est pas toujours mieux. La qualité des données pour les LMA[3] inclut la réduction de la quantité de duplication, d'ambiguïté et de bruit dans les données de domaine.
Les problèmes commencent lorsque des personnes partagent involontairement des données privées ou sensibles en les incluant dans des invites. Le meilleur des scénarios est qu'il s'agit d'un bogue et qu'il n'y a pas d'impact négatif. Le pire scénario se produit lorsque le modèle public a verbiage dans ses conditions de service décrivant la façon dont ils utilisent les invites saisies par l'utilisateur comme formation supplémentaire ou des entrées de réglage fin. À ce stade, ce modèle public devient « contaminé » par les données privées ou sensibles de l'organisation. Une fois que ces données sont dans le modèle, il est presque impossible de les supprimer, il y a donc une chance, grâce à une invite créative, que des données privées ou sensibles puissent être révélées. Les gens qui font des erreurs comme celle-ci ne sont pas de mauvais acteurs; ce sont vos employés ou vos collègues.
Déplacement de modèles en production
Il y a beaucoup d'intérêt pour l'IA générative, mais il y a beaucoup de travail à faire avant de pouvoir passer à l'utilisation d'un modèle en production. Les cas d'utilisation de l'IA générative doivent être bien pensés et avoir une portée étroite pour commencer. Il est important que les personnes de votre organisation soient en mesure de couper à travers le battage médiatique et d'identifier un cas d'utilisation qui a du sens. Commencer petit permet aux organisations de mieux réfléchir aux options pour les modèles ainsi qu'à la conservation des données de domaine pour donner au modèle les meilleures chances de générer des sorties pertinentes.
Le déploiement d'un modèle d'IA générative implique plus que de simplement poser quelques questions à un bot. Vous devez penser à des tests contradictoires - que se passe-t-il si un mauvais acteur décide d'essayer de manipuler votre modèle pour qu'il se comporte mal ? Vous devez passer du temps à évaluer les résultats, comme vous le feriez pour tout autre type de modèle dans votre environnement. Enfin, assurez-vous que votre personnel est correctement éduqué sur l'IA générative et ses utilisations acceptables au sein de votre organisation, car les employés éduqués réduisent le risque de faute professionnelle ou d'utilisation abusive de l'IA.
Surmonter les obstacles de la technologie d'IA générative
Fournissez à vos employés les outils dont ils ont besoin pour réussir, ainsi que les conseils et la formation sur la façon dont ils peuvent utiliser cette technologie de manière sûre et efficace. Nos employés sont notre plus grand atout et leur fournir la technologie la plus récente et la plus élevée les maintient engagés et résout les problèmes. Un rapport récent de Microsoft et LinkedIn a révélé que 68% des gens ont du mal avec le rythme et le volume de travail et 46% sont épuisés. Une autre étude a révélé que 54 % des décisions des employés en début de carrière de travailler pour un employeur par rapport à un autre seraient influencées par l'accès à l'IA. Fournissez à vos employés l'IA dont ils ont besoin, ils vous en remercieront.
Alors que vous réfléchissez à surmonter les obstacles de l'IA générative et l'avenir de cette technologie, rappelez-vous que nous sommes tous à un point d'inflexion de l'IA. Tout comme la commercialisation du World Wide Web au milieu des années 90 - et tout aussi omniprésente qu'Internet est devenu dans les affaires - il en ira de même pour l'IA. Il est maintenant temps de mettre en place des mesures pour protéger les données, repenser votre stratégie de données et la gouvernance stand-up.
[1] LLM : Large Language Model / Grand modèle de langage
[2] LVM : Large Vision Model / Grand modèle de vision
[3] LMA : Large Association Model / Grand modèle associatif
Join us for SAS Innovate 2025, our biggest and most exciting global event of the year, in Orlando, FL, from May 6-9.
Early bird rate extended! Save $200 when you sign up by March 31.
Data Literacy is for all, even absolute beginners. Jump on board with this free e-learning and boost your career prospects.