Notre actu
Tenez-vous au courant de nos derniers événements et actualités
La vérité sur l'IA : il y a ceux qui en parlent ... et ceux qui en font !
Ces dernières années, l’IA « explose », l’IA « révolutionne » ! L’IA interpelle, l’IA passionne, l’IA fait peur aussi… Dans tous les cas, l’IA suscite bien des débats et fait couler beaucoup d’encre. Mais il y a ceux qui en parlent (encore faut-il savoir de quoi on parle…) et il y a ceux qui en font !
Au regard de notre expérience (de plus de 20 ans déjà !) et de notre expertise technologique sur différents outils faisant appel à l’IA et à l’automatisation, nous vous proposons ici d’apporter un éclairage sur l’Intelligence Artificielle, ses principes, ses usages, ses faux-semblants et ses limites. Frédéric Godefroy partagera en outre sa vision de l’avenir de l’IA dans la relation client.
Qu'est-ce que l'Intelligence Artificielle ?
Selon le Parlement Européen, l’IA « désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Il s’agit donc, comme le précise la CNIL dans son glossaire de l’IA, « d’un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies. »
L’IA n’est, de ce fait, pas une technologie en soi, mais un domaine scientifique qui regroupe un certain nombre d’outils, de systèmes, dont l’objectif est de simuler l’intelligence humaine, de « faire comme » l’humain. L’IA « classique » va donc permettre la réalisation de tâches spécifiques telles que catégoriser, classer, prévoir ou résoudre un problème. C’est à la conférence de Dartmouth en 1956 que l’Intelligence Artificielle est devenue un domaine de recherche autonome.
Il n’y a finalement pas « une IA », mais des outils d’IA : l’apprentissage automatique, le traitement du langage naturel, la vision par ordinateur, la robotique et les systèmes experts par exemple.
Qu’est-ce que l’IA générative ?
L’IA générative est une catégorie d’Intelligence Artificielle qui, comme son nom l’indique, a pour principe (ou objectif) de générer un support comme le ferait un humain : un contenu textuel, visuel sous forme d’image, sonore (musique)…
Cette IA s’appuie sur des modèles d’apprentissage automatique (Machine Learning) et utilise des réseaux de neurones artificiels pour créer des contenus de façon autonome..
L’IA, un cerveau sans âme ?
L’IA fait donc référence aux notions d’intelligence, d’apprentissage, de neurones… autant de termes associés habituellement au cerveau. Mais quel est l’intérêt d’un cerveau seul, d’un cerveau « froid », d’un cerveau qui n’a ni âme ni sensibilité ?
L’IA s’appuie uniquement sur un système de production de données formelles (texte, image et un peu vidéo désormais) mais ce n’est pas un système qui comprend la nature sous-jacente des choses décrites par ces données, contrairement à l’humain.
L’IA, intelligence « artificielle » n’est à ce jour pas dotée de l’intelligence « émotionnelle », cette capacité propre à l’individu humain à percevoir, comprendre, maîtriser et exprimer une émotion personnelle et à distinguer et décoder une émotion chez l’autre.
L’IA ne bénéficie pas de l’expérience sensorielle ; elle n’a en fait pas « d’expérience » : elle ne bénéfice que des résultats d’expériences vécues par l’humain et que celui-ci lui aura partagées par des textes formalisés. L’IA manque donc d’une certaine profondeur liée au sens et au réel du vivant. Le système d’apprentissage qui est le sien aujourd’hui reste donc très incomplet.
L’Intelligence Artificielle est-elle omnisciente et infaillible ?
Tel l’humain, l’IA n’est pas infaillible : les machines sont construites par l’humain, elles sont bâties à partir de sa connaissance ; si l’humain se trompe, alors la machine se trompera. Les « IA hallucinations » sont malheureusement des résultats incorrects ou trompeurs générés par les LLM par exemple.
De toute évidence, la qualité des résultats des « grands modèles de langage » dépend surtout de la qualité des données d’entraînement. Si les données qui lui ont été communiquées pour son entrainement sont fausses, s’il existe des biais, alors la machine restituera une réponse fausse ou reproduira le biais, sans discernement, sans avoir pu détecter l’erreur ou rectifier pour revenir à la logique. C’est là un écueil que ne sait pas contourner à ce jour ChatGPT par exemple. C’est hélas un écueil à éviter puisque très risqué au regard des conséquences qui peuvent être lourdes, en témoigne à titre d’exemple la somme qu’Air Canada a du verser, par décision du tribunal civil canadien en février dernier, pour réparer l’erreur de tarification commise par son chatbot.
Aussi, si la machine peut exécuter les tâches automatiques plus vite, sans relâche et avec autant de fiabilité que l’homme, la machine n’est pas la capacité de faire « autre chose » que ce pour quoi elle a été conçue ou programmée. Elle exécute ce qui lui est demandé, comme cela lui a été enseigné. Bien sûr, elle apprend avec « l’entraînement » (Machine learning), bien sûr elle peut prédire le mot suivant dans une séquence de mots (avec le LLM par exemple) mais si toutes les hypothèses, tous les scénarios possibles n’ont pas été explorés en amont par l’humain, alors elle ne pourra pas en avoir connaissance et donc ne sera pas pertinente dans ces cas précis.
Manque de représentativité, approximations et données erronées posent (ou imposent) les limites à l’IA.
Quels usages pour l’IA ? Que peut faire l’IA ?
Les usages courants des différentes formes d’IA sont déjà nombreux et les utilisations potentielles sont multiples, dès lors que l’IA est associée à d’autres composantes technologiques. L’IA trouve alors ses applications dans différents domaines : de la recherche internet à la traduction automatique, des robots en usine aux objets connectés à la maison, de la voiture autonome aux robots de désherbage dans l’agriculture intelligente…
Ces derniers mois, l’usage de l’IA générative s’est quant à lui étendu au grand public avec l’arrivée de ChatGPT, le robot d’IA conversationnelle d’OPENAI conçu pour produire un contenu sur mesure, à partir de consignes ou « prompts » et en s’appuyant sur les données à disposition sur Internet. Jeunes et moins jeunes, étudiants ou actifs, nombreux sont celles et ceux qui ont recours aujourd’hui à ce robot dans leur quotidien personnel ou leur activité professionnelle pour se simplifier la tâche et/ou gagner du temps notamment.
L’IA dans la relation client : adjoindre le geste automatisé du robot à la parole de l’IA pour une meilleure expérience client
Dans l’univers de la relation client, 80% des personnes interrogées s’accordent à dire que les outils d’IA générative améliorent l’expérience collaborateur et 75% qu’ils améliorent l’expérience client, selon une enquête réalisée début 2024 par « Sens du Client » auprès d’un échantillon de professionnels du marketing et de la relation client.
Pourtant, la relation client n’a pas systématiquement besoin de la créativité d’une IA générative pour répondre à ses clients. Il semble bien plus pertinent de lui donner en premier lieu la possibilité de produire une réponse à restituer au client qui soit avant tout personnalisée, fiable et sécurisée donc cadrée et vérifiée par l’humain.
En ce sens, il y a en effet désormais un intérêt à coupler l’IA conversationnelle avec des robots précis et incorruptibles, non soumis aux hallucinations afin de compléter les échanges par des actes. C’est la garantie d’accomplir une tâche, de résoudre une problématique de bout en bout, conformément aux attentes d’un client afin de lui délivrer une expérience client irréprochable. C’est le gage d’une relation client qui porte la satisfaction du conseiller et du client.
Cette association de l’IA et de l’automatisation au service de l’humain (conseiller et client) telle que proposée par Djiin permet par exemple :
– D’aider le conseiller à mieux aider son client et donc à mieux satisfaire (solution conseiller augmenté)
– D’apporter une réponse au client là où il se trouve, même lorsque les services clients sont fermés (agents virtuels conversationnels efficient, selfcare)
– De délester les canaux de contacts qui impliquent des humains (chatbot, mailbot, callbot de traitement) et de délester les humains des sollicitations récurrentes et à faible valeur (solution conseiller augmenté, bot de backoffice)
– D’assurer un suivi continu et fiable dans le traitement des demandes (bots de backoffice)
– De capter des données multiples pour enrichir le reporting et favoriser une analyse toujours plus fine afin de progresser plus vite
– D’offrir plus d’agilité aux organisations et d’optimiser les coûts de la relation client …
En complément et « en surcouche », l’IA générative présente en outre un intérêt pour customiser des réponses dont le contenu lié à la logique métier aura été rédigé par des parcours automatisés et/ou des agents. L’IA générative pourrait ainsi réviser le texte pour l’adapter et le personnaliser en fonction du contexte : rajouter de l’empathie dans la formulation en cas de litige par exemple, ou bien enrichir l’écrit d’une expression de reconnaissance en réponse à un message de remerciement émanant du client ou à l’inverse recourir à des tournures plus fermes dans le cas d’un mail traitement d’un recouvrement…
Comment faire progresser l’IA : le point de vue de Frédéric Godefroy, Président et Directeur Technique de Djiin
En premier lieu, il convient de tester rigoureusement les modèles d’apprentissage et de continuer à les évaluer en permanence pour s’assurer de leur véracité et les sécuriser.
Aussi, les recherches se poursuivent par exemple pour permettre à une IA de garantir qu’une proposition est vraie, pas seulement qu’elle est fausse. En effet, aujourd’hui une IA est capable de détecter qu’une proposition est fausse et ce avec un taux d’erreur très faible (elle peut toutefois encore se tromper) ; en revanche, l’IA n’est pas en capacité d’affirmer de façon irrévocable qu’une proposition est vraie ! C’est précisément dans ce domaine que Djiin by Sereneo soutient les travaux de recherche de Telecom Paris ayant pour objectif de faire progresser l’IA dans la justesse de son analyse.
Aujourd’hui, la supervision de l’humain reste une mesure primordiale pour assurer la fiabilité de l’IA.
De même, les progrès scientifiques et technologiques devraient contribuer à apporter la dimension informelle qui manque à l’IA pour construire une plus grande proximité avec notre existence et la réalité humaine. Associer une présence physique avec la robotique par exemple, apporter de la motricité et faire en sorte que le robot s’appuie sur des données non formelles par d’autres capteurs plus « sensoriels » devraient conduire à des interactions plus pertinentes.
En outre, les travaux en cours sur les algorithmes et les réseaux de neurones devraient mener à une plus grande compacité des modèles aujourd’hui difficiles à stocker et très énergivores qui ont un impact substantiel sur l’environnement. Une évolution de modèles centralisés vers des modèles plus diffus, un passage d’un dispositif propriétaire vers de l’opensource devrait également être profitables pour une moindre dépendance envers certains acteurs.
Faut-il craindre l’IA ?
L’acceptation de l’IA et la confiance dans l’IA varient selon les pays.
Comme toute nouveauté, comme tout nouvel outil, l’IA se doit d’être apprivoisée pour la population qui doit s’en approprier les usages et s’y adapter. Une conduite du changement reste à opérer pour que ses technologies et ses capacités soient utilisées à bon escient.
Si 65% des Français acceptent l’IA, seulement 31% sont prêts à lui faire confiance et 68% la craignent, ce qui fait des Français la population la plus inquiète sur ce sujet à l’échelle mondiale. (Etude KPMG & The University of Queensland 2023)
L’IA fascine et tétanise à la fois. Ces craintes envers l’IA et la puissance de l’IA sont légitimes, puisque bien souvent les ingénieurs même en charge du développement de l’IA et de sa promotion entretiennent cette peur. Ainsi au Yale CEO Summit de juin 2023, 42% des CEO interrogés affirment que l’IA a le potentiel de détruire l’humanité d’ici 5 à 10 ans ! (source CNN 14 juin 2023)
L’IA et surtout de nos jours l’IA générative exposent les différents acteurs économiques à nombres de risques : disparition de certains emplois, utilisation abusive de l’IA générative, risque au regard de la propriété intellectuelle, de la confidentialité, de la cybersécurité pour les entreprises et de la protection des données personnelles pour les individus. Une utilisation que l’on pourrait qualifier de « Responsable » de l’IA et un dispositif de régulation s’imposent pour préserver les intérêts de chacun…
Contactez-nous
Nous nous engageons à vous répondre dans un délai de 24h
*Champs Obligatoires. Ces informations ne seront ni échangées ni transmises à d’autres entités. Conformément à la loi «informatique et libertés» du 6 janvier 1978 modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent, que vous pouvez exercer en vous adressant à Sereneo, 10 avenue Réaumur, 92140 Clamart. Vous pouvez également, pour des motifs légitimes, vous opposer au traitement des données vous concernant.
[Usecase Tourisme] L’automatisation des carnets de voyage, y avez-vous pensé ?
L’automatisation des carnets de voyage dans le secteur du tourisme
Retour sur l’atelier Djiinscovery : gérer simplement et efficacement les pics d’activité
Retour sur l’atelier sur la gestion des pics d’activité
[Atelier Djiinscovery] Comment gérer simplement et efficacement les pics d’activité tout en respectant vos promesses clients ?r
Evaluation RSE Ecovadis 2024 de Djiin by Sereneo