Definition Intelligence Artificielle Générative : Différence entre versions

De NSE
Aller à : navigation, rechercher
(=Principaux atouts de l’IA générative pour les entreprises)
(Machine Learning)
 
Ligne 99 : Ligne 99 :
  
 
====Machine Learning====
 
====Machine Learning====
    L’apprentissage statistique (en anglais, Machine Learning) – ou dit encore apprentissage automatique – est un type d’intelligence
+
 
 
+
    La Rédaction TechTarget
+
 
+
 
Le machine learning (ML), traduit aussi en français par apprentissage automatique ou encore apprentissage statistique, est un sous-domaine de l’intelligence artificielle (IA) qui permet à des applications de prédire des résultats de plus en plus précis sans être explicitement programmées en ce sens. Les algorithmes de machine learning utilisent des données historiques en entrée pour prédire de nouvelles valeurs en sortie. Une autre expression, « apprentissage machine », est une formule que l’on trouve aussi, bien qu’étant une traduction mot à mot.
 
Le machine learning (ML), traduit aussi en français par apprentissage automatique ou encore apprentissage statistique, est un sous-domaine de l’intelligence artificielle (IA) qui permet à des applications de prédire des résultats de plus en plus précis sans être explicitement programmées en ce sens. Les algorithmes de machine learning utilisent des données historiques en entrée pour prédire de nouvelles valeurs en sortie. Une autre expression, « apprentissage machine », est une formule que l’on trouve aussi, bien qu’étant une traduction mot à mot.
  
 
Les moteurs de recommandations font partie des cas d’utilisation courants du machine learning, ainsi que le dépistage de fraudes, les filtres antispam, la détection de logiciels malveillants, certains éléments de l’automatisation des processus métiers (BPA, Business Process Automation) ou encore la maintenance prédictive.
 
Les moteurs de recommandations font partie des cas d’utilisation courants du machine learning, ainsi que le dépistage de fraudes, les filtres antispam, la détection de logiciels malveillants, certains éléments de l’automatisation des processus métiers (BPA, Business Process Automation) ou encore la maintenance prédictive.
 +
 
Entraînement du machine learning
 
Entraînement du machine learning
  
Ligne 113 : Ligne 111 :
 
Dans l’approche supervisée du machine learning, le data scientist doit entraîner l’algorithme avec à la fois les données en entrée étiquetées et les données en sortie attendues. Les algorithmes d’apprentissage supervisé conviennent aux tâches suivantes :
 
Dans l’approche supervisée du machine learning, le data scientist doit entraîner l’algorithme avec à la fois les données en entrée étiquetées et les données en sortie attendues. Les algorithmes d’apprentissage supervisé conviennent aux tâches suivantes :
  
    Classification binaire - division des données en deux catégories.
+
*    Classification binaire - division des données en deux catégories.
    Classification multiclasse - choix entre plus de deux types de réponses.
+
*    Classification multiclasse - choix entre plus de deux types de réponses.
    Modélisation de régression - prédiction de valeurs continues.
+
*    Modélisation de régression - prédiction de valeurs continues.
    Apprentissage ensembliste - combinaison des prédictions de plusieurs modèles de machine learning pour produire une prédiction précise.
+
*    Apprentissage ensembliste - combinaison des prédictions de plusieurs modèles de machine learning pour produire une prédiction précise.
  
 
Fonctionnement du machine learning non supervisé
 
Fonctionnement du machine learning non supervisé
Ligne 122 : Ligne 120 :
 
Les algorithmes de ML non supervisé n’ont pas besoin de données étiquetées. Ils passent au crible les données sélectionnées par une équipe de data science pour rechercher des schémas pouvant servir à regrouper des points de données en sous-ensembles. Les algorithmes d’apprentissage non supervisé conviennent aux tâches suivantes :
 
Les algorithmes de ML non supervisé n’ont pas besoin de données étiquetées. Ils passent au crible les données sélectionnées par une équipe de data science pour rechercher des schémas pouvant servir à regrouper des points de données en sous-ensembles. Les algorithmes d’apprentissage non supervisé conviennent aux tâches suivantes :
  
    Regroupement ou « clustering » -- division de l’ensemble de données en groupes en fonction de la similarité.
+
*    Regroupement ou « clustering » -- division de l’ensemble de données en groupes en fonction de la similarité.
    Détection d’anomalies -- identification de points de données inhabituels dans un ensemble de données.
+
*    Détection d’anomalies -- identification de points de données inhabituels dans un ensemble de données.
    Recherche d’associations -- identification dans un ensemble de données de séries d’éléments souvent associées.
+
*    Recherche d’associations -- identification dans un ensemble de données de séries d’éléments souvent associées.
    Réduction de la dimensionnalité -- réduction du nombre de variables dans un ensemble de données.
+
*    Réduction de la dimensionnalité -- réduction du nombre de variables dans un ensemble de données.
  
 
Fonctionnement de l’apprentissage par renforcement
 
Fonctionnement de l’apprentissage par renforcement
  
 
Pour guider l’apprentissage automatique non supervisé, certains acteurs utilisent une troisième méthode : l’apprentissage par renforcement. Elle consiste à introduire un système de récompenses et de punitions afin d’induire le comportement et les décisions (ou actions) d’un algorithme (ou agent) dans un environnement donné, réel ou virtuel. Cette technique, moins répandue parce que bien plus complexe, est utilisée dans les domaines de la recherche opérationnelle, de la théorie des jeux, de la théorie du contrôle, de l’optimisation fondée sur la simulation ou encore dans les statistiques génétiques. Ici, il n’y a pas de jeux de données en entrée. L’algorithme construit son data set en explorant et en exploitant l’environnement.
 
Pour guider l’apprentissage automatique non supervisé, certains acteurs utilisent une troisième méthode : l’apprentissage par renforcement. Elle consiste à introduire un système de récompenses et de punitions afin d’induire le comportement et les décisions (ou actions) d’un algorithme (ou agent) dans un environnement donné, réel ou virtuel. Cette technique, moins répandue parce que bien plus complexe, est utilisée dans les domaines de la recherche opérationnelle, de la théorie des jeux, de la théorie du contrôle, de l’optimisation fondée sur la simulation ou encore dans les statistiques génétiques. Ici, il n’y a pas de jeux de données en entrée. L’algorithme construit son data set en explorant et en exploitant l’environnement.
 +
 
Utilisations du machine learning
 
Utilisations du machine learning
  
Ligne 147 : Ligne 146 :
  
 
Assistants virtuels – Les assistants intelligents combinent généralement des modèles de machine learning supervisé et non supervisé pour interpréter le langage naturel et fournir du contexte.
 
Assistants virtuels – Les assistants intelligents combinent généralement des modèles de machine learning supervisé et non supervisé pour interpréter le langage naturel et fournir du contexte.
 +
 
Choix du modèle approprié de machine learning
 
Choix du modèle approprié de machine learning
  
Ligne 165 : Ligne 165 :
  
 
Les modèles complexes peuvent donner des prédictions précises, mais il peut être difficile d’expliquer à une personne non initiée comment un résultat a été obtenu.
 
Les modèles complexes peuvent donner des prédictions précises, mais il peut être difficile d’expliquer à une personne non initiée comment un résultat a été obtenu.
 +
 
L’avenir du machine learning
 
L’avenir du machine learning
  
Ligne 174 : Ligne 175 :
  
 
La recherche continue en matière de deep learning et d’IA s’oriente de plus en plus vers le développement d’applications plus générales. Aujourd’hui, les modèles d’IA exigent un entraînement poussé pour produire un algorithme hautement optimisé en vue de réaliser une tâche. Mais certains chercheurs étudient des moyens d’assouplir les modèles et recherchent des techniques qui permettront à une machine d’appliquer le contexte appris dans le cadre d’une tâche à des tâches futures.
 
La recherche continue en matière de deep learning et d’IA s’oriente de plus en plus vers le développement d’applications plus générales. Aujourd’hui, les modèles d’IA exigent un entraînement poussé pour produire un algorithme hautement optimisé en vue de réaliser une tâche. Mais certains chercheurs étudient des moyens d’assouplir les modèles et recherchent des techniques qui permettront à une machine d’appliquer le contexte appris dans le cadre d’une tâche à des tâches futures.
 +
 
Histoire du machine learning
 
Histoire du machine learning
  

Version actuelle en date du 4 septembre 2023 à 15:33

Definition Intelligence Artificielle Générative

  • Gaétan Raoul, LeMagIT
  • George Lawton
  • Philippe Ducellier, Rédacteur en chef adjoint

On peut définir l’IA générative (Generative AI en anglais, ou Gen AI en abrégé) comme l’ensemble des outils d’intelligence artificielle (IA) qui génèrent des contenus en fonction d’une demande (un prompt). Les types de contenus ainsi générés sont très vastes. Ils peuvent aussi bien être du texte qu’une image, une vidéo ou une musique, ou encore du code ou un plan d’architecte (liste non exhaustive).

En entrée, le prompt peut lui aussi prendre différentes formes. Le plus souvent il s’agit d’un texte (une question ou une description), qui peut être complété par d’autres objets (image, vidéo, ou tout autre input pris en charge par le système). Des algorithmes génèrent ensuite une réponse ou le contenu souhaité.

Par exemple, une IA générative pourra « dessiner » un paysage dans le style d’un peintre à partir d’une photo réelle, ou encore la décrire d’une manière qui aura été précisée dans le prompt (pour accompagner sa publication sur Twitter par exemple).

Les premières versions des services d’IA génératives étaient utilisables uniquement via des APIs. Les développeurs devaient passer par des outils spécifiques et écrire des applications avec des langages comme Python. Dans un deuxième temps, des interfaces utilisateurs conversationnelles de type chatbot – dont la plus connue est ChatGPT – ont simplifié l’utilisation de l’IA générative en permettant de formuler des prompts en langage naturel. Après une première réponse de l’IA (ou un premier contenu généré), l’utilisateur peut dialoguer avec le bot pour affiner le résultat ou signaler une erreur, comme dans une discussion. Exemple d'un tweet généré par ChatGPT

OpenAI

L'UI conversationnelle de ChatGPT qui écrit un tweet en fonction d'un prompt puis d'un échange. Quels sont les différents types d’IA générative ?

On peut différencier deux grandes familles d’intelligence artificielle générative.

La première est la famille des IA génératives généralistes. Ces modèles sont entraînés sur un corpus de données publiques extrêmement vaste. Ils ont vocation à répondre à tout type de questions ou de demandes – tout comme un moteur de recherche sur Internet.

La seconde est la famille des IA génératives privées. Ces outils sont destinés à ne compulser que les données d’une organisation. Souvent, les modèles sont également préentraînés pour répondre à un cas d’usage précis (relation client, résumer des documents juridiques, etc.).

Dans le premier cas, tous les prompts et tous les retours des utilisateurs nourrissent l’algorithme qui motorise l’IA générative (c’est par exemple le cas de ChatGPT).

Dans le second, les échanges n’entraînent que l’instance privée de l’organisation – hébergée soit par l’éditeur, soit par l’organisation elle-même.

Un éditeur peut proposer les deux versions pour mieux répondre aux besoins des groupes qui souhaitent préserver la confidentialité de leurs données sensibles.

Quels sont les principaux cas d’usages de l’IA générative ?

En théorie, l’IA générative peut être utilisée pour produire tout type de contenus. Dans la pratique, elle est principalement appliquée aujourd’hui pour :

  • Implémenter des chatbots (SAV, réponses à des questions techniques, etc.)
  • Écrire des ébauches de réponses (mails), faire des listes, résumer des textes, rédiger des notes de synthèse et des plans de documents.
  • Écrire, auditer, expliquer du code.
  • Créer des images, des univers graphiques 3D ou des vidéos
  • Concevoir des prototypes de produits et optimiser des plans et des aménagements en fonction de contraintes précises.

Avec ses capacités, l’IA générative peut avoir des bénéfices pour pratiquement tous les métiers – même si ce sont les « travailleurs du savoir » et les créatifs (marketing, designers, etc.) qui sont les plus concernés aujourd’hui.

Il faut néanmoins garder à l’esprit que l’IA générative, bien que très puissante et très prometteuse, n’en est qu’à ses débuts. Des cas d’usages pertinents devraient donc s’ajouter régulièrement au fil des expérimentations et des projets. Infographie des principaux atouts de l'IA générative pour les entreprises

Principaux atouts de l’IA générative pour les entreprises

Que sont les Transformers et les grands modèles de langage (LLMs) ?

L’IA générative est apparue dans les années 1960 avec les premiers chatbots. Mais ce n’est qu’en 2014, avec l’arrivée des réseaux antagonistes génératifs (GAN), un type d’algorithme de machine learning (ML), que cette technologie a pu créer des textes, des images, des vidéos et des sons suffisamment convaincants.

Dans le même temps, cette nouvelle capacité a fait naître des inquiétudes concernant les « deepfakes » : des images ou des vidéos totalement fausses, mais qui ont l’air parfaitement réelles (pour faire de la propagande), ou des textes qui imitent de manière réaliste une personne (pour faire de l’ingénierie sociale dans le cadre d’une cyberattaque).

Deux autres avancées majeures ont joué un rôle essentiel dans la généralisation de l’IA générative : les Transformers et les grands modèles de langage (Large Language Models, ou LLMs).

Les Transformers sont un type de ML qui a permis d’entraîner des modèles de plus en plus grands sans avoir à étiqueter toutes les données en amont. De nouveaux modèles ont ainsi pu être entraînés sur des milliards de pages de texte pour avoir des réponses plus approfondies.

Les Transformers ont aussi permis l’émergence d’une nouvelle notion : l’attention. Elle a permis aux modèles de suivre les relations entre les mots au-delà d’une phrase, dans des pages entières, des chapitres et des livres. Cette capacité ne concerne d’ailleurs pas que les mots : les Transformers pourraient suivre ces relations pour analyser du code, des protéines, des molécules chimiques ou l’ADN.

Les progrès rapides des grands modèles de langage (LLM), c’est-à-dire des modèles comportant des milliards, voire des trillions de paramètres, ont ouvert une nouvelle ère dans laquelle les modèles d’IA générative savent écrire des textes engageants ou peindre des images réalistes.

Qui sont les principaux acteurs de l’IA générative ?

L’intelligence artificielle générative a fait irruption en 2023 dans le grand public avec deux services de l’éditeur OpenAI : ChatGPT et Dall-E.

ChatGPT est le chatbot qui a médusé le monde en novembre 2022. Ce moyen d’interagir avec l’implémentation du modèle GPT-3.5 et d’affiner les réponses via une interface de chat a gagné une popularité incroyable. À tel point que Microsoft a décidé d’investir massivement dans OpenAI pour infuser ses services dans sa gamme d’outils (Office, Azure, Bing, etc.).

Dall-E est l’autre service le plus connu d’OpenAI. Jeu de mots sur Salvador Dali, il génère des images en fonction d’une description et d’instructions de l’utilisateur. Ses principaux concurrents sont Midjourney, Stable Diffusion (Stability AI) ou Firefly (Adobe).

OpenAI propose un troisième outil moins connu du grand public, Codex, spécifiquement conçu pour générer du code informatique. L’assistant GitHub Copilot, développé par GitHub pour le compte de Microsoft, est une déclinaison commerciale de ce modèle. Il a pour principal concurrent CodeWhisperer d’Amazon Web Services, FauxPilot (sur la base de Salesforce CodeGen) ou encore Codeium.

Google a été un précurseur de la technique des Transformers. L’irruption d’OpenAI et l’investissement de Microsoft dans la société ont poussé le leader des moteurs de recherche à accélérer ses plans pour sortir un produit d’intelligence artificielle générative opérationnel : Bard. Google Bard a été construit sur une version « light » de sa famille de grands modèles de langage LaMDA (Language Model for Dialog Applications). Google a depuis dévoilé une version construite sur son LLM le plus avancé, PaLM 2.

Il existe de nombreux autres éditeurs sur le marché de l’IA générative. Ces acteurs vont des très grands de la Tech (Meta/Facebook avec LlaMa) à des entreprises spécialisées comme Cohere ou Anthropic en passant par une foule de startups (Jasper, AI-Writer ou Lex dans la génération de textes ; Amper, Dadabots ou MuseNet pour la génération de musique ; Descript, Listnr ou Podcast.ai pour la génération de voix ; Tabnine pour la génération de codes), sans oublier des éditeurs d’applications métiers comme Autodesk.

En Europe, plusieurs acteurs se sont positionnés sur ce marché comme les Français Mistral AI et LightOn, ou l’Allemand Aleph Alpha. Limites et défauts de l’IA générative

Riche de promesses, la technologie d’intelligence artificielle générative a aussi ses limites qu’il faut savoir maîtriser et ses polémiques (comme les deep fakes, évoqués plus haut).

L’entraînement de ChatGPT et de Dall-E sur un corpus de données très vaste – sans demander le consentement des propriétaires (journaux, etc.) – a par exemple été très critiqué. Ses résultats pourraient être légalement attaqués pour plagiat et violation de copyright.

Plus largement, ChatGPT ne donne pas ses sources. Il est donc difficile de vérifier les réponses.

De nombreux résultats de l’IA générative ne sont pas non plus transparents (phénomène de boîte noire). Cela peut poser un gros problème lorsque les résultats de l’IA générative sont utilisés pour écrire du code ou pour donner des conseils médicaux.

L’IA générative textuelle est, avant tout, un outil qui génère des réponses grammaticalement correctes avec une syntaxe plausible. Le fond de la réponse, lui, peut être partiellement faux, voire totalement inventé de manière crédible (phénomène dit d’hallucination).

Autres limites : que deviennent vos données et vos prompts ? Dans certains services, ils peuvent être utilisés comme des ressources pour entraîner le modèle de l’éditeur. Ce qui peut poser problème s’il s’agit de données critiques et d’information stratégique confidentielle.

Évolutions de l’IA générative

Les premières implémentations ont mis en évidence certaines difficultés pour déployer l’IA générative de manière sûre et responsable. Mais ces problèmes inspirent le développement d’outils pour y remédier.

Des éditeurs travaillent sur la manière de détecter les textes, les images et les vidéos générés par l’IA. L’industrie IT construira également de meilleurs outils pour suivre la provenance des informations afin de créer une IA plus digne de confiance.

Une autre évolution est l’intégration native de la technologie dans des applications : collaboratif (ébauches et résumés de mails), visioconférence (résumé des réunions), Excel/bases de données (automatiser l’écriture de formules et de requêtes SQL), outils d’observabilité (bots), CX et CRM (portails en self-service, proposition d’argumentaires commerciaux, ou synthétiser des milliers de réponses de clients à des enquêtes), SIRH (pour écrire des drafts d’annonces ou d’évaluation d’employés), outils créatifs comme Photoshop (production de calques avec une description), etc.

Ce mouvement devrait continuer, voire s’amplifier.

Machine Learning

Le machine learning (ML), traduit aussi en français par apprentissage automatique ou encore apprentissage statistique, est un sous-domaine de l’intelligence artificielle (IA) qui permet à des applications de prédire des résultats de plus en plus précis sans être explicitement programmées en ce sens. Les algorithmes de machine learning utilisent des données historiques en entrée pour prédire de nouvelles valeurs en sortie. Une autre expression, « apprentissage machine », est une formule que l’on trouve aussi, bien qu’étant une traduction mot à mot.

Les moteurs de recommandations font partie des cas d’utilisation courants du machine learning, ainsi que le dépistage de fraudes, les filtres antispam, la détection de logiciels malveillants, certains éléments de l’automatisation des processus métiers (BPA, Business Process Automation) ou encore la maintenance prédictive.

Entraînement du machine learning

Dans sa forme classique, le machine learning se définit souvent par la façon dont un algorithme apprend à formuler des prédictions de plus en plus précises. Il existe deux approches élémentaires : l’apprentissage supervisé et l’apprentissage non supervisé. L’on peut également mentionner l’apprentissage semi-supervisé, qui permet de compléter l’apprentissage supervisé en analysant des données non annotées. Le type d’algorithme qu’un data scientist choisit d’utiliser dépend du type de données qu’il souhaite prédire. Fonctionnement du machine learning supervisé

Dans l’approche supervisée du machine learning, le data scientist doit entraîner l’algorithme avec à la fois les données en entrée étiquetées et les données en sortie attendues. Les algorithmes d’apprentissage supervisé conviennent aux tâches suivantes :

  • Classification binaire - division des données en deux catégories.
  • Classification multiclasse - choix entre plus de deux types de réponses.
  • Modélisation de régression - prédiction de valeurs continues.
  • Apprentissage ensembliste - combinaison des prédictions de plusieurs modèles de machine learning pour produire une prédiction précise.

Fonctionnement du machine learning non supervisé

Les algorithmes de ML non supervisé n’ont pas besoin de données étiquetées. Ils passent au crible les données sélectionnées par une équipe de data science pour rechercher des schémas pouvant servir à regrouper des points de données en sous-ensembles. Les algorithmes d’apprentissage non supervisé conviennent aux tâches suivantes :

  • Regroupement ou « clustering » -- division de l’ensemble de données en groupes en fonction de la similarité.
  • Détection d’anomalies -- identification de points de données inhabituels dans un ensemble de données.
  • Recherche d’associations -- identification dans un ensemble de données de séries d’éléments souvent associées.
  • Réduction de la dimensionnalité -- réduction du nombre de variables dans un ensemble de données.

Fonctionnement de l’apprentissage par renforcement

Pour guider l’apprentissage automatique non supervisé, certains acteurs utilisent une troisième méthode : l’apprentissage par renforcement. Elle consiste à introduire un système de récompenses et de punitions afin d’induire le comportement et les décisions (ou actions) d’un algorithme (ou agent) dans un environnement donné, réel ou virtuel. Cette technique, moins répandue parce que bien plus complexe, est utilisée dans les domaines de la recherche opérationnelle, de la théorie des jeux, de la théorie du contrôle, de l’optimisation fondée sur la simulation ou encore dans les statistiques génétiques. Ici, il n’y a pas de jeux de données en entrée. L’algorithme construit son data set en explorant et en exploitant l’environnement.

Utilisations du machine learning

Aujourd’hui, le machine learning est utilisé dans de nombreuses applications. L’un des exemples les plus connus est sans doute le moteur de recommandations qui alimente le fil d’actualité de Facebook.

Facebook utilise en effet le machine learning pour personnaliser le flux de chaque abonné. Ainsi, si un abonné lit fréquemment les publications d’un groupe particulier, le moteur de recommandations commencera à afficher un plus grand nombre d’activités de ce groupe au début du fil d’actualité.

En coulisse, le moteur tente de renforcer les schémas connus dans le comportement en ligne de l’abonné. Si l’abonné change ses habitudes et ne lit plus les publications du groupe en question dans les semaines qui suivent, le fil d’actualité sera adapté en conséquence.

Outre les moteurs de recommandation, le machine learning a d’autres applications, notamment :

Gestion de la relation client – Les logiciels de GRC peuvent utiliser des modèles de machine learning pour analyser les e-mails et inviter les commerciaux à répondre en priorité aux messages les plus importants. Les systèmes les plus évolués peuvent même recommander des réponses susceptibles d’avoir un impact.

Informatique décisionnelle – Les fournisseurs de solutions BI et d’analytique utilisent le machine learning dans leurs logiciels pour identifier les points de données, schémas de points de données et anomalies potentiellement importants.

Systèmes informatiques de ressources humaines – Les SIRH peuvent utiliser des modèles de machine learning pour passer des candidatures au peigne fin et identifier les meilleurs candidats à un poste vacant.

Assistants virtuels – Les assistants intelligents combinent généralement des modèles de machine learning supervisé et non supervisé pour interpréter le langage naturel et fournir du contexte.

Choix du modèle approprié de machine learning

Le choix d’un modèle de machine learning approprié pour résoudre un problème peut prendre du temps si une approche stratégique n’est pas adoptée.

Étape 1 : Aligner le problème avec les entrées de données potentielles qui doivent être envisagées pour la solution. Cette étape exige l’aide de data scientists et d’experts qui connaissent bien le problème.

Étape 2 : Collecter les données, les nettoyer (suppression des valeurs manquantes, aberrantes et des doublons), les formater, et les étiqueter si nécessaire. Cette étape est généralement confiée aux data scientists, avec l’aide de spécialistes chargés de préparer les données, les « data wranglers ».

Étape 3 : Réaliser l’ingénierie des caractéristiques (Feature Engineering). Cette deuxième phase de la préparation de données consiste à observer via un outil de visualisation les attributs (features) communs aux données et les liens entre les colonnes d’une table. Il s’agit également d’établir si oui ou non il y a des dépendances entre les features et entre les features et les étiquettes (labels). Ces facteurs influencent les résultats de l’algorithme.

Étape 4 : Choisir quels algorithmes utiliser et les tester pour comparer leurs performances. Cette étape est généralement effectuée par les data scientists. Par exemple avec un apprentissage supervisé, cette étape réclame de diviser son jeu de données de départ en trois ensembles. Les données d’entraînement servent à ajuster les modèles, et les données de validation permettent d’estimer les erreurs de prédiction, et l’ensemble de test permet d’évaluer les performances du modèle sur des données inconnues du modèle.

Étape 5 : Continuer à affiner les résultats jusqu’à obtenir un niveau de précision acceptable. Cette étape incombe généralement aux data scientists, avec le retour d’experts qui connaissent bien le problème. Importance d’un machine learning interprétable par des humains

Lorsqu’un modèle de ML est complexe, il peut s’avérer difficile d’en expliquer le fonctionnement. Dans certains secteurs spécialisés, les data scientists doivent utiliser des modèles de machine learning simples, car il est important pour l’entreprise d’expliquer en détail comment chaque décision a été prise. C’est notamment le cas dans les secteurs soumis à de fortes exigences de conformité, tels que la banque et l’assurance. Dans ces secteurs hautement régulés, les équipes de data science ont souvent l’obligation de fournir une documentation détaillée sur les modèles déployés.

Les modèles complexes peuvent donner des prédictions précises, mais il peut être difficile d’expliquer à une personne non initiée comment un résultat a été obtenu.

L’avenir du machine learning

Si les algorithmes de machine learning existent depuis plusieurs dizaines d’années, ils sont aujourd’hui de plus en plus répandus, dans un contexte de recours croissant à l’intelligence artificielle (IA). Les applications d’IA les plus évoluées, en particulier, font appel à des modèles de deep learning.

Les plateformes de machine learning font partie des domaines les plus concurrentiels de la technologie d’entreprise : la plupart des grands fournisseurs, Amazon, Google, Microsoft, IBM et autres, rivalisent pour convaincre les clients de s’abonner à des services couvrant l’ensemble des activités de machine learning, dont la collecte, la préparation et la classification des données, l’élaboration et l’entraînement de modèles, ainsi que le déploiement d’applications.

Cette compétition entre plateformes devrait encore s’intensifier alors que le machine learning prend de plus en plus d’importance pour les activités métier et que l’IA se démocratise en entreprise.

La recherche continue en matière de deep learning et d’IA s’oriente de plus en plus vers le développement d’applications plus générales. Aujourd’hui, les modèles d’IA exigent un entraînement poussé pour produire un algorithme hautement optimisé en vue de réaliser une tâche. Mais certains chercheurs étudient des moyens d’assouplir les modèles et recherchent des techniques qui permettront à une machine d’appliquer le contexte appris dans le cadre d’une tâche à des tâches futures.

Histoire du machine learning

1642 - Blaise Pascal invente une machine mécanique capable d’effectuer des opérations de base (addition, soustraction, multiplication et division).

1679 - Gottfried Wilhelm Leibniz imagine le système du code binaire.

1834 - Charles Babbage conçoit l’idée d’un dispositif universel générique qui pourrait être programmé à l’aide de cartes perforées.

1842 - Ada Lovelace décrit une séquence d’opérations pour la résolution de problèmes mathématiques à l’aide de la machine analytique à cartes perforées de Charles Babbage et devient la première programmeuse.

1847 - George Boole crée la logique booléenne, une forme d’algèbre dans laquelle toutes les valeurs peuvent être réduites aux valeurs binaires vrai ou faux.

1936 - Le logicien et cryptanalyste Alan Turing propose une « machine universelle » capable de déchiffrer et d’exécuter une série d’instructions. La démonstration qu’il publie à ce sujet est considérée comme la base de l’informatique.

1952 - Arthur Samuel crée un programme permettant à un ordinateur IBM de s’améliorer au jeu de dames au fil des parties.

1959 - MADALINE devient le premier réseau de neurones artificiel appliqué à une problématique concrète : éliminer les échos des lignes téléphoniques.

1985 - Le réseau de neurones artificiel de Terry Sejnowski et Charles Rosenberg apprend de façon autonome à prononcer correctement 20 000 mots en une semaine.

1997 - Le programme Deep Blue d’IBM bat le champion d’échecs Garry Kasparov.

1999 - Un prototype de poste de travail intelligent de CAO analyse 22 000 mammographies et détecte des cancers avec une précision de 52 % supérieure à celle des radiologues.

2006 - L’informaticien Geoffrey Hinton invente le terme de deep learning (apprentissage profond) pour décrire la recherche par des réseaux de neurones.

2012 - Un réseau de neurones non supervisé créé par Google apprend à reconnaître des chats dans des vidéos YouTube, avec une précision de 74,8 %.

2014 - Un chatbot réussit le test de Turing en réussissant à convaincre 33 % des évaluateurs humains qu’il était un adolescent ukrainien du nom d’Eugène Goostman.

2014 - AlphaGo de Google bat le champion humain de Go, le jeu de plateau le plus difficile au monde.

2016 - LipNet, le système d’intelligence artificielle de DeepMind, identifie des mots en les lisant sur les lèvres dans des vidéos, avec une précision de 93,4 %.

2019 - Amazon contrôle 70 % du marché des assistants virtuels aux États-Unis.

Recherche cognitive

   La recherche cognitive (ou « cognitive search » en anglais) est une nouvelle génération de moteurs de recherche, qui s’appuie sur  Definition

Recherche cognitive

La Rédaction TechTarget par

   La Rédaction TechTarget

La recherche cognitive (ou « cognitive search » en anglais) est une nouvelle génération de moteurs de recherche qui s’appuie sur l’intelligence artificielle pour mieux comprendre les requêtes des utilisateurs et mieux cibler les informations pertinentes dans des jeux de données multiples et éparses.

La recherche cognitive va plus loin qu’un moteur de recherche classique : elle peut intégrer plusieurs sources dans les réponses, et elle assure automatiquement le tagging des bases de connaissances.

Grâce à ces avancées, les salariés d’une entreprise peuvent accéder plus efficacement aux informations dont ils ont besoin.

Les outils de recherche cognitive s’appuient sur des algorithmes sémantiques de NLP (traitement du langage naturel) pour « comprendre » les données indexées. Les développeurs peuvent par la suite intégrer des moteurs cognitifs dans les applications métier (moteur de recherche pharmaceutique, portail client par exemple) ou à l’inverse, intégrer les données des applications dans un moteur (sur un portail par exemple). Importance et avantages de la recherche cognitive

Les moteurs de recherche qui s’appuient sur des mots-clefs sont presque devenus obsolètes en raison de la diversité et de la quantité croissante des données. Ils renvoient tellement de résultats – ou des résultats trop approximatifs – qu’il faut ensuite les trier pour dénicher la bonne information recherchée.

En intégrant de l’IA, un moteur cognitif retourne des informations, mais il en extrait aussi « le sens ». Ces moteurs s’affinent également au fil du temps en apprenant des requêtes passées.

Voici quelques avantages de la recherche cognitive :

   Gains de productivité : une fonction de recherche centralisée et unifiée (capable de s’interfacer à plusieurs dépôts de données) permet de ne plus naviguer entre applications. Cette unification simplifie les processus métier.
   Meilleure adoption de l’outil : les algorithmes d’apprentissage statistique (Machine Learning) donnent des suggestions plus personnalisées en fonction de l’utilisateur. Grâce à ces capacités, l’expérience s’améliore ce qui incite à utiliser les outils de manière plus systématique.
   Baisse des coûts opérationnels : la centralisation des informations (même si les sources restent éparses) et la découverte des connaissances se font plus rapidement. De ce fait, une entreprise optimise sa productivité et réduit ses coûts opérationnels. Cet aspect est particulièrement vrai pour les services juridiques, ou la santé, ou tout domaine qui manipulent des volumes gigantesques de données non structurées ou semi-structurées (jurisprudences, appels d’offres, études médicales, recherche scientifique, etc.).

Fonctionnement des outils de recherche cognitive

Même si une étape d’intégration et d’apprentissage est nécessaire, les entreprises n’ont pas à repenser l’organisation de leurs informations (IT, bases de données, etc.) pour pouvoir utiliser la recherche cognitive. L’IA « s’ajoute » à ce socle.

Cette IA infusée est principalement de deux types.

Le NLP permet de « comprendre » les données qu’elles soient textuelles (courriers électroniques, documents, études de marché) ou des contenus médias complexes (vidéos ou enregistrements). Le Machine Learning, lui, améliore en continu la pertinence des résultats proposés en fonction de la réaction des employés aux résultats. Il est également derrière les moteurs de recommandation (vous avez cherché « ceci », « cela » peut aussi vous intéresser).

Voici quelques-uns des algorithmes couramment utilisés dans la recherche cognitive :

   Clustering: cet algorithme segmente un jeu de données en sous-ensembles, en fonction de similarités qu’il détermine lui-même (non supervisé). Quand l’utilisateur ne souhaite pas lancer des recherches sur l’ensemble de l’index, cet algorithme limite l’exploration à un groupe spécifique ou à des documents dans chaque groupe.
   Classification : cet algorithme (supervisé) crée un modèle qui permet de taguer les nouvelles données, en fonction d’un jeu de données prétagué sur lequel il a été formé.
   Régression : ce type algorithmes s’appuie sur la relation entre les variables d’entrée et de sortie pour prédire des valeurs numériques futures à partir des nouvelles données. C’est avec cette technologie qu’il est possible d’affiner les résultats au fil du temps, en modifiant les paramétrages de l’algorithme quand un résultat de sortie – output – n’est pas conforme (par exemple la non-consultation du premier résultat mis en avant par le moteur) à la prévision issue de l’input – l’input étant ici la requête d’un utilisateur.
   Recommandation : l’algorithme – souvent un ensemble d’algorithmes – extrapole des recommandations personnalisées d’après les éléments d’un document (description et attributs) qui coïncident avec les centres d’intérêt de l’utilisateur.

En parallèle à ces algorithmes, un calcul savant de similarité permet d’élaborer une matrice synthétisant les interactions entre les échantillons de données. Principaux outils de recherche cognitive

La recherche cognitive n’en est encore qu’à ses balbutiements. Ceci étant, plusieurs éditeurs sont déjà bien installés sur le marché. Forrester Research a en identifié six majeurs :

   Le Français Sinequa (« Insight Platform »)
   Le Québécois Coveo
   Watson Explorer d’IBM
   Attivio (« Cognitive Search and Insight »)
   Lucidworks
   Mindbreeze

On peut ajouter à cette liste Dassault Systèmes (avec Exalead). Application concrète de la recherche cognitive

Les cabinets d’avocats utilisent de plus en plus la recherche cognitive. En intégrant des modules propres à leur secteur, elle les aide en effet à trouver des expertises et des informations clefs dans des domaines juridiques précis.

Autre domaine d’application privilégié : le service client. Les agents peuvent accéder en temps réel et simultanément à une multitude d’applications et à un volume colossal de données (des informations de livraison aux détails du produit) depuis une seule interface. Ils peuvent ainsi répondre plus rapidement aux demandes et trouver des solutions aux problèmes des clients.

Mais les usages sont très nombreux.

Dans la sécurité, par exemple, l’Autorité de Sûreté Nucléaire (ASN) l’utilise pour parcourir plus de 22 000 documents d’inspection d’établissements équipés d’installations nucléaires.

Dans l’ingénierie, Eurocopter l’utilise pour centraliser les données techniques – qu’elles soient dans des documents ou échangées dans des mails. Un projet similaire a été déployé chez Siemens.

La NASA utilise également la recherche cognitive pour, par exemple, compulser des rapports de conception et de recherche stockés depuis plusieurs décennies (ces documents concernent par exemple des équipements et des pièces, qui sont et seront envoyés dans l’espace). Et dans le marketing et la vente, Pernod-Ricard a unifié ses informations entre pays grâce à cette technologie.


Transformation digitale

   La transformation digitale – ou transformation numérique – est l’incorporation de technologies dans les produits, les processus La transformation digitale – ou transformation numérique – est l’incorporation de technologies dans les produits, les processus et les stratégies d’une organisation afin qu’elle reste compétitive dans un monde plus en plus numérique.

Le terme « transformation digitale » est devenu le plus usité, même s’il est une traduction impropre de l’expression anglaise « digital transformation » dont l’équivalent exact en français est « transformation numérique » (« digital », en français, renvoyant au « doigt »).

La transformation numérique nécessite l’examen et la réinvention de la plupart, voire de tous les domaines d’une organisation, de sa chaîne d’approvisionnement et ses procédures de travail, aux compétences de ses employés et à son organigramme, en passant par ses interactions avec les clients et sa création de valeur pour toutes les parties prenantes.

Au final la transformation digitale aide une organisation à être plus compétitive dans un paysage économique qui change constamment au fur et à mesure que la technologie évolue. Schéma des principaux moteurs, défis, avantages et indicateurs clés des projets de transformation numérique réussis.

TechTarget Importance de la transformation digitale

La numérisation de la société qui a commencé à la fin du XXe siècle et qui s’est accélérée au cours des deux premières décennies du XXIe a grandement stimulé la transformation numérique des organisations.

Celles-ci doivent en effet s’adapter pour faire face à l’évolution des forces du marché. Les entreprises qui n’anticipent pas la façon dont les technologies émergentes peuvent rendre leurs produits obsolètes courent le risque d’être dépassées soit par de nouveaux concurrents, soit par des entreprises existantes plus flexibles et plus capables de se transformer. Avec une possible faillite à la clef.

Un exemple parmi d’autres illustre ce constat : Blockbuster LLC au début des années 2000 était un groupe mondial, avec des magasins de location de vidéos dans plusieurs pays. Mais sa présence et sa pertinence ont rapidement décliné à partir de 2005, lorsque Netflix – et d’autres entreprises de streaming qui ont utilisé les technologies émergentes – a capitalisé sur l’appétit des consommateurs pour les divertissements à la demande, en proposant des services en continu et plus rentables pour le loueur sur le long terme.

Le danger de voir les leaders du marché dépassés et « disruptés » va continuer à l’avenir, car les technologies permettent à présent de nouveaux modèles économiques, des expériences clients plus engageantes, des produits et des services inédits et bien d’autres innovations.

En outre, le rythme de la transformation numérique s’accélère. Les organisations doivent aujourd’hui évoluer beaucoup plus rapidement, et plus souvent, en raison de la confluence des technologies, qui elles-mêmes ne cessent d’évoluer et de s’accélérer. Les moteurs de la transformation digitale

Les technologies mobiles, l’intelligence artificielle, le cloud computing et les réseaux sociaux, entre autres, ont radicalement modifié la manière (et la rapidité) dont les clients peuvent obtenir des informations, ce qui modifie le type et la qualité des produits et des services qu’ils attendent des entreprises et des entités avec lesquelles ils interagissent.

De même, ces outils numériques ont changé ce que les employés et les autres parties prenantes – partenaires et investisseurs – attendent des organisations.

Les clients, qu’il s’agisse de particuliers (B2C) ou d’entreprises (B2B), attendent des organisations qu’elles soient réactives, qu’elles leur offrent une expérience personnalisée et des produits adaptés à leurs besoins particuliers. Ils attendent également des interfaces intuitives et faciles à utiliser ; et ils préfèrent généralement des interactions numériques accessibles à tout moment à partir de n’importe quel appareil.

En interne, les organisations réalisent peu à peu que leurs propres employés attendent la même chose au travail.

Habitués à des expériences numériques, rapides, sociales et intuitives dans leurs vies privées, les collaborateurs s’attendent à retrouver le même type d’expérience employé dans leurs vies professionnelles. Ils veulent de plus en plus des applications qui leur permettent de travailler à partir de n’importe quel appareil, à tout moment et en tout lieu. Et ils veulent que leurs applications professionnelles soient aussi intuitives et réactives que celles qu’ils utilisent en dehors du bureau. Les objectifs de la transformation digitale

L’objectif d’une stratégie de transformation numérique est donc double : mieux servir les clients et mieux servir toutes les parties prenantes, et plus particulièrement les employés.

Pour ce faire, les organisations doivent utiliser les technologies numériques pour atteindre un certain nombre d’objectifs intermédiaires.

Parmi ces objectifs, on peut citer :

   l’accélération de la mise sur le marché de nouveaux produits et services ;
   l’augmentation de la productivité des employés ;
   accroître la réactivité aux demandes des clients ;
   une meilleure connaissance des clients pour mieux anticiper et personnaliser les produits et les services ;
   l’amélioration du service client, notamment en offrant une expérience plus intuitive et plus engageante.

Technologies clefs de la transformation digitale

Par définition, l’IT est le moteur de la transformation digitale et soutient la numérisation de multiples processus clefs d’une organisation.

Le cloud computing, par exemple, permet à une organisation d’accéder plus rapidement aux logiciels dont elle a besoin, à de nouvelles fonctionnalités et à des mises à jour continues, ainsi que de pérenniser le stockage et l’accès des données, ce peut lui permettre d’être plus agile pour se transformer.

La « banalisation » de certaines technologies (qui deviennent des « commodités ») – comme les serveurs avec le IaaSou via l’open source – permet à une organisation de concentrer ses talents et ses investissements en R&D sur les personnalisations répondant à ses besoins propres et sur les processus qui la différencient sur le marché.

Parallèlement, les plateformes mobiles permettent de travailler depuis partout et à tout moment.

Une politique cohérente et des outils robustes de gestion des données de l’entreprise – qui alimenteront l’intelligence artificielle et le machine learning – fournissent quant à eux des informations permettant de prendre des décisions plus précises en matière commerciale, marketing ou de développement de produits, parmi d’autres domaines stratégiques.

Évidemment, bien d’autres technologies sont au cœur de la transformation des métiers, et la liste ne cesse de s’allonger : citons par exemple la blockchain, la réalité augmentée ou encore l’internet des objets (IoT). Exemples de transformation digitale

Nespresso est un bon exemple d’entreprise qui a réussi sa transformation numérique. Le fabricant de machines à café, filiale du groupe suisse Nestlé, a déployé un système de gestion de la relation client (CRM) cloud, offrant ainsi à ses clients un accès omnicanal à ses produits et à son service support. Ils peuvent joindre l’entreprise, qu’ils passent par le site web, l’app mobile ou qu’ils se rendent dans un magasin. Cette vue unique de chacun de ses clients – une vue à 360 degrés – a permis à Nespresso de s’implanter sur davantage de marchés et d’améliorer ses ventes.

Un autre exemple est celui de Netflix, lancé en 1997 en tant que société de location de DVD par courrier. Aujourd’hui, le service de streaming vidéo en ligne propose des offres personnalisées en fonction des préférences de chaque client.

Dans la nourriture, Domino’s Pizza s’est adapté à l’ère numérique, en lançant des services qui s’appuient sur la technologie, comme son Pizza Tracker qui permet à un client de suivre sa commande en direct. La technologie a contribué à alimenter la croissance remarquable de Domino’s Pizza tout au long des années 2010.

Mais l’exemple le plus emblématique de transformation numérique reste certainement Amazon. Créée en 1994 comme une simple librairie en ligne, l’entreprise « disruptait » les librairies physiques et les catalogues de ventes à distance. Mais en se transformant en « marketplace », elle a totalement changé de nature et de taille grâce à la technologie. Jusqu’à devenir aujourd’hui un des géants de l’IT avec sa filiale AWS, bien loin des livres de ses débuts (même si Amazon continue à en vendre). Stratégie de transformation digitale

Les experts en transformation numérique avancent que les technologies émergentes sont à la fois le moteur et le support de la transformation « réelle ».

Ils soulignent que la réussite de cette transformation réelle commence par une vision qui articule la manière d’utiliser la technologie pour atteindre des objectifs stratégiques en fonction du propre modèle économique numérique de l’organisation.

Ils notent que la mise en œuvre de nouvelles technologies, aussi prometteuses soient-elles, sans comprendre comment elles apporteront de la valeur, ne conduira pas à une transformation.

Nigel Fenwick, analyste chez Forrester Research, qualifie même de « mythe » la nécessité d’une stratégie numérique. « Ce dont chaque entreprise a besoin, c’est d’une stratégie globale, solide, construite autour des capacités numériques de demain », nuance-t-il.

Si chaque organisation doit avoir sa propre vision de son avenir, la plupart des plans stratégiques ont des éléments communs.

Les experts conseillent généralement aux dirigeants de comprendre leur marché et la place qu’ils y occupent, ainsi que leurs clients existants et leurs prospects. Ils doivent également analyser là où va le marché, pour anticiper le potentiel de « disruption numérique » et la manière dont ils peuvent devenir ce « disrupteur » (celui qui change les règles) plutôt que celui qui est « disrupté » par d’autres.

Les décideurs peuvent s’appuyer sur leur propre expertise, mais aussi sur les recherches et les rapports externes pour développer une vision de ce que leur organisation devrait être à l’avenir – y compris la manière dont leurs produits et leurs services devraient évoluer pour répondre aux besoins et aux attentes des clients.

Ils ont ensuite besoin d’établir une feuille de route qui détaille le moyen de passer de la situation actuelle à la situation future.

Dans le cadre de cette planification stratégique, les dirigeants doivent évaluer les capacités actuelles de leur organisation – des compétences des employés à la pile IT existante – puis définir les capacités supplémentaires qui seront nécessaires, et enfin élaborer un plan pour obtenir ces capacités.

Une transformation digitale réussie s’appuie sur un mélange de disciplines traditionnelles – comme la gestion du changement et la gestion de projet – et de nouvelles techniques – comme les méthodologies « Agiles » – pour faire évoluer l’organisation, sa culture, son capital humain et ses technologies.

En outre, les dirigeants doivent trouver un moyen d’évaluer et d’évoluer en permanence, car les experts s’accordent à dire que la transformation digitale n’est pas un exercice ponctuel, mais un état d’esprit et un processus itératifs permanents. Bénéfices de la transformation digitale

La transformation digitale permet, par définition, aux organisations de réussir dans notre ère numérique. Pour les entreprises, cette réussite se traduit par des revenus et des profits plus importants. Pour d’autres types d’organisations, comme les institutions à but non lucratif, le succès se mesurera avec des KPI sur la manière dont elles prennent mieux en charge leurs parties prenantes (donateurs, adhérents, partenaires publics, etc.).

Mais les initiatives de transformation offrent de nombreux autres avantages :

   une plus grande productivité des collaborateurs – un saut qui vient souvent de l’utilisation accrue des technologies d’automatisation et de la robotique (comme le RPA), ainsi que du machine learning et de l’IA ;
   une plus grande satisfaction des clients, qui résulte généralement d’une attention plus soutenue portée à la compréhension des besoins des clients et au déploiement de la technologie requise pour répondre à ces besoins ;
   plus d’agilité, à mesure que la culture et les capacités d’une organisation évoluent pour accompagner les changements en cours.

Tous ces gains contribuent en fait à alimenter la transformation en cours : l’automatisation permet aux employés d’évoluer vers un travail à plus forte valeur ajoutée ; et une plus grande agilité permet de mieux identifier les opportunités et de réallouer les ressources pour les saisir. Défis et limites d’une stratégie de transformation digitale

Malgré l’évocation omniprésente de la transformation digitale dans le discours des entreprises, la majorité des organisations n’ont en fait pas (encore) réussi à la mener à bien. Un célèbre rapport de McKinsey montre que « 70 % des programmes de changement complexes à grande échelle n’atteignent pas les objectifs fixés ».

Dans cette étude, McKinsey écrit que « les facteurs d’échecs les plus courants sont le manque d’implication des employés, un mauvais soutien du management, une collaboration interfonctionnelle médiocre, voire inexistante, et un manque de clarté sur les responsabilités de chacun ».

« En outre, pour maintenir l’impact d’une transformation sur le long terme, il faut généralement une remise à plat des mentalités et des comportements, ce que peu de dirigeants savent faire », ajoute McKinsey.

Les principales barrières à la réussite de la transformation digitale sont généralement :

   des appréhensions relatives à la confidentialité et à la sécurité des données ;
   les contraintes budgétaires ;
   des compétences et une expertise internes limitées ;
   les changements réglementaires et législatifs, et la conformité ;
   une culture numérique immature.

De nombreuses organisations ont encore des technologies anciennes (dites « legacy ») qui ne sont pas facilement remplaçables. Beaucoup d’organisations ne peuvent pas – ou ne veulent pas – allouer le budget nécessaire à la transformation de l’IT et au remplacement de ces technologies aujourd’hui très datées.

Du côté des ressources humaines, beaucoup ont également du mal à trouver des dirigeants qualifiés, que ce soit pour leur direction opérationnelle ou pour siéger au conseil d’administration afin de guider de telles initiatives.

Beaucoup ont aussi du mal à recruter des professionnels de l’IT qui ont le bon mélange d’expertises informatiques et de connaissances de leur secteur et métiers – deux compétences qui permettent de concrétiser les projets de transformation sur le terrain.

Mais même les organisations qui disposent des ressources adéquates sont confrontées à des défis dans le cadre de la transformation de leurs processus et de leurs produits. Elles doivent modifier de nombreux éléments en interne : des projets qui nécessitent un financement et un management adéquats – souvent transverse – pour en assurer le succès.

Par exemple, une organisation peut avoir besoin de mettre en œuvre des technologies modernes de gestion de la chaîne d’approvisionnement (supply chain management) tout en déployant des capteurs (IoT) et en appliquant du machine learning (pour faire du prédictif) afin d’obtenir des informations (insights) sur la façon dont les clients utilisent ses produits et partager celles-ci avec ses équipes R&D, son marketing digital et ses commerciaux (qui ont chacun des outils IT dédiés).

Les dirigeants doivent créer une culture organisationnelle ouverte à l’amélioration continue et où toutes les parties prenantes adhèrent à cette transformation permanente. Chacun doit être prêt à identifier et à abandonner des processus dépassés et inefficaces et à les remplacer par de meilleures solutions.

Sans une telle culture et sans une telle mobilisation, une organisation peut se retrouver à déployer des technologies modernes qui permettent, sur le papier, des processus plus efficaces – comme des inventaires en temps réels ou le traitement automatisé des paiements – mais sans véritablement transformer son fonctionnement.

Termes connexes

Machine Learning

   L’apprentissage statistique (en anglais, Machine Learning) – ou dit encore apprentissage automatique – est un type d’intelligence... Voir la définition complète 

Recherche cognitive

   La recherche cognitive (ou « cognitive search » en anglais) est une nouvelle génération de moteurs de recherche, qui s’appuie sur... Voir la définition complète 

Transformation digitale

   La transformation digitale – ou transformation numérique – est l’incorporation de technologies dans les produits, les processus ... Voir la définition complète