L’intelligence artificielle, le futur des entreprises ?

L’intelligence artificielle, le futur des entreprises ?

Vous avez parfois l’impression que votre expérience en ligne est personnalisée de manière magique ? Que la barrière de la langue n'est plus un obstacle ?  Vous êtes toujours surpris de pouvoir converser avec des assistants virtuels tels qu’ALEXA ou SIRI ? Bienvenue dans le monde fascinant de l'intelligence artificielle, ou IA en abrégé, une révolution technologique qui façonne notre vie quotidienne de manière subtile et surprenante. L'IA, c'est tout cela et bien plus encore. C'est un domaine de l'informatique qui émerveille par sa capacité à créer des systèmes informatiques capables de résoudre des énigmes complexes qui, autrefois, étaient réservées aux esprits humains les plus brillants. Et le plus incroyable, c'est que l'IA est déjà partout dans votre quotidien, même si vous ne vous en rendez pas toujours compte.

Cette fiche va vous permettre d’en apprendre davantage sur l'intelligence artificielle, les différents concepts qui y sont associés et la manière dont cette technologie influence notre quotidien et ce qu’elle pourrait signifier pour notre avenir.

1. L’intelligence artificielle

  1.  A. Définition 

L’intelligence artificielle (IA) désigne un domaine de l’informatique consacré à la création de systèmes informatiques capables d’exécuter des tâches nécessitant généralement des capacités cognitives humaines. Les logiciels et algorithmes conçus par l’IA doivent être capables de simuler des processus mentaux humains, tels que, entre autres, la reconnaissance visuelle ou le traitement du langage naturel afin de comprendre des données, résoudre des problèmes, prendre des décisions et s’adapter à de nouvelles situations. 

L’intelligence artificielle repose sur des techniques telles que le machine learning (ou apprentissage automatique), le deep learning (les réseaux de neurones artificiels) et le traitement automatique du langage naturel pour analyser d’énormes quantités de données, en extraire des modèles et informations pertinentes.

  1. B. Origine et évolution de l’IA

L'histoire de l'intelligence artificielle s'étend sur un peu plus de 60 ans et est une discipline multidisciplinaire qui vise à reproduire les capacités cognitives humaines en utilisant des sciences, des théories et des techniques telles que la logique mathématique, les statistiques, la neurobiologie computationnelle et l'informatique.

  • Les Pionniers de l'IA 

L'IA a émergé après la Seconde Guerre mondiale, notamment grâce aux travaux de Norbert Wiener, un pionnier de la cybernétique, qui cherchait à unifier la théorie mathématique, l'électronique et l'automatisation. En 1943, Warren McCulloch et Walter Pitts ont développé le premier modèle mathématique du neurone biologique.

  • John Von Neumann et Alan Turing

 Dans les années 1950, John Von Neumann et Alan Turing ont joué un rôle fondamental en formalisant l'architecture des ordinateurs modernes et en démontrant leur capacité à exécuter des programmes. Turing a également posé la question de l'intelligence des machines dans son célèbre article de 1950, introduisant le concept du "test de Turing" pour évaluer l'intelligence artificielle.

  • John McCarthy et la Conférence de Dartmouth

Le terme "intelligence artificielle" a été popularisé par John McCarthy du MIT, qui a défini l'IA comme la construction de programmes informatiques capables de réaliser des tâches exigeant des processus mentaux de haut niveau. La conférence de Dartmouth en 1956 est considérée comme fondatrice de la discipline.

  • Stagnation de l’IA

Dans les années 70, le regard de l’opinion publique sur l’IA n’est pas favorable :  l’intelligence artificielle est vivement critiquée et subit de fortes réductions de financement (ils sembleraient que les chercheurs aient minimisés les défis associés à son développement).  Il y a néanmoins de nouvelles idées qui émergent, notamment dans le domaine de la programmation logique.

  • Les systèmes Experts

Dans les années 1980 et 1990, l'IA a connu une période axée sur les systèmes experts, des systèmes conçus pour reproduire les processus cognitifs d'experts dans des domaines spécifiques,tels que DENDRAL et MYCIN, qui utilisaient un moteur d'inférence pour résoudre des problèmes spécifiques. Cependant, ces systèmes étaient coûteux à maintenir et avaient leurs limites.

  • L'Avènement du Deep Learning 

Depuis 2010, l'IA connaît un nouvel essor grâce à l'accès à d'énormes quantités de données et à la puissance de calcul accrue des ordinateurs. Les techniques d'apprentissage profond (deep learning), promues notamment par Geoffrey Hinton, Yoshua Bengio et Yann LeCun, ont révolutionné l'IA en permettant aux machines d'apprendre par elles-mêmes grâce à la corrélation et la classification des données. Cela a conduit à des avancées notables dans des domaines tels que la reconnaissance vocale, la reconnaissance d'images et la recherche d'informations.

  • L'IA actuelle et future 

L'intelligence artificielle continue de progresser à un rythme soutenu, avec des réalisations notables telles que la victoire d'AlphaGo contre les champions mondiaux de Go en 2016. En parallèle, Google, en tant que premier moteur de recherche mondial, a joué un rôle fondamental dans le développement et la promotion de l'intelligence artificielle. La société a révolutionné la recherche en ligne en mettant en place une IA capable de saisir les besoins, les préférences et les intentions des utilisateurs.

Cependant, il reste encore de nombreux défis à relever afin de créer des systèmes d'IA qui comprennent pleinement le texte et les intentions humaines.

2. Le machine learning

  1.  A. Définition 

Le machine learning, ou apprentissage automatique, est une discipline qui repose sur un principe essentiel : l’entraînement de modèles sur des échantillons de données. Ces modèles sont ensuite utilisés pour prendre des décisions et faire des prédictions sur de nouvelles données inconnues. En d’autres termes, il s’agit de prédire l’avenir en se basant sur les exemples du passé. 

Les performances des modèles de machines learning vont fortement dépendre de la qualité des données sur lesquelles ils ont été formés; des données d'entraînement de hautes qualités donneront des prédictions plus précises. Le machine learning nécessite une intervention humaine importante pour extraire les caractéristiques pertinentes des données, traiter les informations et classifier les données afin de garantir que le modèle apprend de manière appropriée. 

Par exemple, si votre modèle de machine learning doit être capable de reconnaître automatiquement des images de chiens parmi une collection de photos, il va d’abord falloir ;

  1. 1. Constituer un ensemble de données provenant de diverses sources (web, bases de données d’images,...) contenant un grand nombre d’images de chiens ainsi que des images ne contenant aucun chien.

  2. 2. Ensuite, un humain doit examiner et annoter chaque image (association d’une étiquette) et indiquer si elle contient ou non un chien. 

  3. 3. Ces images annotées forment un ensemble d’entraînement qui est utilisé pour former un modèle de machine learning à reconnaître des chiens.  

  4. 4. Après l'entraînement, le modèle doit être testé sur un ensemble de validation afin d’évaluer ses performances et si besoin, ré-entraîner le modèle après avoir fait les ajustements nécessaires.

  1. B. Les types de machine learning 

L’apprentissage automatique se décline en plusieurs types, chacun adapté à un contexte spécifique : 

  • l’apprentissage supervisé : chaque ensemble de données est associé à une étiquette ( aussi appelée “cible”) et vont constituer les données d'entraînement pour former le modèle à prédire l’étiquette correcte pour les nouveaux points de données. 

  • - l’apprentissage non supervisé : il n’y a aucune étiquette associée aux données de formation. Le modèle va plutôt chercher les structures ou relations cachées dans les données.

  • l’apprentissage par renforcement : l’apprentissage se fait à partir de l’interaction avec un environnement, au moyen de récompenses et pénalités comme moyens de retour.

  • - l’apprentissage semi supervisé :  cet apprentissage se fait grâce à l’exploitation de données étiquetées et non étiquetées.

  1. 3. Le deep learning

    1. A. Définition

Le deep learning, souvent désigné par “apprentissage profond” est une sous-catégorie de l'apprentissage automatique (machine learning). Il est qualifié de “profond” en raison de son niveau d’avancement supérieur car il s'appuie sur un réseau de neurones artificiels pour simuler le fonctionnement de l'intelligence humaine. 

Le deep learning nécessite un très grand ensemble de données et une très grande puissance de calcul car il modélise des données complexes. Contrairement au machine learning, il ne nécessite pas d’extraction manuelles des caractéristiques car il apprend directement à partir des données brutes.

  1. Un réseau de neurones profonds

Un réseau de neurones artificiels est constitué de nombreux nœuds de traitement et chaque nœud  se connecte à un autre, comme les neurones d’un cerveau humain ! La connexion d’un nœud peut se faire à différents autres nœuds en de nombreuses couches, au-dessus ou en dessous de lui. Un réseau neuronal profond, autrement dit de deep learning, comprend trois types de couches (appelées “couches nodales”) : 

  1. la couche d'entrée (qui concerne les données d’entrée), 

  2. les couches cachées (qui peuvent être multiples, et qui concernent les valeurs transmises entre les neurones)

  3. et la couche de sortie (qui concerne les résultats et prédictions).

Illustration d’un réseau de neurones artificiels provenant du site IBM
Illustration d’un réseau de neurones artificiels provenant du site IBM

Chaque nœud est essentiel dans le réseau neuronal, ils reçoivent chacun des signaux des autres nœuds et chaque signal est pondéré en fonction de son importance, et ces pondérations sont appelées "poids". Le nœud effectue ensuite une somme pondérée de ces signaux, puis applique une règle : si la somme dépasse un certain seuil, le nœud est activé et envoie un signal aux nœuds suivants. Sinon, il n’envoie rien. 

Lorsque ces réseaux de neurones artificiels apprennent à faire des choses comme reconnaître des images ou comprendre le langage, ils ont besoin d'énormément de données. Ils passent par ces données à plusieurs reprises, ajustant les poids à chaque itération pour devenir plus précis dans leurs décisions. Chaque erreur est examinée, et les poids sont modifiés pour minimiser ces erreurs. En d'autres termes, ces réseaux apprennent de leurs erreurs. Chaque couche nodale s’entraîne donc en utilisant les résultats générés par la couche précédente.. Plus le réseau comporte de couches, plus il saura reconnaître et traiter des informations complexes.

  1. 4. Application de l’IA dans les entreprises

  2. La reconnaissance d’images

Le deep learning a considérablement amélioré les performances de la reconnaissance d’images, que ce soit pour identifier des lieux, des individus ou et des objets dans une image fixe ou dans une vidéo. Cross Data souligne que cela a des répercussions positives sur l’optimisation des processus et de la production. En effet, il devient possible de détecter des éléments clés afin de prédire une situation, ce qui peut conduire à l’automatisation de divers processus métier. Cette technologie est largement exploitée dans les domaines de la reconnaissance faciale (voir le site DataSciencetest pour son fonctionnement), la détection d’objets dans les véhicules autonomes et la catégorisation d’images sur les réseaux sociaux. 

Un autre cas d’application du traitement d’images est dans le domaine médical. On peut maintenant repérer des mélanomes sur les photos de peau, dépister des rétinopathies diabétique via des images de rétines, des cancers du sein,...

  1. Le traitement du langage naturel (NLP)

Le traitement du langage naturel est un domaine de l’IA  qui permet aux ordinateurs de comprendre le langage humain. Le deep learning permet d’extraire automatiquement le sens d’un texte grâce aux algorithmes et est utilisé dans tout ce qui concerne la génération de texte, l’analyse des sentiments, la réponse aux questions, la traduction automatique,... Il vient améliorer les performances des systèmes de traitement automatique du langage naturel. On retrouve son utilisation dans les assistants vocaux (Siri, Alexa, Google Assistant,...) et plus largement les chatbots par exemple, qui utilisent le deep learning pour comprendre et répondre par la parole humaine.

  1. Les véhicules autonomes 

Le deep learning est utilisé pour modéliser le monde environnant d’une voiture autonome, permettant à celle-ci de prendre des décisions de conduite. Ces modèles s’appuient sur une grande quantité de données et d’image de conduite, nécessitant une puissance de calcul élevée afin de permettre à la voiture de prendre continuellement des décisions sans interruption.

  1. La recommandation de produit et publicité en ligne

Les algorithmes vont se baser sur votre historique d’achat, vos recherches en ligne ,.. afin de vous recommander des produits susceptibles de vous intéresser. D’ailleurs, Netflix et Amazon utilisent une infrastructure de machine learning afin de vous proposer des films et produits en fonction de vos préférences passées. Il en est de même pour les plateformes publicitaires. Facebook va vous proposer des annonces en fonction de vos intérêts et de votre comportement de navigation.

  1. La détection de fraude 

L’intelligence artificielle, permet, dans le domaine financier, de prévoir les tendances du marché, de gérer les risques,... Elle est surtout avancée et implantée dans les banques pour détecter les transactions frauduleuses et anormales en analysant les modèles d’activités des clients. Mastercard compte 2,2 milliards de cartes en circulation dans 330 pays. Grâce au machine learning, le système peut analyser plus de 160 millions de transactions par heure en quelques millisecondes et appliquer jusqu’à 1,9 million de règles différentes pour vérifier chaque transaction.  

  1. Médecine et santé 

Selon Briganti, les algorithmes d'IA en médecine peuvent apporter une analyse approfondie des données des patients, permettant d'identifier des modèles et des tendances potentiellement complexes, échappant parfois à la détection humaine. Des robots sont désormais utilisés en chirurgie pour assister les médecins ou effectuer des opérations difficiles (Da Vinci, Hearlander,...). L’intelligence artificielle peut également alléger la charge de travail des médecins en automatisant des tâches fastidieuses et chronophages. De plus, l'IA a la capacité d'explorer une vaste quantité de littérature médicale pour mettre en lumière des articles et des résultats pertinents liés à un patient spécifique ou à une condition médicale particulière.

L’utilisation croissante de l’intelligence artificielle en médecine soulève de plus en plus de questions éthiques et pratiques. L’INSERM indique notamment que si un professionnel de la santé est guidé par un système décisionnel automatique, il se doit d’en informer le patient afin de lui expliquer les raisons qui sous-tendent cette décision et le processus qui y a mené. Le praticien devrait avoir la liberté de rejeter les recommandations faites par l’IA s’il juge celles-ci erronées, de même que le patient devrait pouvoir refuser une recommandation provenant de l’IA. La question de la responsabilité légale se pose en cas de divergences entre les recommandations de l’IA et les normes générales. L’INSERM souligne la nécessité de considérer la formation des professionnels de la santé à l’utilisation de l’IA : elle ne remplace pas leur expertise mais elle devient incontournable dans le domaine.

  1. La traduction

Les logiciels de traduction utilisant le machine learning  font ce qu’on appelle de la traduction automatique statistique : ils utilisent des traductions humaines existantes et recherchent des modèles statistiques. Au lieu de règles linguistiques, ces logiciels se basent sur des prédictions statistiques afin de traduire de nouveaux textes; et ces prédictions reposent sur la probabilité que certaines phrases ou mots se correspondent à d’autres dans la langue cible. Un exemple de ces logiciels est Google Translate.  Dans l’illustration ci-dessous, les zones jaunes marquent les segments traduits, montrant une traduction correcte pour la première phrase mais une confusion dans la deuxième, où "a sauté" devrait être traduit par "skipped" dans les deux cas. Dans la première phrase, "sauté un repas" est traduit comme un seul segment, éliminant l'ambiguïté. Cependant, dans la deuxième phrase, "a sauté" est dissocié de "un repas", créant une ambiguïté que le système résout en choisissant la traduction avec le score le plus élevé. Pour corriger cela, il faudrait tenir compte du contexte global.

Illustration de la traduction automatique statistique avec Google Translate provenant du site Interstices
Illustration de la traduction automatique statistique avec Google Translate provenant du site Interstices
  1. Automatisation industrielle, maintenance prédictive et surveillance des équipements

De plus en plus d’entreprises manufacturières utilisent des algorithmes de machine learning  et de deep learning entraînés avec des données de l’Internet industriel des objets (IIoT) pour prédire les pannes de machines, les défaillances d’un équipement et planifier la maintenance avant qu'elles ne surviennent. L’intelligence artificielle est capable de surveiller en temps réel l’état des équipements et d’identifier des comportements inhabituels et de diagnostiquer divers types de dysfonctionnement. Les avantages de l’IA pour une entreprise est qu’elle apprend des données historiques et s’adapte aux évolutions, elle offre donc une solution flexible et évolutive. De plus, la maintenance prédictive permet de réduire les coûts de maintenance et les pertes relatives aux interruptions de services.

  1. La tarification dynamique 

L’optimisation intelligente des prix grâce au machine learning intéresse de nombreux secteurs, surtout l’industrie du voyage, l’hôtellerie, les compagnies aériennes,... car il permet d’avoir un ajustement régulier et en temps réel des prix en fonction des besoins et tendances du marchés, des attentes et comportements des clients, de la demande actuelle,  des données historiques sur les prix, des niveaux de stocks, des évènements saisonniers, de la concurrence,... L’objectif est d’optimiser les prix afin de maximiser les revenus ou les marges bénéficiaires. La tarification dynamique peut être personnalisée en fonction du profil du client grâce aux données relatives au comportement d’achat, les préférences individuelles,... 

Besoin d’une aide supplémentaire ?

Le Hub-C dans le cadre de ses services d’accompagnement numérique organise des workshops et groupes de travail en lien avec les nouvelles technologies de prototypages.  Vous souhaitez un accompagnement pour votre projet innovant ou vous souhaitez participer à un prochain workshop? N'hésitez pas à contacter un membre du Hub


Vous avez une question spécifique à propos d’une fiche? Elles sont réalisées par les experts du CETIC (Centre d'Excellence en Technologies de l'Information et de la Communication), un  centre de recherche appliquée en informatique situé à Charleroi. Vous trouverez toutes les coordonnées ici.

Télécharger le PDF
Body

Vous avez parfois l’impression que votre expérience en ligne est personnalisée de manière magique ? Que la barrière de la langue n'est plus un obstacle ?  Vous êtes toujours surpris de pouvoir converser avec des assistants virtuels tels qu’ALEXA ou SIRI ? Bienvenue dans le monde fascinant de l'intelligence artificielle, ou IA en abrégé, une révolution technologique qui façonne notre vie quotidienne de manière subtile et surprenante. L'IA, c'est tout cela et bien plus encore. C'est un domaine de l'informatique qui émerveille par sa capacité à créer des systèmes informatiques capables de résoudre des énigmes complexes qui, autrefois, étaient réservées aux esprits humains les plus brillants. Et le plus incroyable, c'est que l'IA est déjà partout dans votre quotidien, même si vous ne vous en rendez pas toujours compte.

Cette fiche va vous permettre d’en apprendre davantage sur l'intelligence artificielle, les différents concepts qui y sont associés et la manière dont cette technologie influence notre quotidien et ce qu’elle pourrait signifier pour notre avenir.

1. L’intelligence artificielle

  1.  A. Définition 

L’intelligence artificielle (IA) désigne un domaine de l’informatique consacré à la création de systèmes informatiques capables d’exécuter des tâches nécessitant généralement des capacités cognitives humaines. Les logiciels et algorithmes conçus par l’IA doivent être capables de simuler des processus mentaux humains, tels que, entre autres, la reconnaissance visuelle ou le traitement du langage naturel afin de comprendre des données, résoudre des problèmes, prendre des décisions et s’adapter à de nouvelles situations. 

L’intelligence artificielle repose sur des techniques telles que le machine learning (ou apprentissage automatique), le deep learning (les réseaux de neurones artificiels) et le traitement automatique du langage naturel pour analyser d’énormes quantités de données, en extraire des modèles et informations pertinentes.

  1. B. Origine et évolution de l’IA

L'histoire de l'intelligence artificielle s'étend sur un peu plus de 60 ans et est une discipline multidisciplinaire qui vise à reproduire les capacités cognitives humaines en utilisant des sciences, des théories et des techniques telles que la logique mathématique, les statistiques, la neurobiologie computationnelle et l'informatique.

  • Les Pionniers de l'IA 

L'IA a émergé après la Seconde Guerre mondiale, notamment grâce aux travaux de Norbert Wiener, un pionnier de la cybernétique, qui cherchait à unifier la théorie mathématique, l'électronique et l'automatisation. En 1943, Warren McCulloch et Walter Pitts ont développé le premier modèle mathématique du neurone biologique.

  • John Von Neumann et Alan Turing

 Dans les années 1950, John Von Neumann et Alan Turing ont joué un rôle fondamental en formalisant l'architecture des ordinateurs modernes et en démontrant leur capacité à exécuter des programmes. Turing a également posé la question de l'intelligence des machines dans son célèbre article de 1950, introduisant le concept du "test de Turing" pour évaluer l'intelligence artificielle.

  • John McCarthy et la Conférence de Dartmouth

Le terme "intelligence artificielle" a été popularisé par John McCarthy du MIT, qui a défini l'IA comme la construction de programmes informatiques capables de réaliser des tâches exigeant des processus mentaux de haut niveau. La conférence de Dartmouth en 1956 est considérée comme fondatrice de la discipline.

  • Stagnation de l’IA

Dans les années 70, le regard de l’opinion publique sur l’IA n’est pas favorable :  l’intelligence artificielle est vivement critiquée et subit de fortes réductions de financement (ils sembleraient que les chercheurs aient minimisés les défis associés à son développement).  Il y a néanmoins de nouvelles idées qui émergent, notamment dans le domaine de la programmation logique.

  • Les systèmes Experts

Dans les années 1980 et 1990, l'IA a connu une période axée sur les systèmes experts, des systèmes conçus pour reproduire les processus cognitifs d'experts dans des domaines spécifiques,tels que DENDRAL et MYCIN, qui utilisaient un moteur d'inférence pour résoudre des problèmes spécifiques. Cependant, ces systèmes étaient coûteux à maintenir et avaient leurs limites.

  • L'Avènement du Deep Learning 

Depuis 2010, l'IA connaît un nouvel essor grâce à l'accès à d'énormes quantités de données et à la puissance de calcul accrue des ordinateurs. Les techniques d'apprentissage profond (deep learning), promues notamment par Geoffrey Hinton, Yoshua Bengio et Yann LeCun, ont révolutionné l'IA en permettant aux machines d'apprendre par elles-mêmes grâce à la corrélation et la classification des données. Cela a conduit à des avancées notables dans des domaines tels que la reconnaissance vocale, la reconnaissance d'images et la recherche d'informations.

  • L'IA actuelle et future 

L'intelligence artificielle continue de progresser à un rythme soutenu, avec des réalisations notables telles que la victoire d'AlphaGo contre les champions mondiaux de Go en 2016. En parallèle, Google, en tant que premier moteur de recherche mondial, a joué un rôle fondamental dans le développement et la promotion de l'intelligence artificielle. La société a révolutionné la recherche en ligne en mettant en place une IA capable de saisir les besoins, les préférences et les intentions des utilisateurs.

Cependant, il reste encore de nombreux défis à relever afin de créer des systèmes d'IA qui comprennent pleinement le texte et les intentions humaines.

2. Le machine learning

  1.  A. Définition 

Le machine learning, ou apprentissage automatique, est une discipline qui repose sur un principe essentiel : l’entraînement de modèles sur des échantillons de données. Ces modèles sont ensuite utilisés pour prendre des décisions et faire des prédictions sur de nouvelles données inconnues. En d’autres termes, il s’agit de prédire l’avenir en se basant sur les exemples du passé. 

Les performances des modèles de machines learning vont fortement dépendre de la qualité des données sur lesquelles ils ont été formés; des données d'entraînement de hautes qualités donneront des prédictions plus précises. Le machine learning nécessite une intervention humaine importante pour extraire les caractéristiques pertinentes des données, traiter les informations et classifier les données afin de garantir que le modèle apprend de manière appropriée. 

Par exemple, si votre modèle de machine learning doit être capable de reconnaître automatiquement des images de chiens parmi une collection de photos, il va d’abord falloir ;

  1. 1. Constituer un ensemble de données provenant de diverses sources (web, bases de données d’images,...) contenant un grand nombre d’images de chiens ainsi que des images ne contenant aucun chien.

  2. 2. Ensuite, un humain doit examiner et annoter chaque image (association d’une étiquette) et indiquer si elle contient ou non un chien. 

  3. 3. Ces images annotées forment un ensemble d’entraînement qui est utilisé pour former un modèle de machine learning à reconnaître des chiens.  

  4. 4. Après l'entraînement, le modèle doit être testé sur un ensemble de validation afin d’évaluer ses performances et si besoin, ré-entraîner le modèle après avoir fait les ajustements nécessaires.

  1. B. Les types de machine learning 

L’apprentissage automatique se décline en plusieurs types, chacun adapté à un contexte spécifique : 

  • l’apprentissage supervisé : chaque ensemble de données est associé à une étiquette ( aussi appelée “cible”) et vont constituer les données d'entraînement pour former le modèle à prédire l’étiquette correcte pour les nouveaux points de données. 

  • - l’apprentissage non supervisé : il n’y a aucune étiquette associée aux données de formation. Le modèle va plutôt chercher les structures ou relations cachées dans les données.

  • l’apprentissage par renforcement : l’apprentissage se fait à partir de l’interaction avec un environnement, au moyen de récompenses et pénalités comme moyens de retour.

  • - l’apprentissage semi supervisé :  cet apprentissage se fait grâce à l’exploitation de données étiquetées et non étiquetées.

  1. 3. Le deep learning

    1. A. Définition

Le deep learning, souvent désigné par “apprentissage profond” est une sous-catégorie de l'apprentissage automatique (machine learning). Il est qualifié de “profond” en raison de son niveau d’avancement supérieur car il s'appuie sur un réseau de neurones artificiels pour simuler le fonctionnement de l'intelligence humaine. 

Le deep learning nécessite un très grand ensemble de données et une très grande puissance de calcul car il modélise des données complexes. Contrairement au machine learning, il ne nécessite pas d’extraction manuelles des caractéristiques car il apprend directement à partir des données brutes.

  1. Un réseau de neurones profonds

Un réseau de neurones artificiels est constitué de nombreux nœuds de traitement et chaque nœud  se connecte à un autre, comme les neurones d’un cerveau humain ! La connexion d’un nœud peut se faire à différents autres nœuds en de nombreuses couches, au-dessus ou en dessous de lui. Un réseau neuronal profond, autrement dit de deep learning, comprend trois types de couches (appelées “couches nodales”) : 

  1. la couche d'entrée (qui concerne les données d’entrée), 

  2. les couches cachées (qui peuvent être multiples, et qui concernent les valeurs transmises entre les neurones)

  3. et la couche de sortie (qui concerne les résultats et prédictions).

Illustration d’un réseau de neurones artificiels provenant du site IBM
Illustration d’un réseau de neurones artificiels provenant du site IBM

Chaque nœud est essentiel dans le réseau neuronal, ils reçoivent chacun des signaux des autres nœuds et chaque signal est pondéré en fonction de son importance, et ces pondérations sont appelées "poids". Le nœud effectue ensuite une somme pondérée de ces signaux, puis applique une règle : si la somme dépasse un certain seuil, le nœud est activé et envoie un signal aux nœuds suivants. Sinon, il n’envoie rien. 

Lorsque ces réseaux de neurones artificiels apprennent à faire des choses comme reconnaître des images ou comprendre le langage, ils ont besoin d'énormément de données. Ils passent par ces données à plusieurs reprises, ajustant les poids à chaque itération pour devenir plus précis dans leurs décisions. Chaque erreur est examinée, et les poids sont modifiés pour minimiser ces erreurs. En d'autres termes, ces réseaux apprennent de leurs erreurs. Chaque couche nodale s’entraîne donc en utilisant les résultats générés par la couche précédente.. Plus le réseau comporte de couches, plus il saura reconnaître et traiter des informations complexes.

  1. 4. Application de l’IA dans les entreprises

  2. La reconnaissance d’images

Le deep learning a considérablement amélioré les performances de la reconnaissance d’images, que ce soit pour identifier des lieux, des individus ou et des objets dans une image fixe ou dans une vidéo. Cross Data souligne que cela a des répercussions positives sur l’optimisation des processus et de la production. En effet, il devient possible de détecter des éléments clés afin de prédire une situation, ce qui peut conduire à l’automatisation de divers processus métier. Cette technologie est largement exploitée dans les domaines de la reconnaissance faciale (voir le site DataSciencetest pour son fonctionnement), la détection d’objets dans les véhicules autonomes et la catégorisation d’images sur les réseaux sociaux. 

Un autre cas d’application du traitement d’images est dans le domaine médical. On peut maintenant repérer des mélanomes sur les photos de peau, dépister des rétinopathies diabétique via des images de rétines, des cancers du sein,...

  1. Le traitement du langage naturel (NLP)

Le traitement du langage naturel est un domaine de l’IA  qui permet aux ordinateurs de comprendre le langage humain. Le deep learning permet d’extraire automatiquement le sens d’un texte grâce aux algorithmes et est utilisé dans tout ce qui concerne la génération de texte, l’analyse des sentiments, la réponse aux questions, la traduction automatique,... Il vient améliorer les performances des systèmes de traitement automatique du langage naturel. On retrouve son utilisation dans les assistants vocaux (Siri, Alexa, Google Assistant,...) et plus largement les chatbots par exemple, qui utilisent le deep learning pour comprendre et répondre par la parole humaine.

  1. Les véhicules autonomes 

Le deep learning est utilisé pour modéliser le monde environnant d’une voiture autonome, permettant à celle-ci de prendre des décisions de conduite. Ces modèles s’appuient sur une grande quantité de données et d’image de conduite, nécessitant une puissance de calcul élevée afin de permettre à la voiture de prendre continuellement des décisions sans interruption.

  1. La recommandation de produit et publicité en ligne

Les algorithmes vont se baser sur votre historique d’achat, vos recherches en ligne ,.. afin de vous recommander des produits susceptibles de vous intéresser. D’ailleurs, Netflix et Amazon utilisent une infrastructure de machine learning afin de vous proposer des films et produits en fonction de vos préférences passées. Il en est de même pour les plateformes publicitaires. Facebook va vous proposer des annonces en fonction de vos intérêts et de votre comportement de navigation.

  1. La détection de fraude 

L’intelligence artificielle, permet, dans le domaine financier, de prévoir les tendances du marché, de gérer les risques,... Elle est surtout avancée et implantée dans les banques pour détecter les transactions frauduleuses et anormales en analysant les modèles d’activités des clients. Mastercard compte 2,2 milliards de cartes en circulation dans 330 pays. Grâce au machine learning, le système peut analyser plus de 160 millions de transactions par heure en quelques millisecondes et appliquer jusqu’à 1,9 million de règles différentes pour vérifier chaque transaction.  

  1. Médecine et santé 

Selon Briganti, les algorithmes d'IA en médecine peuvent apporter une analyse approfondie des données des patients, permettant d'identifier des modèles et des tendances potentiellement complexes, échappant parfois à la détection humaine. Des robots sont désormais utilisés en chirurgie pour assister les médecins ou effectuer des opérations difficiles (Da Vinci, Hearlander,...). L’intelligence artificielle peut également alléger la charge de travail des médecins en automatisant des tâches fastidieuses et chronophages. De plus, l'IA a la capacité d'explorer une vaste quantité de littérature médicale pour mettre en lumière des articles et des résultats pertinents liés à un patient spécifique ou à une condition médicale particulière.

L’utilisation croissante de l’intelligence artificielle en médecine soulève de plus en plus de questions éthiques et pratiques. L’INSERM indique notamment que si un professionnel de la santé est guidé par un système décisionnel automatique, il se doit d’en informer le patient afin de lui expliquer les raisons qui sous-tendent cette décision et le processus qui y a mené. Le praticien devrait avoir la liberté de rejeter les recommandations faites par l’IA s’il juge celles-ci erronées, de même que le patient devrait pouvoir refuser une recommandation provenant de l’IA. La question de la responsabilité légale se pose en cas de divergences entre les recommandations de l’IA et les normes générales. L’INSERM souligne la nécessité de considérer la formation des professionnels de la santé à l’utilisation de l’IA : elle ne remplace pas leur expertise mais elle devient incontournable dans le domaine.

  1. La traduction

Les logiciels de traduction utilisant le machine learning  font ce qu’on appelle de la traduction automatique statistique : ils utilisent des traductions humaines existantes et recherchent des modèles statistiques. Au lieu de règles linguistiques, ces logiciels se basent sur des prédictions statistiques afin de traduire de nouveaux textes; et ces prédictions reposent sur la probabilité que certaines phrases ou mots se correspondent à d’autres dans la langue cible. Un exemple de ces logiciels est Google Translate.  Dans l’illustration ci-dessous, les zones jaunes marquent les segments traduits, montrant une traduction correcte pour la première phrase mais une confusion dans la deuxième, où "a sauté" devrait être traduit par "skipped" dans les deux cas. Dans la première phrase, "sauté un repas" est traduit comme un seul segment, éliminant l'ambiguïté. Cependant, dans la deuxième phrase, "a sauté" est dissocié de "un repas", créant une ambiguïté que le système résout en choisissant la traduction avec le score le plus élevé. Pour corriger cela, il faudrait tenir compte du contexte global.

Illustration de la traduction automatique statistique avec Google Translate provenant du site Interstices
Illustration de la traduction automatique statistique avec Google Translate provenant du site Interstices
  1. Automatisation industrielle, maintenance prédictive et surveillance des équipements

De plus en plus d’entreprises manufacturières utilisent des algorithmes de machine learning  et de deep learning entraînés avec des données de l’Internet industriel des objets (IIoT) pour prédire les pannes de machines, les défaillances d’un équipement et planifier la maintenance avant qu'elles ne surviennent. L’intelligence artificielle est capable de surveiller en temps réel l’état des équipements et d’identifier des comportements inhabituels et de diagnostiquer divers types de dysfonctionnement. Les avantages de l’IA pour une entreprise est qu’elle apprend des données historiques et s’adapte aux évolutions, elle offre donc une solution flexible et évolutive. De plus, la maintenance prédictive permet de réduire les coûts de maintenance et les pertes relatives aux interruptions de services.

  1. La tarification dynamique 

L’optimisation intelligente des prix grâce au machine learning intéresse de nombreux secteurs, surtout l’industrie du voyage, l’hôtellerie, les compagnies aériennes,... car il permet d’avoir un ajustement régulier et en temps réel des prix en fonction des besoins et tendances du marchés, des attentes et comportements des clients, de la demande actuelle,  des données historiques sur les prix, des niveaux de stocks, des évènements saisonniers, de la concurrence,... L’objectif est d’optimiser les prix afin de maximiser les revenus ou les marges bénéficiaires. La tarification dynamique peut être personnalisée en fonction du profil du client grâce aux données relatives au comportement d’achat, les préférences individuelles,... 

Besoin d’une aide supplémentaire ?

Le Hub-C dans le cadre de ses services d’accompagnement numérique organise des workshops et groupes de travail en lien avec les nouvelles technologies de prototypages.  Vous souhaitez un accompagnement pour votre projet innovant ou vous souhaitez participer à un prochain workshop? N'hésitez pas à contacter un membre du Hub


Vous avez une question spécifique à propos d’une fiche? Elles sont réalisées par les experts du CETIC (Centre d'Excellence en Technologies de l'Information et de la Communication), un  centre de recherche appliquée en informatique situé à Charleroi. Vous trouverez toutes les coordonnées ici.