L'intelligence artificielle

Types et techniques d'IA

Depuis quelques décennies, l’intelligence artificielle (IA) est passée du statut de rêve de science-fiction à celui de réalité omniprésente dans nos vies quotidiennes. Elle anime les moteurs de recherche, alimente les recommandations sur Netflix, aide les médecins dans leurs diagnostics, pilote des voitures…

Elle a aussi généré le paragraphe que vous venez de lire mais c'est promis, la suite sera écrite par un humain.

 

Présentation

L’IA est un ensemble de techniques qui s’inspirent de l’intelligence humaine pour faire fonctionner des machines (ordinateurs, objets connectés…). Comme des humains, les machines apprennent, raisonnent et peuvent prendre des décisions.

Elle trouve ses prémices dans les années 50 mais c’est surtout avec le big data et l’évolution de la puissance de calcul dans les années 2010 qu’elle s’est affirmée. D’abord transparente pour les utilisateurs qui ne se posaient pas la question de savoir comment un chatbot répondait à leurs questions, elle est devenue immensément populaire en 2023 avec la mise à disposition gratuite pour tous les internautes de l’agent conversationnel ChatGPT par Open AI.

On distingue deux catégories d’IA.

L’IA faible, ou étroite, ne peut accomplir que des tâches spécifiques. Un moteur de recommandation, un assistant vocal ou la création d’image relèvent de cette catégorie. Exemple d’image générée par IA :

image

L’IA forte, ou générale, est encore un projet. Elle aurait toutes les compétences d’un être humain.

 

Typologies

Dans les années 1990-2000, on classait l’IA en cinq grandes branches : la recherche (trouver la meilleure solution à un problème donné), l’apprentissage (branche devenue centrale, nous y reviendrons), la planification (établissement d’une séquence d’actions, utile en robotique ou en IA embarquée), le raisonnement automatique (qui manipule des faits logiques pour en déduire d’autres) et le traitement du langage naturel (désormais connu de tous).

Aujourd’hui, l’IA est plutôt classée selon les approches…

  • L’IA symbolique (ou déductive) : elle englobe les raisonnements logiques, la planification, la recherche et les systèmes experts.

    Ces derniers peuvent être considérés comme une IA un peu dépassée. Imaginez d’énormes arbres de décision, traduction informatique d’un raisonnement humain capable de résoudre des problèmes complexes. Il n’y a pas d’apprentissage mais des conditions qui s’enchaînent. On peut préférer la solution du système expert à un autre type d’IA lorsqu’on a besoin de tracer une décision (maintenance d’avions, par exemple).

  • L’IA connexionniste (ou statistique) : l’apprentissage automatique ou machine learning est actuellement au cœur des progrès de l’IA. À partir de très nombreuses données, l’IA peut reconnaître l’image d’un cheval ou évaluer le risque de non-remboursement d’un crédit.

    L’apprentissage profond ou deep learning est un sous-domaine du machine learning. Il se fonde sur la technique des réseaux de neurones. Ceux-ci imitent, en le simplifiant, le cerveau humain. C’est lorsque l’apprentissage s’appuie sur un réseau de plusieurs couches de neurones que l’on parle de deep learning.

    Cette technique a permis les grandes avancées des années 2020 : reconnaissance vocale, génération d’images, traduction automatique, IA générative (ChatGPT…), etc.

  • L’IA bio-inspirée (ou computationnelle) : ces techniques, inspirées du monde vivant, comportent les algorithmes génétiques et plus généralement les apprentissages par renforcement évolutionnaire.

    Le principe de l’algorithme génétique est de simuler l’évolution naturelle. On crée d’abord une population de solutions candidates (des vecteurs, par exemple). Celle-ci se reproduit et, à chaque génération, on évalue les individus selon une fonction d’adaptation. Ceux-ci sont croisés pour obtenir une génération mieux adaptée. Quelques mutations sont introduites. Les générations se succèdent jusqu’à ce que l’on obtienne une solution satisfaisante.

  • L’IA hybride combine plusieurs de ces approches.

Mentionnons une autre typologie, établie à partir des domaines d’application :

  • La vision par ordinateur (exemple : une voiture autonome reconnaît les panneaux de signalisation et apprécie les distances)

  • Le traitement du langage naturel (exemple : chatbots)

  • Les robots autonomes (exemple : Curiosity, robot explorateur de Mars, qui apprend par renforcement comment explorer une terre inconnue)

  • Les systèmes de recommandation, qui proposent des contenus à des utilisateurs en fonction de l’historique d’usage (Netflix, TikTok…)

  • L’IA générative (texte, images, audio, vidéo) qui crée un contenu original.

 

Types d’apprentissage

Notons trois types d’apprentissage pour alimenter un logiciel d’IA :

  • Supervisé : les données d’apprentissage sont définies. Par exemple, on précise à la machine que tel animal est un cheval ou de quel dossier de crédit s’est terminé au service contentieux. On valide la bonne prédictivité sur un échantillon de test. C’est le domaine des réseaux de neurones mais aussi de techniques qui existaient avant l’IA (régression, arbres de décision…). C’est le type le plus utilisé pour la finance, la vision ou le langage.

    Un exemple de technique est le gradient boosting. C’est une construction de modèle à partir de plusieurs modèles faibles (arbres de décision…). À chaque étape, c’est un nouvel arbre qui est entraîné pour corriger les erreurs des arbres précédents.

  • Non supervisé : le modèle doit découvrir des structures cachées. Des réseaux de neurones peuvent aussi faire partie de cette catégorie. Là aussi, l’IA s’accompagne de techniques plus « traditionnelles » : ACP, K-means

  • Par renforcement : le modèle apprend grâce à un processus d’essais et d’erreurs. Les algorithmes génétiques et le policy gradient en font partie.

 

Intérêts et limites

Les TIC ont déjà permis d’énormes gains de productivité. Mais l’IA accélère le mouvement et étend le champ d’action des machines. Elle permet des services personnalisés (assistants virtuels…) et des progrès scientifiques alimentés par le big data. L’IA apporte aussi une aide aux personnes handicapées (reconnaissance vocale...).

L’IA s’accompagne aussi de son lot de problèmes. Sans aller jusqu’aux situations dystopiques sur lesquelles s’appuie le cinéma (derniers films de la saga Mission: Impossible…), notons pêle-mêle quelques inconvénients : l’apprentissage à partir de données biaisées, la perte de certains emplois (phénomène de destruction créatrice), l’impossibilité d’expliquer certaines décisions, la perte de savoir-faire humains, la forte consommation d’énergie… Enfin, des questions éthiques et juridiques sont posées (doit-on confier une mission militaire à une IA ? Qui est responsable d’un accident causé par une voiture sans conducteur ?).

L’Union Européenne s’est dotée d’une loi sur l’IA (IA Act). Elle porte sur des interdictions et des obligations de transparence, différentes selon le niveau de risque.

 

intelligence artificielle