Qu’est-ce que l’intelligence artificielle (IA) ? Définitions et origines.

Table des matières

Depuis le 30 novembre 2022 et le lancement officiel de ChatGPT auprès du grand public, les recherches sur l’acronyme IA (intelligence artificielle) ont plus que quadruplé en France.

Pas un seul jour sans qu’un nouvel outil, un guide du meilleur prompt, ou encore un nouveau deep fake n’apparaisse. L’IA fascine autant qu’elle effraie : gain de temps et de productivité, menaces sur l’apprentissage, inquiétude sur les emplois. Pourtant, alors qu’elle s’introduit dans notre quotidien, 8 Français sur 10 ne savent pas exactement définir ce qu’est une IA. Alors…

C'est quoi une intelligence artificielle ?

La page Wikipédia consacrée à l’intelligence artificielle reprend la définition officielle de l’encyclopédie Larousse

“L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine.”

Et prolonge cette définition avec quelques exemples dont nous avons tous entendu parler.

“Les applications de l’IA incluent notamment les moteurs de recherche […], la compréhension du langage naturel, les voitures autonomes, les chatbots, les outils de génération d’images […].”

Moteurs de recherche, langage naturel, chatbots ? Intéressant, on y reviendra…

Arnault Chatel, avec qui j’ai eu le plaisir d’échanger cette année, précise également : “L’IA n’est pas une technologie à part entière mais un ensemble de technologies et d’outils.”

L’IA est donc partout, et n’a pas attendu l’avènement de ChatGPT pour s’introduire dans notre quotidien. 

Tiens d’ailleurs, pourquoi ne pas interroger ChatGPT lui-même après tout ?

Définition IA par ChatGPT

Sa réponse.

“L’intelligence artificielle (IA) est un domaine de la technologie où des ordinateurs sont conçus pour effectuer des tâches qui nécessitent normalement l’intelligence humaine. Cela inclut des choses comme résoudre des problèmes, reconnaître des images, comprendre et traduire des langues, et prendre des décisions. C’est en quelque sorte donner aux ordinateurs la capacité de penser et d’apprendre.”

Mais d’où vient l’IA ? Qui a inventé le terme intelligence artificielle ?

Avant de donner notre propre définition, revenons quelques années en arrière.

Aux origines de l'intelligence artificielle

Les sources de l’IA sont en réalité assez lointaines. Les mythes de l’Antiquité faisaient déjà référence à des créatures mécaniques et des automates. 

Par ailleurs, les travaux des Babyloniens (1800 av. JC), prolongés par ceux d’Euclide (300 av. JC), posent les bases de l’algorithmique.

“Décrypter l’algo”

D’ailleurs, d’où vient le mot algorithme ?

Au IXè siècle, la traduction des écrits de Muhammad Ibn Mūsā al-Khuwārizmī, permet d’introduire l’algèbre en Europe.

al-khwarizmi origine mot algorithme

C’est son nom latinisé Algoritmi qui est à l’origine du terme algorithme.

C’est son nom latinisé Algoritmi qui est à l’origine du terme algorithme.

Bien avant que le terme « intelligence artificielle » ne soit formulé, des penseurs comme Leibniz poursuivent cette fascination, rêvant de machines capables de décrire le raisonnement humain.

Le chemin vers l’automatisation et la programmation se prolonge au fil des inventions. La machine à calculer mécanique de Blaise Pascal en 1642.

Puis la première machine programmable conçue par Charles Babbage, et améliorée par Ada Lovelace en 1837. Les débuts de l’informatique.

Le chemin vers l’automatisation et la programmation se prolonge au fil des inventions. La machine à calculer mécanique de Blaise Pascal en 1642.

Puis la première machine programmable conçue par Charles Babbage, et améliorée par Ada Lovelace en 1837. Les débuts de l’informatique.

portrait d'Ada Lovelace
Ada Lovelace

Ces avancées technologiques posent les premières pierres de ce qui allait devenir le domaine de l’intelligence artificielle.

L'invention de l'IA

Les choses s’accélèrent au tournant de la Seconde Guerre Mondiale grâce aux travaux d’Alan Turing. Ce mathématicien et chercheur britannique propose dans un article daté de 1936 un concept “d’être calculant”. 

Il y décrit une personne virtuelle qui manipule des symboles inscrits sur les cases d’un ruban infini, selon des règles précises. La célèbre “machine de Turing” est en réalité un modèle théorique des opérations logiques de base, toujours utilisé en informatique.

photo d'Alan Turing
Alan Turing

Mais c’est en 1950 que Turing publie son article « Computing machinery and intelligence », qui fera date dans l’histoire de l’intelligence artificielle.

Il y soulève la question suivante : “les machines peuvent-elles penser ?”

Mais c’est en 1950 que Turing publie son article « Computing machinery and intelligence », qui fera date dans l’histoire de l’intelligence artificielle.

Il y soulève la question suivante : “les machines peuvent-elles penser ?”

Turing présente un jeu d’imitation dans lequel un ordinateur et un homme doivent répondre aux questions d’un interrogateur et imiter une femme. La machine réussit le fameux “test de Turing” si l’interrogateur ne parvient pas à discerner les réponses de l’homme de celles de l’ordinateur.

Le test de Turing est un marqueur important pour comprendre la définition d’une IA. La machine est considérée comme intelligente si elle parvient à simuler suffisamment bien les réponses d’un être humain, d’un point de vue sémantique.

Outre Atlantique, Vannevar Bush, chercheur au MIT, publie l’article “As we may think” en 1945. Il y plaide pour que la recherche facilite l’accès universel au savoir. Et propose un système visionnaire anticipant les principes du stockage de l’information et préfigurant les réseaux informatiques : le Memex. 

C’est en août 1955 que le terme intelligence artificielle est employé pour la première fois, lors de l’annonce de la conférence de Dartmouth. Présidée par Marvin Minsky et John McCarthy, cette rencontre réunit mathématiciens et informaticiens à l’été 1956. Leurs travaux consistent à reproduire les capacités d’apprentissage et de raisonnement humains (i.e. l’intelligence) par des machines (i.e. artificielle).

participants conférence de dartmouth 1956
Scientifiques à la conférence de Dartmouth (1956)

La conférence de Dartmouth vise à permettre aux machines d’accomplir des tâches complexes, qui nécessitent des capacités d’analyse et d’apprentissage autonomes. L’intelligence artificielle est désormais considérée comme une discipline à part entière, simulant les processus cognitifs des êtres vivants. L’IA s’affranchit des autres disciplines scientifiques pour être étudiée en tant que domaine autonome.

A partir de cette date, les projets autour de l’IA se multiplient. Newell et Simon créent par exemple le logiciel Logic Theorist, capable de démontrer des théorèmes mathématiques de manière autonome.

L’invention du perceptron en 1957 par Rosenblatt marque un tournant dans l’histoire de l’IA. Ce classificateur linéaire est en effet considéré comme le premier réseau neuronal artificiel. Dans sa version initiale, le perceptron est basé sur un seul neurone. Il évolue ensuite en perceptron multicouche, qui préfigure les réseaux de neurones artificiels modernes.

Présentation d'Eliza par J. Weizenbaum

En 1965, Weizenbaum développe Eliza, un programme qui simule les questions posées par un psychologue à son patient. L’ancêtre des chatbots.

En 1965, Weizenbaum développe Eliza, un programme qui simule les questions posées par un psychologue à son patient. L’ancêtre des chatbots.

Au tournant des années 70, l’intérêt de la recherche pour l’intelligence artificielle va pourtant décliner. Les premières questions éthiques et reproches émergent. L’intelligence peut-elle se réduire à de simples calculs ? La baisse des financements et des déceptions accélèrent ce processus. C’est le premier “AI winter”.

L’intelligence artificielle suscite un regain d’intérêt dans les années 80. Les systèmes experts se multiplient et les algorithmes d’apprentissage se développent. Ce mouvement est porté par les progrès de l’informatique professionnelle, par exemple dans le secteur bancaire.

Malgré un succès important à leurs débuts, les systèmes experts sont considérés comme coûteux à maintenir et mettre à jour. Dans les années 90 les investissements déclinent et se recentrent sur des machines plus simples, avec l’avènement de la micro-informatique. C’est le second “AI winter”.

L’augmentation progressive de la puissance de calcul des machines, associée à l’émergence du big data, va relancer l’attrait pour l’IA. Le deep learning progresse au tournant des années 2000, et de nouveaux usages se développent. Reconnaissance faciale, voitures autonomes, traduction simultanée, agents conversationnels ou…moteurs de recherche. L’intelligence artificielle est désormais omniprésente dans notre quotidien.

Comment définir l'IA ?

Alors quelle définition lui donner ?

S’il n’y avait qu’une chose à retenir, c’est que l’IA n’est “intelligente” que dans sa capacité à simuler l’intelligence humaine.

Conservons cette définition pour la suite.

Ensemble de technologies qui permettent à une machine (un robot, une voiture, un moteur de recherche, un téléphone etc) d’exécuter des tâches habituellement réalisées par des humains. L’IA est un système d’imitation de la pensée et des actions humaines.