IA, l'intelligence artificielle, le cerveau de demain ?

Article

Data

L’intelligence artificielle, de son petit nom l’IA, est un peu le buzzword de ces dernières années.

Un des objectifs du plan France 2030 est de faire de la France la pionnière de l’innovation. Grâce à une stratégie nationale pour l’intelligence artificielle ! L’objectif étant de soutenir l’innovation, la recherche et le développement des technologies d’avenir.

Entre reconnaissance faciale ou d’image, maintenance prédictive, traduction automatique ou encore chatbots et assistants virtuels, l’intelligence artificielle touche presque tous les secteurs d’activité. C’est une avancée technologique qui vise à simplifier de nombreuses tâches.

Le but de cet article est de tenter d’éclaircir et de simplifier les notions abordées.

Alors préparez-vous à entrer dans le monde de Cortana, Siri, Alexa, Google et embarquez avec Cœur en Or ! (si vous n’avez pas la référence, il n’est jamais trop tard !)

Mais qu’est-ce que l’intelligence artificielle ?

En une seule phrase, l’intelligence artificielle pourrait s’apparenter au mimétisme du fonctionnement d’un cerveau humain, et a pour but de reproduire sa logique.

Mais avant de s’avancer sur ce sujet, il est important d’en comprendre son histoire.

La naissance de l’IA

Le jour où vous aurez un creux dans votre planning et que l’IA est pour vous un futur assuré, nous ne pouvons que vous conseiller de lire “COMPUTING MACHINERY AND INTELLIGENCE” de monsieur Turing. En effet, pour certains il est le précurseur d’une intelligence artificielle. Tout du moins il a été un des premiers à parler de “The Imitation Game” (jeu d’imitation) et à se poser la question “Can machines think ? » (les machines peuvent-elles penser ?) et cela en refusant la théorie fataliste des années 50. Quel avant-gardiste !

Peu de temps après, en 1956, c’est John McCarthy qui posera, lors d’un atelier regroupant des scientifiques, le terme d’intelligence artificielle. Il est à l’intelligence artificielle ce que Freud est à la psychanalyse : le père. Accompagné de Marvin Lee Minsky, ils vont alors poser le cadre des notions avancées par Turing en définissant l’intelligence artificielle comme  : « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Saviez-vous que...... Une des I.A française les plus développées s'appelle Jean Zay. Le supercalculateur Jean Zay, aujourd’hui c’est :
• Une surface au sol de 150 m2
• 43 tonnes
• 28 pétaflops par seconde, soit 28 millions de milliards d’opérations par seconde
•  86 344 cœurs de calcul épaulés par 2 696, dont 1404 nouveaux, accélérateurs de type GPU
Il est le premier supercalculateur français issu du plan national AIForHumanity
(données issues du CNRS)

En 2023, Adastra est devenu le supercalculateur le plus puissant de France en doublant la puissance de Jean Zay, avec sa capacité totale de 74 pétaflops par seconde.

Un programme informatique intelligent

De ce fait, l’intelligence artificielle possède donc ce doux nom, pour son aspect mécanique ou robotique et pour la logique humaine recherchée par les scientifiques.

Plus globalement, l’intelligence artificielle est la science et la technique du traitement automatique de l’information. Quel est son objectif à terme ? Accomplir des tâches et résoudre des problèmes normalement réservés aux humains ou animaux.

IA, comment ça marche ?


IA : Beaucoup de fantasmes mais quelle réalité derrière ?

L’intelligence artificielle n’est pas une seule entité mais bien un programme capable d’organiser et d’assimiler des données. Comment la puissance des algorithmes construit l’IA d’aujourd’hui  ? 

L’apprentissage supervisé

L’objectif est de catégoriser et définir un jeu de donnée, avant de le faire apprendre à la machine. Cela lui permet dorénavant de les reconnaître de manière automatique.

Par exemple, une IA qui travaille sur la reconnaissance des véhicules saura différencier une voiture d’une moto ou d’un camion grâce à cet apprentissage en amont.

Bien sûr, cet apprentissage nécessite une veille correctionnelle afin de permettre à l’IA de toujours s’améliorer.

L’apprentissage non supervisé

C’est un peu l’inverse de l’apprentissage supervisé. (Surprenant, non ?) Ici, l’algorithme doit composer avec des données non annotées au préalable. Pourquoi infligeons-nous cela à notre pauvre petit programme vous direz-vous ? Eh bien parce que tout simplement, les réponses que vous désirez ne sont pas présentes ou disponibles dans votre jeu de données. Ainsi, le but de cet algorithme est de pouvoir vous les proposer à partir de groupement de données et d’analyses.

Ce type d’algorithme est très utile au secteur financier, par exemple pour créer des modèles de détection d’anomalies. Même si ce type d’algorithme est souvent considéré comme le moins facile à mettre en place. 

Globalement, dès que vous aurez une grande quantité de données et que classifier celles-ci serait très coûteux, la solution de l’apprentissage non supervisé est pertinente.  

L’apprentissage semi-supervisé

Il est le parfait mélange entre le non supervisé et le supervisé. Ce modèle est utile lorsque la quantité de données nécessaire pour une étude supervisée n’est pas atteinte. Il combine donc des données annotées et d’autres brutes, afin de contourner le problème initial. Même si cela peut se ressentir sur la fiabilité du modèle. 

L’apprentissage par renforcement 

Si vous hésitez entre l’une des 3 méthodes, sachez qu’il en existe une 4e, dite “par renforcement ». Car elle consiste à laisser l’algorithme se tromper à maintes reprises jusqu’à ce qu’il atteigne son objectif. (Une variante consiste aussi à “récompenser” l’algorithme à chaque bonne réponse, ou le “gronder” quand il se trompe, comme on éduque un chien 🐶)

S’il faudra définir un degré d’acceptabilité pour les réponses (afin qu’il sache à partir de quand il pourra la considérer comme “bonne” ou “fausse”), il sera à même de poursuivre sa rapide progression. C’est d’ailleurs cette technique qui permet d’apprendre à l’IA à surpasser les humains dans des jeux complexes (comme au jeu de go ou au jeu vidéo DOTA 2). Dans le cas d’AlphaGo, l’IA de Google ayant battu les meilleurs joueurs mondiaux, il est intéressant de souligner que la majeure partie des matchs disputés par l’IA l’ont été… contre elle-même !

Le Machine Learning

L’IA, c’est d’abord beaucoup de datas !

Le Machine Learning est la capacité pour un algorithme à traiter de mieux en mieux les données. Il répond ainsi de mieux en mieux au problème de base qui lui est posé. On peut dire qu’il se « nourrit lui-même ». 

Comme le dit la CNIL dans une savoureuse allégorie : Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Par exemple, une recette de cuisine est un algorithme permettant d’obtenir un plat à partir de ses ingrédients ! 

Remplacer les ingrédients par des données et le résultat final par un problème à résoudre et vous obtiendrez le fonctionnement au sens large d’un algorithme en informatique ! 

Ok et donc le Machine Learning ?

Eh bien imaginez un robot cuisinier essayant de faire sa recette par lui-même : sa première tentative manquera de sucre, il compensera alors lors de sa seconde tentative, mais le résultat final sera trop sucré, ce qu’il compensera lors des tentatives suivantes jusqu’à réussir la recette ! Pour fonctionner correctement, il faudra cependant que les niveaux de sucre (trop ou pas assez) aient correctement été paramétrés. 

Le Machine Learning (que l’on peut traduire en français comme apprentissage automatique) dépend donc fortement des algorithmes qui sont sélectionnés, ainsi que du travail fait en amont pour préparer les données. 

Les étapes préalables à la création d’un modèle de Machine Learning : 

  • Définition du besoin, connaissance du métier, objectif final et du futur usage de l’algo. 

  • Recherchez les modèles existants ! Peut-être en existe-il déjà un qui répond à nos besoins ? (Cette recherche s’appelle l’état de l’art)

  • Collecter les données pertinentes avec 2 mantras : fiabilité et, surtout, quantité ! Il en faut beaucoup pour un modèle fiable. 

  • “Nettoyer” les données. Éliminer les doublons, données non fiables, données erronées ,etc… Afin de garantir le plus haut niveau de fiabilité pour éviter les biais qui faussent le modèle !

  • Entraîner le modèle ! Une fois les donnée sélectionnées et le modèle fonctionnel, il faut entrainer ce dernier ! Ce n’est qu’une fois cette phase d’entrainement effectuée qu’il sera pleinement opérationnel. 

  • Choisir le bon modèle : il existe plusieurs modèles mathématiques pour exploiter les données. Chacun répondant spécifiquement à un type de besoin. Il faut donc choisir avec attention le modèle dont l’entrainement à montré qu’il était le plus pertinent.

  • Tester son modèle : évaluer des métriques d’erreurs et de succès (performances).

  • Déploiement et test du modèle dans son milieu final. 

  • Amélioration continue et vérification de non-régression ou biais.


IA & Deep Learning 

Le Deep Learning est un ensemble de techniques de Machine Learning qui utilisent la logique des réseaux de neurones. 

Un réseau de neurones, c’est-à-dire ? 

À l’instar d’un cerveau humain ! Cette logique va mettre en relation un grand nombre d’unités algorithmiques qui vont fonctionner ensemble pour être plus efficaces… Comme nos neurones. 

Plus on ajoute de couches d’unités algorithmiques, plus le Deep Learning sera puissant. 

Mais quelle est la plus-value de ces algorithmes capables de mimer les actions du cerveau humain ? 

Une efficacité redoutable sur des problématiques complexes ! C’est grâce notamment à cette technique que des solutions de prédiction du trafic autoroutier ou de diagnostic médical à partir de radio ont déjà pu montrer leur efficacité. Il faut cependant un nombre très important de données pour que le réseau de neurones apprenne les relations entre les données et les résultats attendus.

Quels secteurs ont le plus fort usage du Deep Learning ?  

Des secteurs avec un nombre très conséquent de données, et avec le besoin de les traiter efficacement ! Nous pensons tout de suite aux sites d’e-commerce. Car les solutions de big data peuvent avoir un effet direct sur les ventes. Comment ? En personnalisant le message que va recevoir chaque utilisateur en fonction de ses goûts.

Le secteur bancaire y voit des usages dans la détection des fraudes et la prévisions des cours financiers. Le secteur énergétique sera intéresser pour anticiper les pic de consommations et les variations fortes de la demande. Quant au secteur médical, il peut espérer améliorer ses protocoles de soins par de la prévision thérapeutique par exemple.

Tout le processus d’achat doit être facile. Comment ? En optimisant finement ce dernier pour l’utilisateur. 

IA : quel secteur impliqué ?

L’IA actuelle est déjà utilisée dans le secteur industriel pour augmenter la productivité au sein des ateliers. Mais aussi accroître la sécurité des lieux et la flexibilité et la capacité d’adaptation de la production. 

Déjà très présente avec l’industrie 4.0, les logiques de big data et de traitement massif de données peuvent avoir des effets bénéfiques tout au long de la chaîne de production. 

Couplée à l’IoT, elle peut être la source d’innovations et de gains de productivité sur toute la chaîne industrielle. 

AIoT, qu’est-ce que c’est ? 

L’ AIoT est la combinaison de 2 mondes. Les technologies de l’intelligence artificielle (IA) sont couplées avec l’infrastructure de l’internet des objets (IoT). Cela autonomise grandement le fonctionnement des objets et leur maintenance ! L’analyse des données est également plus rapide et plus pertinente et les interactions globales homme-machine sont améliorées. 

Pourquoi l’AIoT peut devenir la clé de voûte des écosystèmes de nos villes et maisons ? Simplement parce que l’essor de l’Internet des objets (IoT) et la masse considérable de données qu’il engendre rendront impossible leur traitement uniquement par des interventions humaines.

Pour Statista et YoomWeb, les interactions entre 2 machines vont passer à 15 milliards de connexions l’année prochaine. C’était seulement 6 milliards en 2018. Dans 3 ans, le niveau total de données devrait atteindre 73 zetabytes. 

Un ordre de grandeur ?

Si votre forfait data faisait 73 zetabytes, vous pourriez regarder 2 000 milliards de fois la version longue du Seigneur des anneaux : le Retour du Roi en ultra HD 4K et vous auriez à peine dépassé la moitié de votre forfait. 


Ce gif ne fait pas 73 Zetabytes.

Quand de tels volumes sont en jeu, il est difficile de pouvoir les traiter et les valoriser dans des délais acceptables sans l’intervention de l’IA ! 

Outre les applications industrielles et domotiques qui sont d’ores et déjà très concrètes, l’intelligence artificielle est également étudiée de près en recherche fondamentale, dans le but de mimer toujours plus les capacités cérébrales humaines. Il faut d’ailleurs noter que les méthodologies de Machine Learning ont pu être développées et testées grâce aux jeux en général (échecs, jeux de go..) et plus particulièrement aux jeux vidéos, ceux-ci demandant parfois une grande autonomie et des prises d’initiatives pour battre le joueur humain (StarCraft). 

Attention, si ces systèmes IA sont des monstres de puissance de calculs et d’analyses d’arbres de possibilités, elles sont encore très loin des capacités plus humaines d’improvisation ou de planification pure. 

Quels débouchés concrets pour l’IA aujourd’hui ? 

L’IA est déjà présente dans nombres d’applications différentes au sein des entreprises : 

Chatbots, traduction automatique, assistants virtuels… certes, ce sont des systèmes IA très basiques et peu développés, mais les choses évoluent rapidement, et l’IA prend une place de plus en plus importante dans la production de valeur des entreprises. Les solutions se développent très vite et des solutions pertinentes et efficaces vont devenir de plus en plus accessibles, quel que soit votre secteur. 

Globalement, dès qu’un important volume de données est à traiter, l’IA pourra vous faire gagner en temps et en pertinence de traitement. Analyser d’importants volumes de vidéos, connaître les préférences des usagers de vos services grâce aux algorithmes, booster la création de valeur par de l’assistance et du conseil auprès de vos équipes. 

Elle peut également être un allié précieux dans le développement humain, la sécurité ou la lutte environnementale :

  • Secteur médical (diagnostic de maladies et anticipation des traitements préventifs) 

  • Economie d’énergie (allocation optimale des ressources) 

  • Education (fondamentaux, comme lire, compter, écrire)  

  • Environnement (gestions des déchets, éco d’énergie aussi, lutte contre la déforestation, braconnage)

Sécurité et protection des usagers (analyse vidéo dans les aéroports ou les centres-villes, reconnaissance de visage) ?

Comment les entreprises investissent-elles dans l’IA et pourquoi ? 

Nous ne nous intéresserons pas ici à Google et sa recherche pure avec DeepMind. Système IA capable de rivaliser avec le gratin mondial des joueurs de StarCraft. Mais plutôt aux entreprises ayant déjà un recours commercial ou opérationnel à l’IA. 

Dans la famille des assistants personnels, je demande…

… Alexa ! En effet, comme Google Home, Alexa fonctionne avec une IA conversationnelle. Elle doit être capable de tenir un échange simple sans trop rapidement trahir son appartenance à la classe des machines.  Outre ses fonctions de ciblage publicitaire précises qui sont très prisées par les géants technologiques, Amazon est un acteur essentiel du Machine Learning grâce à AWS (Amazon Web Service), son offre cloud permettant une puissance de calcul adaptée aux algorithmes. 

Microsoft est également présent sur les infrastructures cloud avec son offre Azure ! Même si son assistant, Cortana, ne rencontre pas le même succès que son homologue d’Amazon.

Nvidia est une entreprise connue pour la conception de cartes graphiques. Elle est également très présente dans les secteurs médicaux et d’analyse d’image, grâce à des logiciels très poussés. Dernièrement, elle a pu assister le leader mondial de la grande distribution. Ses pipelines de ventes algorithmiques n’étaient pas assez précis dans leurs anticipations. Problème qu’elle a pu régler grâce à la puissance de calcul de ses cartes.


Mais aussi… Il est intéressant de noter l’intérêt des producteurs de hardware pour l’intelligence artificielle, et comme Nvidia ci-dessus, Qualcomm, le créateur de microprocesseurs et puces, est lui aussi en train de se positionner. Notamment grâce à sa puce mobile Snapdragon qui dispose d’une puissance de calcul accrue qui pourrait permettre de gros progrès concernant l’intégration de l’IA dans les fonctions mobiles comme l’assistance vocale, la saisie de texte, la traduction… 

L’entreprise ORCA AI s’est associée à l’un des plus grands transporteurs maritimes mondiaux pour développer un logiciel se basant sur l’analyse d’image en temps réel pour éviter les collisions entre les tankers ou pétroliers. Ces dernières sont majoritairement dues à des erreurs humaines de navigation. 


Une IA bien préparée peut pallier les défaillances humaines.

Cadres législatifs européens et français (CNIL) 

Dans le cadre de ses missions d’accompagnement et de contrôle, la CNIL veille au respect du cadre législatif français. Notamment sur l’usage des données, elle est partie prenante de la réglementation générale de protection des données (RGPD). Ce cadre régule la collecte et le stockage de celles-ci au sein de l’Union européenne.

Elle dispose d’une mission de conseil et de production du savoir sur les enjeux de cette technologie auprès du bassin d’entreprise français.  

À ce titre, elle a publié un ensemble de contenus liés à l’IA auprès des décideurs. 

L’Union européenne a également légiféré en adoptant le règlement général de protection des données afin d’assurer une traçabilité des datas issues de l’espace économique ainsi que leur circulation. 

Là encore, la CNIL s’est positionnée pour définir les bonnes pratiques à respecter ! Notamment en termes d’IA dites d’apprentissage. Pourquoi cela ? Elle utilise en général de très larges bases de données pour parfaire ses modèles algorithmiques. 

Quels sont les enjeux ?

Les enjeux sont énormes ! Ils visent à encadrer les prises de décisions automatisées qui vont se multiplier dans un avenir proche ! Il faut également encadre les potentielles discriminations que peuvent commettre les algorithmes. En effet, ceux-ci ayant pu être entraînés par un humain biaisé ou avec une base de données défaillante. 

L’Europe veut surtout rivaliser avec les 2 grandes superpuissances numériques actuelles que sont les États-Unis et la Chine. Elle souhaite le faire avec davantage de transparence vis-à-vis du public comme des entreprises.

D’autant plus que les failles de l’IA sont réelles et peuvent être exploitées à des fins malveillantes. Par exemple pour de l’extraction de données. Où encore la mise en place de rançongiciel (les données sont cryptées et inaccessibles sauf contre le versement d’un paiement aux hackers). 

Vous pouvez retrouver une liste très complète et fournie des types d’attaques sur l’IA et ses conséquences ! C’est sur le blog de la CNIL, le bien nommé LINC. 

Vous souhaitez en savoir plus sur l’IA, ses applications commerciales et nos offres ? découvrez notre expertise sur l’IA !

N’hésitez pas à nous contacter pour parler des systèmes IA !

Partager cet article

Partager cet article

Partager cet article

Nos derniers articles et livres blancs