Si 2017 a été l’année de la Blockchain, 2018 sera celle de l’Intelligence Artificielle.

Article paru le 25 mai 2018 | Partager sur les réseaux sociaux

Classé dans : Énergie

La genèse de l’intelligence artificielle prend place dès le XVII siècle, alors qu’ordinateurs et processeurs ne sont encore que pure fantaisie. Un certain Gottfried Wilhelm Leibniz, philosophe, scientifique, mathématicien et logicien, théorisa alors la pensée humaine comme algorithme mathématique.
Quelques siècles plus tard, l’informatique permettra d’imaginer la suite de ses travaux.

1950

Un intérêt croissant, mais un faux départ

De nombreux scientifiques tentent de créer une machine aussi intelligente que l’homme. Des millions de dollars sont dédiés à cette tâche jusqu’à la fin des années 1980 et le constat est amer : les objectifs sont loin d’être atteints, les programmes sont perfectibles, les cas d’utilisation peu nombreux.

2010

Un alignement des planètes

Si le Machine Learning¹ permettait déjà des programmes convaincants, il restait limité à des éléments chiffrables (prix, taux, notations, etc.) et nécessitaient un grand nombre de données traitées par l’homme afin de reproduire le même schéma. La rupture s’appellera Deep Learning² et rendra tous les types de données exploitables, les formes, les sons, les voix, etc. Les données sont de plus directement traitées par l’algorithme et ne nécessitent pas d’action humaine. Le seul besoin ? Un très grand nombre de données à traiter.

Autre évolution clé, l’amélioration drastique des capacités de calcul des processeurs informatiques. Grâce à la réalisation de la loi de Moore², nous arrivons ces dernières années à une puissance suffisante pour traiter un nombre de données toujours plus conséquent. Avec la numérisation des documents, des services et même de notre vie, ainsi que l’émergence de l’IoT, des quantités astronomiques de données auparavant inexistantes sont aujourd’hui exploitables.

Enfin se développent les algorithmes d’analyse discriminante et réseaux de neurones artificiels. Ces deux méthodes de classifications permettent à la machine de concevoir par elle même des dénominateurs entre des données (analyse discriminante) et de les traiter/stocker dans un réseau afin d’affiner l’analyse sur les données traitées par la suite (neurones artificiels).

Maintenant

Des promesses infinies, pour quelles utilisations concrètes ?

Si les possibilités offertes par ces technologies sont importantes, le grand public a encore peu de connaissance des utilisations courantes de celles-ci. Pourtant, quelques cas intéressants sont déjà opérationnels. Google utilise par exemple sa propre IA pour gérer la production et consommation énergétique de ses data centers. Pour ce faire, DeepMind (l’IA utilisée) repose sur 3 facteurs communs à tous les programmes d’IA :

  1. Un objectif : Améliorer la consommation énergétique des datas centers.
  • Des données entrantes qualifiées : Températures, taux d’humidité, activité des serveurs, période de l’année, ...
  • Des leviers d’actions : Objets connectés pilotables, climatisations, systèmes de refroidissement des serveurs, flux des tuyaux de refroidissement.

L’intelligence artificielle est en charge, dans le cas présenté, de modifier, par elle-même, les leviers d’actions en prenant en compte les données entrantes afin de trouver les meilleures configurations de production et de consommation électrique, en temps réel, dans un contexte d’utilisation en constante évolution.

Les premiers résultats du géant californien sont d’ailleurs sans appel, une baisse de 40% de consommation d’énergie de refroidissement et de 15% de l’énergie utilisée pour les systèmes informatiques des centres.

A venir

Toujours plus de cas d’utilisation, toujours plus de données

Les possibilités qui seront offertes par l’IA à terme sont aujourd’hui difficilement imaginables. Nous pouvons tout de même donner quelques exemples permettant de mettre en lumière les opportunités, découlant de l’essor de ces technologies. Chatbots, IA gestionnaire de stocks et commandes, management personnalisé de personnel, conduite autonome, prospection de matières premières à coûts réduits, les champs d’applications sont variés et l’impact est sociétal. Comme l’a été internet puis les smartphones, l’IA permettra aux entreprises, si elles saisissent cette opportunité, de se développer, de gagner en efficacité, de prospérer.

LEXIQUE :
¹ Machine Learning : première génération d’apprentissage automatique par ordinateur
² loi de Moore : la puissance des processeurs double tous les 18 mois

Partagez cet article sur les réseaux sociaux