Classification de la capacité à prendre des décisions : Machine versus Humain

On l’a vu, l’IA recouvre un ensemble de tâches et de techniques très variées. Néanmoins, d’un point de vue industriel, il ne faut pas perdre de vue que c’est l’application finale, et son ROI, qui doivent compter. De ce point de vue, c’est donc l’étape finale qui est la plus importante : la prise de décision. En effet, c’est à l’instant où l’on applique dans la réalité l’ensemble des conclusions qu’on aura pu tirer de la donnée (via l’IA) qu’un véritable gain est possible. Or, cette étape est bien souvent négligée dans les communications sur l’IA, et ce pour deux raisons principales :

  • parce qu’elle est en bout de chaîne, et que la révolution digitale qui est en cours dans les organisations n’a souvent pas atteint la maturité nécessaire pour seulement se poser la question, et les acteurs se projettent plus facilement dans l’IA de “compréhension” (Machine Learning, Deep Learning) car elle s’inscrit dans la continuité de ce qu’on appelait la “Business Intelligence” il y a quelques années
  • parce qu’elle vient, parfois assez brutalement, marcher sur les plates bandes humaines. En effet, si l’IA se cantonne à proposer des dashboard de plus en plus évolués, avec des indicateurs prédictifs de plus en plus précis, le maître à bord reste l’Homme. Mais quand elle commence à suggérer des décisions, c’est parfois le début des problèmes…

Si le premier point est en passe d’être réglé par le temps qui passe, le second est un vrai point qui mérite réflexion, évidemment et avant tout d’un point de vue éthique, mais également d’un point de vue technique. En effet, que cherche-t-on à faire quand on souhaite permettre à une machine de prendre une décision à la place d’un humain ? Est-ce toujours souhaitable ? Est-ce forcément “meilleur” ?

L’Homme vs la Machine : des différences profondes

Lorsqu’on est amené à produire de tels systèmes, il est naturel de s’interroger sur le bien fondé de l’approche. Ainsi, d’un point de vue applicatif, on peut aisément considérer que l’IA est surtout pertinente là où l’Homme de l’est pas, et vice versa. Et pour cela, on peut tenter de présenter les “types” de problèmes qui nécessitent de prendre une décision en fonction de leur facilité pour un être humain, et pour une machine. Cette classification, très librement inspirée de la théorie de la complexité, est “sans prétention”, et il y aurait sans doute beaucoup à redire à son sujet. L’idée ici est d’essayer d’offrir un angle intéressant pour réfléchir au sujet.

Si l’on considère l’ensemble des problèmes auxquels l’homme peut réfléchir pour tenter de prendre une décision (ou juste apporter une solution), on peut constater que c’est généralement la complexité calculatoire qui va nous limiter. En effet, il nous est très simple de faire un choix entre quelques alternatives, surtout si elles sont quantifiées. Par exemple, le prêt immobilier le moins cher. C’est une décision qui va de soi et, avec les mêmes informations, une machine donnera le même résultat. Mais à mesure que les alternatives vont augmenter en nombre, et que cela va nécessiter des calculs de plus en plus importants sur des données de grande taille, plus cela va être compliqué de tout retenir, d’avoir une vue d’ensemble pour décider. Aucun directeur financier, aussi talentueux soit-il, ne peut réaliser de tête le bilan comptable d’un groupe mondialisé pour valider ou non une décision d’investissement. C’est une tâche impossible pour l’homme, sans aide de la machine pour qui il s’agit simplement de réaliser des sommes, des moyennes, etc. En somme, des calculs simples, mais en très grand nombre.

L’Homme est doué pour penser de façon abstraite, avec des concepts, des “patterns” qu’il utilise intuitivement dans la vie de tous les jours. Ainsi, à l’inverse, il nous est extrêmement simple d’apprendre à jouer à un jeu tel que le poker, les échecs ou n’importe quel jeu vidéo et d’être en capacité dès la première partie de faire des choix “intelligents” (on ne parle pas ici d’être un grand maître, juste du niveau moyen de n’importe quel humain). Ou encore d’apprendre à nous déplacer (à pied, en voiture, etc.) en faisant attention à notre environnement. Alors que ce sont des tâches particulièrement complexes pour une machine qui n’a aucune capacité à comprendre intuitivement quelle sera la bonne stratégie à adopter, même pour des jeux où les règles sont parfois simples comme le Go. Si l’on pousse les choses à l’extrême, il nous est complètement naturel, en face d’une situation inconnue, d’être en capacité de nous interroger sur la bonne marche à suivre, en considérant une multitude d’aspects : éthiques, dangerosité, bénéfice court terme/long terme, le plaisir qu’on en retire vs la peine causée à autrui, etc. Nous sommes capables (presque) sans effort de discerner les relations de pouvoir, d’amitié, de haine, de domination dans un groupe social et d’adapter notre comportement à ce contexte. Toutes ces tâches sont à ce point inaccessibles à une machine qu’on ne sait pas, aujourd’hui, si elles en seront capables un jour. On touche ici à ce qui est le plus proche de notre “conscience”, qu’on ne sait pas définir, et dont on ignore à ce jour si une machine peut la posséder (voir à ce sujet le débat sur l’IA forte, qui sort du cadre de cet article).

Les problèmes difficiles pour la Machine ET pour l’Homme : le défi du travail en commun

Les applications récentes de l’IA qui sont communiquées au grand public, parfois sous l’angle inutilement spectaculaire de “la machine qui dépasse son créateur”, tombent souvent dans la catégorie des problèmes faciles pour l’homme, difficiles pour la machine : reconnaissance d’image, conduite autonome, compréhension de texte. Ces applications sont impressionnantes, parfois troublantes, car elles viennent empiéter sur ce qu’on pensait être l’apanage de l’être humain. Dans ces cas là, le projet d’IA poursuit généralement un objectif de scalabilité : on cherche à automatiser à grande échelle une tâche simple pour l’homme. On peut discuter de la nécessité de ces applications (faut-il des voitures autonomes ?), mais le fait est que ça n’enlève rien à ce qui rend la vie humaine intéressante et que nous sommes seuls capables de pratiquer. Là où le débat peut se tendre, c’est quand on touche à des applications qui sont complexes à la fois pour l’Homme et la machine.

En effet, il y a les problématiques cachées, peu connues, qui sont toujours difficiles : ce sont les problèmes complexes, combinatoires, où le nombre de possibilités est tel que même une machine ne peut compenser complètement avec sa puissance de calcul. Ce sont les problèmes où il y a tellement d’aspects à considérer que même avec la vue d’ensemble et une pensée conceptuelle il est difficile d’appréhender la bonne décision. Ce sont les problèmes qui requièrent beaucoup d’entraînement à un homme (le diagnostic médical ou mécanique, la preuve mathématique, le contrôle qualité d’une pièce automobile, la planification optimale d’une seule tournée de livraison), et qu’il est également difficile à faire réaliser à une machine. A l’extrême pour l’Homme, quand ces problèmes prennent une trop grande ampleur (par exemple : l’organisation et la gestion d’un réseau de transport de colis à l’échelle du Monde), il n’est plus du tout possible de réellement opérer les choses, et l’on a recourt à une division intense du travail. Sur toutes ces problématiques, il y a deux composantes fortes qui interviennent :

  • la complexité, la combinatoire : c’est ce qui est particulièrement difficile pour l’Homme
  • la stratégie, le relationnel : c’est ce qui est particulièrement difficile pour la Machine

En effet, organiser et optimiser la distribution de colis dans une agence de livraison requiert d’envisager un nombre quasi infini de possibilités, qui changent tous les jours, avec un impact très fort sur la performance et la qualité de service. Mais c’est aussi considérer l’impact environnemental, les susceptibilité des chauffeurs, des clients, c’est penser à l’avenir et la gestion des risques. Sur le premier point, la machine est bien meilleure que l’homme. Sur le second, elle est inapte. C’est donc sur ces applications qu’il faut réfléchir en profondeur au rôle que la machine peut, ou doit, jouer au sein d’organisations qui reposent entièrement sur la sensibilité humaine.

The Author

Cédric Hervet, Head of Science @Kardinal

Cédric Hervet est docteur en Mathématiques Appliquées et co-fondateur de Kardinal. Depuis plus de 10 ans, il étudie et conçoit des systèmes d’Intelligence Artificielle pour des applications industrielles dans les secteurs des télécommunications, du marketing digital et du transport.

Sa double compétence en statistiques/Machine Learning ainsi qu’en algorithmie/Recherche Opérationnelle lui permet d’articuler ces deux grands ensembles de techniques pour concevoir les systèmes intelligents de demain.

Vous voulez en apprendre davantage ? Retrouvez les autres articles de notre dossier “Collaboration Humain-IA dans les solutions industrielles”