Comment apprendre à un ordinateur à penser ? En lui apprenant à parler

Dans sa définition la plus simpliste, l'intelligence artificielle (IA) désigne la capacité d'un ordinateur à penser. Entamées il y a plusieurs décennies, les études et expérimentations autour de l'IA ont permis aux chercheurs de conclure que pour inculquer à un ordinateur la faculté de penser, il faut en réalité... lui apprendre à parler.

Pour la plupart d'entre nous, pensées et langage sont interconnectés au niveau le plus fondamental. En tant qu'êtres humains, c'est avant tout par le langage que nous faisons part de nos pensées, sentiments et expériences. L'enseignement, l'apprentissage et la compréhension sont donc eux aussi fortement tributaires du langage.

Un doctorat de linguistique ne figure généralement pas parmi les qualifications les plus fréquemment associées aux chercheurs en IA, mais la compréhension de la sémantique linguistique pourrait très bien être l'une des grandes clés du développement de ce domaine. Pour produire leurs résultats, les ordinateurs effectuent des calculs à partir de données univoques, des « 0 » et des « 1 », ce qui rend leur « réflexion » puissante, exempte d'erreurs, mais rigide. Or, une intelligence qui se veut humaine se doit d'être flexible. Il est ainsi difficile pour un ordinateur d'acquérir la faculté de comprendre, et la richesse apportée par le langage humain contribue à pallier ces lacunes.

Les organisations les plus visionnaires travaillant sur l'IA font déjà appel à des experts en linguistique informatique pour faciliter la compréhension du langage par les ordinateurs.

La linguistique informatique

La linguistique informatique désigne une discipline scientifique et technique au cœur du développement de l'IA. Elle se situe en substance au croisement de l'art du langage et de la science du calcul.

La linguistique informatique œuvre à la modélisation du langage aux fins de sa transposition en programme informatique capable de « comprendre », tel que le ferait un humain, des données linguistiques concrètes.

L'art et la science du développement de l'aptitude des ordinateurs à penser ont beau être complexes, nous sommes quotidiennement exposés aux interactions entre machines et langage. Par exemple, Google devine le terme de votre recherche une fois saisis les premiers caractères, et Alexa identifie votre contexte et votre pensée sur la base de votre conversation.

Appelée « traitement automatique du langage naturel » (TALN), la technologie permettant aux ordinateurs de comprendre le langage humain est essentielle à bon nombre des applications d'IA les plus répandues aujourd'hui.

Le traitement automatique du langage naturel

La saisie prédictive sur votre téléphone, la correction orthographique des termes de recherche sur Google (« Essayez avec l'orthographe : XYZ ») ou encore le chatbot d'assistance client proposé par votre banque sont autant d'applications du TALN. Cette technologie va toutefois bien au-delà de la génération de listes de mots similaires. Elle confère aux ordinateurs la faculté d'analyser le langage humain, de le comprendre et d'en extraire des informations de manière intelligente et utile.

Comment cela fonctionne-t-il exactement ? Les ordinateurs excellent dans l'analyse et la compréhension de données organisées, autrement dit d'informations formatées de manière hautement structurée (par exemple, enregistrées dans des feuilles de calcul ou dans des bases de données). Tout professeur de français en école primaire s'accorderait à dire que le langage est régi par une structure et des règles grammaticales définies. Les algorithmes et programmes informatiques sont en mesure de comprendre ces règles et de les appliquer aux données.

Cependant, le langage est aussi empreint de nuances. Le sarcasme, le contexte et l'argot influent considérablement sur le sens d'une phrase. Le langage associe des données syntaxiques et grammaticales structurées à des données non structurées et à des nuances.  Par exemple, lorsque des commentateurs sportifs affirment que « Les Bleus ont battu les Trois Lions hier soir », ils font allusion à une rencontre de football, et non à un conflit militaire. Pour opérer cette distinction, il est nécessaire de comprendre non seulement les mots, mais aussi le contexte.

Les systèmes de TALN ont recours à des algorithmes pour appliquer les règles grammaticales, décomposer les termes et phrases jusqu'à aboutir à leur structure élémentaire, et rechercher des schémas permettant de déterminer le contexte. Un ordinateur doté du contexte est capable de comprendre qu'un même terme peut revêtir plusieurs significations en fonction de son utilisation. Par exemple, dans le contexte d'un match de football, le verbe « battre » signifie « vaincre grâce à une qualité de jeu supérieure », et non pas « éliminer avec violence ».  

Inculquer la parole aux ordinateurs

Le TALN, dans ses premières approches, était fortement régi par des règles : les algorithmes d'apprentissage automatique étaient entraînés à rechercher des mots et expressions spécifiques dans un texte donné pour fournir, en réaction à ces derniers, des réponses précises. Imaginez un chatbot alimenté par l'ensemble des messages instantanés précédemment échangés entre les utilisateurs et les représentants d'un service. L'idée est qu'avec un volume suffisant d'informations, l'ordinateur puisse accéder à la base de données FAQ la plus vaste possible et identifier, sur la base des précédentes réponses, la réponse adéquate à une question.

Ces systèmes ont toutefois rencontré une multitude de problèmes et ne méritaient guère l'appellation de « solutions IA ». Même une gigantesque base de données FAQ ne pouvait anticiper chacune des questions pouvant être formulées. Les technologies de machine learning basiques, fondées sur des règles, étaient quant à elles incapables d'apporter une réponse ou fournissaient des réponses inutiles, car déroutées par les sujets inconnus et les nuances du langage.

Les nouvelles générations de modèles de TALN reposent sur le deep learning : cette branche du machine learning vise l'identification — par le biais de réseaux neuronaux, des algorithmes conçus pour imiter le cerveau humain —, de tendances et schémas au sein de données non structurées afin d'améliorer la faculté de compréhension d'un ordinateur. Tout comme le cerveau humain, ces modèles analysent les données à un niveau élémentaire puis « apprennent » en identifiant des schémas et des correspondances.

Les chercheurs ont encore beaucoup de chemin à parcourir avant de créer un cerveau artificiel, et cette forme de TALN nécessite des quantités d'informations considérables pour entraîner le système à identifier les corrélations et le contexte au sein du langage. Cette approche peut néanmoins générer des résultats d'une grande précision et ne cesse de s'améliorer, étant alimentée par un volume exponentiel de données.  

Tout utilisateur de Google Traduction sait bien que ce service n'a pas toujours été aussi fiable qu'aujourd'hui. Sa version actuelle, qui repose sur le deep learning, est désormais impressionnante.

Et il ne s'agit pas là des seuls progrès en cours dans le domaine de la linguistique informatique, où s'opèrent des avancées fascinantes. Publiée dans la revue BioMed Central Medical Informatics and Decision Making, une toute nouvelle étude de l'université de médecine de Caroline du Sud (MUSC) révèle les résultats prometteurs de l'utilisation du TALN en vue d'identifier plus proactivement l'isolement social chez les patients atteints de cancer. L'isolement social étant un déterminant de santé de plus en plus critique qui, par le passé, n'était pas consigné dans les dossiers de santé électroniques (DSE), les responsables de l'étude ont tiré parti du TALN pour analyser les DSE des patients et examiner le langage contextuel en vue d'identifier les personnes susceptibles d'être isolées socialement, permettant ainsi un ajustement de leur plan de traitement.

À l'heure où les chercheurs continuent d'améliorer le traitement et la compréhension du langage par les ordinateurs, les avantages sont évidents pour les consommateurs, les entreprises et la technologie. De plus en plus sophistiquées et accessibles, ces solutions se démocratisent également.

Il pourrait en résulter une amélioration des services pour les clients, une gestion optimisée des documents et des informations, ainsi que la concrétisation de concepts relevant autrefois de la science-fiction, comme par exemple les traducteurs universels.


A découvrir

Zachary Jarvinen

Zachary Jarvinen est Head of Technology Strategy, AI and Analytics, chez OpenText. Son équipe est chargée de la commercialisation et de la production de toutes les offres en intelligence artificielle, machine learning et analytique. Avant OpenText, Zachary a dirigé le marketing produit dans une startup d'analyse de données ayant atteint la 87e position sur l'Inc 5000 et qui faisait partie de l'équipe numérique de la campagne présidentielle Obama en 2008. Zachary est titulaire d'un MBA / MSc de l’Anderson School of Management de l'Université de Californie, de Los Angeles et de la London School of Economics and Political Science.