L'Intelligence artificielle doit améliorer le travail, pas le concurrencer

Non, la machine ne remplacera pas l’homme. Dans l’entreprise, pour que l’intelligence artificielle soit vraiment efficace, elle doit assister le salarié, et en aucun cas le remplacer !

L’économiste en chef de la célèbre Banque d’Angleterre, déclarait récemment que l’intelligence artificielle rendrait bientôt de nombreux métiers obsolètes. Selon lui, pour éviter que les salariés ne deviennent des chômeurs technologiques, le Royaume-Uni aura besoin d’effectuer une révolution des compétences. C’est un raccourci pour le moins rapide…

L’impact de l’IA sur le milieu du travail est bien plus complexe que cela, et il faut y voir au contraire une opportunité de créer des emplois sur des postes intéressants. L’intelligence artificielle n’a pas vocation à remplacer les individus, elle est destinée à les soutenir dans leur travail.

Pour ne pas laisser s’instaurer l’idée que la machine remplacera l’homme, les entreprises doivent rapidement mettre en place des formations permettant aux salariés de mieux comprendre leur rôle dans un environnement de travail plus automatisé. A l’avenir, l’intelligence artificielle rendra pratiquement tous les résultats obtenus par les humains meilleurs. Ensemble, les salariés et l'IA seront plus efficaces et productifs que les salariés ou l'IA seul.

L’IA pour venir plus rapidement à bout des tâches répétitives

Dans le secteur de la cybersécurité, l’intelligence artificielle résout le déficit de compétences en diminuant la difficulté d’accès aux postes d’experts. L’IA analyse en temps réel les signaux cachés dans les communications numériques, afin de repérer l’infiltration éventuelle d’un cyber malfaiteur. L’ampleur et la rapidité de cette tâche dépassent les capacités humaines. En revanche, la personne qui utilise cette IA est en mesure d'identifier et de stopper dans les plus brefs délais, des cyberattaques qui auraient pu faire des ravages sur l’activité de l’entreprise. Grâce à l’IA également, une catégorie plus large d’individus a la possibilité de faire partie de l’équipe en charge de la cybersécurité.

Dans la cybersécurité, le déploiement de l’IA est de plus en plus utilisé dans l'aide à la décision. Elle vient à bout des tâches volumineuses en données et répétitives pouvant être automatisés. Grâce à elle, les individus identifient, comprennent et réagissent plus rapidement.

Il est important de noter que l’intelligence artificielle n'est pas autonome sur le lieu de travail. Elle se concentre sur l'exécution d'un ensemble particulier de tâches, mais est supervisée par l’homme, pour effectuer bon nombre d’interventions correctives et pour décider de l’action à entreprendre. Cette collaboration permet à l’entreprise de prendre un risque moral faible.

L'apprentissage automatique sert à traiter de grands ensembles de données et faire ce que les humains n'auraient jamais eu la patience de faire, car une IA ne se fatigue pas. Les salariés connaissent quant à eux le contexte de l’entreprise ; ils savent par exemple qu'une transaction particulière nécessite un transfert de données d'une taille inhabituellement importante. La combinaison de ce traitement infatigable des données et de cette connaissance contextuelle offre la défense la plus efficace contre les cyberattaques modernes et une réactivité sans précédent.

Dissiper l’appréhension naturelle des salariés

L'Intelligence artificielle est bien plus qu'un sujet technique. L’opacité de son fonctionnement combinée à notre tendance à l’anthropomorphiser - évidemment influencée par la science-fiction - incitent les salariés à spontanément s’en méfier.

Le créateur d’une intelligence artificielle pourrait en effet programmer un principe de fonctionnement censé reproduire un cadre moral pour, par exemple laisser son système prendre des décisions qui ne seront jamais malveillantes. Néanmoins, cela soulèverait alors une question, qui aurait le droit de définir cette éthique : l’utilisateur, le créateur de l’IA, le gouvernement … ?

L’IA ne fonctionne pas ainsi et n’apprend pas selon des principes établis mais en observant les données qu’on lui soumet. Toutes divergences au début de l’algorithme affecteront son modèle. Sans bienveillance, ni malveillance.

Pour dissiper les craintes des salariés, les entreprises doivent redoubler d’efforts en communiquant ou en proposant des formations permettant d’interagir avec des solutions basées sur l’IA.


A découvrir