Discutons ensemble!
+1 438 600-0063

OXO Innovation
9 avril 2023

Traduction automatique : cinq limites qu’il faut connaître

Avec les récents exploits du robot conversationnel ChatGPT, qui a réussi les examens d’une faculté de droit et a presque réussi un examen de médecine américain, il ne fait plus de doute que l’intelligence artificielle (IA) peut produire des résultats épatants. La traduction automatique a elle aussi connu des avancées remarquables ces dernières années, et elle s’impose désormais comme une technologie de rupture incontournable, mais qui fait déjà partie de la boîte à outils de la plupart des traducteurs. Par contre, pour continuer de faire briller leurs compétences dans ce contexte d’évolution technologique sans précédent, les professionnels de la langue doivent se familiariser avec les caractéristiques des réseaux de neurones artificiels (ou réseaux neuronaux), de l’apprentissage automatique et des systèmes d’intelligence artificielle (IA), et surtout avec leurs limites.

Nous vous proposons ci-dessous un survol de cinq lacunes que ces technologies présentent, ainsi que diverses stratégies que les traducteurs humains peuvent adopter pour éviter de mauvaises surprises.

Sensibilité extrême

Les réseaux neuronaux ont tendance à interpréter différemment des éléments qui paraîtraient pourtant très semblables pour l’œil humain. À titre d’exemple, il a été démontré que lorsqu’on demande à un système fondé sur cette technologie d’identifier le contenu d’une image, on peut obtenir une réponse différente en modifiant un seul pixel de l’image. En contexte linguistique, on peut en déduire que des extraits presque identiques sont susceptibles d’être traduits différemment.

Recommandation : Porter une attention particulière aux variations entre les traductions proposées pour les segments qui présentent un niveau de correspondance élevé, afin d’assurer leur cohérence en langue d’arrivée.

Incorporation de biais humains

On pourrait croire que les systèmes d’IA sont impartiaux, mais, lorsqu’ils sont axés sur les données, ils peuvent être influencés par différents biais que recèlent les données d’apprentissage. En 2019, des chercheurs ont découvert que l’un des algorithmes utilisés par le gouvernement des États-Unis, qui avait pour but d’identifier les patients les plus susceptibles d’avoir besoin de soins intensifs, affichait des préjugés raciaux. Le système d’IA se fiait aux frais médicaux engagés par les personnes pour évaluer leur niveau de risque. Ce faisant, il en est arrivé à la conclusion que les personnes noires étaient moins à risque, car elles engageaient moins de dépenses liées aux soins de santé. Cette conclusion est erronée, puisqu’elle se fonde sur des données qui démontrent un problème systémique d’accès aux soins de santé pour cette tranche démographique moins nantie.

Les systèmes d’IA peuvent également présenter un biais de disponibilité : la machine a tendance à considérer que ses apprentissages dressent un portrait représentatif de la réalité, ce qui n’est souvent pas le cas lorsque la taille du corpus utilisé est restreinte.

Recommandation : Relire attentivement les passages traduits par la machine pour s’assurer qu’ils ne reflètent pas de biais humains indésirables qui auraient pu être incorporés par inadvertance lors de l’apprentissage par la machine.

Raisonnement cryptique

Si l’informatique demeure un sujet complexe pour bien des gens, l’IA, pour sa part, continue de présenter des mystères même pour les spécialistes. Dans de nombreux cas, elle donne de bons résultats, mais il est souvent difficile de comprendre comment elle y parvient.

Recommandation : Toujours vérifier chacun des segments traduits à l’aide d’un système d’IA, aussi performant soit-il, car on ne sait jamais vraiment comment le système est arrivé à ce résultat…

Incertitude inhérente

Étant donné que les systèmes d’IA s’appuient sur les probabilités, il faut s’attendre à ce que certaines de leurs prédictions soient inexactes. Qui plus est, il se peut que la machine ait un haut degré de certitude à l’égard de résultats très erronés. C’est cette limitation potentiellement catastrophique qui freine le déploiement de l’IA à grande échelle dans des applications où la sécurité est cruciale, notamment dans le domaine médical et dans celui des véhicules autonomes.

Recommandation : S’appuyer sur l’une des plus grandes forces des langagiers humains : le jugement. Lorsqu’il y a place à l’interprétation, il faut se demander si la machine a bien compris, puis apporter tout changement ou toute nuance qui s’impose dans le texte d’arrivée, le cas échéant. Si le système d’IA est réglé de manière à apprendre en continu, il tiendra compte de cette rétroaction dans l’avenir.

Aptitudes mathématiques douteuses

Contrairement à ce que l’on pourrait croire – et contrairement à l’informatique traditionnelle –, l’intelligence artificielle n’est pas très douée pour les mathématiques! Les spécialistes ne savent pas exactement ce qui explique ce phénomène, car l’IA est généralement en mesure de résoudre la plupart des problèmes, pourvu qu’on lui fournisse suffisamment de données et de ressources pour soutenir son apprentissage. Les mathématiques seraient l’exception.

Recommandation : Porter une attention particulière à tout élément traduit par un système d’IA qui s’apparente à des mathématiques, y compris toute valeur numérique et tout calcul. Les risques d’erreurs sont élevés!

Nous espérons que ce survol vous aura été utile. Pour en savoir plus sur l’utilisation de l’IA en contexte linguistique, veuillez consulter les ressources suivantes :

Quand faire appel à la traduction automatique

L’entraînement d’un robot conversationnel : place aux services linguistiques de demain

Communiquez avez nous dès maintenant si vous aimeriez vous joindre à notre équipe comme employé(e) ou comme pigiste, ou si vous recherchez un fournisseur de services linguistiques de premier plan.

Retour au blogue