banner

Blog

Aug 05, 2023

6 défis d'apprentissage automatique auxquels sont confrontées les entreprises

Getty Images/iStockphoto

L'apprentissage automatique promet des informations qui peuvent aider les entreprises à améliorer le support client, à lutter contre la fraude et à anticiper la demande de produits ou de services.

Mais déployer la technologie – et réaliser les avantages escomptés – peut s’avérer pour le moins difficile. Les questions épineuses liées à l’introduction de tout nouvel outil entrent en jeu : l’investissement insuffisant et le manque d’acceptation des utilisateurs comptent parmi les obstacles. Mais les organisations qui déploient l’apprentissage automatique (ML) doivent répondre à un ensemble de préoccupations encore plus larges, allant de l’éthique à l’incertitude épistémique.

Voici six défis en matière de ML que les entreprises devraient prendre en compte :

Les organisations prennent un certain nombre de risques lorsqu’elles recherchent des technologies émergentes. Dans le cas du ML, les dangers potentiels sont importants et tendent à être multidimensionnels.

"Les plus grands défis auxquels nous sommes confrontés et sur lesquels toutes les organisations travaillent sont en réalité liés à des préoccupations éthiques, des préoccupations de sécurité, des préoccupations économiques et des considérations juridiques", a déclaré Zakir Hussain, responsable des données pour l'Amérique chez le cabinet de conseil EY. "Ces quatre-là sont généralement ceux sur lesquels beaucoup de nos clients nous posent constamment des questions."

Les biais dans les modèles ML comptent parmi les principaux problèmes éthiques. Par exemple, les données utilisées pour former de tels modèles peuvent ne pas inclure des données représentatives de tous les groupes de personnes au sein d'une population donnée. Le modèle qui en résulte produira des résultats systémiquement préjudiciables.

En ce qui concerne la sécurité, les adoptants du ML doivent faire face à plusieurs problèmes. Il s'agit notamment des scientifiques de données qui téléchargent potentiellement des logiciels malveillants ainsi que des modèles open source qu'ils envisagent de personnaliser, ainsi que des attaques d'ingénierie rapides, a déclaré David Frigeri, directeur général de Slalom et responsable de sa pratique IA/ML à Philadelphie. Slalom est un cabinet de conseil axé sur la stratégie et la technologie.

Il a également cité l'empoisonnement des données, une attaque dans laquelle un acteur malveillant infiltre les données de formation d'une entreprise pour influencer les résultats d'analyse ou la sortie du modèle.

Les problèmes de sécurité rejoignent des préoccupations plus larges en matière de confiance, en particulier en ce qui concerne l’aspect création de contenu de l’IA générative. "Dans certains cas, vous ne pouvez pas toujours faire confiance au contenu que [IA] a créé pour vous", a déclaré Frigeri. "Il doit y avoir des freins et contrepoids en place pour déterminer à quoi vous pouvez faire confiance et à quoi vous ne pouvez pas faire confiance."

Les préoccupations économiques, quant à elles, tournent autour des problèmes liés au lieu de travail et aux 300 millions d’emplois que l’IA devrait affecter, a déclaré Hussain. Il a noté que certaines entreprises ont déjà cessé d’embaucher des personnes pour des postes pour lesquels elles pensent que l’IA peut faire le travail.

Et dans le domaine juridique, Hussain a évoqué le cas d'un avocat de New York qui s'est appuyé sur ChatGPT pour créer un mémoire. L’outil d’IA a constitué des citations juridiques, qui soulignent à quel point la technologie peut halluciner et introduire des erreurs.

Les organisations qui déploient le ML doivent s’attaquer de front à ces problèmes, a déclaré Hussain. Les mesures qui contribuent à atténuer les risques comprennent l'établissement de directives éthiques et d'une gouvernance claires, la priorité accordée à la qualité des données, l'accent mis sur l'équité dans le développement des modèles et la garantie de l'explicabilité des modèles, a-t-il ajouté.

Dans la hâte de créer des modèles, les organisations peuvent contourner la tâche délicate consistant à définir un problème que le ML peut résoudre.

"Nous commençons la conversation avec nos clients avec la simple notion d'aimer le problème", a déclaré Frigeri. "Trop souvent, les gens se laissent séduire par la solution avant de comprendre pleinement, qualitativement et quantitativement, quel est le problème."

Les projets s'évaporent lorsque les organisations ne parviennent pas à sélectionner un candidat-problème solide pour le ML. Si le problème choisi ne fait pas bouger les choses, les preuves de concept manquent de ressources et ne parviennent pas à fournir « des apprentissages ou une opérationnalisation », a noté Frigeri.

Les organisations qui ont du mal à cerner le problème auront également du mal à proposer des cas d’utilisation appropriés, ce qui entravera le déploiement. Plus de la moitié des 200 stratèges d'entreprise interrogés par Gartner ont cité « l'établissement d'un cas d'utilisation clair » comme le principal obstacle à la mise en œuvre des technologies émergentes. Le rapport de juillet 2023 du cabinet d'études de marché indiquait que seulement 20 % des stratèges utilisaient des outils liés à l'IA tels que le ML.

PARTAGER