Webinaire IA en RH - les réponses à vos questions

Retour sur le webinaire de SIGMA-RH « IA en RH : usages en explosion, stratégie en construction». Voici toutes les réponses aux questions auxquelles nous n'avons pas eu le temps de répondre.

IA en RH : réponses aux questions du webinaire

Le 23 avril 2026 avait lieu le webinaire : IA en RH : usages en explosion, stratégie en construction. Vous avez été nombreux à y assiter ! Si bien que nous avons manqué de temps pour répondre à toutes les questions.

Expert invité du webinaire, Jean-Baptiste Audrerie de Nexa RH a pris le temps d'approfondir chacune des questions laissées en suspens.

La sécurité des versions gratuites d'IA

Vous dites que les versions gratuites sont plus dangereuses. Dans l'optique où on utilise un compte d'affaires comme Copilot ou Gemini, est-ce que les risques sont aussi importants ? Exemple pour l'analyse de candidature ?

« Non, les risques ne sont pas de même nature. Les versions gratuites grand public (comme ChatGPT gratuit) s'apparentent à du Shadow AI : les données que vous y déposez, comme un CV ou des données salariales, peuvent être réutilisées par l'éditeur pour entraîner ses futurs modèles. Vous perdez le contrôle sur la confidentialité.

À l'inverse, les licences d'entreprise comme Microsoft 365 Copilot, Gemini pour Google Workspace ou ChatGPT Enterprise offrent des garanties contractuelles de classe entreprise. Par défaut, ces éditeurs s'engagent à ne pas entraîner leurs modèles sur vos données organisationnelles. Vos saisies et vos extrants restent dans votre périmètre de sécurité et bénéficient des mêmes normes de conformité (SOC 2, chiffrement) que vos courriels ou vos documents infonuagiques. »

Lire la politique d’OpenAI :Confidentialité des entreprises chez OpenAI


Protection des données d'un GPT personnel


Qu'en est-il d'un assistant qu'on a créé à partir d'un ChatGPT perso mais programmé pour être dissocié de son compte initial et de son auteur pour nous aider avec les questions au quotidien qu'on nous pose en RH ? Je me questionne sur la protection des données ici.

« La création de GPTs personnalisés (Custom GPTs) sur une version grand public (ChatGPT Plus) sont liés à votre compte personnel. Si vous avez l’autorisation de télécharger ou de vous connecter au répertoire MS365 ou Google Drive et d’exploiter des documents d’entreprise, le GPT ne sera pas conforme à votre sécurité. Parlez aux TI !

En revanche, vous pouvez le reconfigurer sur le compte OpenAI Entreprise avec comme ChatGPT Enterprise ou Team et des documents d’entreprise au sein d'un environnement d'entreprise. Dans ce cas seulement, ChatGPT bénéficie de la même protection que l'environnement global : les données ne servent pas à l'entraînement.

En conclusion, la seule véritable protection des données exige de construire ces assistants dans un environnement cloisonné (comme Copilot Studio ou une plateforme d'entreprise) où l'authentification des employés (SSO) et les droits d'accès aux sources de données internes sont gérés rigoureusement par vos TI.»


La centralisation des initiatives IA en RH


Faut-il centraliser les initiatives IA RH ou laisser les métiers expérimenter ?

« Il faut structurer l'expérimentation en identifiant les cas d’usage de l’IA en RH les plus pertinents pour vous. Puis les prioriser en équipe en fonction de la répétitivité et la stabilité du processus.

L'innovation naît souvent sur le terrain, par des employés qui testent des cas d'usage pour résoudre leurs irritants quotidiens. Toutefois, laisser l'expérimentation sans cadre mène au Shadow AI et à la dispersion des efforts.

La stratégie optimale consiste à centraliser la gouvernance (choix des outils sécurisés, formation, éthique) tout en décentralisant l'idéation.

Les équipes ou centres d'excellence RH doivent fournir un terrain d’essai sécurisé (comme Microsoft 365 Copilot) et documenter les cas d'utilisation à fort retour sur investissement.

Il est plus rapide de tester avec une IA commerciale polyvalente comme Microsoft Copilot ou OpenAi ChatGPT. Mais il est plus structurant de tester l’IA embarquée par vos éditeurs de solutions SIRH (HCM, TMS, ATS, LMS, PMS). C’est déjà lié à vos données RH et intégré à vos processus RH. Deux approches très différentes.

Comme nous l'avons souligné dans le 1er Baromètre de l'IA en RH au Canada, 91 % des professionnels RH voient l'IA comme une opportunité, mais la gouvernance demeure le défi principal. Il faut donc orchestrer cette adoption.»

Téléchargez le 1er Baromètre de l'IA en RH au Canada (NexaRH)


Automatiser sans déshumaniser ?


Jusqu’où peut-on automatiser sans déshumaniser la fonction RH ?

« L'IA excelle pour automatiser les tâches discrètes, répétitives et transactionnelles (synthétiser un document, générer une description de poste, extraire des données). Ce qu'on automatise, ce sont des tâches, pas le métier de professionnel RH.

Le métier exige de gérer les non-dits relationnels, la lecture du contexte politique, la régulation émotionnelle et l'alignement des parties prenantes.

Si l'IA prend en charge le calcul et la synthèse, le professionnel RH doit réinvestir ce temps libéré dans l'orchestration, le jugement moral et la relation. La technologie doit nous permettre d'être plus présents là où l'humain est irremplaçable.

Nous recommandons d’analyser les emplois de votre entreprise selon notre méthode Pilote-Copilote-Autopilote. Il faut débuter avec les emplois les plus exposés à l’IA en lien avec votre stratégie d’entreprise, votre secteur d’activité et vos compétiteurs directs et indirects (dont Claude, ChatGPT, Gemini, Perplexity, Copilot, etc.). »

À la recherche d'un consultant RH ?

Visitez le Lab IA en RH de nexaRH qui vous permet d’élaborer une vision IA en RH et un plan de transformation des emplois, compétences et outils.

Visiter le Lab IA en RH

IMPORTANT : Vous êtes sur notre site dédié au marché Québécois mais nous remarquons que vous êtes basé en United States. Souhaitez-vous passer à la version Canada - EN du site ?