En bref
- Une étude de Qualinsight révèle que 72% des actifs romands utilisent l'IA au travail, souvent sans l'approbation de leur entreprise. L'usage de ces outils s'élargit à des tâches complexes comme la planification stratégique, mais soulève des questions de sécurité.
- Selon les personnes interrogées, 49% des organisations n'ont pas de règles claires sur l'usage de l'IA, et 79% des employés n'ont reçu aucune formation formelle. Cela crée des risques liés à la confidentialité et à la gestion des données.
- Les utilisateurs d'IA gagnent en moyenne 3 heures par semaine. Cependant, une validation et une formation adéquate en entreprise pourrait augmenter ce gain, selon une spécialiste.
«ChatGPT, résume-moi ce gros dossier»; «Claude, propose-moi une présentation PowerPoint»; «Gemini, fais le tri dans mon administratif.» Dans les entreprises romandes, l'intelligence artificielle est à un fil du burn-out.
Blick a pu observer les résultats d'une étude quantitative du bureau Qualinsight, réalisée auprès d'un panel représentatif de 1030 professionnels de tous domaines. Et le résultat est sans appel: 72% des actifs romands utilisent déjà l'IA au travail, et souvent à l'insu de leur patron!
Dans les bureaux, mais pas seulement, beaucoup voient dans l'utilisation d'outils IA une manière d'être plus productifs en s'évitant des tâches barbantes. «Il y a deux ans, on était beaucoup plus dans de l'aide à la rédaction, analyse Esther Sève, fondatrice de Qualinsight et auteure de l'étude. Cela a vite évolué. Aujourd'hui, les usages vont plus loin: trouver des données, faire de la recherche approfondie, de la veille d'informations ou de la planification stratégique.»
Mais sur ce constat, trois chiffres ressortent de son étude: 79% des actifs n'ont tout simplement jamais reçu de formation formelle à l'IA; 49% des personnes interrogées indiquent que leur organisation n'a pas défini de règles claires en matière d'utilisation des outils d'intelligence artificielle; et 27% de celles et ceux qui se servent de l'IA au boulot le font sans validation par leur entreprise et son service informatique.
L'IA fantôme a de quoi faire peur
On parle de Shadow AI (en français, «IA fantôme») pour désigner ce phénomène. «C'est le fait d'utiliser un compte IA pour le travail, sans qu'il soit proposé par votre entreprise, qu'il n'y ait eu ni validation officielle ni règle claire quant à son usage dans votre environnement professionnel», détaille Esther Sève. Une utilisation qui peut s'avérer problématique, selon la spécialiste.
«Je ne pense pas que les gens, dans leur usage pour le travail, prennent le temps d’anonymiser leurs contenus et fassent forcément attention à sécuriser les données qu'ils donnent à l'IA, sans doute par souci d'efficacité», s'inquiète-t-elle. Esther Sève estime que «les outils IA sont tellement accessibles et faciles d'usage que cela déstabilise les entreprises» et que ces dernières «tardent à mettre en place une vraie gouvernance».
Ce d'autant plus que, pour leur usage personnel au travail, peu d'actifs se tournent vers les versions payantes (et plus sécurisées) de ChatGPT, de Claude ou de Gemini. «Plus de trois quarts des gens se disent préoccupés par la protection des données, par le fait de savoir où sont hébergées les informations qu'ils donnent à l'IA, souligne l'auteure de l'étude. Mais force est de constater qu'autant de personnes utilisent des versions gratuites.»
Une utilisation à réglementer
En effet, 77% des répondants demandent «une régulation claire» et 72% «jugent importante la protection des données». Mais ces attentes se heurtent à la réalité. Toujours selon la même enquête, 70% des utilisateurs de l'IA au travail n'ont jamais vérifié où vont leurs données et 60% ne savent pas où leurs données sont hébergées. Sans compter les conséquences sociales et écologiques de cette technologie.
«Les métiers de bureau sont surreprésentés parmi les utilisateurs professionnels de l'IA», observe Esther Sève. Mais l'étude de Qualinsight couvre des domaines variés, dont certains où la notion de confidentialité est centrale. «Dans des environnements comme la santé ou le juridique, ces usages sont déjà réglementés, détaille la fondatrice. Les collaborateurs sont directement sensibilisés et formés à ces questions-là. C'est moins le cas dans tout le reste du monde professionnel, y compris dans le service public.»
En effet, les réglementations en vigueur dans certains cadres professionnels réduisent la vitesse à laquelle l'IA se fait une place au boulot. «Dans les secteurs très réglementés, comme la santé, la banque ou les assurances, l'adoption de l'IA reste freinée par un manque d'outils réellement adaptés à leurs exigences: développés en Suisse, hébergeant les données sur sol suisse et garantissant leur suppression après un délai défini.»
Gagner du temps... mais pas tant
Mais le gain de temps n'est pas assuré. Selon l'étude de Qualinsight, les utilisateurs d'outils IA disent ne gagner que 3h par semaine en moyenne. Une constatation qui dépend des réalités de chaque métier, confie Esther Sève: «Celles et ceux qui en ont un usage quotidien, par exemple dans le marketing, peuvent gagner bien plus de temps sur une semaine que des ouvriers ou des employés de restauration, dont l'usage reste rare.»
Pour la spécialiste romande, il est «trop tôt pour évaluer s'il y a réellement un gain de temps et pour savoir sur quoi ce temps libéré sera redéployé au sein de l'organisation». Elle met l'accent sur la formation: «Celles et ceux qui sont formés et utilisent les versions payantes disent gagner trois fois plus de temps que les autres. Le gain devient perceptible et mesurable lorsque l'entreprise donne son accord, qu'elle a formé les personnes concernées et qu'elle propose des outils adaptés aux besoins spécifiques du métier.»
De quoi faire de certains employés des Power Users, soit des utilisateurs formés à ces outils, efficaces dans leur utilisation et qui en comprennent les enjeux sans en avoir peur, se réjouit Esther Sève. Elle estime qu'il est temps d'agir pour les firmes romandes et suisses: «Si les entreprises ne prennent pas maintenant le temps de faire la réglementation en interne, d'expliquer leur positionnement par rapport à l'IA, de décider dans quels cas une utilisation est possible ou non, elles vont perdre en compétitivité et prendre un retard difficile à rattraper en matière d'innovation et d'adaptation.»