Preloader
QUAND L’IA DEVIENT UN CRITERE DE COMPETANCE : LE NOUVEAU CONTRAT IMPLICITE CHEZ LES BIG TECH

QUAND L’IA DEVIENT UN CRITERE DE COMPETANCE : LE NOUVEAU CONTRAT IMPLICITE CHEZ LES BIG TECH

Feb 26, 2026 7 min de lecture 6 vues

Depuis 2026, l’IA générative n’est plus seulement encouragée dans la Big Tech : son usage devient mesuré et intégré à l’évaluation de la performance. Des entreprises comme Google, Microsoft ou Amazon Web Services suivent l’adoption via des métriques internes, poussées par des enjeux de ROI et de productivité. Mais ce pilotage comporte un risque : mesurer l’usage de l’IA plutôt que la valeur réelle du travail produit.

Pendant deux ans, l’intelligence artificielle générative a été vendue comme un “plus” : un outil pour gagner du temps, mieux documenter, mieux coder, mieux décider. Depuis début 2026, le discours change nettement dans une partie de la Big Tech, l’IA n’est plus seulement encouragée, elle est mesurée, attendue, et parfois implicitement sanctionnée si elle n’est pas utilisée.

Ce basculement s’inscrit dans une tendance plus large, en octobre 2025, 42% des salariés du secteur tech déclaraient que leur manager direct attendait un usage de l’IA au quotidien, contre 32% huit mois plus tôt, selon une enquête de l’entreprise de conseil Section.

De l’incitation à l’obligation

Le moteur est simple, le ROI. Quand une entreprise investit massivement dans des copilotes, des agents, des plateformes internes, elle veut des preuves d’adoption et des gains visibles. Et pour les groupes qui vendent des solutions d’IA, l’enjeu est encore plus aigu : difficile de convaincre des clients si l’outil ne “prend” pas en interne.

D’où l’apparition d’un nouveau réflexe managérial, piloter l’IA comme on pilote la performance. Tableaux de bord, métriques, attentes explicites, et intégration progressive dans les entretiens.

La performance “augmentée”

Les pratiques varient, mais la direction est la même, rendre l’usage de l’IA visible et donc gouvernable.

  • Amazon Web Services (AWS) : des managers de développeurs disposent d’un tableau de bord sur l’usage des outils d’IA par les ingénieurs. Officiellement, l’usage ne serait pas un critère direct d’évaluation, mais il pèserait dans la perception de l’engagement au moment des promotions.
  • Google : en 2026, certaines équipes prendraient pour la première fois l’usage de l’IA en compte dans des évaluations de performance de développeurs, avec une marge de manœuvre laissée aux managers selon les rôles.
  • Meta : un nouveau système d’évaluation intégrerait l’IA, avec une capacité de suivi allant jusqu’à estimer combien de lignes de code ont été produites avec assistance IA.
  • Microsoft : dans certaines équipes, les managers intègrent des questions sur l’usage de l’IA dans les discussions de performance, et demandent aux employés de quantifier comment l’IA a été utilisée dans le workflow.
  • Salesforce : l’entreprise a ajouté fin 2025 un suivi de progression “AI fluency” dans un tableau interne, et explique que l’usage des outils et performance sont de plus en plus imbriqués. Dans certains processus internes, l’IA devient carrément le point d’entrée (ex. demandes de congés via agent).

À cette dynamique “top-down” s’ajoute une pression “market-driven” : l’IA devient un prérequis de recrutement dans certains postes. Exemple emblématique, Conductor, une startup d’environ 300 personnes, attribue un score de compétence IA (1 à 5) lié à la performance, teste l’IA en entretien et refuse d’embaucher sans empathie.

Le piège : mesurer l’IA plutôt que mesurer le travail

Ces dispositifs ont un défaut majeur : ils encouragent la mauvaise métrique.

Suivre “qui utilise l’IA” ou “combien de code est généré” est tentant — parce que c’est mesurable. Mais ce n’est pas forcément corrélé à la valeur produite : qualité, fiabilité, sécurité, maintenabilité, satisfaction utilisateur, réduction d’incidents, vitesse de livraison utile.

Le point est d’autant plus critique que l’efficacité réelle de l’IA n’est pas universelle. Une étude expérimentale (RCT) publiée par METR en juillet 2025 a observé, dans un contexte précis (développeurs open source expérimentés sur leurs propres dépôts), que l’usage d’outils IA “early-2025” s’est traduit par 19% de temps en plus donc un ralentissement malgré la croyance des développeurs qu’ils allaient plus vite.

À l’inverse, certains dirigeants affirment mesurer des gains, Sundar Pichai (CEO de Google) expliquait mi-2025 que Google estimait un gain d’environ 10% de “capacité” d’ingénierie grâce à l’IA (mesuré en heures récupérées), et que plus de 30% du “nouveau code” serait généré par l’IA (en hausse par rapport à une estimation de 25% en octobre).

Ces chiffres ne se contredisent pas forcément : ils rappellent surtout que l’impact dépend du contexte, des tâches, du niveau de maîtrise, du type d’outil, et de la manière dont l’organisation l’implémente.

Ce que les dirigeants devraient faire au lieu de courir après des “lignes de code”

Si l’IA devient un critère d’évaluation, la question n’est pas “faut-il mesurer ?” mais quoi mesurer, et avec quelles garanties.

  • Définir l’attendu par métier, pas un dogme unique : l’usage pertinent de l’IA d’un commercial, d’un juriste, d’un dev ou d’un RH n’a rien à voir.
  • Évaluer des résultats, pas des gestes : réduction du délai de cycle, baisse des erreurs, meilleure documentation, satisfaction interne, taux de réutilisation, qualité des livrables.
  • Former réellement : sinon, vous transformez une “exigence” en filtre social interne (ceux qui ont appris vite vs les autres).
  • Sécuriser : quelles données peuvent être envoyées à quel outil, quelles pratiques sont interdites, quels contrôles existent — sinon vous incitez à des usages risqués.
  • Rendre l’IA “optionnelle mais incontournable” de façon saine : oui, on peut attendre une montée en compétence. Non, on ne doit pas créer une culture de surveillance ou de bluff à coups de métriques.

Le plus ironique, c’est que la poussée actuelle vers l’“IA obligatoire” est autant une histoire de technologie… qu’une histoire de management, les entreprises testent une nouvelle grammaire de la performance, où “savoir travailler avec des systèmes” devient une compétence centrale, au même titre que collaborer, structurer, et décider.

La Rédaction

Articles similaires

WAXAL : la base de données vocale pour l'IA en langues africaines lancée par Google

WAXAL répond à un défi majeur : sur plus de 2 000 langues africaines, moins de 5% disposent de resso...

Prism : quand l’IA s’invite dans l’atelier de l’écriture scientifique

Prism se présente comme un espace de travail LaTeX natif, dans le cloud, avec collaboration temps ré...