« Après avoir constaté la mauvaise qualité des données utilisées pour soi-disant entraîner le modèle, j’ai compris qu’il était absolument impossible de l’entraîner correctement ainsi. » L’homme qui parle s’occupe d’évaluer les systèmes d’IA pour Google. Il contrôle le travail de personnes précarisées, basées aux quatre coins du monde, payées pour vérifier si l’intelligence artificielle fonctionne bien — si la réponse générée par IA dans les résultats d’une recherche Google correspond à la réalité, par exemple.
C’est parce qu’il sait exactement comment les IA sont entraînées que le salarié de Google interrogé par le Guardian a « conseillé à tous les membres de [sa] famille et à tous [ses] amis de ne pas acheter de nouveaux téléphones intégrant l’IA, de résister autant que possible aux mises à jour automatiques qui ajoutent l’intégration de l’IA, et de ne rien révéler de personnel à l’IA ».
Comme lui, une douzaine de personnes qui travaillent pour évaluer les modèles d’IA comme Gemini (Google) ou Grok (X), racontent au journal britannique qu’elles déconseillent fortement à leurs proches de les utiliser. Pourquoi ? Parce qu’elles voient bien que leurs conditions de travail ne leur permettent pas de participer à un modèle d’IA de qualité.
« On attend de nous que nous contribuions à améliorer le modèle, mais on nous donne souvent des instructions vagues ou incomplètes, une formation minimale et des délais irréalistes pour accomplir nos tâches », raconte Hansen, qui travaille depuis 2010 dans le secteur. Un travailleur résume cette situation par l’expression « garbage in, garbage out » : si l’on entre des données erronées, on obtient des résultats erronés. Alors, disent-ils tous, mieux vaut se passer des IA au quotidien.