Le gouvernement fédéral reçoit jusqu’à 4 000 plaintes par jour sur son site. Pour alléger les centres d’appel et aider à parcourir quelque 10 millions de pages web, la Canadian Digital Service (CDS) teste un prototype d’agent conversationnel alimenté par GPT‑4. Le projet met en avant une conception qui limite la collecte de données et cherche à prévenir les biais.
Pourquoi un agent conversationnel ?
Les demandes d’information adressées aux sites et centres de service publics pèsent sur les ressources humaines et peuvent rendre l’accès aux services plus difficile pour les personnes aux besoins complexes. L’outil en test permettrait de poser des questions en langage courant, d’obtenir une réponse synthétique et d’être dirigé vers la page gouvernementale pertinente, avec la recommandation explicite de vérifier l’information fournie.
Conception et protection des données
La CDS a fait un choix de conception marqué : l’accès au prototype se veut anonyme et aucun compte ni renseignement personnel ne sont requis pour formuler une requête. L’outil est conçu pour ne pas accepter d’éléments identifiants dans la question (numéro d’assurance sociale, téléphone, etc.), afin de limiter la conservation de données sensibles. Selon l’équipe, cette limitation est volontaire pour éviter d’accumuler de « jeux de données » qui pourraient être mal utilisés ultérieurement.
- Pas de compte requis pour interroger le service.
- Aucune collecte volontaire d’informations personnelles dans les requêtes.
- Recommandation de vérifier manuellement les réponses fournies par l’agent.
Équité, consultations ciblées et risque de biais
L’un des axes centraux du développement est l’équité. Les responsables évoquent une approche qualifiée de « scalpel, pas tronçonneuse », qui favorise des interventions fines plutôt qu’un traitement massif et uniforme. Pour réduire les biais, la CDS prévoit des consultations « bubble‑based » avec des communautés spécifiques : personnes noires, personnes LGBTQ+, Premières Nations et autres groupes concernés. L’idée est que les tests et les jeux de questions soient élaborés par les personnes elles‑mêmes, afin d’éviter d’imposer des scénarios qui ne reflètent pas leurs besoins.
Des intervenants ont rappelé que les modèles d’IA reflètent les données sur lesquelles ils sont entraînés, ce qui peut conduire à des réponses moins pertinentes pour certaines régions ou minorités si ces populations sont sous‑représentées dans le corpus d’entraînement.
Gouvernance, coûts et limites opérationnelles
Au‑delà de la technique, la gouvernance du projet reste un point de discussion : qui définit ce qui est « responsable » et qui doit être impliqué dans ces décisions ? Des députés et des activistes demandent une représentation large à la table des décisions et des normes claires. Sur le plan opérationnel, plusieurs questions demeurent : le coût du système à grande échelle, la capacité à garantir des réponses sûres et équitables pour des millions de requêtes, et la gestion des erreurs potentielles, un risque souligné par des exemples d’incidents précédents évoqués lors des débats.
Techniquement, la CDS a indiqué que le prototype est alimenté par GPT‑4 et que d’autres modèles ont été évalués mais n’ont pas été retenus pour ce cas d’usage. Les essais initiaux ont porté sur environ 2 700 utilisateurs et auraient atteint un taux d’environ 95 % de succès sur des critères définis pour le test; un essai plus large d’environ 3 500 utilisateurs est envisagé, sans que le lancement généralisé soit pour l’instant garanti.
Ce qui reste à confirmer
Plusieurs éléments clés demandent encore des précisions avant toute généralisation : quelles seront les normes exactes de vérification des réponses générées, comment seront évaluées et publiées les mesures d’équité, quel budget serait nécessaire pour un déploiement à grande échelle, et quelles garanties juridiques et opérationnelles assureront la transparence algorithmique. De même, l’impact précis sur les délais et la charge des centres d’appel reste à mesurer dans des conditions réelles d’usage.
À retenir
- La CDS teste un agent conversationnel GPT‑4 pour faciliter l’accès à 10 millions de pages gouvernementales et réduire la pression sur les centres de service.
- Le prototype est conçu pour des requêtes anonymes et évite la collecte d’informations personnelles non nécessaires.
- L’approche privilégie des consultations ciblées avec les communautés concernées pour limiter les biais.
- Des questions de gouvernance, de coûts et de qualité des réponses doivent encore être tranchées avant tout déploiement.
- Des essais préliminaires ont été menés auprès d’environ 2 700 utilisateurs, avec un taux de succès déclaré proche de 95 %; un test plus large est envisagé.
Article amélioré avec l'IA - Article original