IA Gouvernementale

IA au Gouvernement : Prudence avec les Cas d'Utilisation

Technologie

Le gouvernement se lance à corps perdu dans le monde de l'IA générative, déployant une technologie de type ChatGPT dans diverses agences fédérales. Bien que l'idée d'automatiser les tâches et de rationaliser les processus semble séduisante, certains experts appellent à la prudence. La vraie question est la suivante : nous précipitons-nous sans bien comprendre les conséquences ?

Imaginez le département des Anciens combattants utilisant l'IA pour écrire du code, ou l'armée américaine employant "CamoGPT" pour expurger les documents des références à la diversité. Cela semble futuriste, voire un peu effrayant. Et bien que le ministère de l'Éducation envisage d'utiliser l'IA pour répondre aux questions des étudiants sur l'aide financière, la préoccupation sous-jacente demeure : cette technologie est-elle vraiment prête pour des tâches aussi critiques ?

Le problème, comme le souligne Meg Young, chercheuse chez Data & Society, est que nous sommes pris dans un "cycle de battage médiatique insensé". Alors que certains chatbots gouvernementaux se limitent actuellement à des tâches générales comme la rédaction de courriels, la pression pour élargir leurs responsabilités est en cours. Et c'est là que les choses se compliquent. Par exemple, la General Services Administration (GSA) souhaite exploiter l'IA pour les achats, le processus complexe d'achats gouvernementaux. L'approvisionnement implique des négociations contractuelles complexes avec des exigences de conformité strictes. Bien que l'IA puisse théoriquement aider à la recherche de documents, les avocats pourraient la trouver trop peu fiable pour les négociations à enjeux élevés. En fait, il pourrait même être plus rapide et plus sûr de simplement copier et coller le langage existant et vérifié. Le risque d'erreur est tout simplement trop élevé.

Ensuite, il y a la question du raisonnement juridique. Une étude a révélé que même les chatbots d'IA conçus pour la recherche juridique commettaient des erreurs factuelles dans un pourcentage important des cas. Un exemple particulièrement alarmant concernait un chatbot affirmant que la Cour suprême du Nebraska avait annulé la Cour suprême des États-Unis ! Il est facile de comprendre comment cela peut conduire à la désinformation, et les conséquences pourraient être désastreuses.

Bien que les avantages potentiels de l'IA au sein du gouvernement soient indéniables, en particulier dans des domaines comme l'automatisation des tâches administratives, nous devons faire preuve de prudence. Un programme pilote en Pennsylvanie, par exemple, a démontré des gains de temps importants en utilisant ChatGPT pour les tâches de routine. Cependant, une approche mesurée et bien planifiée est essentielle. Nous ne pouvons pas permettre à l'enthousiasme d'obscurcir notre jugement et de conduire à des systèmes d'IA mal mis en œuvre.

En fin de compte, il s'agit de trouver le juste équilibre. L'IA a le potentiel de révolutionner les opérations gouvernementales, mais cela ne devrait pas se faire au détriment de la précision, de l'équité ou de la transparence. Comme le souligne à juste titre Joshua Blank, professeur de droit à l'Université de Californie à Irvine, une chaîne de commandement claire et une surveillance rigoureuse sont essentielles pour garantir que ces technologies soient utilisées de manière responsable.

Source: Gizmodo