Quantcast
Channel: ChatgptGratuit.net
Viewing all articles
Browse latest Browse all 10

NARA interdit l’utilisation de ChatGPT sur les réseaux de l’agence

$
0
0

Les Archives nationales et l’Administration des dossiers ont été la dernière agence fédérale à interdire à ses employés d’utiliser ChatGPT à des fins professionnelles, invoquant un “risque inacceptable” pour les données de l’agence.

La décision politique découle des préoccupations des responsables de l’agence selon lesquelles les données que les employés saisissent comme stimuli dans la version commerciale du service d’IA pourraient être utilisées non seulement pour entraîner le modèle ChatGPT, mais que les mêmes données pourraient également se retrouver dans les réponses à d’autres utilisateurs.

“Des rapports de divers médias indiquent qu’il y a une quantité croissante d’informations personnellement identifiables et d’informations propriétaires d’entreprises qui apparaissent dans ChatGPT et d’autres services d’IA”, a écrit Keith Day, responsable de la sécurité de l’information de NARA, dans une note aux employés mercredi. “Les employés qui veulent utiliser l’IA pour les aider dans leur travail ne réalisent souvent pas que ces types de services d’IA conservent vos données d’entrée pour un entraînement ultérieur de l’IA. Si des données sensibles et non publiques de NARA sont saisies dans ChatGPT, nos données feront partie de l’ensemble de données en constante évolution sans possibilité de les supprimer ou de les purger.”

La nouvelle politique entre en vigueur lundi, et l’agence la fera respecter en bloquant l’accès aux sites web de ChatGPT d’OpenAI sur tous les ordinateurs de bureau et portables de NARA.

Les représentants de presse d’OpenAI n’ont pas répondu immédiatement à une demande de commentaire. La nouvelle politique de NARA a d’abord été rapportée par 404 Media.

NARA n’est pas seule dans ses préoccupations, car les agences fédérales continuent de chercher un équilibre entre l’intégration de l’IA dans leurs opérations et la protection des informations sensibles.

En juin dernier, par exemple, la General Services Administration a mis en place une politique intérimaire qui bloque tous les outils d’IA générative à grande échelle disponibles publiquement sur les ordinateurs de la GSA. La politique autorisait des exceptions dans certains domaines, tels que les projets de recherche, mais même dans ces cas, interdisait aux employés de saisir des données non publiques dans les outils.

Les sites Web de ChatGPT d'OpenAI sont installés sur tous les ordinateurs de bureau et portables de la NARA

L’Agence de protection de l’environnement a émis une directive similaire l’été dernier, avertissant les employés que la saisie d’informations de l’agence dans des LLM disponibles publiquement “pourrait entraîner des violations de données potentielles, des vols d’identité, des fraudes financières ou la divulgation involontaire d’informations privilégiées”.

La politique de la NARA ne va pas aussi loin – du moins pas encore. Le mémo de mercredi cible spécifiquement ChatGPT pour l’interdiction.

“La NARA comprend les avantages de l’utilisation d’outils d’IA pour vous aider dans vos travaux. Pour garantir l’utilisation responsable de ces outils, nous explorons l’utilisation d’autres solutions d’IA, telles que Microsoft Copilot et Google Gemini, qui fournissent des services similaires à ChatGPT, mais dans un environnement plus contrôlé,” a écrit Day. “Ces outils diffèrent de ChatGPT car ils protègent les données saisies par les agences fédérales en les plaçant dans un référentiel privé qui n’est pas partagé avec d’autres.”

Pendant ce temps, l’administration Biden tente d’établir une plus grande cohérence dans les politiques d’IA des agences.

Fin mars, le Bureau de la gestion et du budget a publié sa toute première politique gouvernementale sur la manière dont les agences devraient tirer parti de l’IA tout en tenant compte de certains des risques technologiques, notamment 10 étapes spécifiques que chacune d’entre elles doit prendre.

Entre autres exigences, d’ici le 1er décembre, toutes les agences devront définir des “mesures de protection concrètes” pour protéger les données et atténuer les risques de sécurité. La politique a également insisté sur une plus grande transparence concernant la manière dont les agences utilisent l’IA, notamment des inventaires annuels des cas d’utilisation de chaque agence et des indicateurs sur les programmes trop sensibles pour être divulgués au public.

Notez Cette Page

The post NARA interdit l’utilisation de ChatGPT sur les réseaux de l’agence appeared first on ChatgptGratuit.net.


Viewing all articles
Browse latest Browse all 10

Trending Articles