Token Robin Hood
OpenAI25 avril 20265 minutes

Le filtre de confidentialité OpenAI rend la rédaction des informations personnelles locales pratique pour les piles d'agents

La version du filtre de confidentialité d'OpenAI du 22 avril est facile à interpréter à tort comme un modèle de sécurité de niche. C'est plus utile que ça. Le filtre de confidentialité offre aux constructeurs un moyen ouvert et local de détecter et de masquer les informations personnellement identifiables avant que le texte ne soit envoyé dans les invites, les index vectoriels, les journaux, les files d'attente de révision d'assurance qualité ou les outils d'assistance. Pour les produits d’agents de création d’équipes, la protection de la vie privée ressemble moins à une note de politique qu’à un contrôle d’exécution concret.

Ce qui s'est passéOpenAI a publié Privacy Filter, un petit modèle ouvert pour la détection et le masquage des informations personnelles contextuelles qui peut s'exécuter localement.
Pourquoi les constructeurs s'en soucientLes équipes peuvent ajouter une étape de confidentialité avant que le texte sensible ne quitte la machine, au lieu d'espérer que les fournisseurs en aval ou les règles d'expression régulière capturent tout.
Action TRHInsérez une rédaction locale avant les journaux, les traces, les intégrations et les exportations de support, puis mesurez les champs sensibles qui fuyaient auparavant par défaut.

Il s'agit d'une primitive de pipeline, pas seulement d'une version de modèle

OpenAI décrit Privacy Filter comme un modèle de classification de jetons bidirectionnel qui étiquette le texte en un seul passage et prend en charge jusqu'à 128 000 jetons de contexte. Le modèle publié comporte 1,5 milliard de paramètres au total avec 50 millions de paramètres actifs, couvre huit catégories de confidentialité et est disponible sous Apache 2.0 sur Hugging Face et GitHub. L'implication importante du produit est simple : les équipes peuvent désormais exécuter le masquage PII sur site ou sur l'appareil avant que les données ne soient transférées dans le reste de la pile.

C’est important car les systèmes d’agents fuient dans des endroits ennuyeux. Pas seulement des réponses définitives. La fuite apparaît souvent dans les journaux d’invite, les traces d’échecs, les ensembles de données d’évaluation, les transcriptions de support copiées et les corpus de récupération construits à partir de texte interne désordonné. Les expressions régulières sont utiles sur des modèles étroits, mais elles ont tendance à passer à côté des cas lourds de contexte ou à surmasquer les informations publiques. Le filtre de confidentialité offre aux équipes une couche par défaut plus solide avant que ces textes ne soient propagés ou stockés ailleurs.

La rédaction locale change la conversation sur l'architecture

Une fois que la rédaction peut avoir lieu localement, la question de conception change de « quel fournisseur de cloud doit voir le texte brut ? » à « quelles parties du pipeline méritent un texte brut ? » Il s’agit d’un meilleur cadrage pour les produits d’agents d’entreprise. Les constructeurs peuvent supprimer les noms, les e-mails, les numéros de téléphone, les numéros de compte, les dates privées et les secrets avant de transmettre le texte aux systèmes de résumé, de recherche ou d'étiquetage.

Ceci est particulièrement pertinent pour les produits qui reposent déjà sur des agents à forte action. Agents de l'espace de travail, Programmes de déploiement Codexet d'autres outils de flux de travail continuent de créer davantage de traces, d'approbations et d'artefacts de révision. Le filtre de confidentialité offre aux équipes une couche de prétraitement plus propre afin que ces enregistrements opérationnels ne deviennent pas un épuisement accidentel des données.

Pourquoi cela est également important pour l'efficacité des jetons et des examens

La protection de la vie privée n’est pas seulement une question de conformité. Rédiger localement peut également réduire les déchets en aval. Les espaces réservés propres sont plus faciles à différencier, plus sûrs à envoyer dans les faisceaux d'évaluation et moins risqués à conserver pour le débogage. Cela réduit le nombre de flux de travail nécessitant un nettoyage manuel avant de pouvoir être réutilisés pour le contrôle qualité, l'examen des incidents ou l'analyse des produits.

Pour Token Robin Hood Lecteurs, c'est le point pratique : le contrôle des coûts n'est pas seulement le routage des modèles. Il s’agit également de décider quelles données doivent être intégrées dans les parties coûteuses du système et sous quelle forme.

Ce que les équipes devraient faire ensuite

Auditez le flux de travail d'un agent où le texte brut est actuellement diffusé sur plusieurs systèmes. Mettez en place un filtre de confidentialité ou une étape de rédaction locale équivalente avant la journalisation, l'intégration ou la révision humaine. Comparez ensuite quels champs sensibles cessent de se propager, dans quelle mesure le nettoyage manuel disparaît et si la récupération ou le débogage fonctionnent toujours avec des espaces réservés. Cela vous dira si la confidentialité par défaut fonctionne réellement dans votre pile ou si elle est uniquement décrite dans vos documents de politique.

Sources