Home Technologie Les démocrates exigent des réponses sur l’utilisation de l’IA par Doge

Les démocrates exigent des réponses sur l’utilisation de l’IA par Doge

10
0

Les démocrates du comité de surveillance de la Chambre ont licencié deux douzaines de demandes mercredi matin pressant les dirigeants de l’agence fédérale pour obtenir des informations sur les plans d’set up des logiciels d’IA dans les agences fédérales au milieu des réductions en cours de la main-d’œuvre du gouvernement.

Le barrage des enquêtes go well with les rapports récents par Wired et Le Washington Post En ce qui concerne les efforts du soi-disant ministère de l’efficacité du gouvernement (DOGE) d’Elon Musk pour automatiser les tâches avec une variété d’outils d’IA propriétaires et d’accès aux données sensibles.

«Le peuple américain conteste le gouvernement fédéral des informations personnelles sensibles liées à leur santé, funds et autres informations biographiques sur la base que ces informations ne seront pas divulguées ou mal utilisées sans leur consentement», indiquent les demandes, «y compris par l’utilisation d’un logiciel tiers-parti non responsable non approuvé et peu responsable.»

Les demandes, obtenues pour la première fois par Wired, sont signées par Gerald Connolly, un membre du Congrès démocrate de Virginie.

L’objectif central des demandes est de presser les agences pour démontrer que toute utilisation potentielle de l’IA est légale et que des mesures sont prises pour protéger les données privées des Américains. Les démocrates veulent également savoir si une utilisation de l’IA profitera financièrement à Musk, qui a fondé XAI et dont la société de voitures électriques en difficulté, Tesla, travaille à pivoter vers la robotique et l’IA. Les démocrates sont plus préoccupés, dit Connolly, que Musk pourrait utiliser son accès à des données gouvernementales sensibles pour un enrichissement personnel, en tirant parti des données pour «suralimenter» son propre modèle d’IA propriétaire, connu sous le nom de Grok.

Dans les demandes, Connolly word que les agences fédérales sont «liées par de multiples exigences légales dans leur utilisation du logiciel d’IA», soulignant principalement le programme fédéral de gestion des risques et de l’autorisation, qui s’efforce de normaliser l’approche du gouvernement des companies cloud et de s’assurer que les outils basés sur l’IA sont correctement évalués pour les risques de sécurité. Il souligne également la loi sur l’IA américaine avancée, qui nécessite Les agences fédérales pour «préparer et maintenir un inventaire des cas d’utilisation de l’intelligence artificielle de l’agence», ainsi que «rendre les shares d’agence à la disposition du public».

Les paperwork obtenus par Wired la semaine dernière montrent que les brokers de Doge ont déployé un chatbot propriétaire appelé GSAI à environ 1 500 travailleurs fédéraux. La GSA supervise les propriétés du gouvernement fédéral et fournit des companies de technologie de l’info à de nombreuses agences.

Un mémo obtenu par les journalistes câblés montre que les employés ont été avertis de ne pas nourrir le logiciel toute info non classée contrôlée. D’autres agences, y compris les départements du Trésor et de la santé et des companies sociaux, ont envisagé d’utiliser un chatbot, mais pas nécessairement du GSAI, selon des paperwork considérés par Wired.

Wired a également indiqué que l’armée américaine utilise actuellement un logiciel doublé Camogpt pour scanner ses systèmes d’enregistrements pour toute référence à la diversité, aux actions, à l’inclusion et à l’accessibilité. Un porte-parole de l’armée a confirmé l’existence de l’outil, mais a refusé de fournir des informations supplémentaires sur la façon dont l’armée prévoit de l’utiliser.

Dans les demandes, Connolly écrit que le ministère de l’Éducation possède des informations personnellement identifiables sur plus de 43 tens of millions de personnes liées à des programmes fédéraux d’aide aux étudiants. «En raison du rythme opaque et frénétique auquel Doge semble fonctionner», écrit-il, «je suis profondément préoccupé par le fait que les élèves,« les dad and mom », les conjoints, les membres de la famille» et tous les autres informations sensibles sont gérés par des membres secrètes de l’équipe DOGE à des fins peu peu perforées et sans sauvegarde pour prévenir la divulgation ou une utilisation inappropriée, à un utilization non éthique. » Le Washington Publish précédemment signalé que Doge avait commencé à nourrir des données fédérales sensibles tirées des systèmes report du ministère de l’Éducation pour analyser ses dépenses.

La secrétaire à l’Éducation, Linda McMahon, a déclaré mardi qu’elle procédait à des plans pour licencier plus d’un millier de travailleurs au département, rejoignant des centaines d’autres qui a accepté les «rachats» de Doge le mois dernier. Le département de l’éducation a perdu près de la moitié de ses effectifs – la première étape, McMahon diten abolissant pleinement l’agence.

«L’utilisation de l’IA pour évaluer les données sensibles est lourde de risks graves au-delà de la divulgation inappropriée», écrit Connolly, avertissant que «les entrées utilisées et les paramètres sélectionnés pour l’analyse peuvent être défectueux, les erreurs peuvent être introduites par la conception du logiciel de l’IA, et le personnel peut mal interpréter les recommandations de l’IA, entre autres préoccupations.»

Il ajoute: « Sans however clair derrière l’utilisation de l’IA, les garde-corps pour assurer une gestion appropriée des données et une surveillance et une transparence adéquates, l’utility de l’IA est dangereuse et viole potentiellement la loi fédérale. »

lien source

LEAVE A REPLY

Please enter your comment!
Please enter your name here