Home Technologie Sous Trump, les scientifiques de l’IA sont invités à supprimer les « ...

Sous Trump, les scientifiques de l’IA sont invités à supprimer les «  biais idéologiques  » de modèles puissants

12
0

L’institut nationwide des normes et de la technologie (NIST) a émis de nouvelles directions aux scientifiques qui s’associent à l’Institut américain de sécurité de l’intelligence artificielle (AISI) qui élimine la point out de la «sécurité de l’IA», de «l’IA responsable» et de «l’équité de l’IA» dans les compétences en attente des membres et introduit une demande de priorité pour la priorité.

Les informations font partie d’un accord de recherche et développement coopératif mis à jour pour les membres du Consortium de l’IA Security Institute, envoyés début mars. Auparavant, cet accord a encouragé les chercheurs à apporter des travaux methods qui pourraient aider à identifier et à corriger le comportement du modèle discriminatoire lié aux inégalités entre les sexes, la race, l’âge ou la richesse. Ces biais sont extrêmement importants automotive ils peuvent affecter directement les utilisateurs finaux et nuire de manière disproportionnée aux minorités et aux groupes économiquement défavorisés.

Le nouvel accord supprime la point out des outils en développement «pour authentifier le contenu et suivre sa provenance» ainsi que «étiqueter le contenu synthétique», signalant moins d’intérêt pour le suivi de la désinformation et des fake. Il ajoute également l’accent mis sur la mise en place de l’Amérique, demandant à un groupe de travail de développer des outils de check «pour étendre la place mondiale de l’IA américaine».

«L’administration Trump a supprimé la sécurité, l’équité, la désinformation et la responsabilité en tant que choses qu’elle apprécie pour l’IA, qui, je pense, parle de lui-même», explique un chercheur d’une organisation travaillant avec l’Institut de sécurité de l’IA, qui a demandé à ne pas être nommé par peur de représailles.

Le chercheur estime que l’ignorance de ces problèmes pourrait nuire aux utilisateurs réguliers en autorisant éventuellement les algorithmes qui discriminent sur la base du revenu ou d’autres données démographiques. «À moins que vous ne soyez un milliardaire technologique, cela va conduire à un avenir pire pour vous et les personnes qui vous tiennent à cœur. Attendez-vous à ce que l’IA soit injuste, discriminatoire, dangereux et déployé de manière irresponsable », affirme le chercheur.

«C’est sauvage», explique un autre chercheur qui a travaillé avec l’Institut de sécurité de l’IA dans le passé. «Qu’est-ce que cela signifie même pour les humains de s’épanouir?»

Elon Musk, qui mène actuellement un effort controversé pour réduire les dépenses publiques et la bureaucratie au nom du président Trump, a critiqué les modèles d’IA construits par Openai et Google. En février dernier, il a publié un mème sur X dans lequel Gemini et Openai ont été étiquetés «racistes» et «réveillés». Il souvent citer Un incident dans lequel l’un des modèles de Google a débattu de la query de savoir s’il serait fake de faire plaisir à quelqu’un, même si cela empêchait une apocalypse nucléaire – un scénario hautement unbelievable. Outre Tesla et SpaceX, Musk dirige Xai, une entreprise d’IA qui rivalise directement avec OpenAI et Google. Un chercheur qui conseille que XAI a récemment développé une nouvelle approach pour éventuellement modifier les tendances politiques des modèles de grandes langues, tels que rapportés par Wired.

Un nombre croissant de recherches montrent que les biais politiques dans les modèles d’IA peuvent avoir un influence sur les deux libéraux et les conservateurs. Par exemple, Une étude de l’algorithme de recommandation de Twitter Publié en 2021 a montré que les utilisateurs étaient plus susceptibles de montrer des views de droite sur la plate-forme.

Depuis janvier, le soi-disant Département de l’efficacité du gouvernement (DOGE) de Musk a balayé le gouvernement américain, licencié efficacement les fonctionnaires, interrompre les dépenses et créant un environnement considéré comme hostile à ceux qui pourraient s’opposer aux objectifs de l’administration Trump. Certains providers gouvernementaux tels que le ministère de l’Éducation ont archivé et supprimé des paperwork qui mentionnent Dei. Doge a également ciblé NIST, l’organisation parentale de l’AISI, ces dernières semaines. Des dizaines d’employés ont été licenciés.

lien source

LEAVE A REPLY

Please enter your comment!
Please enter your name here