Home Technologie «  Vous ne pouvez pas lécher un blaire

«  Vous ne pouvez pas lécher un blaire

16
0

Voici une belle petite distraction de votre journée de travail: dirigez-vous vers Google, saisissez n’importe quelle phrase inventée, ajoutez le mot «sens» et recherchez. Voir! Les aperçus de l’IA de Google confirmeront non seulement que votre charabia est un vrai dicton, il vous dira également ce que cela signifie et remark il a été dérivé.

C’est vraiment amusant, et vous pouvez trouver beaucoup de exemples sur les réseaux sociaux. Dans le monde des aperçus de l’IA, «un chien lâche ne surfait pas» est «une façon ludique de dire que quelque selected ne se produit pas probablement ou que quelque selected ne va pas fonctionner». L’expression inventée «câblée est comme le fait câblé» est un idiome qui signifie «le comportement ou les caractéristiques d’une personne est le résultat direct de sa nature ou de son« câblage »inhérent, un peu comme la fonction d’un ordinateur est déterminée par ses connexions physiques.»

Tout cela semble parfaitement believable, livré avec une confiance inébranlable. Google fournit même des liens de référence dans certains cas, donnant à la réponse un éclat d’autorité supplémentaire. C’est aussi mal, du moins dans le sens où l’aperçu crée l’impression que ce sont des phrases courantes et non un tas de mots aléatoires jetés ensemble. Et tandis que le fait que les aperçus de l’IA pensée «Ne jamais lancer un caniche sur un cochon» est un proverbe avec une dérivation biblique est fool, c’est aussi une encapsulation bien rangée de l’endroit où l’IA génératrice est toujours à courtroom.

En tant qu’avisage au bas de toutes les notes de vue d’ensemble de l’IA, Google utilise l’IA générative «expérimentale» pour alimenter ses résultats. L’IA générative est un outil puissant avec toutes sortes d’purposes pratiques légitimes. Mais deux de ses caractéristiques déterminantes entrent en jeu lorsqu’il explique ces phrases inventées. Le premier est qu’il s’agit finalement d’une machine de probabilité; Bien qu’il puisse sembler qu’un grand système basé sur un modèle de langue a des pensées ou même des sentiments, à un niveau de base, il placent simplement un mot le plus possible après l’autre, jetant la piste alors que le prepare se transforme. Cela rend très bon pour trouver une explication de ce que ces phrases serait signifie s’ils signifiaient quelque selected, ce qui, encore une fois, ne le fait pas.

«La prédiction du mot suivant est basée sur ses vastes données de formation», explique Ziang Xiao, informaticien de l’Université Johns Hopkins. «Cependant, dans de nombreux cas, le prochain mot cohérent ne nous mène pas à la bonne réponse.»

L’autre facteur est que l’IA vise à plaire; La recherche a montré que les chatbots disent souvent aux gens ce qu’ils veulent entendre. Dans ce cas, cela signifie vous prendre parole que « Vous ne pouvez pas lécher un blaireau deux fois » est une tournure de phrase acceptée. Dans d’autres contextes, cela pourrait signifier refléter vos propres préjugés, en tant qu’équipe de chercheurs dirigés par Xiao démontré dans un étude l’année dernière.

«Il est extrêmement difficile pour ce système de tenir compte de chaque requête individuelle ou des questions principales d’un utilisateur», explique Xiao. «Cela est particulièrement difficile pour les connaissances rares, les langues dans lesquelles beaucoup moins de contenu sont disponibles et les views minoritaires. Étant donné que la recherche AI ​​est un système si complexe, l’erreur cascade.»

lien source

LEAVE A REPLY

Please enter your comment!
Please enter your name here