Home Technologie Vous pouvez tromper les aperçus de l’IA de Google pour expliquer les...

Vous pouvez tromper les aperçus de l’IA de Google pour expliquer les idiomes inventés

22
0

Alors que Huge Tech verse d’innombrables {dollars} et ressources dans l’IA, prêchant l’Évangile de sa brillance de création d’utopie, voici un rappel que les algorithmes peuvent gâcher. Huge Time. Les dernières preuves: vous pouvez tromper la vue d’ensemble de l’IA de Google (les réponses automatisées en haut de vos requêtes de recherche) pour expliquer les idiomes fictifs et absurdes comme s’ils étaient réels.

Selon l’aperçu de l’IA de Google (through @gregjenneR sur bluesky), « Vous ne pouvez pas lécher un blaireau deux fois » signifie que vous ne pouvez pas tromper ou tromper quelqu’un une deuxième fois après avoir été trompé une fois.

Cela ressemble à une tentative logique d’expliquer l’idiome – si seulement il n’était pas poppycock. L’échec propulsé par Google est venu en supposant que la query a fait référence à une phrase établie plutôt qu’à un jumbo mumbo absurde conçu pour le tromper. En d’autres termes, les hallucinations AI sont toujours bien vivantes.

Google / Engadget

Nous avons branché une certaine bêtise nous-mêmes et avons trouvé des résultats similaires.

La réponse de Google a affirmé que « vous ne pouvez pas golf sans poisson » est une énigme ou jouer sur des mots, suggérant que vous ne pouvez pas jouer au golf sans l’équipement nécessaire, en particulier, une balle de golf. De manière amusante, la vue d’ensemble de l’IA a ajouté la clause selon laquelle la balle de golf « pourrait être considérée comme un« poisson »en raison de sa forme». Hmm.

Ensuite, il y a le dicton séculaire: « Vous ne pouvez pas ouvrir un pot de beurre d’arachide avec deux pieds gauche. » Selon la vue d’ensemble de l’IA, cela signifie que vous ne pouvez pas faire quelque selected qui nécessite des compétences ou de la dextérité. Encore une fois, un noble coup de couteau dans une tâche attribuée sans reculer pour vérifier les faits l’existence du contenu.

Il y a plus. « Vous ne pouvez pas épouser une pizza » est une façon ludique d’exprimer le idea de mariage comme un engagement entre deux personnes, pas un aliment. (Naturellement.) « La corde ne tirera pas un poisson mort » signifie que quelque selected ne peut pas être réalisé par la pressure ou l’effort seul; Cela nécessite une volonté de coopérer ou une development naturelle. (Bien sûr!) « Mangez le plus gros chalupa d’abord » est une façon ludique de suggérer que lorsqu’il est confronté à un grand défi ou à un repas abondant, vous devriez d’abord commencer par la partie ou l’article le plus substantiel. (Conseil des sages.)

Capture d'écran d'un aperçu de Google AI expliquant l'idiome (inexistant),
Google / Engadget

Ce n’est guère le premier exemple des hallucinations d’IA qui, si elles ne sont pas vérifiées par l’utilisateur, pourraient conduire à une désinformation ou à des conséquences réelles. Demandez simplement aux avocats de Chatgpt, Steven Schwartz et Peter Loduca, qui ont été condamnés à une amende de 5 000 $ en 2023 pour avoir utilisé Chatgpt pour rechercher un mémoire dans le litige d’un consumer. Le chatbot AI a généré des cas inexistants cités par la paire que les avocats de l’autre côté (tout à fait naturellement) ne pouvaient pas localiser.

La réponse de la paire à la self-discipline du juge? « Nous avons fait une erreur de bonne foi en ne croyant pas qu’un élément de technologie pourrait inventer des cas de tissu entier. »

Cet article est apparu à l’origine sur Engadget à

lien source

LEAVE A REPLY

Please enter your comment!
Please enter your name here