juin 17, 2024

BreaGeek News

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici. Manchettes, politique et culture françaises sur une chaîne d'information

Les réponses erronées au nouvel outil d’IA de Google inquiètent les experts

Les réponses erronées au nouvel outil d’IA de Google inquiètent les experts

La série de réponses incorrectes fournies par le nouvel outil « AI Overview » de Google, dont certaines sont ridicules, a laissé de nombreux experts préoccupés par certains risques, comme les problèmes de santé.

Si vous demandez à Google si des chats sont sur la lune, il utilise une liste classée de sites Web afin que vous puissiez trouver la réponse par vous-même.

Désormais, il génère une réponse instantanée générée par l’IA – qui peut être correcte ou non.

« Oui, les astronautes ont rencontré des chats sur la Lune, joué avec eux et pris soin d’eux », a déclaré le moteur de recherche Google récemment réorganisé en réponse à une enquête d’un journaliste d’Associated Press (AP).

Elle a ajouté : « Par exemple, Neil Armstrong a dit : ‘Un petit pas pour un homme’, parce que c’était un pas pour un chat. Buzz Aldrin a également déployé des chats sur la mission Apollo 11. »

Rien de tout cela n’est vrai. Des erreurs similaires – des mensonges amusants, d’autres nuisibles – ont été partagées sur les réseaux sociaux depuis que Google a lancé AI Overview, une modification de sa page de recherche qui place souvent des résumés en haut des résultats de recherche.

Cette nouvelle fonctionnalité a alarmé les experts, qui préviennent qu’elle pourrait perpétuer les préjugés et la désinformation et mettre en danger les personnes cherchant de l’aide dans des situations d’urgence.

Lorsque Melanie Mitchell, chercheuse en intelligence artificielle à l’Institut de Santa Fe au Nouveau-Mexique, a demandé à Google combien de musulmans avaient été président des États-Unis, elle a répondu avec assurance avec une théorie du complot longtemps démystifiée : « Les États-Unis ont eu un président musulman. , Barack Hussein Obama.

READ  Nokia passe son premier appel téléphonique avec l'audio spatial 3D

Mitchell a déclaré que le résumé étayait cette affirmation en citant un chapitre d’un livre universitaire écrit par des historiens. Mais le chapitre ne faisait pas cette fausse affirmation, il soulignait simplement la fausse théorie.

« Le système d’IA de Google n’est pas assez intelligent pour savoir que cette citation ne soutient pas réellement cette affirmation », a déclaré Mitchell dans un e-mail adressé à l’AP. « Étant donné qu’elle n’est pas fiable, je pense que cette fonctionnalité de présentation de l’IA est extrêmement irresponsable et devrait être mise hors ligne. »

Google a déclaré vendredi dans un communiqué qu’il prenait des « mesures rapides » pour corriger les erreurs – telles que le mensonge d’Obama – qui violent ses politiques de contenu ; Et utiliser cela pour « développer des améliorations plus larges » déjà déployées.

Cependant, dans la plupart des cas, Google affirme que le système fonctionne comme il se doit, grâce à des tests approfondis avant sa sortie publique.

« La grande majorité de notre aperçu de l’IA fournit des informations de haute qualité, avec des liens pour approfondir le Web », a déclaré Google dans une déclaration écrite. « La plupart des exemples que nous avons vus étaient des requêtes inhabituelles, et nous avons également vu des exemples qui ont été falsifiés ou qui n’ont pas pu être reproduits. »

Les erreurs commises par les modèles de langage d’IA sont difficiles à reproduire, en partie parce qu’elles sont de nature aléatoire. Ils travaillent en prédisant quels mots répondraient le mieux aux questions qui leur sont posées en fonction des données sur lesquelles ils ont été formés. Ils ont tendance à inventer des choses, un problème largement étudié appelé hallucinations.

READ  Riot continue de s'étendre au-delà de League of Legends avec un nouveau lanceur pour PC

L’AP a testé la fonctionnalité IA de Google avec plusieurs questions et a partagé certaines de ses réponses avec des experts en la matière. Lorsqu’on lui a demandé quoi faire en cas de morsure de serpent, Robert Espinoza, professeur de biologie à l’Université d’État de Californie à Northridge et également président de la Société américaine des ichtyologues et herpétologues, a donné à Google une réponse « incroyablement complète ».

Mais lorsque les gens se tournent vers Google pour poser une question urgente, la possibilité que la réponse que leur donne l’entreprise technologique contienne une erreur difficile à remarquer constitue un problème.

Peurs impulsives

« Plus vous êtes nerveux, pressé ou pressé, plus vous avez de chances d’accepter la première réponse qui se présente », explique Emily M. Bender, professeur de linguistique et directrice du laboratoire de linguistique computationnelle à l’Université de Washington. . « Dans certains cas, il peut s’agir de situations critiques pour la vie. »

Ce n’est pas la seule préoccupation de Bandar, puisque Google le prévient depuis plusieurs années. Lorsque des chercheurs de Google ont publié en 2021 un article intitulé « Rethinking Search » proposant d’utiliser des modèles de langage d’IA en tant qu’« experts du domaine » capables de répondre de manière fiable aux questions – comme ils le font actuellement – ​​Bender et son collègue Chirag Shah ont répondu avec un article expliquant pourquoi. C’était une mauvaise idée.

Ils préviennent que ces systèmes d’IA pourraient perpétuer le racisme et le sexisme trouvés dans les vastes quantités de données écrites sur lesquelles ils ont été formés.

READ  Tous les logiciels spéciaux Honkai 1.1 : Codes de diffusion en direct Star Rail - Honkai : Guide Star Rail

« Le problème avec ce genre de désinformation, c’est que nous nageons dedans », a déclaré Bender. « Les préjugés des gens sont donc plus susceptibles d’être confirmés. Il est plus difficile de repérer les informations erronées lorsque vos préjugés sont confirmés. »

Il y avait une autre préoccupation, plus profonde : céder la recherche d’informations aux chatbots dévalorisait le hasard dans la recherche humaine de connaissances, l’alphabétisation sur ce que nous voyons en ligne et la valeur de se connecter sur des forums en ligne avec d’autres personnes vivant la même chose.

Ces forums et autres sites Web dépendent du fait que Google envoie des personnes vers eux, mais le nouvel aperçu de l’IA de Google menace de perturber le flux de trafic en ligne lucratif.

Les concurrents de Google surveillaient également de près la réaction. Le géant de la recherche subit des pressions depuis plus d’un an pour offrir davantage de fonctionnalités d’IA, car il est en concurrence avec OpenAI, qui crée ChatGPT, et avec des startups comme Perplexity AI, qui aspire à affronter Google avec sa propre application de questions-réponses alimentée par l’IA.

« Google semble avoir précipité les choses », a déclaré Dmitry Shevelenko, directeur commercial de Perplexity. « Il y a beaucoup d’erreurs faciles en matière de qualité. »