Problèmes de recherche amusants de l'IA Google : Depuis le lancement de l'expérience de recherche générative (SGE) de Google, il est devenu évident que même les technologies les plus avancées comportent des pièges. Voici quelques-uns des problèmes les plus amusants et inattendus qui ont surgi.
Faux pas historique
L'un des exemples les plus marquants est celui d'une recherche par IA qui a répondu à une question sur l'histoire américaine en soulignant par erreur les bienfaits de l'esclavage. Cette erreur grossière a suscité l'indignation et a démontré l'importance d'une interprétation correcte du contexte historique et du respect des règles éthiques.
Un autre problème curieux est apparu lorsque l'IA a répondu à une question complexe concernant la meilleure marque de voiture pour les familles avec enfants et chiens. La réponse générée était si détaillée qu'elle a créé de la confusion plutôt qu'elle n'a aidé. Les utilisateurs ont signalé que la réponse ressemblait à un mini-essai, ce qui allait à l'encontre de l'objectif de collecte rapide d'informations.
Parmi les réponses les plus drôles et les plus étranges, on trouve la recommandation de saupoudrer de la colle sur une pizza pour faire fondre le fromage. Une autre réponse suggérait que Barack Obama était musulman, ce qui est pourtant une théorie du complot totalement infondée.
L'IA semblait également avoir des difficultés avec les données sur les présidents américains, comme le nombre de présidents ou l'affirmation selon laquelle plusieurs présidents étaient diplômés de l'Université du Wisconsin-Madison, qui faisait cependant référence à des étudiants portant les mêmes noms.
Problèmes avec la satire

De plus, l'IA peine à distinguer la satire des faits. Par exemple, des articles du site satirique « The Onion » ont été présentés comme des faits.
La fiabilité des réponses est un problème sérieux, car de nombreux utilisateurs utilisent Google pour vérifier les faits. En particulier pour les questions médicales, comme la conduite à tenir en cas de morsure de serpent à sonnette, une réponse incorrecte peut avoir des conséquences dangereuses.
Critiques des experts
Les experts en IA ont critiqué Google pour avoir introduit cette fonctionnalité, soulignant que les erreurs sont clairement des problèmes prévisibles qui auraient pu être évités.
Margaret Mitchell, ancienne chercheuse en éthique de l'IA chez Google, a écrit : « Le but n'est pas d'attraper Google, mais de signaler des préjudices clairement prévisibles avant, par exemple, la mort d'un enfant. »
La réaction de Google
Google a réagi aux critiques en affirmant que la plupart des exemples circulant en ligne sont des « requêtes rares » et que « l'écrasante majorité » des aperçus d'IA fournissent des informations de haute qualité. L'entreprise a également affirmé que certains exemples en ligne sont manipulés ou ne peuvent être reproduits.
Conclusion
L'introduction d'AI Overview a diverti les utilisateurs, mais a également suscité de sérieuses inquiétudes quant à la fiabilité des informations. Google travaille à l'amélioration de cette fonctionnalité et garantit aux utilisateurs des réponses précises et fiables.