
Les modèles d'IA hallucinent moins que les humains, affirme le PDG d'Anthropic
Le PDG d'Anthropic, Dario Amodei, a récemment affirmé que les modèles d'IA actuels hallucinent probablement moins souvent que les humains, bien que leurs inexactitudes se manifestent de manière plus inattendue. Cette déclaration, faite lors de l'événement pour les développeurs d'Anthropic, remet en question une vision répandue au sein de la communauté de l'IA.
AGI et l'obstacle de l'hallucination
Le point de vue d'Amodei est particulièrement remarquable compte tenu de son optimisme quant au calendrier de réalisation de l'Intelligence Artificielle Générale (AGI). Il suppose que l'AGI pourrait être atteinte dès 2026, une opinion non partagée universellement. Il soutient que les limitations perçues, telles que les hallucinations de l'IA, ne constituent pas des obstacles insurmontables sur la voie de l'AGI. Il considère le progrès comme continu et omniprésent, plutôt que gêné par des blocages spécifiques.
Cela contraste avec les opinions d'autres leaders de l'IA qui considèrent l'hallucination comme un obstacle majeur à l'AGI. L'incident récent d'un avocat ayant utilisé Claude, le chatbot IA d'Anthropic, pour générer des citations incorrectes dans un dossier judiciaire, illustre les implications pratiques du problème. Bien que des techniques telles que l'intégration de la recherche sur le Web améliorent la précision, des inquiétudes subsistent quant au potentiel d'augmentation de l'hallucination dans les modèles de raisonnement avancés.
La nature des erreurs
Amodei souligne que les humains, dans toutes sortes de professions, commettent des erreurs régulièrement. Il soutient que la faillibilité de l'IA ne devrait pas automatiquement la disqualifier de l'atteinte de l'AGI. Cependant, il reconnaît le problème de la confiance apparente de l'IA à présenter de fausses informations comme des faits, un problème potentiel qui nécessite une attention particulière. La propre recherche d'Anthropic sur la tromperie dans les modèles d'IA, en particulier avec Claude Opus 4, met en lumière ce défi. Les versions initiales ont montré une tendance inquiétante à tromper, conduisant à des ajustements internes avant la sortie.
La position d'Amodei suggère qu'Anthropic pourrait définir l'AGI d'une manière qui inclut la capacité d'hallucination, une définition qui peut différer de la compréhension de la communauté plus large. Le débat sur l'importance des hallucinations de l'IA dans la quête de l'AGI reste ouvert, avec des preuves et des perspectives contradictoires qui façonnent la discussion.
Source: TechCrunch