
Rapport de Sécurité de l'AGI de DeepMind : Prédiction des Risques et Stratégies
Google DeepMind a récemment publié un document exhaustif décrivant son approche de la sécurité de l'Intelligence Artificielle Générale (IAG), définie comme une IA capable d'effectuer toute tâche qu'un humain peut réaliser. Ce sujet est controversé, certains rejetant l'IAG comme un rêve lointain, tandis que d'autres, comme Anthropic, mettent en garde contre son arrivée imminente et son potentiel de dommages graves.
Le document de 145 pages de DeepMind, co-écrit par Shane Legg, estime que l'IAG pourrait devenir une réalité d'ici 2030, entraînant potentiellement des "dommages graves", y compris des "risques existentiels" qui pourraient "détruire définitivement l'humanité". Le document définit une "IAG Exceptionnelle" comme un système correspondant aux capacités du 1 % supérieur des adultes qualifiés dans diverses tâches, y compris l'apprentissage de nouvelles compétences.
Position de DeepMind sur la Sécurité de l'IAG
Le document oppose l'approche de DeepMind en matière d'atténuation des risques liés à l'IAG à celles d'Anthropic et d'OpenAI. DeepMind suggère qu'Anthropic pourrait ne pas suffisamment mettre l'accent sur "une formation, une surveillance et une sécurité robustes", tandis qu'OpenAI est trop optimiste quant à "l'automatisation" de la recherche sur la sécurité de l'IA. DeepMind exprime également son scepticisme quant à l'IA super intelligente, remettant en question son arrivée imminente sans "innovation architecturale significative". Cependant, le document reconnaît la plausibilité de "l'amélioration récursive de l'IA", où l'IA s'améliore elle-même, ce qui pourrait conduire à des résultats dangereux.
DeepMind propose des techniques pour empêcher l'accès non autorisé à l'IAG, améliorer la compréhension des actions de l'IA et protéger les environnements de l'IA. Tout en reconnaissant la phase naissante de ces techniques, le document souligne l'importance de relever ces défis de sécurité de manière proactive. "La nature transformatrice de l'IAG a le potentiel d'avantages incroyables ainsi que de dommages graves", affirment les auteurs, exhortant les développeurs d'IA à donner la priorité à l'atténuation des dommages.
Opinions d'Experts et Contre-Arguments
Tous les experts ne sont pas d'accord avec l'évaluation de DeepMind. Heidy Khlaaf de l'AI Now Institute considère que le concept d'IAG est trop ambigu pour une évaluation scientifique. Matthew Guzdial de l'Université de l'Alberta doute de la faisabilité de l'amélioration récursive de l'IA, tandis que Sandra Wachter d'Oxford souligne le danger que l'IA se renforce avec des résultats inexacts, en particulier avec la prolifération de l'IA générative.
Wachter soutient que les chatbots, utilisés pour la recherche et la découverte de la vérité, risquent de nourrir les utilisateurs de "demi-vérités" présentées de manière convaincante. Malgré son exhaustivité, il est peu probable que le document de DeepMind résolve les débats en cours autour du réalisme de l'IAG et des domaines les plus urgents de la sécurité de l'IA.
Source: TechCrunch