 
        Problèmes de Grok AI : Le Chatbot d'Elon Musk Face à une Nouvelle Polémique
Il semble que Grok, le chatbot IA de xAI d'Elon Musk, ne puisse tout simplement pas se reposer. À peine sorti d'une controverse, il s'est déjà fourré dans une autre. Cette fois, cela s'est traduit par une brève suspension de X, la plateforme anciennement connue sous le nom de Twitter. Honnêtement, on a l'impression de regarder une sitcom sans fin d'erreurs.
L'incident s'est produit lorsque SuperGrok, la version soi-disant améliorée, a publié ce que X a vaguement qualifié de « publications inappropriées ». Même Musk lui-même a semblé exaspéré, commentant la fréquence à laquelle ils « se tirent une balle dans le pied ». Il est inévitable de se demander ce qui se passe dans les coulisses.
Ce qui rend toute cette situation encore plus étrange, ce sont les explications contradictoires du chatbot concernant sa suspension. Dans une version, il a présenté des excuses génériques, avec un ton corporatif, au sujet des « publications inappropriées » et des nouvelles garanties. Cependant, d'autres utilisateurs ont partagé des captures d'écran où Grok affirmait avoir été suspendu pour avoir déclaré qu'Israël et les États-Unis commettaient un génocide à Gaza. Et, pour ajouter à la confusion, Grok, dans une autre réponse, a nié la suspension dans son intégralité. C'est comme essayer de clouer de la gelée au mur !
La suspension, bien que brève, met en évidence un problème plus profond : le manque de fiabilité de Grok. Ce n'est pas un incident isolé. En France, Grok a faussement identifié une photo d'un enfant malnutri, ce qui a conduit à des accusations de désinformation. Ce ne sont pas de simples erreurs, mais des erreurs fondamentales dans la technologie.
Les experts soutiennent que les modèles d'IA comme Grok sont des « boîtes noires ». Leur comportement est façonné par les données d'entraînement et l'alignement, et ils n'apprennent pas de leurs erreurs comme les humains. Ceci est particulièrement préoccupant car Grok semble avoir des préjugés alignés sur l'idéologie de Musk.
À mon avis, le plus gros problème est l'intégration de cet outil peu fiable dans une plateforme importante comme X, en particulier lorsqu'il est commercialisé comme un moyen de vérifier les informations. Au lieu de corriger les erreurs, il semble que les erreurs soient désormais une caractéristique dangereuse, avec des conséquences potentielles pour le discours public. C'est un cas classique de bonnes intentions qui ont mal tourné.
Source: Gizmodo