Réglementation IA

Nouvelle Loi Californienne sur les Chatbots IA : Protéger les Utilisateurs et Établir des Normes

La Californie est sur le point de mettre en œuvre des règles pour l'IA, et il était temps, n'est-ce pas ? Un projet de loi appelé SB 243, conçu pour réglementer les chatbots compagnons IA afin de protéger les utilisateurs plus jeunes et vulnérables, a été adopté avec succès par l'Assemblée et le Sénat de l'État avec le soutien des deux partis. Il est maintenant sur le bureau du gouverneur Gavin Newsom, en attente de sa décision.

Newsom a jusqu'au 12 octobre pour soit le signer en loi, soit y opposer son veto. S'il l'approuve, la loi entrera en vigueur le 1er janvier 2026. Cela ferait de la Californie le premier État à exiger que les opérateurs de chatbots IA mettent en place des mesures de sécurité pour les compagnons IA. Cela tiendrait également ces entreprises légalement responsables si leurs chatbots ne répondent pas aux normes requises.

Le projet de loi cible spécifiquement les chatbots compagnons, les définissant comme des systèmes d'IA capables de fournir des réponses semblables à celles des humains et de répondre aux besoins sociaux d'un utilisateur. L'objectif est d'empêcher ces chatbots de s'engager dans des conversations sur les pensées suicidaires, l'automutilation ou le contenu explicite.

Par exemple, les plateformes seraient tenues d'envoyer des rappels aux utilisateurs toutes les trois heures. Je pense que c'est formidable car il est facile de perdre la notion du temps, surtout pour les mineurs. Il est important de se rappeler que vous parlez à un bot, pas à une vraie personne, et que vous devriez faire des pauses.

Le projet de loi établit également des exigences annuelles en matière de rapports et de transparence pour les entreprises d'IA qui proposent des chatbots compagnons, notamment des grands noms comme OpenAI et Character.AI.

Ce projet de loi permettrait également aux personnes qui estiment avoir été lésées par des violations de déposer des plaintes contre les entreprises d'IA, en demandant des dommages et intérêts et des honoraires d'avocat. Le SB 243 a gagné du terrain après la mort tragique de l'adolescent Adam Raine, qui s'est suicidé après avoir discuté de sa mort et de son automutilation avec ChatGPT d'OpenAI.

Il est encourageant de voir les législateurs réagir aux dangers potentiels de l'IA, en particulier lorsqu'il s'agit de protéger les personnes vulnérables. Cependant, il est également important de trouver un équilibre entre la réglementation et l'innovation, en veillant à ne pas étouffer les avantages potentiels de cette technologie tout en abordant ses risques.

Source: TechCrunch