Sécurité IA

L'IA Confond Doritos avec une Arme: Un Lycéen Menotté

Technologie

Alors, je suis tombé sur cette histoire folle à propos d'un lycéen du Maryland qui a eu de gros ennuis à cause d'une fausse alerte d'un système de sécurité IA. Pouvez-vous imaginer vous faire menotter pour un sac de Doritos ? C'est exactement ce qui est arrivé à Taki Allen au Kenwood High School. Il tenait juste ses chips, et le système l'a apparemment confondu avec une arme à feu. On dirait une scène de film !

Selon Allen, les agents l'ont fait s'agenouiller, ont mis ses mains derrière son dos, puis l'ont menotté. Je veux dire, quelle réaction excessive ! Cela vous fait vous demander à quel point ces systèmes d'IA sont réellement précis. Bien que je comprenne la nécessité de la sécurité scolaire, surtout de nos jours, il y a une limite, n'est-ce pas ? Lorsqu'une collation est confondue avec une arme, je pense que nous l'avons franchie.

La directrice de l'école, Katie Smith, a déclaré que le service de sécurité avait déjà examiné et annulé l'alerte de détection d'arme, mais elle n'était pas immédiatement au courant et a signalé la situation quand même. C'est beaucoup de manque de communication, si vous voulez mon avis ! Cela montre simplement à quel point les choses peuvent facilement dégénérer lorsque la technologie et la réponse humaine ne sont pas tout à fait synchronisées.

Omnilert, la société à l'origine du système de détection d'armes à feu IA, a exprimé ses regrets concernant l'incident. Cependant, ils ont également déclaré que "le processus a fonctionné comme prévu". C'est là que je deviens un peu inquiet. Si la fonction prévue du système est de signaler les sacs de chips comme des armes à feu, alors peut-être qu'il a besoin d'une sérieuse mise à niveau ! Je veux dire, allons, il doit y avoir une meilleure façon d'assurer la sécurité de nos écoles sans traumatiser les élèves à cause des choix de collations.

Cela vous fait réfléchir à l'avenir de l'IA dans la sécurité. Nous voulons assurer la sécurité de nos enfants, mais à quel prix ? Si la technologie est sujette à des erreurs comme celle-ci, nous devons être très prudents quant à la façon dont elle est mise en œuvre. Je pense qu'il faut plus de formation pour le système lui-même, mais aussi pour les personnes qui répondent aux alertes. Il est essentiel de s'assurer que le jugement humain joue toujours un rôle, afin d'éviter que des situations comme celle-ci ne se reproduisent. Il est peut-être temps de réfléchir à de nouvelles façons d'utiliser l'IA, où la précision est essentielle. Qu'en pensez-vous ?

Source: TechCrunch