L’IA pourrait-elle arrêter une fusillade avant qu’elle ne commence ?

La technologie de l’intelligence artificielle (IA) est le dernier outil utilisé pour lutter contre la violence armée aux États-Unis.

Selon Gun Violence Archive, les fusillades de masse sont passées de 269 en 2014 à 611 en 2020. Des entreprises comme ZeroEyes essaient d’utiliser les nouvelles technologies pour aider à arrêter les fusillades et sauver des vies.


Qu’avez-vous besoin de savoir

  • La technologie de l’intelligence artificielle (IA) est le dernier outil utilisé pour lutter contre la violence armée aux États-Unis
  • Les anciens Navy SEALs Rob Huberty et Sam Alaimo ont fondé et créé ZeroEyes, une plate-forme de détection d’armes IA qui utilise la technologie pour surveiller les caméras qui détectent les armes non cachées.
  • Les fondateurs ont déclaré à Spectrum News qu’ils avaient commencé à travailler sur le logiciel après le massacre de la Saint-Valentin 2018 au lycée Marjory Stoneman Douglas à Parkland, en Floride, qui a tué 17 personnes et en a blessé 17 autres.
  • Les experts remettent en question l’utilisation de la technologie de l’IA pour prévenir les fusillades, ce qui soulève des inquiétudes quant à la vie privée ainsi qu’à son impact sur la santé mentale et la vie privée des élèves si elle est utilisée dans les salles de classe.

Les anciens Navy SEALs Rob Huberty et Sam Alaimo ont fondé et créé ZeroEyes, une plate-forme de détection d’armes IA qui utilise la technologie pour surveiller les caméras qui détectent les armes non cachées. La société se présente comme une “solution de détection d’armes à feu IA vérifiée par l’homme qui s’intègre aux caméras de sécurité existantes pour prévenir les tirs de masse et la violence liée aux armes à feu ; réduire les temps de réponse, fournir des renseignements exploitables et apporter de la clarté” dans l’espoir de sauver des vies.

“Nous voulions créer une solution pragmatique qui pourrait fonctionner maintenant”, a déclaré Alaimo à Spectrum News.

Les fondateurs ont commencé à travailler sur le logiciel après le massacre de la Saint-Valentin 2018 au lycée Marjory Stoneman Douglas à Parkland, en Floride, qui a tué 17 personnes et en a blessé 17 autres.

Le logiciel analyse la vidéo de surveillance. S’il détecte une arme, il envoie immédiatement une alerte aux experts en sécurité du centre des opérations de l’entreprise à Philadelphie, qui contacteront alors la police.

“Vous marchez devant une caméra jusqu’au moment où ils ont pris cette décision et le moment où vous recevez cette alerte, 3 à 5 secondes”, a déclaré Huberty à Spectrum News.

Lorsque le logiciel détecte une arme à feu suspecte, une alerte clignote dans la salle de contrôle ZeroEyes, indiquant l’emplacement exact et le type d’arme suspecte. Un sauveteur formé regarde ensuite la vidéo pour confirmer la menace et avertir la police.

« Par exemple, l’équipement de conciergerie peut ressembler à une arme potentielle. L’intimé devrait déterminer s’il s’agit d’une arme ou non », a déclaré Huberty.

ZeroEyes affirme que sa technologie est utilisée dans 29 États par les districts scolaires, les entreprises et même le gouvernement fédéral. La société teste également un système qui utilise des drones et des robots pour combattre un tireur actif potentiel.

“Ce que nous pouvons faire avec ce drone, c’est le faire voler au-dessus d’un tireur d’élite et suivre ses allées et venues”, a déclaré Alaimo. partie de la pièce où se trouve le tireur, quel type de système d’armes ont-ils.”

La société personnalise “chaque algorithme pour chacun de nos clients, selon qu’il s’agit d’un casino, d’un stade, d’une école”, a déclaré Alaimo.

L’équipe ZeroEyes affirme qu’elle forme constamment l’intelligence artificielle pour détecter différents types d’armes dans des milliers de scénarios. Cependant, le logiciel de l’entreprise a des limites, il est incapable de détecter une arme dissimulée car il s’appuie sur la vidéo de surveillance qui pose des problèmes de confidentialité.

Certains experts remettent en question l’utilisation de la technologie de l’IA dans la prévention des fusillades, soulevant des inquiétudes quant à la vie privée ainsi que son impact sur la santé mentale et la vie privée des élèves si elle est utilisée dans les salles de classe.

“Vous devez vous demander où cela se passe à l’avenir”, a déclaré Jay Stanley, analyste principal des politiques à l’American Civil Liberties Union. « Quand nous avons des caméras qui ne recherchent pas seulement des armes mais agissent de manière suspecte ? Certaines entreprises prétendent pouvoir détecter les comportements suspects. A quoi cela ressemble-t-il? Nous ne voulons certainement pas couvrir les salles de classe où se trouvent les enfants. Certaines études montrent que cela crée beaucoup d’anxiété.”

Les créateurs de ZeroEyes disent avoir conçu leur logiciel de manière à respecter le droit à la vie privée.

« Nous ne diffusons pas de flux en direct. Nous ne voyons pas les flux de caméras des étudiants, nous ne voyons pas les flux de caméras des employés. Tout ce que nous voyons est un écran vide représentant des milliers de caméras, quand une arme à feu est vue, nous obtenons une image figée », a déclaré Alaimo.

Leave a Comment

Your email address will not be published.