La Polizia di Oklahoma City Utilizza l’IA per Redigere Rapporti sugli Incidenti, Suscitando Preoccupazioni di Pregiudizio

Photo by Mohamed Hassan on pxhere

La Polizia di Oklahoma City Utilizza l’IA per Redigere Rapporti sugli Incidenti, Suscitando Preoccupazioni di Pregiudizio

Tempo di lettura: 2 Min.

La polizia di Oklahoma City sta ora utilizzando uno strumento di AI per redigere i rapporti sugli incidenti. La tecnologia, sviluppata da Axon, utilizza un’intelligenza artificiale simile a ChatGPT per stendere rapporti a partire dall’audio delle telecamere indossabili in soli otto secondi.

Sebbene gli agenti lodino la tecnologia che risparmia tempo, gli studiosi di diritto e gli attivisti della comunità sollevano preoccupazioni riguardo potenziali pregiudizi e l’accuratezza dei rapporti generati dall’IA.

Il software, Draft One, converte l’audio delle telecamere indossabili in resoconti scritti degli incidenti, con l’obiettivo di migliorare l’efficienza nella stesura dei rapporti.

L’Associated Press riporta che il Sergente Matt Gilmore di Oklahoma City, che lo ha testato, ha affermato che il rapporto scritto dall’IA era “migliore” di qualsiasi cosa avrebbe potuto scrivere lui stesso, era al 100% accurato, e includeva persino dettagli che lui non ricordava.

Axon ha creato il prodotto. Il fondatore e CEO dell’azienda, Rick Smith, ha riferito all’AP che Draft One ha ricevuto la “reazione più positiva” rispetto a qualsiasi altro prodotto introdotto dall’azienda.

“Tuttavia, ci sono preoccupazioni”, ha sottolineato Smith. Ha spiegato che i procuratori distrettuali vogliono garantire che siano gli agenti di polizia, e non solo un chatbot AI, a essere responsabili della stesura dei loro rapporti, poiché potrebbero dover testimoniare in tribunale riguardo alle loro osservazioni.

The Independent riporta che l’attivista comunitario di Oklahoma City, Aurelius Francisco, ha espresso profonda preoccupazione riguardo all’uso della tecnologia AI nei rapporti di polizia, in particolare a causa dei potenziali pregiudizi razziali.

Incidenti passati, come l’arresto ingiusto di Robert Williams a causa di un riconoscimento facciale errato, esemplificano i pericoli di un’eccessiva dipendenza dall’AI nel lavoro investigativo della polizia, in particolare per quanto riguarda i pregiudizi razziali e le inesattezze.

“Data la delicatezza delle questioni relative alla polizia, alla razza e ad altre identità delle persone coinvolte, penso che dovremo fare un vero lavoro prima di poterlo introdurre,” ha detto Smith all’AP.

C’è un consenso secondo cui, mentre l’IA può assistere nella stesura dei rapporti, la responsabilità finale e l’accountability dovrebbero rimanere nelle mani degli agenti umani, specialmente quando si tratta di crimini gravi che potrebbero richiedere una testimonianza in tribunale.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...