notizia

genera un rapporto sulla scena del crimine in 8 secondi. la polizia statunitense utilizza lo strumento ai per scrivere documenti, che è più accurato del ricordo del cervello umano

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

editore: er qiao yang

[introduzione alla nuova saggezza]la polizia statunitense ha iniziato a utilizzare lo strumento di intelligenza artificiale draft one per assistere con le pratiche burocratiche che possono essere generate in pochi secondi e sono più accurate dei ricordi del cervello umano.

trecentosessanta righe, utilizzando l'intelligenza artificiale——

l’intelligenza artificiale può essere utilizzata per assistere il lavoro della polizia e, recentemente, l’intelligenza artificiale basata su gpt-4 è stata utilizzata per scrivere rapporti sui crimini e archiviare documenti.

nell'aprile di quest'anno, axon ha lanciato un nuovo strumento chiamato draft one, in grado di trascrivere l'audio dalla telecamera e trasformarlo automaticamente in un rapporto della polizia.

draft one utilizza lo stesso modello di generazione dell'intelligenza artificiale di chatgpt e il servizio cloud è fornito da microsoft.

il lancio di draft one è stato rapidamente accolto con favore dagli agenti di polizia, perché la banale raccolta di dati, il richiamo sul posto e il copywriting richiedono molto tempo ed energia. ora c'è un "assistente di polizia ai" per aiutare.

uno dei primi tester, il dipartimento di polizia di fort collins in colorado, ha affermato che portare draft one al lavoro di polizia ha ridotto del 82% il tempo necessario per scrivere i rapporti.

il ceo di axon rick smith stima che se un agente di polizia trascorre metà del suo tempo a scrivere rapporti di copywriting ogni giorno, utilizzando draft one può ridurre il carico di lavoro di almeno la metà. quindi, l'agente di polizia ha l'opportunità di liberare il 25% del suo tempo dedicarsi all'intenso lavoro di servizio della polizia.

prova sul campo

sembra che draft one possa completare direttamente il noioso lavoro di organizzazione dei documenti. quindi, come si comporta nel completare il lavoro specifico della polizia?

il dipartimento di polizia di oklahoma city è uno dei pochi dipartimenti di polizia pilota che ha iniziato a sperimentare l’uso di chatbot con intelligenza artificiale per scrivere le prime bozze di rapporti sui casi.

l'agente matt gilmore e il suo cane da rilevamento gunner hanno cercato un gruppo di sospetti per quasi un'ora, con le telecamere del corpo e la draft one che catturavano ogni parola pronunciata dagli agenti e dai sospetti.

normalmente, l'ufficiale di polizia di oklahoma city prendeva il suo laptop e passava dai 30 ai 45 minuti a scrivere un rapporto di ricerca quando era in servizio, ma questa volta ha lasciato che uno strumento di intelligenza artificiale scrivesse la prima bozza.

draft one ha estratto tutto l'audio e le chiacchiere radiofoniche dal microfono di gilmore, generando un rapporto in 8 secondi.

"il rapporto era persino migliore di quello che avevo scritto ed era accurato al 100%", ha detto gilmore.

in un caso di incidente stradale, l'ufficiale ha caricato il video del blocco del traffico nel sistema, quindi ha premuto un pulsante e il programma ha generato un rapporto narrativo in linguaggio colloquiale basato sull'audio della telecamera dell'auto, inclusa la data e l'ora. come il rapporto di un agente di polizia basato sui suoi appunti.

l'intero processo è andato liscio e ci sono voluti solo pochi secondi per essere completato. e dopo il controllo da parte della polizia, non è stato necessario modificarlo.

alla fine del rapporto, gli agenti devono selezionare una casella che indica che il rapporto è stato generato utilizzando l’intelligenza artificiale.

gli agenti di polizia che hanno provato questa tecnologia sono molto interessati a questo strumento di intelligenza artificiale che fa risparmiare tempo e funziona bene.

alcuni pubblici ministeri, autorità di polizia e studiosi di diritto temono che, quando i rapporti sui casi scritti da ai vengono utilizzati come parte del sistema di giustizia penale o come prova importante, chi garantirà l’accuratezza dei rapporti? perché i grandi modelli linguistici possono creare allucinazioni o fabbricare fatti e persino avere pregiudizi razziali.

ad esempio, un procuratore distrettuale che persegue casi penali vuole che i rapporti siano scritti da agenti di polizia, non solo da un chatbot basato sull’intelligenza artificiale, perché devono essere ritenuti responsabili della veridicità di ciò a cui hanno assistito.

per un funzionario dire sul banco dei testimoni: "bene, l'ia ha scritto questo, non l'ho scritto io e non lo sapevo", sarebbe estremamente ridicolo e violerebbe la legge.

la tecnologia dell’intelligenza artificiale non è estranea alle agenzie di polizia, che già utilizzano strumenti algoritmici per leggere le targhe, identificare i volti dei sospetti, rilevare gli spari e prevedere dove è probabile che si verifichino i crimini.

molte di queste applicazioni riguardano questioni relative alla privacy e ai diritti civili e i legislatori hanno stabilito leggi e regolamenti per garantire che gli strumenti di intelligenza artificiale operino entro limiti ragionevoli.

tuttavia, l’uso di case report generati dall’intelligenza artificiale è stato appena introdotto e non esistono quasi norme e soglie per l’uso.

fattore inquietante

poiché il campo di utilizzo di draft one è molto delicato, molte persone hanno dubbi sull'introduzione di nuove tecnologie.

come risolvere il problema dei pregiudizi intrinseci di llm? come garantire il corretto utilizzo degli strumenti? chi limiterà la portata e la soglia di utilizzo della tecnologia?

pregiudizio razziale

aurelius francisco, un attivista della comunità di oklahoma city, ha detto parlando di questa nuova tecnologia che la possibilità di pregiudizi razziali nella tecnologia dell'intelligenza artificiale è solo una parte del motivo per cui è "profondamente turbato" da questo nuovo strumento.

il professore di diritto andrew ferguson teme che i passaggi automatizzati e l’introduzione della tecnologia ai porteranno gli agenti di polizia a essere meno cauti quando scrivono.

i grandi modelli linguistici alla base dei chatbot basati sull’intelligenza artificiale possono facilmente fabbricare informazioni, un problema noto come “illusione” che può aggiungere falsità impercettibili ai rapporti della polizia.

noah spitzer-williams, responsabile senior del prodotto di intelligenza artificiale di axon, ha dichiarato a forbes che per evitare pregiudizi razziali o di altro tipo, hanno scelto di configurare draft one in base al modello all'avanguardia gpt-4 turbo di openai.

il modo più semplice e rozzo è disattivare direttamente l'autocreatività dello strumento e diventare semplicemente una spietata macchina di registrazione, che può ridurre notevolmente il numero di illusioni ed errori.

axon ha condotto un test effettuando registrazioni della telecamera del corpo reale e in ogni caso ha cambiato solo la razza del sospettato, ad esempio sostituendo la parola "bianco" con "nero" o "latino", e poi ha lasciato che il modello scrivesse un rapporto.

noah spitzer-williams ha affermato che i rapporti della polizia generati durante il test non hanno mostrato "differenze statisticamente significative tra le razze" tra centinaia di campioni.

reportistica orale

per alcuni agenti che hanno provato la nuova tecnologia, la draft one ha cambiato il modo in cui gestiscono i casi.

ad esempio, gli agenti racconteranno alla macchina quello che è successo come una storia, consentendo alla telecamera di catturare meglio ciò che vogliono evidenziare nel loro rapporto sul caso.

man mano che la tecnologia diventa più diffusa, il capo della polizia di oklahoma city, jason bussert, ha detto che si aspetta che gli agenti diventino "sempre più eloquenti" nel descrivere le situazioni perché vengono trasmesse verbalmente.

ambito di utilizzo

axon ha sconsigliato alla polizia di utilizzare l’intelligenza artificiale per scrivere rapporti su casi criminali gravi come le sparatorie perché sono complessi e la posta in gioco è molto alta.

i primi utenti utilizzavano draft one solo per scrivere rapporti di reati minori, ma in seguito sempre più clienti lo utilizzano per scrivere casi più gravi, inclusi casi violenti e così via.

tuttavia, axon è responsabile solo della fornitura di strumenti di intelligenza artificiale e non ha alcun controllo su come i singoli dipartimenti di polizia utilizzano questi strumenti.

ad esempio, il capo della polizia di lafayette, indiana, scott galloway, ha dichiarato all'associated press che tutti gli agenti possono utilizzare draft one su qualsiasi tipo di caso e che è stato popolare tra gli agenti da quando il progetto pilota è iniziato all'inizio di quest'anno.

robert younger, un agente di polizia di fort collins, in colorado, ha detto che gli agenti sono liberi di usarlo su qualsiasi tipo di rapporto, ma hanno scoperto che non funziona bene nelle pattuglie dei quartieri dei bar del centro perché "è troppo rumoroso".

oltre a utilizzare l'intelligenza artificiale per analizzare e sintetizzare le registrazioni audio, axon sta cercando di utilizzare anche un sistema di visione multimodale per sintetizzare ciò che si vede nei videoclip, ma la tecnologia non è ancora matura.

poiché non vi è spazio per errori nel lavoro di polizia, le nuove tecnologie devono essere testate sotto molti aspetti prima di introdurre il riconoscimento visivo.

axon non dice quanti dipartimenti di polizia utilizzano la tecnologia e non è l'unico fornitore come policereports.ai e truleo ad aver lanciato prodotti simili.

inoltre, vale la pena ricordare che oltre alla nuova tecnologia draft one, axon fornisce anche taser, una pistola stordente per la polizia americana.

pertanto, axon ha un profondo rapporto di collaborazione con il dipartimento di polizia ed è diventata la prima scelta del dipartimento di polizia per la cooperazione commerciale e l’acquisto di strumenti di intelligenza artificiale.