notícias

gere um relatório da cena do crime em 8 segundos. a polícia dos eua usa uma ferramenta de ia para escrever documentos, que é mais preciso do que a recuperação do cérebro humano.

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

editor: er qiao yang

[introdução à nova sabedoria]a polícia dos eua começou a usar a ferramenta de inteligência artificial draft one para ajudar na documentação. os relatórios de crimes podem ser gerados em segundos e são mais precisos do que a recuperação do cérebro humano.

trezentas e sessenta linhas, usando ia——

a ia pode ser usada para auxiliar o trabalho policial e, recentemente, a inteligência artificial alimentada pelo gpt-4 tem sido usada para escrever relatórios de crimes e arquivar documentos.

em abril deste ano, a axon lançou uma nova ferramenta chamada draft one, que pode transcrever o áudio da câmera corporal e transformá-lo automaticamente em um boletim de ocorrência.

o draft one usa o mesmo modelo de geração de inteligência artificial do chatgpt, e o serviço em nuvem é fornecido pela microsoft.

o lançamento do draft one foi rapidamente bem recebido pelos policiais, porque a coleta trivial de dados, a recuperação no local e a redação consomem muito tempo e energia. agora existe um "assistente de polícia de ia" para ajudar.

um dos primeiros testadores, o departamento de polícia de fort collins, no colorado, disse que levar o draft one para o trabalho policial reduziu o tempo necessário para escrever relatórios em 82%.

o ceo da axon, rick smith, estima que se um policial passa metade de seu tempo escrevendo relatórios de direitos autorais todos os dias, usar o draft one pode reduzir a carga de trabalho em pelo menos metade. dedicar ao ocupado trabalho de serviço policial.

teste de campo

parece que o draft one pode concluir diretamente o tedioso trabalho de organização de documentos. então, como ele funciona na conclusão do trabalho policial específico?

o departamento de polícia de oklahoma city é um dos poucos departamentos de polícia piloto que começou a experimentar o uso de chatbots de ia para escrever os primeiros rascunhos de relatórios de casos.

o policial matt gilmore e seu cão detector gunner procuraram um grupo de suspeitos por quase uma hora, com câmeras corporais e o draft one capturando cada palavra dita pelos policiais e suspeitos.

normalmente, o policial de oklahoma city pegava seu laptop e passava de 30 a 45 minutos escrevendo um relatório de busca quando estava de serviço, mas desta vez ele deixou uma ferramenta de inteligência artificial escrever o primeiro rascunho.

o draft one extraiu todas as conversas de áudio e rádio do microfone de gilmore, gerando um relatório em 8 segundos.

“o relatório foi ainda melhor do que o que escrevi e foi 100 por cento preciso”, disse gilmore. “até registrou um detalhe do qual ele nem se lembrava, como outro policial mencionando a cor do carro do suspeito quando ele fugiu.

em um caso de incidente de trânsito, o policial carregou o vídeo da parada de trânsito no sistema, depois apertou um botão e o programa gerou um relatório narrativo em linguagem coloquial com base no áudio da câmera do carro, incluindo data e hora. como o relatório de um policial baseado em suas anotações.

todo o processo correu bem e levou apenas alguns segundos para ser concluído. e após análise da polícia, não houve necessidade de modificá-lo.

ao final do relatório, os policiais devem marcar uma caixa indicando que o relatório foi gerado por meio de inteligência artificial.

os policiais que experimentaram essa tecnologia estão muito interessados ​​nesta ferramenta de ia que economiza tempo e funciona bem.

alguns procuradores, reguladores policiais e juristas estão preocupados com o facto de, quando os relatórios de casos escritos pela ia serem utilizados como parte do sistema de justiça criminal ou como provas importantes, quem irá garantir a precisão dos relatórios? porque grandes modelos de linguagem podem criar alucinações ou fabricar fatos e até ter preconceitos raciais.

por exemplo, um procurador distrital que processa casos criminais pretende que os relatórios sejam escritos por agentes da polícia, e não apenas por um chatbot de ia, porque estes devem ser responsabilizados pela veracidade do que testemunharam.

se um funcionário dissesse no banco das testemunhas: “bem, a ia escreveu isso, eu não escrevi e não sabia”, seria extremamente ridículo e desrespeitaria a lei.

a tecnologia de inteligência artificial não é estranha às agências policiais, que já utilizam ferramentas algorítmicas para ler matrículas, identificar rostos de suspeitos, detectar tiros e prever onde é provável que os crimes ocorram.

muitas destas aplicações envolvem questões de privacidade e direitos civis, e os legisladores estabeleceram leis e regulamentos para garantir que as ferramentas de ia funcionam dentro de limites razoáveis.

no entanto, a utilização de relatórios de casos gerados por inteligência artificial acaba de ser introduzida e quase não existem regulamentos e limites para a sua utilização.

fator perturbador

como o campo de utilização do draft one é muito sensível, muitas pessoas têm dúvidas sobre a introdução de novas tecnologias.

como resolver o problema de preconceito inerente ao llm? como garantir o uso correto das ferramentas? quem limitará o escopo e o limite de uso da tecnologia?

preconceito racial

aurelius francisco, um ativista comunitário de oklahoma city, disse ao falar sobre esta nova tecnologia que a possibilidade de preconceito racial na tecnologia de ia é apenas parte da razão pela qual ele está “profundamente perturbado” com esta nova ferramenta.

o professor de direito andrew ferguson está preocupado com o fato de que as etapas automatizadas e a introdução da tecnologia de ia farão com que os policiais sejam menos cautelosos ao escrever.

os grandes modelos de linguagem por trás dos chatbots de ia podem facilmente fabricar informações, um problema conhecido como “ilusão” que pode adicionar falsidades imperceptíveis aos relatórios policiais.

noah spitzer-williams, gerente sênior de produtos de inteligência artificial da axon, disse à forbes que, para evitar preconceitos raciais ou outros, eles optaram por configurar o draft one com base no modelo gpt-4 turbo de última geração da openai.

a maneira mais simples e grosseira é desligar diretamente a autocriatividade da ferramenta e simplesmente se tornar uma máquina de gravação implacável, o que pode reduzir bastante o número de ilusões e erros.

axon conduziu um teste fazendo gravações de câmeras corporais reais e, em cada caso, apenas alterou a raça do suspeito, como substituir a palavra “branco” por “preto” ou “latino”, e então deixou o modelo escrever um relatório.

noah spitzer-williams disse que os relatórios policiais gerados durante o teste não mostraram “nenhuma diferença estatisticamente significativa entre as raças” em centenas de amostras.

relatório oral

para alguns policiais que experimentaram a nova tecnologia, o draft one mudou a forma como lidam com os casos.

por exemplo, os policiais contarão à máquina o que aconteceu como uma história, permitindo que a câmera capture melhor o que desejam destacar no relato do caso.

à medida que a tecnologia se torna mais difundida, o chefe da polícia de oklahoma city, jason bussert, disse esperar que os policiais se tornem “cada vez mais eloqüentes” na descrição das situações em questão, porque elas são transmitidas verbalmente.

escopo de uso

axon aconselhou a polícia a não usar inteligência artificial para escrever relatórios sobre casos criminais graves, como tiroteios, porque são complexos e os riscos são muito altos.

os primeiros usuários usavam o draft one apenas para escrever relatórios de contravenções, mas depois cada vez mais clientes estão usando-o para escrever casos mais sérios, incluindo casos violentos e assim por diante.

no entanto, a axon é responsável apenas por fornecer ferramentas de ia e não tem controle sobre como os departamentos de polícia individuais usam essas ferramentas.

por exemplo, o chefe de polícia de lafayette, indiana, scott galloway, disse à associated press que todos os policiais podem usar o draft one em qualquer tipo de caso, e que ele tem sido popular entre os policiais desde que o piloto começou no início deste ano.

robert younger, policial de fort collins, colorado, disse que os policiais são livres para usá-lo em qualquer tipo de denúncia, mas descobriram que não funciona bem em patrulhas nos bairros de bares do centro da cidade porque “é muito barulhento”.

além de usar inteligência artificial para analisar e resumir gravações de áudio, a axon também está tentando usar um sistema de visão multimodal para resumir o que é visto nos videoclipes, mas a tecnologia ainda não está madura.

como não há margem para erros no trabalho policial, as novas tecnologias devem ser testadas em muitos aspectos antes de o reconhecimento visual ser introduzido.

a axon não quis dizer quantos departamentos de polícia estão usando a tecnologia e não é o único fornecedor como policereports.ai e truleo que lançou produtos semelhantes.

além disso, vale ressaltar que além da nova tecnologia draft one, a axon também fornece taser – uma arma de choque para a polícia dos eua.

portanto, a axon tem um relacionamento cooperativo profundo com o departamento de polícia e se tornou a primeira escolha do departamento de polícia para cooperação empresarial e aquisição de ferramentas de ia.