noticias

genere un informe de la escena del crimen en 8 segundos. la policía estadounidense utiliza una herramienta de inteligencia artificial para escribir documentos, que es más precisa que la memoria del cerebro humano.

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

editor: er qiao yang

[introducción a la nueva sabiduría]la policía estadounidense ha comenzado a utilizar la herramienta de inteligencia artificial draft one para ayudar con el papeleo. los informes sobre delitos se pueden generar en segundos y son más precisos que los recuerdos del cerebro humano.

trescientas sesenta líneas, usando ia——

la ia se puede utilizar para ayudar en el trabajo policial y, recientemente, la inteligencia artificial impulsada por gpt-4 se ha utilizado para redactar informes sobre delitos y archivar documentos.

en abril de este año, axon lanzó una nueva herramienta llamada draft one, que puede transcribir el audio de la cámara corporal y convertirlo automáticamente en un informe policial.

draft one utiliza el mismo modelo de generación de inteligencia artificial que chatgpt y el servicio en la nube lo proporciona microsoft.

el lanzamiento de draft one fue rápidamente bien recibido por los agentes de policía, porque la recopilación de datos triviales, la recuperación en el sitio y la redacción publicitaria consumen mucho tiempo y energía. ahora hay un "asistente de policía de ia" para ayudar.

uno de los primeros evaluadores, el departamento de policía de fort collins en colorado, dijo que llevar el draft one al trabajo policial redujo el tiempo necesario para redactar informes en un 82%.

el director ejecutivo de axon, rick smith, estima que si un oficial de policía dedica la mitad de su tiempo a redactar informes publicitarios todos los días, utilizar draft one puede reducir la carga de trabajo al menos a la mitad. entonces, el oficial de policía tiene la oportunidad de liberar un 25% de su tiempo. dedicarse al ajetreado trabajo de servicio policial.

prueba de campo

parece que draft one puede completar directamente el tedioso trabajo de organización de documentos. entonces, ¿cómo se desempeña al completar el trabajo policial específico?

el departamento de policía de la ciudad de oklahoma es uno de los pocos departamentos de policía piloto que ha comenzado a experimentar con el uso de chatbots de ia para redactar primeros borradores de informes de casos.

el oficial matt gilmore y su perro detector gunner buscaron a un grupo de sospechosos durante casi una hora, con cámaras corporales y draft one capturando cada palabra pronunciada por los oficiales y sospechosos.

normalmente, el oficial de policía de la ciudad de oklahoma tomaba su computadora portátil y dedicaba entre 30 y 45 minutos a escribir un informe de búsqueda cuando estaba de servicio, pero esta vez dejó que una herramienta de inteligencia artificial escribiera el primer borrador.

draft one extrajo todo el audio y la charla de radio del micrófono de gilmore y generó un informe en 8 segundos.

"el informe fue incluso mejor que lo que escribí y fue 100 por ciento exacto", dijo gilmore. "incluso registró un detalle que ni siquiera recordaba, como que otro oficial mencionó el color del auto del sospechoso cuando huyó.

en un caso de incidente de tránsito, el oficial cargó un video de la parada de tránsito en el sistema, luego presionó un botón y el programa generó un informe narrativo en lenguaje conversacional basado en el audio de la cámara del automóvil, incluida la fecha y la hora. como el informe de un oficial de policía basado en sus notas.

todo el proceso transcurrió sin problemas y solo tomó unos segundos en completarse. y tras la revisión por parte de la policía, no hubo necesidad de modificarlo.

al final del informe, los agentes deben marcar una casilla que indique que el informe se generó mediante inteligencia artificial.

los agentes de policía que han probado esta tecnología están muy interesados ​​en esta herramienta de ia que ahorra tiempo y funciona bien.

a algunos fiscales, reguladores policiales y juristas les preocupa que cuando los informes de casos escritos por ai se utilicen como parte del sistema de justicia penal o como prueba importante, ¿quién garantizará la exactitud de los informes? porque los modelos de lenguaje grandes pueden crear alucinaciones o fabricar hechos, e incluso tener prejuicios raciales.

por ejemplo, un fiscal de distrito que procesa casos penales quiere que los informes sean escritos por agentes de policía, no solo por un chatbot de ia, porque deben rendir cuentas de la veracidad de lo que presenciaron.

que un funcionario dijera en el estrado de los testigos: "bueno, la ia escribió esto, yo no lo escribí y no lo sabía", sería extremadamente ridículo y violaría la ley.

la tecnología de inteligencia artificial no es ajena a las agencias policiales, que ya emplean herramientas algorítmicas para leer matrículas, identificar rostros de sospechosos, detectar disparos y predecir dónde es probable que ocurran delitos.

muchas de estas aplicaciones implican cuestiones de privacidad y derechos civiles, y los legisladores han establecido leyes y regulaciones para garantizar que las herramientas de ia funcionen dentro de límites razonables.

sin embargo, el uso de informes de casos generados por inteligencia artificial acaba de introducirse y casi no existen regulaciones ni umbrales para su uso.

factor inquietante

debido a que el campo de uso de draft one es muy sensible, muchas personas tienen dudas sobre la introducción de nueva tecnología.

¿cómo resolver el problema de sesgo inherente del llm? ¿cómo garantizar el uso correcto de las herramientas? ¿quién limitará el alcance y el umbral de uso de la tecnología?

prejuicio racial

aurelius francisco, un activista comunitario de la ciudad de oklahoma, dijo al hablar de esta nueva tecnología que la posibilidad de prejuicios raciales en la tecnología de ia es sólo parte de la razón por la que está "profundamente perturbado" por esta nueva herramienta.

el profesor de derecho andrew ferguson teme que la introducción de pasos automatizados y tecnología de inteligencia artificial pueda llevar a que los agentes de policía sean menos cuidadosos al escribir.

los grandes modelos de lenguaje detrás de los chatbots de ia pueden fabricar información fácilmente, un problema conocido como "ilusión" que puede agregar falsedades imperceptibles a los informes policiales.

noah spitzer-williams, director principal de productos de inteligencia artificial de axon, dijo a forbes que para evitar prejuicios raciales o de otro tipo, eligieron configurar draft one basándose en el modelo gpt-4 turbo de última generación de openai.

la forma más simple y tosca es apagar directamente la autocreatividad de la herramienta y simplemente convertirse en una máquina de grabación despiadada, lo que puede reducir en gran medida la cantidad de ilusiones y errores.

axon realizó una prueba tomando grabaciones de cámaras corporales reales y en cada caso solo cambió la raza del sospechoso, como reemplazar la palabra "blanco" por "negro" o "latino", y luego dejó que la modelo escribiera un informe.

noah spitzer-williams dijo que los informes policiales generados durante la prueba no mostraron "diferencias estadísticamente significativas entre razas" en cientos de muestras.

informes orales

para algunos oficiales que han probado la nueva tecnología, draft one ha cambiado la forma en que manejan los casos.

por ejemplo, los agentes le contarían a la máquina lo que sucedió como si estuvieran contando una historia, lo que permitiría a la cámara capturar mejor lo que querían resaltar en el informe de su caso.

a medida que la tecnología se generaliza, el jefe de policía de la ciudad de oklahoma, jason bussert, dijo que espera que los agentes se vuelvan "cada vez más elocuentes" al describir las situaciones actuales porque se transmiten verbalmente.

ámbito de uso

axon ha aconsejado a la policía que no utilice inteligencia artificial para redactar informes sobre casos penales graves, como tiroteos, porque son complejos y hay mucho en juego.

los primeros usuarios solo usaban draft one para redactar informes de delitos menores. posteriormente, cada vez más clientes lo utilizan para redactar casos más graves, incluidos casos violentos, etc.

sin embargo, axon solo es responsable de proporcionar herramientas de inteligencia artificial y no tiene control sobre cómo los departamentos de policía individuales usan estas herramientas.

por ejemplo, el jefe de policía de lafayette, indiana, scott galloway, dijo a the associated press que todos los agentes pueden utilizar el draft one en cualquier tipo de caso y que ha sido popular entre los agentes desde que comenzó el programa piloto a principios de este año.

robert younger, un oficial de policía de fort collins, colorado, dijo que los agentes son libres de usarlo en cualquier tipo de informe, pero descubrieron que no funciona bien en las patrullas de los distritos de bares del centro porque "es demasiado ruidoso".

además de utilizar inteligencia artificial para analizar y resumir grabaciones de audio, axon también está intentando utilizar un sistema de visión multimodal para resumir lo que se ve en los videoclips, pero la tecnología aún no está madura.

dado que no hay margen de error en el trabajo policial, las nuevas tecnologías deben probarse en muchos aspectos antes de introducir el reconocimiento visual.

axon no dijo cuántos departamentos de policía están utilizando la tecnología y no es el único proveedor que empresas emergentes como policereports.ai y truleo han lanzado productos similares.

además, vale la pena mencionar que, además de la nueva tecnología draft one, axon también proporciona taser, una pistola paralizante, a la policía estadounidense.

por lo tanto, axon tiene una profunda relación de cooperación con el departamento de policía y se ha convertido en la primera opción del departamento de policía para la cooperación comercial y la compra de herramientas de inteligencia artificial.