nachricht

erstellen sie einen tatortbericht in 8 sekunden. die us-polizei verwendet ein ki-tool zum schreiben von dokumenten, das genauer ist als die erinnerung an das menschliche gehirn

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

herausgeber: er qiao yang

[einführung in die neue weisheit]die us-polizei hat begonnen, das künstliche intelligenztool draft one zu verwenden, um den papierkram zu erleichtern. kriminalberichte können in sekundenschnelle erstellt werden und sind genauer als die erinnerung an das menschliche gehirn.

dreihundertsechzig zeilen, mit ki –

ki kann zur unterstützung der polizeiarbeit eingesetzt werden, und seit kurzem wird künstliche intelligenz auf basis von gpt-4 auch zum verfassen von kriminalberichten und zum archivieren von dokumenten eingesetzt.

im april dieses jahres brachte axon ein neues tool namens draft one auf den markt, das den ton der körperkamera transkribieren und automatisch in einen polizeibericht umwandeln kann.

draft one verwendet dasselbe modell zur generierung künstlicher intelligenz wie chatgpt, und der cloud-dienst wird von microsoft bereitgestellt.

die einführung von draft one wurde von den polizeibeamten schnell begrüßt, da die triviale datenerfassung, der rückruf vor ort und das verfassen von texten sehr zeit- und energieaufwändig sind. jetzt gibt es einen „ki-polizeiassistenten“, der hilft.

einer der ersten tester, das fort collins police department in colorado, sagte, dass die durchführung von draft one zur polizeiarbeit die zeit, die zum verfassen von berichten benötigt wurde, um 82 % verkürzte.

rick smith, ceo von axon, schätzt, dass der einsatz von draft one die arbeitsbelastung um mindestens die hälfte reduzieren kann, wenn ein polizist jeden tag die hälfte seiner zeit damit verbringt, textberichte zu schreiben. dann hat der polizist die möglichkeit, 25 % seiner zeit einzusparen widmen sie sich der geschäftigen polizeidienstarbeit.

feldtest

es hört sich so an, als ob draft one die mühsame dokumentenorganisationsarbeit direkt erledigen kann. wie funktioniert es also bei der erledigung spezifischer polizeiarbeiten?

die polizei von oklahoma city ist eine der wenigen pilotpolizeibehörden, die mit dem einsatz von ki-chatbots experimentiert hat, um erste entwürfe von fallberichten zu verfassen.

beamter matt gilmore und sein spürhund gunner suchten fast eine stunde lang nach einer gruppe von verdächtigen, wobei körperkameras und draft one jedes wort der beamten und verdächtigen aufzeichneten.

normalerweise würde der polizeibeamte von oklahoma city im dienst seinen laptop nehmen und 30 bis 45 minuten damit verbringen, einen durchsuchungsbericht zu schreiben, aber dieses mal ließ er den ersten entwurf von einem tool mit künstlicher intelligenz schreiben.

draft one extrahierte alle audio- und funkgespräche aus gilmores mikrofon und erstellte in 8 sekunden einen bericht.

„der bericht war sogar noch besser als das, was ich geschrieben habe, und er war zu 100 prozent korrekt“, sagte gilmore. „er zeichnete sogar ein detail auf, an das er sich nicht einmal erinnern konnte, wie zum beispiel, dass ein anderer beamter die farbe des autos des verdächtigen erwähnte, als er floh.“

in einem fall eines verkehrsunfalls lud der beamte ein video der verkehrskontrolle in das system, drückte dann einen knopf und das programm generierte einen narrativen bericht in konversationssprache basierend auf dem ton der autokamera, einschließlich datum und uhrzeit. wie der bericht eines polizeibeamten, der auf seinen notizen basiert.

der gesamte vorgang verlief reibungslos und dauerte nur wenige sekunden. und nach prüfung durch die polizei bestand kein änderungsbedarf.

am ende des berichts müssen die beamten ein kästchen ankreuzen, das angibt, dass der bericht mithilfe künstlicher intelligenz erstellt wurde.

polizeibeamte, die diese technologie ausprobiert haben, sind sehr an diesem zeitsparenden und leistungsstarken ki-tool interessiert.

einige staatsanwälte, polizeiaufsichtsbehörden und rechtswissenschaftler sind besorgt darüber, wer die richtigkeit der berichte sicherstellen wird, wenn von ki verfasste fallberichte als teil des strafjustizsystems oder als wichtige beweise verwendet werden. denn große sprachmodelle können halluzinationen hervorrufen oder fakten fabrizieren und sogar rassistische vorurteile haben.

beispielsweise möchte ein bezirksstaatsanwalt, der strafsachen verfolgt, dass die berichte von polizeibeamten verfasst werden und nicht nur von einem ki-chatbot, da diese für die wahrhaftigkeit ihrer zeugen zur rechenschaft gezogen werden müssen.

wenn ein beamter im zeugenstand sagen würde: „nun, die ki hat das geschrieben, ich habe es nicht geschrieben und ich wusste es nicht“, wäre äußerst lächerlich und würde gegen das gesetz verstoßen.

die technologie der künstlichen intelligenz ist für polizeibehörden kein unbekannter, die bereits algorithmische tools einsetzen, um nummernschilder zu lesen, die gesichter von verdächtigen zu identifizieren, schüsse zu erkennen und vorherzusagen, wo es wahrscheinlich zu straftaten kommt.

bei vielen dieser anwendungen geht es um datenschutz- und bürgerrechtsfragen, und die gesetzgeber haben gesetze und vorschriften erlassen, um sicherzustellen, dass ki-tools innerhalb angemessener grenzen funktionieren.

der einsatz künstlicher intelligenz generierter fallberichte wurde jedoch gerade erst eingeführt und es gibt kaum vorschriften und schwellenwerte für den einsatz.

beunruhigender faktor

da der einsatzbereich von draft one sehr sensibel ist, hegen viele menschen zweifel an der einführung neuer technologien.

wie kann das inhärente bias-problem von llm gelöst werden? wie stellt man den korrekten einsatz von werkzeugen sicher? wer begrenzt den umfang und die schwelle des technologieeinsatzes?

rassenvorurteile

aurelius francisco, ein community-aktivist aus oklahoma city, sagte, als er über diese neue technologie sprach, dass die möglichkeit rassistischer voreingenommenheit in der ki-technologie nur einer der gründe sei, warum er von diesem neuen tool „zutiefst beunruhigt“ sei.

rechtsprofessor andrew ferguson befürchtet, dass die einführung automatisierter schritte und ki-technologie dazu führen könnte, dass polizisten beim schreiben weniger vorsichtig sind.

die großen sprachmodelle hinter ki-chatbots können leicht informationen fabrizieren, ein als „illusion“ bekanntes problem, das polizeiberichten unmerkliche unwahrheiten hinzufügen kann.

noah spitzer-williams, senior principal artificial intelligence product manager bei axon, sagte gegenüber forbes, dass sie sich zur vermeidung rassistischer oder anderer vorurteile dafür entschieden hätten, draft one auf basis des hochmodernen gpt-4 turbo-modells von openai zu konfigurieren.

der einfachste und gröbste weg besteht darin, die selbstkreativität des tools direkt auszuschalten und einfach zu einer rücksichtslosen aufnahmemaschine zu werden, wodurch die anzahl der illusionen und fehler erheblich reduziert werden kann.

axon führte einen test durch, indem er echte körperkameraaufnahmen machte, und änderte jeweils nur die rasse des verdächtigen, indem er beispielsweise das wort „weiß“ durch „schwarz“ oder „latino“ ersetzte, und ließ dann das modell einen bericht schreiben.

noah spitzer-williams sagte, die während des tests erstellten polizeiberichte zeigten bei hunderten von proben „keine statistisch signifikanten unterschiede zwischen den rassen“.

mündliche berichterstattung

für einige beamte, die die neue technologie ausprobiert haben, hat draft one die art und weise verändert, wie sie fälle bearbeiten.

beispielsweise erzählten beamte der maschine, was passiert war, als würden sie eine geschichte erzählen, sodass die kamera besser erfassen konnte, was sie in ihrem fallbericht hervorheben wollten.

da die technologie immer weiter verbreitet wird, erwartet der polizeichef von oklahoma city, jason bussert, dass die beamten bei der beschreibung aktueller situationen „immer eloquenter“ werden, weil sie verbal vermittelt werden.

anwendungsbereich

axon hat der polizei davon abgeraten, künstliche intelligenz zum verfassen von berichten für schwere kriminalfälle wie schießereien einzusetzen, da diese komplex sind und viel auf dem spiel steht.

frühere benutzer verwendeten draft one nur zum verfassen von berichten über vergehen. später verwenden es immer mehr kunden, um schwerwiegendere fälle, einschließlich gewaltfälle usw., zu verfassen.

axon ist jedoch nur für die bereitstellung von ki-tools verantwortlich und hat keine kontrolle darüber, wie einzelne polizeibehörden diese tools nutzen.

beispielsweise sagte polizeichef scott galloway aus lafayette, indiana, gegenüber the associated press, dass alle beamten draft one für jede art von fall verwenden können und dass es bei beamten seit beginn des pilotprojekts anfang dieses jahres beliebt sei.

robert younger, ein polizeibeamter in fort collins, colorado, sagte, dass es den beamten freisteht, es für jede art von anzeige zu verwenden, aber sie haben festgestellt, dass es bei patrouillen in kneipenvierteln in der innenstadt nicht gut funktioniert, weil „es zu laut ist“.

neben dem einsatz künstlicher intelligenz zur analyse und zusammenfassung von audioaufnahmen versucht axon auch, mithilfe eines multimodalen vision-systems das gesehene in videoclips zusammenzufassen, doch die technologie ist noch nicht ausgereift.

da es in der polizeiarbeit keinen spielraum für fehler gibt, müssen neue technologien in vielen aspekten getestet werden, bevor die visuelle erkennung eingeführt wird.

axon würde nicht sagen, wie viele polizeibehörden die technologie nutzen, und es ist nicht der einzige anbieter wie policereports.ai und truleo, der ähnliche produkte auf den markt gebracht hat.

darüber hinaus ist es erwähnenswert, dass axon neben der neuen technologie draft one auch taser – einen elektroschocker – an die us-polizei liefert.

daher pflegt axon eine enge kooperationsbeziehung mit der polizei und ist für die polizei zur ersten wahl für geschäftliche zusammenarbeit und den kauf von ki-tools geworden.