nachricht

wie weit reicht die offensive und defensive staffelung des einsatzes von ki gegen ki und der gesichtsveränderung zur bekämpfung von fälschungen?

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

was sie sehen, ist möglicherweise nicht wahr! ein „porträtfoto“ oder ein „charaktervideo“ könnte für kriminelle zu einem neuen mittel und werkzeug werden, um straftaten zu begehen. während der national cyber ​​security publicity week im jahr 2024 ist das thema der verletzung der privatsphäre wie ki-gesichtsveränderung und stimmveränderung erneut in den mittelpunkt aller aufmerksamkeit gerückt. tatsächlich wurde dieses thema auch während der bund-konferenz eine woche vor der cyber ​​security week heftig diskutiert.
von der bund-konferenz am huangpu-fluss bis zur nationalen cyber-sicherheitswoche am lingding-jangtse-fluss stellen die menschen diesen september weiterhin fragen darüber, wie ki gutes bewirken kann, und denken darüber nach, wie man das risiko einer gesichtsveränderung durch ki bekämpfen kann findet in den beiden flussstädten shanghai und guangzhou statt.
wie wirkt sich die gesichtsverändernde ki-technologie auf unsere digitale identitätssicherheit aus? welche effektiven ki-tools können deepfake-risiken genau erkennen und verhindern? wie können wir aus rechtlicher und ethischer sicht die innovative anwendung der ki-technologie mit ihren potenziellen risiken in einklang bringen? mit diesen fragen gingen nandu-reporter den ganzen weg, von simulierten angriffs- und verteidigungsherausforderungen bis hin zu tatsächlichen anwendungsszenarien, von der wissenschaft bis zur industrie, um antworten auf diese vorschläge zu finden.
raus aus dem testgelände: eine gruppe junger leute startete eine ki-offensiv- und defensivstaffel
ki-gesichtsveränderung ist eine deepfake-technologie, die mithilfe von deep-learning-algorithmen mithilfe von computern gesichtsbilder manipuliert. durch die kontinuierliche weiterentwicklung der ki-gesichtsveränderungstechnologie wird die produktion von unterhaltung, e-commerce und anderen branchen verbessert. neben der effizienz bringt es auch endlose risiken mit sich. anfang september tauchte in südkorea ein neuer „room n“-fall auf, der auf „deep forgery“-technologie beruhte. südkoreanische frauen gerieten in „ki-gesichtsveränderungs-panik“ und posteten sogar in chinesischen sozialen netzwerken um hilfe.
zur gleichen zeit versammelte sich auf dem bund in shanghai eine gruppe junger „ki-anti-fälscher“ zu einer deepfake offensive and defense challenge zum thema ki-gesichtsveränderung. während der bund-konferenz präsentierte eines der teilnehmenden teams an diesem ki-innovationswettbewerb, der global deepfake attack and defense challenge (im folgenden als „deepfake attack and defense competition“ bezeichnet) – visionrush vom institut für automatisierung der chinesischen akademie der wissenschaften, open source des teilnehmenden ki-modells als reaktion auf die bedürfnisse koreanischer frauen „ki-gesichtsverändernde panik“. anschließend „übernahmen“ auch andere teilnehmende teams die „code relay“-aktion der deepfake defenders. teams, darunter die chinesische akademie der wissenschaften, die universität von macau und die ocean university of china, kündigten open-source-wettbewerbsmodelle an, in der hoffnung, dass dies der fall sein würde senken sie die technische schwelle, stärken sie den technischen austausch und dämmen sie den missbrauch der deepfake-technologie ein.
während der bund conference ai innovation competition·global deepfake attack and defense challenge starteten die teilnehmenden teams die „code relay“-aktion der deepfake defenders.
erwähnenswert ist, dass jtgroup, ein gemeinsames team bestehend aus wissenschaftlern aus hongkong und macau, im wettbewerb gut abgeschnitten und die meisterschaft im deepfake offensive and defensive picture track gewonnen hat. wu haiwei, ein postdoktorand der city university of hong kong, nahm seine nachwuchsstudenten vom state key laboratory of smart city internet of things an der university of macau mit, um an der bildverfolgung teilzunehmen. chen yiming, ein forscher am state key laboratory für smart city internet of things an der universität von macau, ist der kapitän dieses meisterschaftsteams. als er über open source sprach, sagte er in einem interview mit nandu-reportern: „unsere.“ forschung wird auf den schultern von „riesen“ durchgeführt, die ihren programmcode sehr gerne spenden. unser team selbst hält sich bei der forschung nicht an das konzept der technologie und entwicklung, und wir hoffen auch, an solchen wettbewerben teilzunehmen, um technologie für einige gute dinge anzuwenden, die die öffentlichkeit braucht.“
das jtgroup-team erreichte eine erkennungsrate von 97,038 % für multi-typ- und multi-szenario-deepfakes. wie hat es das erreicht? teamvertreter chen xiangyu sagte in einem interview mit einem reporter aus nandu: „dieses offensiv- und defensivspiel kommt dem datenumfang in der realen welt nahe. wir haben in kurzer zeit viele neue technologien zur deepfake-generierung und -erkennung gelernt.“ , und wir haben auch auf rechtzeitige anpassungen geachtet. die details des algorithmusmodells könnten einer der gründe sein, warum wir die meisterschaft gewinnen können.“
ein reporter aus nandu erfuhr vom veranstalter, dass der deepfake attack and defense competition von ant digital zoloz und dimensity labs als fragestellern geleitet wurde. es handelt sich um einen der maßgeblichsten wettbewerbe im bereich cv (computer vision). der ereignisdatensatz besteht aus öffentlichen daten und gefälschten daten. die gefälschten bilddaten umfassen mehr als 50 generierungsmethoden in realen szenen, und die gefälschten audio- und videodaten umfassen mehr als 100 kombinierte angriffsmethoden vom organisationskomitee eröffnet mehr als 1 million.
„dieser wettbewerb bietet technischen forschern die möglichkeit, in einer hochgradig simulierten realen industriellen umgebung zu üben, was dazu beiträgt, industrie, wissenschaft und forschung zu integrieren und verantwortungsvolle praktische talente zu fördern.“ die singapore agency for science, technology and research und mitorganisator des wettbewerbs different theories. ziel der teilnehmenden teams ist es auch, das testfeld zu verlassen und die entwickelten technologischen errungenschaften in praktische szenarien umzusetzen. wu haiwei vom jtgroup-team sagte gegenüber nandu-reportern: „in den qualifikationsüberprüfungsphasen von taobao, tmall usw. wurden ki-gestützte erkennungsalgorithmen eingesetzt, um zu verhindern, dass kriminelle geschäftslizenzen und materialien zur identitätsprüfung fälschen, um die eröffnung eines geschäfts zu beantragen.“ mit einer rein manuellen überprüfung können die kosten für die eröffnung eines geschäfts gesenkt werden. dies wird die effizienz steigern. es wird erwartet, dass die forschungsergebnisse unseres labors auch in weiteren unternehmens- und regierungsszenarien anwendung finden nationale betrugsbekämpfungs-app und andere programme, die einen beitrag zur betrugsbekämpfung und technologie von deepfake leisten.
standards und anwendungen: bauen sie gemeinsam ein schutznetzwerk gegen die risiken der ki-gesichtsveränderung auf
natürlich ist der kampf gegen deepfake weit mehr als ein wettbewerb. die branche hat nacheinander reagiert, von standards bis hin zu anwendungen, um gemeinsam ein schutznetzwerk gegen die risiken der ki-gesichtsveränderung aufzubauen.
nandu-reporter erlebten die interaktive ausrüstung zur deepfake-erkennung des ant group tianji laboratory auf der bund conference technology exhibition.
in shanghai demonstrierte das ant group tianji laboratory auf der bund conference technology exhibition interaktive geräte zur deepfake-erkennung. nach der erfahrung von nandu reporter generierte deepfake nach der aufnahme eines echtzeitfotos mehrere verschiedene „nandu reporter“-bilder (wie oben gezeigt), und dann untersuchte der erkennungsrocker des ant group tianji laboratory jedes bild einzeln beurteilt und genau festgestellt, dass nur das letzte bild ein echtes porträt eines reporters aus nandu war und der rest durch deep fakes erstellt wurde.
gleichzeitig wurde auf der konferenz auch der standard „technische spezifikationen für finanzielle anwendungen der gefälschten digitalen gesichtserkennung“ offiziell veröffentlicht. der standard legt die funktionalen anforderungen, technischen anforderungen, leistungsanforderungen usw. für dienste zur erkennung falscher digitaler gesichter im finanzbereich fest und schlägt entsprechende test- und bewertungsmethoden vor. es wird davon ausgegangen, dass dies der erste „ki-gesichtsveränderungs“-erkennungsstandard für finanzszenarien in china ist. liu yong, generalsekretär der zhongguancun fintech industry development alliance und präsident des zhongguancun internet finance research institute, sagte in seiner rede: „die veröffentlichung dieses standards bietet eine grundlage für die sicherheitserkennung und -bewertung falscher digitaler gesichter in finanzszenarien.“ , und füllt auch diese lücke im feld.“
in nansha, guangzhou, beim „unterforum zum schutz personenbezogener daten“ der national cyber ​​security publicity week 2024, southern news media group, dem fünften elektronikinstitut des ministeriums für industrie und informationstechnologie, der guangdong-zweigstelle des national internet emergency center, pengcheng laboratory, guangdong telecom, guangdong mobile, fünfzehn unternehmen und institutionen, darunter tencent, huawei, ping an group, china guangfa bank, oppo, byd, sangfor, shenzhen saixi und jingyuan security, gaben den offiziellen start bekannt „guangdong network data security and personal information protection association“ und gemeinsam eine initiative „förderung der netzwerkdatensicherheit und des schutzes persönlicher informationen“ ins leben gerufen. es versteht sich, dass das risiko einer gesichtsveränderung durch ki ebenfalls eines der themen sein wird, die den verband beunruhigen.
china mobile ai: interaktive zone zur gesichtsveränderung und fälschung in echtzeit. (quelle: national cyber ​​security awareness week 2024)
auf der diesjährigen cyber ​​security expo im rahmen der cyber ​​security week präsentierten große sicherheitsunternehmen auch neue produkte und technologien im sicherheitsbereich. in china mobiles tiefgreifender, synthetischer, gesichtsverändernder interaktiver echtzeit-fälschungszone erlebten nandu-reporter das ki-gesichtsänderungssimulationssystem. während der erfahrung kann das von deepfake erzeugte video durch die echtzeit-fälschungstechnologie genau als fälschung identifiziert werden. und der gesamte vorgang dauert nur etwa 5 sekunden. wang xiaoqing, stellvertretender leiter des information security and management operations center von china mobile, sagte, dass das system verschiedenen szenarien wie ki-gesichtsveränderung, ki-lautmalerei und dokumentenfälschung entgegenwirken kann. sie haben eine pilotanwendung im echtnamen-internetzugangsgeschäft gestartet. basierend auf der fälschungsschutzfähigkeit kann sie ki-gesichter im echtnamen-verifizierungsprozess in echtzeit erkennen und risiken wie „ki-gesichtsveränderung“ proaktiv verhindern. online-karteneröffnung und -ersatz, und die genauigkeit der fälschung ist hoch und erreicht mehr als 90 %.
tatsächlich ist es ein wichtiger vorschlag in der aktuellen technologieforschung und -entwicklung, wie man es normalen menschen ermöglichen kann, den schutz zu genießen, den die deepfake-anti-fälschungstechnologie bietet. zhou wenbo, professor an der school of cyberspace security der university of science and technology of china, betonte diesen punkt in einem interview mit einem nandu-reporter seines intelligent cognitive security laboratory an der school of cyberspace security der university of science and technology china hat einen neuen schritt getan. erst anfang september wurde die weltweit erste betrugserkennungstechnologie auf basis von geräteseitiger ki-gesichtsveränderung, die das labor in zusammenarbeit mit honor entwickelt hat, auf honor-mobiltelefonen angewendet. nachdem der benutzer auf „erkennung starten“ geklickt hat, erkennt die technologie die gesichter im video und bietet die möglichkeit eines gesichtsaustauschs durch ki. wenn die wahrscheinlichkeit zu hoch ist, wird der benutzer daran erinnert, dass ein mutmaßlicher gesichtsaustausch erkannt wurde gesichtsvertauschung erkannt). es wird davon ausgegangen, dass das intelligent cognitive security laboratory der school of cyberspace security der university of science and technology of china bereits im jahr 2019 ein deep-synthese-tool namens deepfacelab (ein tool zur gesichtsveränderung von videos mithilfe von deep learning) zur verfügung gestellt hat 2020 nahm das team an der weltweit größten „deep fake detection challenge (dfdc)“ teil, die von facebook, mit usw. organisiert wurde, und gewann den zweiten platz.
welche probleme müssen noch gelöst werden, wenn ki zur bekämpfung von ki eingesetzt wird?
von offensiv- und defensivspielen bis hin zu industrieanwendungen ist die effizienz und praktikabilität des einsatzes von ki zur „entfernung des falschen und bewahrung des wahren“ offensichtlich. was jedoch nicht ignoriert werden kann, ist, dass das risiko immer noch exponentiell zunimmt. yao weibin, der antragsteller der global deepfake offensive and defense challenge und technischer direktor von ant zoloz, sagte in einem interview mit nandu-reportern, dass die zahl der durch aigc verursachten fälschungen gestiegen sei die anzahl der angriffe hat sich in diesem jahr im vergleich zum vorjahr um etwa das zehnfache erhöht. ähnliche situationen gibt es nicht nur in china, sondern auch in südkorea, den philippinen, indonesien und anderen ländern.
trotz des aufkommens vieler erkennungstechnologien scheinen wir immer noch nicht in der lage zu sein, die durch deepfake verursachten risiken vollständig zu vermeiden. warum passiert diese situation? zhou wenbai sagte gegenüber nandu-reportern, dass der prozess einer technologie von der theoretischen forschung bis zur praktischen anwendung kein prozess sei, der sofort wirksam sei, sondern vor seiner umsetzung auf verschiedene herausforderungen stoßen werde. „eigentlich denke ich, dass das wichtigste nicht darin besteht, darüber zu sprechen, wie vollständig die technologie sein sollte. denn wenn man ein problem wirklich lösen will, müssen nur 5 % davon auf technologie angewiesen sein, und die restlichen 95 % müssen sich darauf verlassen.“ verbesserung von gesetzen, vorschriften und umsetzungsstandards.
zhang bo, mitglied des artificial intelligence security governance professional committee der china cyberspace security association, schlug in einem interview mit den medien auch vor, dass „ki-gesichtsveränderungen normalerweise mit transaktionsbetrugsszenarien wie videoanrufen einhergehen.“ überprüfen sie die gesichtskonturen und die beleuchtung des videos der anderen partei, um festzustellen, ob es auffälligkeiten gibt. bei bedarf können sie die andere person bitten, schnell den kopf zu heben, zu nicken und den kopf zu drehen, um festzustellen, ob dies der fall ist es gibt irgendwelche ungewöhnlichen details im video, die bestätigen, dass das video authentisch ist.“
welche anderen möglichkeiten gibt es aus technischer sicht, um die genauigkeit der deepfake-erkennung zu verbessern? zhang bo glaubt, dass identitätsauthentifizierung und digitales wasserzeichen kombiniert werden können, um fälschungen zu erschweren. zhou wenbai erklärte gegenüber nandu-reportern, dass dies unter zwei aspekten in betracht gezogen werden könne. der eine bestehe darin, mehr verschiedene arten hochwertiger deepfake-daten für das erkennungsmodell bereitzustellen. so wie menschen wissen lernen, so lernen auch deep-learning-modelle: je mehr daten sie gesehen und je mehr wissen sie gelernt haben, desto stärker werden ihre möglichen erkennungsfähigkeiten sein. „die andere möglichkeit besteht darin, dass wir versuchen können, auf der seite der datenveröffentlichung einen aktiven schutz zu gewährleisten. bevor unsere daten beispielsweise auf einer sozialen plattform veröffentlicht werden, sollte die plattform in einigen fällen mit robusten, nachverfolgbaren identifikationsinformationen (z. b. einem wasserzeichen) gekennzeichnet werden.“ „diese identifikationsinformationen können zusammen mit medienmaterialien verbreitet werden, und durch die erkennung der integrität, semantik und anderer inhalte der identifikationsinformationen wird festgestellt, ob das aktuelle material beschädigt oder gefälscht ist“, sagte zhou wenbo. erwähnenswert ist, dass viele videoplattformen wie douyin mittlerweile labels für videos haben, bei denen der verdacht besteht, dass sie von ki generiert wurden.
zhang bo schlug außerdem vor, dass es aus managementsicht notwendig sei, die formulierung und umsetzung relevanter gesetze, vorschriften und regulierungsmaßnahmen zu beschleunigen, um die einsatzmethoden und anwendungsszenarien von ki-anwendungen zu standardisieren. nach ansicht von zhou wenbo kann die veröffentlichung von standards wie den „technischen spezifikationen für finanzielle anwendungen der gefälschten digitalen gesichtserkennung“ als leitfaden zur standardisierung der von unternehmen und institutionen bereitgestellten dienste und der anwendung von technologie dienen und sollte durchgeführt werden in übereinstimmung mit bestimmten normen und standards implementieren, um bedrohungen für die privatsphäre, die datensicherheit und andere aspekte während der nutzung der technologie zu verhindern, die zu einer schädigung der rechte und interessen der benutzer und sogar zu einer verletzung nationaler interessen führen könnten.
aus der perspektive der talentförderung in verwandten bereichen stehen wir auch vor chancen und herausforderungen. wang yaonan, akademiker der chinesischen akademie für ingenieurwissenschaften und vorsitzender der chinesischen gesellschaft für bild und grafik, wies darauf hin, dass es in den letzten jahren viele fälle des böswilligen einsatzes dieser technologie zur durchführung von ki-betrug gegeben habe, der das gesicht verändert wirtschafts- und sachschäden, reputationsschäden und andere vorfälle angesichts der technischen herausforderungen ist es dringend erforderlich, ki-talente mit praktischen fähigkeiten zu fördern. wang wei, cto von ant digital, schlug eine lösung vor, in der hoffnung, „innovation durch wettbewerb zu fördern“, die fähigkeit der teilnehmer zu verbessern, technologie zur lösung realer probleme in praktischen anwendungsszenarien durch bodenständige wettbewerbsfragen zu nutzen und interdisziplinäre talente zu fördern; kommunizieren sie durch die zusammenführung globaler ki-technologie-eliten und verbessern sie das globale konfrontationsniveau in tatsächlichen kampfübungen.
interviewt und geschrieben von: nandu-reporter xiong runmiao
bericht/feedback