nachricht

stärken sie den informationsschutz, um das risiko von deepfakes-verbrechen zu verhindern

2024-09-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

kürzlich wurde in südkorea bekannt, dass „ungefähr 220.000 täter mithilfe von deep-forgery-technologie ihr gesicht veränderten, um obszöne inhalte über nicht näher bezeichnete frauen zu erstellen und diese weithin zu verbreiten.“ fälschung wieder in den fokus der öffentlichkeit gerückt.
da sich die forschung und entwicklung der künstlichen intelligenz (ki) weiter vertieft, ist die deepfaking-technologie immer ausgereifter geworden. ihre hohe wiedergabetreue, technische inklusivität, niedrige kosten, persönliche relevanz und andere eigenschaften haben der ki einen enormen nutzen gebracht durch den ersatz von film- und fernsehbildern durch neuaufnahmen werden die einsatzmöglichkeiten der deep-fake-technologie in einigen branchen immer weiter verbreitet.
als scharfes „zweischneidiges schwert“ können wir zwar die vorteile der deepfake-technologie genießen, dürfen aber ihre enormen potenziellen risiken nicht ignorieren, die kriminelle effizienter, verborgener und schädlicher für die gesellschaft machen können. auf individueller ebene kann die deepfake-technologie es dem opfer ermöglichen, ohne seine zustimmung sein bild aus profitgründen zu stehlen, was eine verletzung der rechte an persönlichen porträts darstellt. darüber hinaus können betrüger die deepfake-technologie auch nutzen, um sich zu tarnen. anfang dieses jahres wurden beispielsweise finanzmitarbeiter eines hongkonger unternehmens von gefälschten managern um 200 millionen hk$ betrogen. für prominente und politische persönlichkeiten kann die deep-fake-technologie noch größeren zerstörerischen und sozialen schaden anrichten. die amerikanische schauspielerin taylor swift wurde einst mit photoshop in anstößige fotos verwandelt und auf sozialen plattformen weit verbreitet. dies verursachte nicht nur ernsthaften schaden an ihrem persönlichen und kommerziellen image, sondern störte auch die soziale ordnung und die öffentliche ordnung. darüber hinaus kann deepfake-technologie auch zur fälschung von beweismitteln eingesetzt werden, wodurch die glaubwürdigkeit von beweismitteln wie fotos und videos beeinträchtigt wird, wodurch das urteil der richter beeinträchtigt und die justiz behindert wird.
um den risiken der deep-fake-technologie vorzubeugen, besteht die erste priorität darin, den schutz persönlicher biometrischer informationen zu stärken. aus sicht der datenverwaltung gliedert sich der prozess der deepfake-produktion hauptsächlich in drei glieder: datenbeschaffung (hauptsächlich biometrische informationsdaten) – datenverarbeitung – datenausgabe (ausgabe gefälschter inhalte). der missbrauch der deepfake-technologie besteht im wesentlichen darin, ohne genehmigung oder zustimmung biometrische informationen anderer zu erhalten und diese informationen dann zur identitätsfälschung zu verwenden. um den schutzmechanismus persönlicher biometrischer informationen zu verbessern, sollten wir daher die eingabe und ausgabe von deep-fake-informationen streng kontrollieren, um eine quellkontrolle und endpunktkontrolle zu erreichen.
erstens ist es notwendig, den „wissen-erlaubnis“-mechanismus bei der erfassung biometrischer informationen zu stärken. da persönliche biometrische informationen die merkmale „einzigartigkeit“ und „unveränderlichkeit“ aufweisen, können sie, sobald sie durchgesickert sind und missbraucht werden, dem datensubjekt großen schaden zufügen und eine dauerhafte wirkung haben. daher sollte ein höchstmaß an schutz personenbezogener daten gewährleistet sein angewendet werden. gemäß dem „gesetz zum schutz personenbezogener daten der volksrepublik china“ und den einschlägigen gesetzlichen bestimmungen ist eine benachrichtigung nur unter bestimmten umständen ausgenommen, die auf nationalen sicherheits- und öffentlichen sicherheitsbedürfnissen, strafrechtlichen ermittlungen und gerichtsverfahren usw. basieren. mit ausnahme der oben genannten umstände sollte jede person bei der erfassung und verwendung persönlicher biometrischer daten strikt den „wissens-erlaubnis“-mechanismus anwenden. die erfassung ist ohne ausdrückliche zustimmung nicht gestattet. andererseits muss klargestellt werden, dass die von einer person online preisgegebenen informationen nicht bedeuten, dass sie der weiterverarbeitung personenbezogener biometrischer daten zustimmt. derzeit gibt es viele kommerzielle anwendungsszenarien für deep fakes. es gilt, das missverständnis des „freien zugangs zu online-informationen“ durch die betreiber auszuräumen und ihren meldepflichten nachzukommen. darüber hinaus müssen informationsnutzer die wirksamkeit der meldung sicherstellen. es muss spezifische informationen wie den nutzungsgegenstand, den zweck der erhebung, das verarbeitungsverhalten und den informationsfluss enthalten und außerdem ausreichend hervorgehobene benachrichtigungsmethoden umfassen, wie z. b. pop-ups mit verbindlichen fristen usw.
zweitens: verbesserung des plattformüberwachungs- und rückverfolgbarkeitsmechanismus. plattformen sollten sich auf bereiche konzentrieren, in denen deep fakes häufig eingesetzt werden, etwa die sekundärerstellung realer bilder, und die überwachung und rückverfolgbarkeit durch eine kombination aus technischer und manueller prüfung stärken, etwa durch eine strenge prüfung, ob die werke der zweiten generation autorisiert sind aufzeichnungen der verwendeten informationssubjekte usw. wenn sich herausstellt, dass nicht autorisierte oder gefälschte berechtigungszertifikate als informationen über andere verwendet werden, sollte die plattform die verbreitung untersagen und entsprechende restriktive maßnahmen ergreifen, beispielsweise die sperrung von konten.
drittens: einrichtung eines strengeren rechenschafts- und bestrafungsmechanismus durch gezielte gesetzgebung. was die fälschung von identitätsinformationen betrifft, sieht das strafrecht meines landes derzeit die straftaten betrug und identitätsdiebstahl vor. zu den elementen des erstgenannten verbrechens gehört die vortäuschung, dass es sich bei der zielperson um einen mitarbeiter einer staatlichen behörde handele, und der betrug an eigentum, ehre, behandlung, gefühlen usw., bei letzterem geht es um die verletzung von identitätsrechten bei bestimmten verfahren wie untersuchungen. der straftatbestand der verletzung der persönlichen daten von bürgern umfasst nicht die „illegale nutzung biometrischer informationen“. dies bedeutet, dass es nach geltendem recht schwierig ist, chaos wie deep-fake-sprecher aus der perspektive der strafrechtlichen bestrafung wirksam zu bekämpfen, indem man sich nur auf die straftaten betrug und identitätsdiebstahl verlässt. daher wird es in zukunft notwendig sein, neue straftaten hinzuzufügen, um das verhalten des diebstahls der identität anderer konkret zu regeln. in diesem bereich sieht der us-gesetzentwurf vor, dass „die übermittlung, verwendung oder veruntreuung der identifikationsdaten anderer personen als identitätsdiebstahl behandelt werden soll“, was für unser land eine gewisse referenz darstellen kann. das strafrecht meines landes kann in zukunft auch den straftatbestand des „identitätsdiebstahls“ einschließen. jeder, der die biometrischen informationen anderer personen ohne zustimmung der informationssubjekte verwendet und die umstände schwerwiegend sind (z. b. die klickrate oder die anzahl der weiterleitungen). 500 mal) wird als straftat des identitätsdiebstahls behandelt. wenn es auch an anderen straftaten (z. b. betrug) beteiligt ist, wird dies als straftat geahndet.
die scharfe klinge muss in der scheide stecken und das biest muss eingesperrt werden. die deep-fake-technologie hat zwar gute anwendungsaussichten, aber die etablierung eines vollständigen antrags-, überwachungs- und bestrafungssystems ist die voraussetzung dafür, dass sie wirklich zu einem nützlichen werkzeug für die menschheit wird. in dieser hinsicht müssen alle relevanten parteien das system an die erste stelle setzen, seine grenzen durch ein solides rechtssystem abstecken, seine anwendung durch effiziente aufsicht einschränken, seine entwicklung mit korrekten werten und ethik steuern, das ziel erreichen, dass technologie den menschen dient, und sicherstellen dass tiefe fälschung ein problem ist. diese technologie ist auf dem richtigen weg, der menschheit zu nützen. (die autoren sind forscher am zhejiang provincial digital development and governance research center und staatsanwälte der volksstaatsanwaltschaft des kreises pingyang, provinz zhejiang)
bericht/feedback