nachricht

beijing xiangshan forum |. wie kann man neue technologien gut machen? die internationale zusammenarbeit soll gestärkt werden, um gemeinsam sicherheitsstandards zu entwickeln

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

auf dem schlachtfeld des russisch-ukrainischen konflikts schwebte eine ukrainische selbstmorddrohne über den russischen militärstellungen. die kamera der drohne war auf die schützengräben gerichtet und scannte sie kontinuierlich. als sie menschliche aktivitäten erkannten, erkannte sie sie schnell und tauchte ab selbstmordanschlag begehen.
die kamera richtete sich auf den himmel über den ukrainischen militärstellungen auf dem russisch-ukrainischen schlachtfeld. ein russisches unbemanntes aufklärungsflugzeug führte eine aufklärung über die ukrainischen militärstellungen durch, nachdem das nachhutpersonal diese informationen schnell an die kontrolle weitergegeben hatte „lancet“-marschflugkörper. der marschflugkörper „lancet“ fliegt in die nähe der position, an der sich das ziel befindet. der marschflugkörper ist außerdem mit einem künstlichen intelligenzsystem ausgestattet, das panzer und gepanzerte fahrzeuge schnell identifizieren und transportieren kann blockierte angriffe auf das ziel, auch wenn es auf störungen stößt. auch zu autonomen angriffen fähig.
das obige ist das kampfmaterial von drohnen und marschflugkörpern, die von der russischen und ukrainischen armee eingesetzt wurden. die auffällige leistung der technologie der künstlichen intelligenz (ki) im russisch-ukrainischen konflikt hat große aufmerksamkeit erregt und wird auch deren anwendung erheblich fördern technologie im militärischen bereich. angesichts der rasanten entwicklung neuer technologien wie der künstlichen intelligenz ist die frage, wie die sichere anwendung dieser technologien gewährleistet werden kann, bei diesem beijing xiangshan forum zum schwerpunkt verschiedener länder geworden.
am 12. september wurde auf dem forum eine sondersitzung für hochkarätige interviews zur erörterung der sicherheit künstlicher intelligenz eingerichtet. am 13. september widmete sich das sechste gruppentreffen des forums „emerging technologies for good“ dem austausch und der diskussion darüber, wie neue technologien wie künstliche intelligenz und synthetische biologie für das gute genutzt werden können.
die technologie der künstlichen intelligenz betritt das schlachtfeld
im jahr 2021 veröffentlichte der ehemalige us-außenminister kissinger das buch „the era of artificial intelligence and the future of humanity“, in dem er seine ansichten zur entwicklung und den auswirkungen künstlicher intelligenz darlegte. das buch geht davon aus, dass künstliche intelligenz die globale sicherheit und weltordnung neu gestalten wird, und liefert ideen und warnungen zum aufstieg der künstlichen intelligenz. kissinger glaubt, dass waffen mit künstlicher intelligenz drei eigenschaften haben, die atomwaffen nicht haben: sie sind auf große unternehmen konzentriert und die technologie lässt sich leichter von nichtregierungsorganisationen kopieren und daher leichter beherrschen; es zu meistern.
im zweiten jahr nach veröffentlichung des buches brach der konflikt zwischen russland und der ukraine aus. mit fortschreitendem konflikt kamen immer mehr mit künstlicher intelligenz ausgestattete waffen auf das schlachtfeld: drohnen, unbemannte kampffahrzeuge, unbemannte boote und marschflugkörper. usw. die technologie der künstlichen intelligenz ist auch an der erkennung von satellitenbildern, der unterstützten entscheidungsfindung, netzwerk- und elektronischen gegenmaßnahmen usw. beteiligt.
meng xiangqing, professor an der national defense university, wies in einem interview mit the paper (www.thepaper.cn) darauf hin, dass der erste weltkrieg als beginn der mechanisierten kriegsführung gilt, der golfkrieg als beginn, informationen die kriegsführung und der russland-ukraine-konflikt haben den vorhang für die intelligente kriegsführung geöffnet. obwohl die derzeitige technologie der künstlichen intelligenz waffen und operationen nur geringfügig stärkt und keinen großen einfluss auf den krieg hat, hat sie diesen trend bereits eingeläutet.
derzeit tauchen im russland-ukraine-konflikt immer mehr mit künstlicher intelligenz betriebene waffen auf dem schlachtfeld auf. im märz dieses jahres kündigte das britische verteidigungsministerium an, die zahl der drohnen, die die ukraine unterstützen, von 4.000 auf 10.000 zu erhöhen. dabei handelt es sich um tausende drohnen, die mit künstlicher intelligenz ausgestattet sind, um ihre einsätze auf dem schlachtfeld zu unterstützen. diese drohnen werden über fortschrittliche sensoren und waffensysteme verfügen, über ein hohes maß an autonomie und intelligenz verfügen und eine vielzahl von aufgaben wie aufklärung, angriff und verteidigung in komplexen umgebungen ausführen können.
im januar 2023 erschien ein artikel mit dem titel „wie hat der algorithmus das gleichgewicht im russland-ukraine-krieg gestört?“ der bericht enthüllte die insidergeschichte der zusammenarbeit von us-amerikanischen high-tech-unternehmen mit dem us-verteidigungsministerium und den geheimdiensten sowie ihre tiefe verstrickung in den russland-ukraine-konflikt. in dem bericht wurde erwähnt, dass von amerikanischen high-tech-unternehmen bereitgestellte software für künstliche intelligenz häufig zur interpretation von satellitenbildern und zur suche nach wertvollen zielen eingesetzt wird.
berichten zufolge hat die ukrainische armee auch in großem umfang ein „meta-constellation“-informationssystem des amerikanischen zivilen softwareunternehmens palantir genutzt. durch dieses system werden verschiedene hochentwickelte technologieanwendungen integriert, um eine „kill chain“ zu bilden, die es der ukraine und ihren verbündeten ermöglicht, die aktuell in einem bestimmten kampfgebiet verfügbaren daten einzusehen. die zielerkennung von satellitenbildern ist ein wichtiges und komplexes problem, und die fähigkeit der künstlichen intelligenz, die auf tiefem lernen basiert, kann eine große rolle bei der interpretation von satellitenbildern spielen und eine neue lösung für die zielerkennung von satellitenbildern bieten.
russland setzt auf dem schlachtfeld des russland-ukraine-konflikts auch waffen mit künstlicher intelligenz ein. beispielsweise wird die raketengestützte künstliche intelligenz der marschflugkörper „lancet-3“ zur zielsuche und -identifizierung eingesetzt und kann selbstständig finden und angreifen vorgegebene ziele. auch russische unbemannte kampffahrzeuge sind auf dem schlachtfeld aufgetaucht, etwa das unbemannte minenräumfahrzeug mt-1 und das unbemannte kampffahrzeug „mark“.
um sich an zukünftige kriege anzupassen, richtete das russische verteidigungsministerium im jahr 2022 eine abteilung für waffenforschung mit künstlicher intelligenz ein, um den einsatz von technologien der künstlichen intelligenz zu stärken und neue spezialausrüstung zu entwickeln.
in einem anderen hochkarätigen konflikt, dem palästinensisch-israelischen konflikt, werden ebenfalls viele mit künstlicher intelligenz ausgestattete waffen auf dem schlachtfeld eingesetzt. berichten zufolge nutzte israel beim angriff auf gaza ein künstliches intelligenzsystem namens „lavender“, um die anzahl und geschwindigkeit der identifizierung von zielen zu steigern in 10 arbeitstagen wurden 10 ziele gefunden und genehmigt, und jetzt können sie in 10 arbeitstagen etwa 100 ziele finden und genehmigen.
darüber hinaus modifiziert und generiert künstliche intelligenz bilder und videos – die auch im informationskrieg oder im meinungskrieg in kriegszeiten eingesetzt werden können. in einem artikel mit dem titel „generative künstliche intelligenz spielt eine überraschende rolle im desinformationskrieg zwischen israel und hamas“ auf der us-website „wired“ heißt es, dass der ausbruch des palästinensisch-israelischen konflikts eine beispiellose „desinformationsflut“ ausgelöst habe, die „algorithmgesteuert“ sei nebel des krieges“, der die sozialen medien in schwierigkeiten bringt.
die gemeinsame entwicklung von sicherheitsstandards ist der weg in die zukunft
gegenwärtig bringt die rasante entwicklung neuer technologien wie künstliche intelligenz und synthetische biologie einen enormen anwendungswert mit sich, bringt aber auch unvorhersehbare risiken und herausforderungen mit sich, die mit den interessen der gesamten menschheit zusammenhängen zu einem anliegen für alle länder werden.
in einem hochkarätigen interview zum thema „sicherheit durch künstliche intelligenz“ beim beijing xiangshan forum sagte dr. chande, forscher am us-amerikanischen institut für verteidigungsanalysen und ehemaliger stellvertretender us-verteidigungsminister, dass durch künstliche intelligenz gesteuerte drohnen eingesetzt wurden auf dem russisch-ukrainischen schlachtfeld sowie in gaza denken auch die militärs anderer länder über anwendungen im zusammenhang mit künstlicher intelligenz nach, aber jetzt wird auch über die sicherheit und steuerung künstlicher intelligenz diskutiert, was ebenfalls ein bereich ist, der noch nicht geschehen ist beteiligt.
wenn es um die sicherheit und risiken künstlicher intelligenz geht, haben fragen wie die frage, ob künstliche intelligenz autonome entscheidungen treffen kann, ob sie vertrauenswürdig ist und wie mit den risiken umgegangen werden kann, die künstliche intelligenz mit sich bringen kann, große aufmerksamkeit erregt.
die undurchsichtigkeit der „black box“ der algorithmen der künstlichen intelligenz birgt sicherheitsrisiken und macht fragen des sozialen vertrauens immer komplexer. in diesem zusammenhang sagte hu ang, ein angesehener professor am institut für produktionstechnologie der universität tokio und ausländischer akademiker der japanischen akademie für ingenieurwissenschaften, dass es die ultimative frage sei, ob die „black box“ der künstlichen intelligenz vertrauenswürdig sei. seiner ansicht nach ist das menschliche gehirn unersetzlich: „zumindest in kurzer zeit wird es schwierig sein, das menschliche gehirn bei der entscheidungsfindung zu ersetzen.“
lampros stégioulas, unesco-lehrstuhl für künstliche intelligenz und datenwissenschaft für soziale entwicklung und professor für datenwissenschaft an der fachhochschule den haag in den niederlanden, betonte: „menschliche techniker machen alle fehler, geschweige denn maschinen?“ „ist künstliche intelligenz ein fehler?“ problem? das menschliche gehirn bei der autonomen entscheidungsfindung ersetzen zu können, ist sowohl eine philosophische als auch eine praktische frage.“
reference news network berichtete im juli dieses jahres, dass die amerikanische fun science-website im juni einen artikel mit dem titel „katastrophale fehler durch künstliche intelligenz“ veröffentlichte. der artikel listete „katastrophale“ beispiele künstlicher intelligenz auf und erinnerte daran, dass die risiken künstlicher intelligenz nicht ignoriert werden dürfen.
eine bbc-untersuchung hat berichten zufolge ergeben, dass soziale plattformen ki nutzen, um videos von möglichen kriegsverbrechen zu entfernen, maßnahmen, die den opfern in zukunft den legitimen rechtsweg verwehren könnten. soziale plattformen spielen in kriegen und sozialen unruhen eine schlüsselrolle, oft als kommunikationsmittel für gefährdete menschen. die untersuchung ergab, dass grafische inhalte von öffentlichem interesse zwar auf der website verbleiben konnten, videos über angriffe in der ukraine jedoch schnell entfernt wurden.
diese „katastrophalen“ beispiele tauchen auch im alltag der menschen auf. google bilder musste diese funktion abbrechen, nachdem bei der suche nach gorillas in seiner ki-software bilder von schwarzen auftauchten. andere unternehmen, darunter apple, wurden wegen ähnlicher vorwürfe verklagt.
shi chande glaubt, dass die sicherheitsprobleme der künstlichen intelligenz alle aspekte betreffen, einschließlich der landesverteidigung und des lebensunterhalts der menschen. daher schlug er vor, dass die länder multilaterale vereinbarungen treffen, um die sicherheitsrisiken der künstlichen intelligenz zu mindern.
laut dai qionghai, dekan der fakultät für informationswissenschaft und technologie der tsinghua-universität und akademiker der chinesischen akademie für ingenieurwissenschaften, wird die entwicklung künstlicher intelligenz in den nächsten drei jahren auf der überholspur sein. aufgrund der unvorhersehbarkeit der entwicklung künstlicher intelligenz müssen relevante ethik und governance im vordergrund stehen und die sicherheitsrisiken von anwendungen künstlicher intelligenz verringert werden, damit sie der menschheit zugute kommen.
nach ansicht von experten ist es besonders wichtig, die internationale zusammenarbeit im bereich der künstlichen intelligenz zu stärken, insbesondere durch die gemeinsame formulierung von sicherheitsstandards kann künstliche intelligenz einen besseren nutzen für die menschheit erzielen.
am 14. mai dieses jahres fand in genf, schweiz, das erste treffen des zwischenstaatlichen dialogs zwischen china und den usa über künstliche intelligenz statt. die beiden parteien stellten ihre jeweiligen ansichten und governance-maßnahmen zu den risiken der technologie der künstlichen intelligenz sowie die maßnahmen vor, die zur förderung künstlicher intelligenz zur stärkung der wirtschaftlichen und sozialen entwicklung ergriffen wurden. beide seiten erkannten, dass die entwicklung der technologie der künstlichen intelligenz sowohl chancen als auch risiken birgt, und bekräftigten ihr anhaltendes engagement für die umsetzung des wichtigen konsenses, den die beiden staatsoberhäupter in san francisco erzielt hatten.
nach ansicht von shi chande müssen china und die vereinigten staaten sicherstellen, dass die kommunikation fortgesetzt werden kann. „im bereich der neuen technologien erreichen die beiden seiten allmählich ein gewisses maß an parität oder ausgewogenheit, was zu offeneren und tiefergehenden gesprächen zwischen den beiden seiten führen kann. wir müssen sicherstellen, dass sie weiterhin hart daran arbeiten, die kommunikation aufrechtzuerhalten.“ .“, sagte shizande.
der zeitungsreporter xie ruiqiang
(dieser artikel stammt von the paper. für weitere originalinformationen laden sie bitte die „the paper“-app herunter.)
bericht/feedback