2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
text |. weiße taube
herausgeber|wang yisu
„die zugrunde liegende logik von ai for science unterscheidet sich von der aktuellen trainingslogik großer sprachmodelle.“ lu jintan, technischer direktor von shenzhen technology, sagte unverblümt, dass die aktuelle logik der künstlichen intelligenz im bereich der wissenschaftlichen forschung und der anwendung großer sprachmodelle in anderen branchen sind nicht gleich.
in der branche ist bekannt, dass das training großer sprachmodelle auf der „einspeisung“ hochwertiger daten beruht. je mehr daten vorhanden sind, desto stärker ist die leistungsfähigkeit des großen sprachmodells. in einigen spezifischen bereichen der wissenschaftlichen forschung ist die datenmenge jedoch relativ gering. beispielsweise kann es für bestimmte arten von proteinstrukturen mehrere jahre dauern, bis hunderte qualitativ hochwertige experimentelle daten vorliegen.
dies bedeutet auch, dass die anwendung von ki im bereich der wissenschaftlichen forschung relativ weniger daten benötigt, um bessere modelleffekte zu erzielen.
wie genau verändert ki die wissenschaft? und wie lässt sich das geschäftsmodell durchspielen? als eines der repräsentativen unternehmen von ai for science hat shenzhen technology seine eigenen gedanken und lösungen eingebracht.
wenn sie im traditionellen wissenschaftlichen rechnen die physikalischen eigenschaften von molekülen und atomen anhand ihrer strukturinformationen vorhersagen möchten, müssen sie normalerweise mikroskopische berechnungen in kombination mit praktischen problemen durchführen. derzeit ist die branche noch nicht in der lage, diese skalenübergreifenden rechenfähigkeiten zu realisieren, und sie verlässt sich mehr auf empirische beurteilung und experimentelle verifizierung.
gleichzeitig ist mit der erweiterung der skala von computersystemen die anzahl der berechnungen in traditionellen wissenschaftlichen berechnungen exponentiell gestiegen und erreicht oft zehntausende oder sogar hunderte millionen von systemen im atomaren maßstab, wenn berechnungen vollständig von herkömmlichen physikalischen berechnungen abhängig sind bei modellen beträgt die gesamtberechnungszeit der zyklus kann sehr lang sein.
„shenzhen technology kann dafür sorgen, dass das modell berechnungsergebnisse liefert, die der genauigkeit des physischen modells nahekommen, und gleichzeitig die berechnungsleistung erheblich verbessern.“ lu jintan sagte: „wir verwenden ki, um diese physikalischen methoden anzupassen, was möglicherweise der fall ist.“ früher waren viele berechnungen erforderlich. die dinge werden schneller.
am beispiel der bilderkennung besteht der kern darin, die pixelinformationen des bildes zu analysieren. durch die einführung eines faltungs-neuronalen netzwerks können lokale merkmale im bild extrahiert, das originalbild in verschiedene merkmalskarten zerlegt und eine näherungslösung durch merkmale durchgeführt werden kombination. dies ist eigentlich eine dimensionsreduktionsanalyse.
tatsächlich ist ki auch eine anwendung zur dimensionsreduzierung im wissenschaftlichen bereich. sie reduziert die rechenkomplexität durch ihre leistungsstarken modellierungsfunktionen, insbesondere in den frühen phasen skalenübergreifender berechnungen. gleichzeitig kann auf der grundlage der multimodalen großmodellfähigkeit auch eine mehrdimensionale analyse und vorhersage verschiedener datentypen wie molekülstruktur, physikalische eigenschaften, experimentelle daten usw. erreicht werden.
beispielsweise ist es bei der arzneimittelentwicklung in der regel erforderlich, zunächst die proteinstruktur und die zielpunkte zu analysieren und dann aus hunderttausenden oder sogar millionen von substanzbibliotheken kandidatenverbindungen mit hoher affinität zu den zielpunkten herauszufiltern. in der regel werden mehrdimensionale bewertungen durchgeführt, einschließlich affinitätsanalyse, vorhersage und bewertung pharmazeutischer chemischer eigenschaften (wie toxizität, absorption, metabolismus usw.).
„im bereich der ki für die wissenschaft liegt der schlüssel zu großen modellen, die skalenübergreifende berechnungen unterstützen, in ihrem riesigen parameterumfang und ihren starken generalisierungsfähigkeiten. die große anzahl von parametern des modells ermöglicht es ihm, komplexe physikalische, chemische und biologische phänomene zu erfassen.“ und die starke verallgemeinerungsfähigkeit „das basismodell kann die relevanten eigenschaften des arzneimittels basierend auf seiner mikrostruktur vorhersagen und es kann auch auf den bereich der materialien angewendet werden, wenn das modell übertragen wird, können wir vorhersagen treffen.“ die stabilität und andere physikalische zustände von materialien unter verschiedenen temperaturen und drücken.“
daher liegt das verständnis von shenzhen technology für die grundlegenden allgemeinen modelle in der ki für die wissenschaft eher darin, über eine reihe grundlegender vortrainingsmodelle zu verfügen. dieses modell kann auf verschiedene industriebereiche angewendet werden, um probleme durch feinabstimmung zu lösen.
mehrere grundmodelle, die derzeit von shenzhen technology untersucht werden, können mit begrenztem datentraining immer noch gute ergebnisse erzielen und können auf der grundlage der gewonnenen höherwertigen daten weiter optimiert und überarbeitet werden. unter diesem modellsystem kann die ki die grundlegenden wissenschaftlichen prinzipien selbst erlernen und durch zusätzliches training mit einer kleinen menge an domänendaten bereits gute ergebnisse erzielen, was sich geringfügig von großen sprachmodellen unterscheidet.
lu jintan sagte gegenüber light cone intelligence: „die datenquellen im bereich des wissenschaftlichen rechnens sind nicht weit verbreitet und es gibt nicht viele öffentliche datensätze. daher besteht ein großer teil unserer arbeit jetzt darin, den trainingseffekt des modells zu steigern.“ je effektiver es ist, wenn es um kleine datensätze geht.“
in den letzten zwei jahren hat shenzhen technology außerdem erfolgreich eine reihe großer industriemodelle auf den markt gebracht, wie das molekulare simulationsmodell dpa, das molekulare konformationsmodell uni-mol 3d, das proteinfaltungsmodell uni-fold, das nukleinsäurestrukturmodell uni-rna und uni -dock-hochleistungs-docking-engine für arzneimittelmoleküle und multimodales, großes sprachmodell für wissenschaftliche literatur von uni-smart usw.
laut lu jintan verfügt shenzhen technology derzeit über hunderte von modellen in den bereichen materialien und medikamente, und diese modelle wurden auch erfolgreich in die produktplattform von shenzhen technology integriert.gleichzeitig hat shenzhen technology auch strategische kooperationen mit dutzenden führenden pharmaunternehmen der branche geschlossen und wird im jahr 2023 auch kommerzialisierungsdurchbrüche mit einem umsatz von über 100 millionen erzielen.
derzeit umfasst das geschäft von shenzhen technology intelligente ausbildung an universitäten, biomedizinische forschung und entwicklung sowie neue batteriematerialien.
laut der aktuellen algorithmenklassifizierung von ai for science befindet sich die gesamtentwicklung jedoch noch im l2-stadium, was der experimentellen genauigkeit nahe kommt. sie ist immer noch stärker auf den menschen ausgerichtet und verwendet modellberechnungen, um menschen zu unterstützen und stress zu reduzieren.
auf der l3-stufe kann ki direkt ergebnisse liefern und in einigen szenarien menschliche experimente direkt ersetzen.
wenn sie von l2 zu l3 wechseln möchten, „besteht die hauptschwierigkeit darin, dass die genauigkeit jedes links eine bestimmte höhe erreichen muss. gleichzeitig ist es auch eine große herausforderung, die algorithmen in jeden link zu integrieren.“ sagte.
mit blick auf die zukunft glaubt lu jintan, dass der markt für ki für die wissenschaft groß genug ist, egal ob es sich um bildung und wissenschaftliche forschung, biomedizin oder batteriematerialien handelt – die hinzufügung von ki kann tatsächlich viele grundlegende probleme lösen, zumindest auf experimenteller ebene , und die stärkung der industrie, grenzerkundung usw. bieten mehr ideen und einstiegspunkte.
das folgende ist das ausführliche gespräch zwischen guangcone intelligence und lu jintan, dem technischen direktor von shenzhen technology (gelöscht und bearbeitet von guangcone intelligence):
shenzhen technology nutzt ki
verbesserung der qualität und effizienz der wissenschaftlichen forschung und entwicklung
f: große modelle haben die verarbeitung natürlicher sprache sowie die video- und bilderzeugung verändert. wie haben sie die wissenschaft verändert?
a:wir haben begonnen, große sprachmodelle für die gewinnung von literaturinformationen, patentinformationen und anderen bereichen zu verwenden. wir haben auch einige forschungsergebnisse in diesem bereich erzielt wird auch einige multimodale anwendungen wie die interpretation von bildern und diagrammen durchführen.
im traditionellen wissenschaftlichen rechnen treten häufig probleme auf der mikro- bis zur makroskala auf. zur lösung von problemen werden verschiedene physikalische modelle verwendet, in einigen skalenübergreifenden rechenszenarien fehlen jedoch noch die entsprechenden fähigkeiten. wenn wir beispielsweise die makroskopischen eigenschaften eines moleküls anhand der strukturinformationen seiner atome vorhersagen möchten, benötigen wir die fähigkeit, skalenübergreifend zu modellieren.
künstliche intelligenz umfasst große modelle, die eine skalenübergreifende modellierung erreichen können. durch das erlernen dieser physikalischen modelle und deren anschließende anwendung auf spezifische probleme können diese probleme gut gelöst werden.
normalerweise müssen wir berechnungen mit großem durchsatz durchführen, oft an systemen mit zehntausenden oder sogar hunderten millionen atomen. wenn berechnungen auf physikalischen modellen basieren, ist der zeitraum relativ lang. shenshi technology ermöglicht es dem modell, berechnungsergebnisse zu liefern, die der genauigkeit des physikalischen modells nahe kommen, und kann gleichzeitig die rechenleistung erheblich verbessern.
f: wie kann man berechnungen im systemmaßstab von hunderten millionen atomen in berechnungen im bereich großer modelle umwandeln? wie hoch ist die ungefähre anzahl an berechnungen?
a:auf mikroskopischer ebene kann die wechselwirkung zwischen zwei atomen durch physikalische modelle analysiert werden, beispielsweise durch gleichungen der klassischen mechanik oder der quantenmechanik, um die wechselwirkungskraft und die bewegungsbahn zwischen ihnen zu berechnen. zu diesem zeitpunkt muss bei der berechnung nur der gegenseitige einfluss zweier atome berücksichtigt werden, und das problem ist relativ einfach. mit zunehmender zahl der atome im system wird die situation jedoch komplizierter. wenn beispielsweise ein drittes atom eingeführt wird, muss neben der paarweisen wechselwirkung zwischen den einzelnen atomen auch der vielteilcheneffekt zwischen den dreien analysiert werden. zu diesem zeitpunkt hängen die wechselwirkung und die flugbahn zwischen atomen nicht nur von den beiden atomen ab, sondern werden gemeinsam vom zustand des gesamten systems bestimmt, und der rechenaufwand nimmt nichtlinear zu. wissenschaftler führen häufig näherungsalgorithmen wie die dichtefunktionaltheorie oder molekulardynamiksimulationen ein, um berechnungen auf verschiedenen skalen effizient durchzuführen.
was unsere ki in den frühen tagen tatsächlich tat, bestand darin, ki zu nutzen, um diese physikalischen gleichungen anzupassen und die rechenleistung zu verbessern. es kann mit der bilderkennung verglichen werden. nach dem hinzufügen eines faltungs-neuronalen netzwerks wird ein bild in merkmalsbilder aufgeteilt. dies ist eigentlich eine dimensionsreduktionsmethode. was wir in den anfängen der künstlichen intelligenz im bereich des wissenschaftlichen rechnens getan haben, kann auch als aktion zur dimensionsreduzierung angesehen werden, das heißt, dinge zu beschleunigen, die zuvor möglicherweise eine große menge an berechnungen erforderten.
f: was ist der unterschied zwischen den berechnungsmethoden traditioneller ki und dem aufkommen großer modelle?
a:die definition eines großen modells ist relativ vage und die anzahl der parameter wird im allgemeinen als indikator verwendet. je mehr parameter vorhanden sind, desto größer ist der berechnungsaufwand. bei uns geht es vielmehr um die bereitstellung multiskaliger berechnungen. unser aktuelles pre-training-modell, uni-mol, basiert auf der dreidimensionalen struktur von molekülen und atomen, sagt relevante physikalische eigenschaften voraus, stellt struktur-aktivitäts-beziehungen her und löst diese direkt. in der vergangenheit stützten sich vorhersagen oft auf experimente und erfahrung. diese methode kombiniert berechnungen auf verschiedenen skalen und bietet neue berechnungsmethoden für bereiche wie die materialwissenschaften.
wenn wir große modelle behandeln, legen wir im allgemeinen mehr wert auf die fähigkeiten zur modellverallgemeinerung. im bereich der ki für die wissenschaft kommt es relativ häufig vor. beispielsweise kann das basismodell einige arzneimittelbezogene eigenschaften auf der grundlage der mikrostruktur vorhersagen. wenn dieses modell migriert wird, kann es auf den bereich der materialien angewendet werden. dabei handelt es sich jedoch möglicherweise nicht um medizinische eigenschaften, sondern um dessen eigenschaften unterschiedliche temperaturen und drücke, daher ist unser verständnis des grundlegenden allgemeinen modells in ai for science eher eine reihe grundlegender vortrainingsmodelle. dieses modell kann auf verschiedene industriebereiche angewendet werden, um probleme durch feinabstimmung zu lösen.
f: was ist die hauptrolle der multimodalität?
a:dabei werden verschiedene arten von daten wie molekülstruktur, physikalische eigenschaften, experimentelle daten usw. für eine umfassende analyse kombiniert. beispielsweise ist es im arzneimittelentwicklungsprozess normalerweise erforderlich, zunächst die proteinstruktur und die zielpunkte zu analysieren und dann während des screening-prozesses verbindungen mit hoher affinität zu den zielpunkten aus hunderttausenden oder sogar millionen von verbindungsbibliotheken herauszufiltern , der prozess kann eine affinitätsanalyse, eine analyse der medizinischen eigenschaften, ob es toxisch ist, ob es für die absorption durch den menschlichen körper von vorteil ist usw. umfassen. es kann sich um eine mehrdimensionale analyse handeln. wenn sie also eine bessere abschirmwirkung erzielen möchten, müssen sie diese aus mehreren blickwinkeln und eigenschaften analysieren.
häufige multimodale probleme wie bilder und videos liegen möglicherweise näher an unseren multimodalen anwendungen beim document data mining. in einer arbeit müssen beispielsweise nicht nur die textinformationen in der arbeit, sondern auch die bildinformationen gelesen werden , und die bildinformationen müssen ein detailliertes mining durchführen, es dann mit textinformationen integrieren und schließlich die ergebnisse ausgeben. in der literatur wenden wir diese gemeinsame multimodale fähigkeit auch an.
f: wie groß ist der bedarf an modelldaten im bereich ki für die wissenschaft?
a:je mehr, desto besser. es gibt natürlich auch das problem, sie zu bekommen. bei den segmentierten anwendungen im biomedizinischen bereich und im batteriebereich ist die datenbeschaffung beispielsweise unterschiedlich. in branchen mit langen forschungs- und entwicklungs- und verifizierungszyklen ist die datenausgabe relativ gering und die absolute datenmenge begrenzt . beispielsweise kann es sein, dass es für bestimmte arten von proteinstrukturen in ein paar jahren nur ein paar hundert datensätze gibt, in anderen bereichen sind die daten jedoch definitiv höher.
allerdings können grundlegende physikalische modelle mehr daten generieren, die wir derzeit untersuchen, und die bei begrenztem datentraining immer noch gute ergebnisse erzielen und auf der grundlage der in zukunft gewonnenen höherwertigen daten optimiert und korrigiert werden können. unter unserem modellsystem können bereits gute ergebnisse erzielt werden, wenn man es der ki ermöglicht, grundlegende wissenschaftliche prinzipien selbst zu erlernen und durch zusätzliches training mit einer kleinen menge an domänendaten zu arbeiten, was sich geringfügig von großen sprachmodellen unterscheidet.
f: wie kann man ki dazu bringen, grundlegende wissenschaftliche logik zu erlernen und dann spezifische anwendungsprobleme zu lösen?
a:im allgemeinen werden einige physikalische modelle verwendet, um berechnungen direkt durchzuführen. anschließend werden die resultierenden daten trainiert und anschließend werden die physikalischen modelle simuliert.
f: welche beziehung besteht zwischen dem grundlegenden großen modell und den großen modellen jedes vertikalen typs? sollte ich das grundlegende große modell selbst trainieren oder ein großes open-source-modell eines drittanbieters verwenden?
a:verschiedene szenarien sind unterschiedlich. wenn es sich um ein großes sprachmodell handelt, wird es eher bei der dokumentinterpretation verwendet, beispielsweise bei der papierinterpretation. die grundlegende anwendung besteht darin, eine einzelne arbeit zu interpretieren. aus kostengründen werden einige allgemeine große modelle verwendet, um mir bei der interpretation der arbeit zu helfen. wenn wir mehrere artikel interpretieren oder sogar eine umfassende suche in unserer großen papierbibliothek einschließlich patentrecherche und -analyse durchführen möchten, verwenden wir unser selbst entwickeltes literaturmodell, um eine detailliertere interpretation des artikels durchzuführen.
daher arbeiten wir noch an produkten für benutzer. wir werden möglicherweise entscheiden, welches modell für unsere produkte besser geeignet ist, und wir werden eine auswahl auch auf der grundlage von kostenüberlegungen treffen.
heutzutage nennen wir viele modelle eher pre-training-modelle. das dpa, das wir letztes jahr veröffentlicht haben, ist beispielsweise eine reihe von pre-training-modellen zur berechnung potenzieller funktionen zwischen atomen verschiedener elemente. wir haben auch das openlam-projekt für große atome gestartet vor einiger zeit hoffen wir, dass es passieren kann. um einige open-source-kräfte zu mobilisieren, können wir gemeinsam einen beitrag leisten und daten austauschen, um das modell zu trainieren, damit es ausgereifter wird.
f: wie viele modelle hat shenzhen technology derzeit?
a:mittlerweile haben wir hunderte von modellen in den bereichen materialien und medizin vereint.
der umsatz überstieg 100 millionen und arbeitete mit dutzenden von pharmaunternehmen zusammen
das geschäftsmodell von shenzhen technology
f: können sie uns über die neuesten forschungs- und entwicklungsfortschritte von shenzhen technology im bereich der ki-medizin berichten?
a:im bereich der medizin konzentrieren wir uns derzeit auf die präklinische forschung und decken nahezu alle präklinischen computerszenarien ab, wie z. b. die frühe zielerkennung und proteinstrukturanalyse, die zielanalyse, das molekulare screening und die affinitätsanalyse bis hin zur vorhersage von eigenschaften usw diese linkreihe enthält viele solcher berechnungsmethoden, und wir haben jetzt algorithmen implementiert.
in kombination mit dem medizinischen szenario bündeln wir alle diese algorithmen in einem produkt, unserer arzneimitteldesign-plattform hermite. wir arbeiten jetzt grundsätzlich mit den 50 größten inländischen pharmaunternehmen in verschiedenen bereichen zusammen, wobei einer davon die biotechnologie ist. , eines ist cro (organisation für klinische forschung) und eines ist pharma (pharmazeutisches unternehmen), von denen jedes ein eigenes repräsentatives unternehmen hat.
letzte woche haben wir gerade eine kooperationsvereinbarung mit einem inländischen börsennotierten unternehmen, eastern sunshine, unterzeichnet, das das grippemedikament oseltamivir herstellt. es hat auch gerade drei erstklassige zertifizierungen in den vereinigten staaten erhalten. wir werden weiterhin zielgerichtet mit ihnen zusammenarbeiten. damit verbundenes geschäft.
neben typischen unternehmen im biomedizinischen bereich wie dongguang sunshine kooperieren wir auch mit vielen wissenschaftlichen forschungseinrichtungen und universitäten, die sich mit der arzneimittelforschung und -entwicklung befassen, wie der west china university of medical sciences, dem xiangya hospital und dem medical college.
f: unsere aktuellen produkte können tatsächlich direkt über einen browser verwendet werden, und die gesamtbereitstellung ist auch sehr einfach. sind alle kernproduktbereitstellungsmethoden so?
a:ja, das meiste, was wir online durchführen, ist ki-inferenzarbeit. die trainingsarbeit wird normalerweise offline durchgeführt, daher ist die zu übertragende datenmenge nicht so groß. es wird auch eine kleine menge an trainingsszenarien geben, die eher auf der basis basieren zur feinabstimmung des vorab trainierten modells es kann auch mit kleinen datenmengen durchgeführt werden, und der datenübertragungsdruck ist ebenfalls gering. eine leichte bereitstellung bedeutet nicht, dass wir nicht genügend rechenleistung verbrauchen. das system nutzt die hybrid-cloud- und hpc-rechenleistung hinter dem system, aber es ist als browserzugriff für benutzer verpackt. wenn es sich um einige privatisierungsszenarien handelt, müssen wir auch das dahinter stehende rechenleistungssystem bereitstellen, das bei saas nicht erforderlich ist.
generell gilt, dass große unternehmen privatisiert werden müssen. da sie besonders hohe anforderungen an den datenschutz stellen, können sie in manchen lehrszenarien oder in manchen forschungsinstituten temporär für ein bestimmtes thema eingesetzt werden, ohne dass es einer privatisierten nutzung bedarf.
f: wie ist der tatsächliche projektfortschritt bei den aktuellen genossenschaften? in welchem stadium genau?
a:unsere zusammenarbeit mit pharmaunternehmen erfolgt hauptsächlich im kalkulationsprozess. das unternehmen stellt keine arzneimittel her und beteiligt sich daher nicht am arzneimittelentwicklungsprozess von pharmaunternehmen.
wir sind im grunde ein full-link-load. wir probieren jetzt auch einige neue bereiche und erkundungen aus, wie zum beispiel die integration von software in automatisierte labore, die sich auf hardware-forschung und -entwicklung konzentrieren, um gemeinsam mehr unternehmen zu bedienen, da die bedürfnisse von pharmaunternehmen größer sind immer noch ziemlich groß. wie kompliziert.
und was den umsatz betrifft, überstieg unser umsatz im vergangenen jahr die 100-millionen-marke.
für unsere zusammenarbeit mit pharmaunternehmen gibt es zwei geschäftsmodelle: das eine ist der verkauf von software und das andere die gemeinsame forschung und entwicklung.
viele große unternehmen werden vor ort tätig sein und können es sich leisten, ihre eigenen teams zu unterstützen und verfügen über ausreichende mittel, um den kauf von software zu unterstützen. bei einigen handelt es sich jedoch möglicherweise um mittelgroße oder neue innovative pharmaunternehmen, denen es an fortschrittlichen produktionswerkzeugen und entsprechenden talenten mangelt durch den einsatz dieser tools können sie gemeinsam mit uns weitere berechnungen durchführen. da es um daten- und informationssicherheit geht, ist die integration zwischen den beiden parteien besonders eng.
aber viele große pharmaunternehmen verfügen über ausreichende mittel und talente und hoffen sogar, dass wir ihnen einige maßgeschneiderte dienstleistungen bieten und ihnen gleichzeitig saas anbieten können.
die zukunft der ki für die wissenschaft
f: ich habe mehrere aktuelle algorithmusklassifizierungen gesehen, die den fünf klassifizierungen des autonomen fahrens sehr ähnlich sind. welchen zustand können wir auf der l2-stufe erreichen? inwieweit kann es das bisherige experimentelle modell ersetzen? können sie ein fallbeispiel für ein bestimmtes szenario nennen?
a:im l2-szenario nennen wir es eine näher an der experimentellen genauigkeit liegende und stärker auf den menschen ausgerichtete berechnung, um menschen zu unterstützen und den experimentellen druck zu verringern. da es beim arzneimitteldesign große unterschiede zwischen verschiedenen systemen gibt, konnten wir bei einigen systemen eine nahezu experimentelle genauigkeit erreichen. es ist also nicht so, dass benutzer überhaupt keine experimente durchführen müssen, aber ich kann benutzern dabei helfen, grundlegendere dinge durchzuführen, z. b. 1 million arzneimittelverbindungen ende, vielleicht der rest erfordert, dass wissenschaftliche forscher experimentelle überprüfungen durchführen, und die experimentelle größe wird stark reduziert.
f: welche schwierigkeiten gibt es beim wechsel von l2 auf l3?
a:mein verständnis dieser l3 ist, dass ki direkt ergebnisse liefern kann, was in bestimmten szenarien einem direkten ersatz menschlicher experimente gleichkommt. die schwierigkeit, l3 zu erreichen, liegt hauptsächlich darin, dass die genauigkeit jeder verbindung ein bestimmtes niveau erreichen muss. darüber hinaus sind viele algorithmen beteiligt, und die integration verschiedener algorithmen stellt ebenfalls eine schwierigkeit dar. die integration von algorithmen ähnelt eigentlich einem kompletten workflow-system, und dieses system kann sich kontinuierlich selbst überprüfen und optimieren.
f: gibt es iterationen in der gesamten technologie von der vergangenheit bis zur gegenwart? und wird es bei der entwicklung des aktuellen modells zu engpässen kommen?
a:derzeit iterieren wir ständig auf der grundlage von daten, insbesondere bei produkten, die häufig von benutzern verwendet werden. beispielsweise wurde unser dpa-produkt von der 1. generation auf die 2. generation aktualisiert ist, dass die erste generation das vortraining in einem einzelnen feld unterstützen kann und die zweite generation gleichzeitig paralleles training basierend auf datensätzen mit unterschiedlichen annotationsmethoden durchführen kann.
der engpass entsteht hauptsächlich durch daten. im bereich des wissenschaftlichen rechnens sind datenquellen nicht weit verbreitet und es gibt nicht viele öffentliche datensätze. daher besteht ein großer teil unserer arbeit darin, den trainingseffekt des modells immer besser zu machen basierend auf kleinen datensätzen.
darüber hinaus gibt es noch einen weiteren aspekt, auf den man achten muss, nämlich die frage der interpretierbarkeit. da die anforderungen an wissenschaftliche berechnungen strenger und die anforderungen an die interpretierbarkeit höher sind, versuchen wir nun, die interpretierbarkeit des modells durch die offenlegung von parametern zu verbessern. übersetzungspfade usw. sex.
f: wie lässt sich das problem der datenknappheit lösen?
a:im bereich der ki für die wissenschaft, sei es im bereich materialien oder medizin, sind die grundlegendsten physikalischen prinzipien auf mikroebene dieselben, sodass der vorteil darin besteht, dass daten in einigen materialbereichen direkt im medizinischen bereich wiederverwendet werden können. beispielsweise kann dpa 2 auf den unter verschiedenen standardsystemen bereitgestellten daten basieren und benutzern dabei helfen, ein einheitliches modell zu trainieren. wenn dieser satz von modellen dann speziell auf die branche angewendet wird, kann eine kleine datenmenge zur feinabstimmung verwendet werden.
im toc-markt sind wir noch nicht aktiv, unser system deckt aber bereits einige unterrichtsszenarien ab. wir verfügen über eine wissenschaftliche forschungsplattform, die lehre, forschung und anwendung integriert. die aktuellen kunden, mit denen wir hauptsächlich konfrontiert sind, sind universitäten und einige benutzer, die eher verbraucherorientiert sind. für hochschulen und universitäten werden wir eine ähnliche plattform für die praktische ausbildung von lehrkräften haben. diese plattform kann alles von der lehre über die teilnahme der studierenden bis hin zur nutzung und sogar der umsetzung von forschungsergebnissen unterstützen.
f: ai fwas ist der zukünftige marktentwicklungsraum der wissenschaft?
a:ich denke, der marktraum ist groß genug. ob es sich um wissenschaftliche forschung, medizin oder materialien handelt, die hinzufügung von ki kann, zumindest auf experimenteller ebene, tatsächlich probleme lösen, wissenschaftlichen forschern helfen, experimentelle ergebnisse zu verbessern und den experimentellen aufwand zu reduzieren.
im hinblick auf die allgemeine kundenakzeptanz besteht für uns in vielen fällen ein teil der kosten darin, die anwender aufzuklären. im arzneimittelbereich bauen wir beispielsweise langfristige kooperationsbeziehungen mit den kunden auf, da wir die kunden durch den gesamten verifizierungszyklus begleiten müssen . .
im vergleich dazu ist der forschungs- und entwicklungszyklus von batterien viel schneller. wenn die auswirkung des elektrolytverhältnisses durch ki vorhergesagt wird, reicht es aus, eine vorbereitungsüberprüfung durchzuführen.
auf nationaler ebene hat das ministerium für wissenschaft und technologie zusammen mit der natural science foundation of china die sondereinsatzarbeit „al for science“ ins leben gerufen. dies zeigt auch, dass alle, von der sozioökonomischen ebene bis zur nationalen makropolitik, optimistisch sind und dies zweifellos unterstützen.
f: ki für die wissenschaft steckt noch in den kinderschuhen. in welchem stadium wird sie sich in den nächsten drei jahren entwickeln?
a:ich denke, dass zumindest alle kunden ein einheitliches verständnis dieser angelegenheit haben werden. mittlerweile haben alle begonnen, sich aktiv mit ki auseinanderzusetzen, und ihr verständnis von ki hat ein höheres niveau erreicht. nicht alle branchen werden sich durch dieses wort fremd oder abgestoßen fühlen und eine relativ positive einstellung haben. der nächste schritt besteht darin, wie wir eine kooperative beziehung ähnlich einer co-creation mit unseren kunden aufbauen können. schließlich handelt es sich bei dieser branche um eine datensensible branche. auch nach drei jahren hoffen wir, den kunden bei der erarbeitung praktischer umsetzungsszenarien helfen zu können.
tatsächlich denke ich, dass die kundenakzeptanz immer noch recht hoch ist, wenn man den wertpunkt klarer betrachtet, denn im allgemeinen schenken alle, egal ob es sich um pharmaunternehmen oder die gerade erwähnte neue energie handelt, innovationsinvestitionen immer mehr aufmerksamkeit. wir hoffen auch, zur innovation des gesamten wissenschaftlichen forschungsparadigmas beizutragen, einschließlich der wissenschaftlichen forschungsinfrastruktur und übergeordneten szenarien. durch unsere wissenschaftliche forschungsplattform können wir sie verbinden und verschiedene branchen stärken.