nachricht

„patin der künstlichen intelligenz“ li feifei: ich weiß nicht, was agi ist

2024-10-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

bildquelle: stanford university

sind sie verwirrt über künstliche allgemeine intelligenz (agi)? openai ist besessen davon, dies letztendlich auf eine weise zu schaffen, die „der gesamten menschheit zugute kommt“. vielleicht möchten sie sie ernst nehmen, denn sie haben gerade 6,6 milliarden us-dollar gesammelt, um diesem ziel näher zu kommen.

aber wenn sie sich immer noch fragen, was genau agi ist, sind sie nicht allein.

auf dem credo ai responsible artificial intelligence leadership summit am donnerstag sagte li feifei, eine weltbekannte forscherin, die oft als „patin der künstlichen intelligenz“ bezeichnet wird, sie wisse auch nicht, was agi sei.in anderen momenten sprach fei-fei li über ihre rolle bei der geburt der modernen künstlichen intelligenz, wie sich die gesellschaft vor fortschrittlichen ki-modellen schützen sollte und warum sie glaubt, dass ihr neues einhorn-startup world labs alles verändern wird.

aber als sie gefragt wurde, was sie von der „ki-singularität“ halte, war lee genauso verwirrt wie der rest von uns.

„ich komme aus dem akademischen bereich der künstlichen intelligenz und wurde in strengeren und evidenzbasierten ansätzen ausgebildet, daher wusste ich nicht wirklich, was diese worte bedeuteten“, sagte lee in einem überfüllten raum in san francisco neben einer tür mit blick auf das golden gate die großen fenster der brücke.„ehrlich gesagt weiß ich nicht einmal, was agi bedeutet. die leute sagen, man weiß es, wenn man es sieht, und ich glaube, ich habe es nicht gesehen. tatsächlich verbringe ich nicht viel zeit damit, über die worte nachzudenken, weil ich denke, es gibt noch viel wichtigeres zu tun ...“

wenn jemand weiß, was agi ist, dann wahrscheinlich li feifei. im jahr 2006 schuf sie imagenet, den weltweit ersten groß angelegten ki-trainings- und benchmark-datensatz, der entscheidend dazu beitrug, unseren aktuellen ki-boom voranzutreiben. von 2017 bis 2018 war sie chefwissenschaftlerin für ki/ml bei google cloud. heute leitet fei-fei li das human center for ai institute (hai) der stanford university und ihr startup world labs baut „groß angelegte weltmodelle“. (wenn sie mich fragen, ist dieser begriff fast so verwirrend wie agi.)

altman, ceo von openai, versuchte letztes jahr in einem interview mit the new yorker, agi zu definieren.altman beschreibt agi als „das mittlere menschliche äquivalent eines kollegen, den man einstellen kann“.(entspricht einem durchschnittlichen menschen, den sie als kollegen einstellen könnten.)

unterdessen definiert die charta von openai agi als „hochautonome systeme, die den menschen bei der wirtschaftlich wertvollsten arbeit übertreffen“.

offensichtlich sind diese definitionen für ein 157-milliarden-dollar-unternehmen nicht gut genug. daher,openai hat fünf ebenen für die interne bewertung seiner fortschritte in richtung agi erstellt. die erste ebene sind chatbots (wie chatgpt), dann denker (anscheinend ist openai o1 diese ebene), agenten (die angeblich die nächste sind), innovatoren (kis, die dabei helfen können, dinge zu erfinden) und die letzte ebene ist die organisationsebene (ki, die … kann die arbeit der gesamten organisation abschließen).

immer noch verwirrt? ich auch, und li auch. darüber hinaus klingt es weit mehr, als ein durchschnittlicher menschlicher kollege leisten kann.

li erwähnte zuvor im gespräch, dass sie seit ihrer kindheit neugierig auf das konzept der intelligenz war. dies veranlasste sie, mit der erforschung künstlicher intelligenz zu beginnen, bevor diese profitabel war. anfang der 2000er jahre sagte lee, dass sie und mehrere andere im stillen den grundstein für das feld legten.

„im jahr 2012 wurde mein imagenet mit alexnet und gpus kombiniert – was viele als die geburtsstunde der modernen künstlichen intelligenz bezeichnen.es wird von drei schlüsselfaktoren angetrieben: big data, neuronale netze und modernes gpu-computing.sobald dieser moment gekommen ist, denke ich, dass der gesamte bereich der künstlichen intelligenz und unsere welt nie wieder so sein werden wie zuvor. "

auf die frage nach dem umstrittenen kalifornischen gesetzentwurf zur künstlichen intelligenz, sb 1047, äußerte sich lee vorsichtig, um die kontroverse nicht noch einmal aufleben zu lassen, die gouverneur newsom letzte woche gerade mit seinem veto gegen den gesetzentwurf beigelegt hatte. (wir haben kürzlich mit dem autor von sb 1047 gesprochen, der es vorzog, die debatte mit lee erneut zu eröffnen.)

„einige von ihnen wissen vielleicht, dass ich meine besorgnis über diesen abgelehnten gesetzentwurf [sb 1047] geäußert habe, aber jetzt denke ich intensiv darüber nach und freue mich voller vorfreude“, sagte lee. „ich fühle mich sehr geschmeichelt oder fühle mich geehrt, dass gouverneur newsom mich gebeten hat, teil der nächsten schritte nach sb 1047 zu sein.“

der gouverneur von kalifornien hat kürzlich lee und andere ki-experten eingeladen, eine arbeitsgruppe zu bilden, um den staat bei der entwicklung von schutzmaßnahmen für ki-einsätze zu unterstützen. lee sagte, sie werde in dieser rolle einen evidenzbasierten ansatz verfolgen und ihr bestes tun, um sich für akademische forschung und finanzierung einzusetzen. allerdings möchte sie auch sicherstellen, dass kalifornien technikarbeiter nicht bestraft.

„wir müssen uns wirklich auf die möglichen auswirkungen auf die menschen und unsere gemeinschaften konzentrieren, anstatt der technologie selbst die schuld zu geben…wir bestrafen automobilingenieure, wenn ein auto absichtlich oder unabsichtlich missbraucht wird und eine person verletzt – z.b.fordoder general motors - macht keinen sinn. die bloße bestrafung von autoingenieuren wird autos nicht sicherer machen. was wir tun müssen, ist, weiterhin innovationen für sicherere maßnahmen zu entwickeln und gleichzeitig die rechtlichen rahmenbedingungen zu verbessern – sei es sicherheitsgurte oder geschwindigkeitsbegrenzungen – und das gleiche gilt für künstliche intelligenz. "

dies ist eines der besseren argumente, die ich für sb 1047 gehört habe, einen gesetzentwurf, der technologieunternehmen bestrafen würde, die von gefährlichen ki-modellen betroffen sind.

während lee den bundesstaat kalifornien bei der ki-regulierung berät, betreibt sie auch ihr startup world labs in san francisco. dies ist das erste mal, dass li ein startup gründet, und sie ist eine der wenigen frauen, die ein hochmodernes labor für künstliche intelligenz leitet.

„wir sind noch weit von einem sehr vielfältigen ki-ökosystem entfernt“, sagte li. „ich glaube, dass vielfältige menschliche intelligenz zu vielfältiger künstlicher intelligenz und zu besserer technologie für uns führen wird.“

sie freut sich darauf, in den nächsten jahren die „räumliche intelligenz“ näher an die realität heranzuführen. die entwicklung der menschlichen sprache, die grundlage der heutigen groß angelegten sprachmodelle, könnte millionen von jahren gedauert haben, während vision und wahrnehmung möglicherweise 540 millionen jahre gedauert haben, sagte li. das bedeutet, dass die erstellung großer weltmodelle eine komplexere aufgabe ist.

„hier geht es nicht nur darum, den computer sehen zu lassen, sondern ihn wirklich die gesamte dreidimensionale welt verstehen zu lassen, was ich räumliche intelligenz nenne“, sagte li.„es geht uns nicht nur darum, dinge zu benennen ... wir kümmern uns wirklich darum, dinge zu tun, durch die welt zu navigieren, miteinander zu interagieren, und um die lücke zwischen sehen und handeln zu schließen, sind räumliche kenntnisse erforderlich. als technologe bin ich wirklich begeistert.“ darüber“

zusammengestellt von: chatgpt