nachricht

ceo von „ai unicorn“: die zukunft der ki wird ähnlich sein wie die der photovoltaikindustrie

2024-08-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

am beispiel der photovoltaikbranche glaubt amodei, dass es selbst dann, wenn eine technologie sehr wichtig und weit verbreitet auf dem markt wird, immer noch schwierig sein kann, einem einzelnen unternehmen hohe gewinne zu erwirtschaften, und dass eine starke kommerzialisierung die rentabilität des unternehmens einschränken wird. ähnlich wie in der photovoltaikbranche mag der markt für ki-technologie sehr groß sein, aber es kann auch schwierig sein, davon zu profitieren, und auch die frage der gewinnverteilung zwischen verschiedenen teilnehmern ist sehr kompliziert.

harte ki

autor |. huang wenwen

herausgeber |. harte ki

diese woche nahm dario amodei, ceo und mitbegründer von „ai unicorn“ anthropic, an dem interview teil und diskutierte die entwicklung der ki-branche, skalierungsgesetze usw.

das skalierungsgesetz bezieht sich hauptsächlich auf die tatsache, dass mit zunehmender daten- und rechenleistung auch die fähigkeiten des modells zunehmen.amodei glaubt, dass ki, wenn dieses gesetz weiterhin bestand hat, wahrscheinlich sehr mächtig werden und neue geschäftsmodelle und technologische innovationen hervorbringen wird.

allerdings betonte er auch, dass dieses gesetz nicht immer gelte, wenn die leistung des modells in einigen aspekten nicht weiter verbessert werden könne, möglicherweise die gesamte ki-branche betroffen.

amodei konzentrierte sich auch auf den vergleich der ki-branche mit der photovoltaik-branche. am beispiel der photovoltaikindustrie verdeutlichte er, dass es auch dann schwierig sein kann, einem einzelnen unternehmen hohe gewinne zu bescheren, wenn eine technologie sehr wichtig wird und auf dem markt weit verbreitet ist.

obwohl die photovoltaik-technologie fast die gesamte energiebranche erschüttert hat, ist ihr markt stark standardisiert, hart umkämpft und weist keine nennenswerten markenwirkungen auf, sodass die rentabilität jedes unternehmens bestimmten einschränkungen unterliegt.

ähnlich wie in der photovoltaikbranche mag der markt für ki-technologie sehr groß sein, aber es kann auch schwierig sein, davon zu profitieren. das gewinnmodell der ki kann von mehreren faktoren beeinflusst werden, wie z. b. modellberechnungskosten, inferenzkosten usw. die gewinnverteilung zwischen hardwareanbietern, modellentwicklern und anwendungsschichten ist ebenfalls recht komplex und steht vor erheblichen herausforderungen.

die gesprächsthemen lauten wie folgt:

1. es ist etwas schwierig, das skalierungsrecht vollständig von betriebswirtschaftlichen themen zu trennen.

2. da der markt so groß ist, lautet meine erste antwort, dass die gewinne an alle diese orte fließen werden.

3. wenn das skalierungsgesetz korrekt ist, wird dies ein sehr großer markt sein. selbst wenn nur 10 % des gewinns an einen bestimmten teil der lieferkette gehen, ist das immer noch riesig.

4. wenn wir ein modell mit dutzenden oder hunderten milliarden parametern erstellen, dürfen nicht mehr als vier oder fünf einheiten (und möglicherweise einige staatliche unternehmen) beteiligt sein. was wir also sehen, ist möglicherweise eher ein oligopol als ein vollständiges monopol oder eine vollständige kommerzialisierung.

5. selbst wenn ein solches modell veröffentlicht wird, sind die laufenden kosten eines so großen modells für die inferenz sehr hoch, und der größte teil der kosten entfällt auf die inferenz und nicht auf das modelltraining. wenn sie über bessere argumentationsmethoden verfügen, kann bereits eine verbesserung um 10 %, 20 % oder 30 % große auswirkungen haben.

6. wir haben größere, leistungsstärkere modelle und schnellere, billigere und weniger intelligente modelle. einige kunden haben festgestellt, dass das große modell aufgaben einer großen anzahl kleiner modelle zuweisen und dann dem großen modell bericht erstatten kann, um die aufgabe wie folgt zu erledigen schwarm.

7. niemand sollte glauben, dass das skalierungsgesetz für immer bestehen bleibt, es ist nur eine empirische beobachtung und kann jederzeit aufhören. ich beobachte sie seit zehn jahren und meine vermutung, dass sie nicht aufhören werden, ist nur eine 60-40- oder 70-30-prognose, basierend auf der zeitspanne, die ich sie beobachte.

8. wenn wir ki richtig einsetzen können, kann sie die geschwindigkeit, mit der wir diese entdeckungen machen, um das zehnfache, vielleicht sogar das hundertfache steigern.

der vollständige text des interviews lautet wie folgt, wobei einige inhalte gelöscht wurden:

01

google hat es nicht geschafft, das bell labs der ära der künstlichen intelligenz zu werden

noah smith:

in diesem wirtschaftspodcast sprechen wir lieber über wirtschaftswissenschaften als über rein technische dinge. ist google also das bell labs der ära der künstlichen intelligenz?

sie haben zu modernem deep learning und transformern usw. geforscht, aber es gelang ihnen nicht wirklich, es zu kommerzialisieren, wie bell labs. sie haben die forschung mit monopolgeldern finanziert, und dann haben interessante leute wie sie dort gearbeitet und sind dann gegangen, um unternehmen zu gründen, wie die leute von fairchild bei bell labs. halten sie das für eine passende metapher?

dario amodei:

auch wenn es keine perfekte analogie gibt, denke ich auf jeden fall, dass etwas wahres dran ist. viele betrachteten es als eine fortsetzung einer akademischen karriere, die dem industriellen umfeld bei bell labs sehr ähnlich war, mit dem unterschied, dass google über mehr ressourcen verfügte, um seine ziele zu erreichen. daher werden viele projekte untersucht. transformer ist eine der schlüsselerfindungen auf diesem gebiet und nur eines von etwa hundert projekten, an denen derzeit geforscht wird.

wenn sie an der spitze der organisation stünden, könnten sie es nicht vernünftig von den 99 anderen projekten in der entwicklung unterscheiden. es ist, als würden hundert blumen blühen und miteinander konkurrieren. ich glaube, damals habe ich zum ersten mal das skalierungsgesetz vorgeschlagen, das besagt, dass wir diese innovationen in großem maßstab skalieren und integrieren müssen.

theoretisch ist google der beste ort dafür, da sie über den größten cluster der welt mit einer menge talentierter ingenieure und allen notwendigen elementen verfügen.allerdings ist google für die suche organisiert, und ich glaube nicht, dass es unbedingt darum geht, all diese teile zusammenzuführen und etwas völlig anderes als vorher zu skalieren.

noah smith:

so wie bell labs nicht darauf gegründet wurde, computer zu erfinden und jedem einen computer zu geben, war es auch darauf ausgerichtet, jeden zu verkabeln.

dario amodei:

ja, es ist eine telefongesellschaft. ich kann also nicht für google sprechen, aber offensichtlich sind sie jetzt nicht nur die erfinder all dieser erstaunlichen dinge, sondern auch eines der vier unternehmen mit spitzenmodellen, die sowohl unsere partner als auch unsere konkurrenten sind. ich kenne dort viele leute, die sehr schlau sind.

aber ich denke, sie haben recht, es wird eine zeit geben, in der sie der einzige dominierende spieler sein könnten, wenn sie diese elemente auf die richtige art und weise kombinieren können. aber aus irgendeinem grund ging es nicht in diese richtung.

02

skalierungsgesetz:

mit zunehmender datengröße wird das modell leistungsfähiger

noah smith:

dies wirft eine weitere frage auf, über die wir nachdenken. eigentlich kam uns die idee, mit ihnen zu sprechen, von etwas, das wir in einem anderen podcast diskutierten, in dem wir im wesentlichen über die ökonomie des internetgeschäfts sprachen, und dann äußerte jemand pessimistische ansichten zum ki-geschäft und fragte, wie viele ki es gibt wirklich wirtschaftsgräben.

offensichtlich hängt das eng mit anthropic und anderen unternehmen zusammen, die wir startups nennen, aber sie sind bereits ziemlich groß.sagen sie uns also, was sie über die wirtschaftsgräben von ki-unternehmen denken.

dario amodei:

ich würde sagen, ich werde diese frage ein wenig in zwei zweige aufteilen. ich denke, es ist schwierig, das skalierungsrecht vollständig von betriebswirtschaftlichen themen zu trennen. betrachten wir also den fall, in dem das skalierungsgesetz in einer sehr starken form gilt, und betrachten wir dann die fälle, in denen es möglicherweise teilweise oder überhaupt nicht gilt. wenn dies in einer sehr starken form zutrifft, sieht die situation so aus:

jetzt haben sie ein modell mit 100 millionen parametern trainiert, und seine fähigkeiten entsprechen denen eines guten studienanfängers.

dann trainieren sie ein modell mit einer milliarde parametern, was den fähigkeiten eines guten bachelor-studenten entspricht;

sie haben ein modell mit zig milliarden parametern trainiert, dessen fähigkeiten denen eines spitzenstudenten entsprechen;

wenn sie ein modell mit hunderten von milliarden parametern trainieren, entsprechen seine fähigkeiten denen eines nobelpreisträgers.

und dann nehmen sie dieses modell in betrieb und dienen im grunde jedem, und es wird ihr kollege, es wird ihr persönlicher assistent, es hilft bei der nationalen sicherheit, es hilft bei der biologischen forschung.

ich denke, dass dieses system und die darauf basierenden produkte in dieser welt einen großen teil der wirtschaft ausmachen werden. bleibt die frage: wohin soll der erlös fließen? wird es an nvidia, an unternehmen für künstliche intelligenz oder an nachgelagerte anwendungen fließen? da der markt so riesig ist, lautet meine erste antwort:allen diesen orten fließen vorteile zu.

03

die zukunft der ki wird ähnlich sein wie die der photovoltaikindustrie

noah smith:

aber denken sie an solarenergie, solarenergie wird eindeutig sehr wichtig sein. je mehr energie wir benötigen, desto weiter verbreitet wird die nutzung von solarenergie. allerdings ist es schwer zu sagen, welches solarunternehmen besonders viel gewinn macht. solarenergie ist ein stark standardisiertes produkt, und obwohl es viele innovationen gibt, gibt es keinen markeneffekt, keinen netzwerkeffekt und keinen lock-in-effekt. es ist für jedes solarunternehmen schwierig, in diesem bereich gewinne zu erzielen , und diese dinge verändern die welt vor unseren augen.

daher bin ich mir nicht ganz sicher, ob das unternehmen zwangsläufig gewinne erzielen wird, nur weil derzeit alles so boomt wie die solarenergie. aber ich bin auf jeden fall offen für die möglichkeit. ich möchte nur wissen,was ist ihrer meinung nach die quelle? warum ist die entwicklung der künstlichen intelligenz anders?

dario amodei:

solarenergie? ich denke, hier gibt es zwei punkte, weil ich denke, dass dies in den meisten welten eine wichtige frage ist. vielleicht sage ich nur, dass dies ein sehr großer markt sein wird, wenn das skalierungsgesetz richtig ist. selbst wenn nur 10 % des gewinns an einen bestimmten teil der lieferkette gehen, ist das immer noch riesig.

wenn man den kuchen größer macht, wird es zur interessantesten frage, obwohl diejenigen, die über die verteilung der dollarnoten entscheiden, sicherlich große bedenken darüber haben werden, wohin eine billion geht. aber lassen sie uns auf ihre frage zurückkommen, denn ich denke, sie ist überall auf der welt wichtig.der springende punkt ist, wie groß der „kuchen“ ist, den sie teilen.

erstens hängt es auf der modellseite vom skalierungsgesetz ab. wenn wir ein modell mit dutzenden oder hunderten von milliarden parametern erstellen würden, wären wahrscheinlich nicht mehr als vier oder fünf einheiten (und vielleicht einige staatliche unternehmen) beteiligt. was wir also sehen, ist möglicherweise eher ein oligopol als ein vollständiges monopol oder eine vollständige kommerzialisierung.

ich denke, eine frage hier ist: wird irgendjemand ein open-source-modell veröffentlichen, das eine milliarde oder 10 milliarden parameter hat? ich bin skeptisch, selbst wenn ein solches modell veröffentlicht wird, sind die laufenden kosten eines so großen modells für die inferenz sehr hoch, wobei der größte teil der kosten eher für die inferenz als für das modelltraining anfällt. wenn sie über bessere argumentationsmethoden verfügen, kann bereits eine verbesserung um 10 %, 20 % oder 30 % große auswirkungen haben. die wirtschaftlichen aspekte sind etwas seltsam, es handelt sich um enorme fixkosten, die man amortisieren muss, aber es gibt auch einheitskosten für die argumentation, und unter dieser annahme, weit genug eingesetzt, kann der unterschied enorm sein. ich bin mir nicht sicher, wie sich das auswirken wird.

noah smith:

dies ähnelt tatsächlich der ökonomie der schwerindustrie, etwa der art und weise, wie stahl hergestellt wird.

dario amodei:

ja, ein bisschen. interessanterweise würde ich auch sagen, dass wir bei diesen modellen festgestellt haben, dass die modelle unterschiedliche persönlichkeiten haben. eine kommerzialisierung ist also eine möglichkeit, aber selbst in einem oligopol könnte die art und weise, wie bestimmte modelle eingesetzt werden, kommerzialisiert werden, obwohl ich mir nicht sicher bin.

aber eine kraft, die dieser ansicht entgegensteht, ist: hey, ich habe ein modell gemacht, das gut im programmieren war, du hast ein modell gemacht, das gut im kreativen schreiben war, und eine dritte person hat ein modell gemacht, das gut in unterhaltung war. dies sind entscheidungen, und sobald man beginnt, diese entscheidungen zu treffen, beginnt man, eine infrastruktur um sie herum aufzubauen, was die voraussetzungen für ein gewisses maß an differenzierung zu schaffen scheint.

eine weitere mögliche differenzierungsquelle sind produkte, die auf vorbildern basieren.theoretisch können sie die modellebene von der produktebene trennen, in der praxis sind sie jedoch miteinander verbunden und die zusammenarbeit zwischen organisationen kann eine herausforderung sein. obwohl es bei modellen eine gemeinsame logik gibt und viele unternehmen in die gleiche richtung gehen und multimodale funktionen hinzufügen, um modelle intelligenter und schnellere schlussfolgerungen zu machen, sind die produkte so unterschiedlich.

wenn sie sich dieses „artifacts“-projekt ansehen, das wir durchgeführt haben, ist es eine möglichkeit, das schreiben von modellcode in echtzeit zu visualisieren. wir machen das, openai hat seinen eigenen ansatz und google hat seinen eigenen ansatz. ich denke, dass dies auch eine der ursachen für die differenzierung zwischen unternehmen ist.

wir haben gesehen, dass die wirtschaftlichkeit des verkaufs von apps, selbst relativ dünner, je nach modell immer größer wird.

erik torenberg:

wenn das skalierungsgesetz gilt und die dinge so groß werden, wie wir denken, erwarten sie dann, dass diese unternehmen irgendwann verstaatlicht werden? oder was denkst du?

dario amodei:

wir können es in zwei situationen unterteilen: zum einen ist das skalierungsgesetz richtig und zum anderen ist das skalierungsgesetz falsch. wenn es falsch ist, dann ist dies nur eine technologie, die wie das internet oder die solarenergie vielleicht wichtiger als die meisten anderen, aber nicht beispiellos ist. aufgrund der aktuellen entwicklung glaube ich nicht, dass es zu einer verstaatlichung kommen wird.

wenn es stimmt, sind die modelle, die wir bauen, so gut wie die von nobelpreis-gekrönten biologen und führenden programmierern der industrie oder sogar besser. ich bin mir nicht sicher, ob es tatsächlich eine verstaatlichung sein wird. wir werden uns große sorgen darüber machen, ob unsere gegner mit uns mithalten können oder ob wir sie genauso schnell einsetzen können wie unsere gegner.

04

skalierungsgesetz

beeinflussen sie die ki, um neue geschäftsmodelle zu schaffen

noah smith:

ich habe eine frage zum einfluss künstlicher intelligenz auf geschäftsmodelle. sie kennen die geschichte der elektrizität. im grunde genommen versuchten die hersteller zu beginn, als sie elektrizität bekamen, ihre dampferzeuger abzubauen, und die generatoren hatten verluste. dann entdeckte jemand, dass man mehrere arbeitsstationen parallel mit strom versorgen konnte, was die art und weise, wie die fertigung funktionierte, veränderte und zu mehreren kleinen arbeitsstationen führte, was jahrzehntelang zu enormen produktivitätssteigerungen führte.

ich habe immer vermutet, dass ki ähnlich ist. ich denke, das internet ist ähnlich,bei der ki ist es insofern ähnlich, als zunächst jeder zu denken scheint, ki sei eine person. jemand hat tatsächlich die anzahl der ki mit der anzahl der menschlichen mitarbeiter verglichen, was für mich keinen sinn ergibt, da es nicht in individuen heruntergebrochen werden kann.

sie könnten ein proxy-basiertes system entwickeln, um diesen ansatz nachzuahmen, aber warum? ich sehe, dass jeder darüber nachdenkt, dass ki den menschen direkt ersetzt, und ich argumentiere, dass dies die erste stufe ist, genauso wie es keine gute idee ist, dampfkessel direkt durch elektrizität zu ersetzen. ich denke, die leute werden ein wenig enttäuscht sein, denn es gibt nur wenige fälle, in denen dieser direkte ersatz eines menschen funktioniert, etwa beim kundenservice und einigen anderen klar definierten dingen.

aber ich denke, dass es nur wenige fälle gibt, in denen dieser direkte ersatz durch menschen funktioniert, und dann erleben wir den ausbruch des gartner-hype-zyklus.

einige kreative unternehmer würden sagen, dass wir künstliche intelligenz nicht nur als ersatz für den menschen nutzen, sondern dass wir sie nutzen, um neue geschäftsmodelle zu schaffen. dann werden wir eine boom-periode des wiederauflebens erleben, das ist meine prognose. meine gartner-ähnlichen vorhersagen, bin ich verrückt?

dario amodei:

ich denke, es ist eine mischung aus einigen dingen, denen ich zustimme, und einigen dingen, mit denen ich möglicherweise nicht einverstanden bin. zunächst einmal stimme ich grundsätzlich zu, dass alles, was sie sagen, richtig ist, wenn sie die qualität des aktuellen modells einfrieren. im geschäftsleben beobachten wir grundsätzlich etwas ähnliches. wir stellen modelle zur verfügung, mit denen sie sprechen können, verkaufen modelle aber auch über eine api an viele kunden. die leute haben lange darüber nachgedacht, wie man modelle am besten nutzt.

es gibt viele fragen zur modellzuverlässigkeit, und ich denke, das gibt anlass zur sorge, etwa ein modell, das in 95 % der fälle die richtige antwort gibt, aber nicht in 5 % der fälle. wie erkennt man diese situationen und wie erkennt man diese? behandeln sie die fehlerbehandlung. sehr wichtig. das ist ein großer unterschied zwischen der nützlichkeit in der theorie und der nützlichkeit in der praxis.

wir hatten schon früh eine funktion, mit der das modell code schreiben konnte, und dann konnte man den code in einen compiler oder interpreter einfügen, um ein javascript-videospiel zu erstellen, und wenn etwas schief ging, konnte man zum modell zurückkehren und es reparieren. wir sehen auch, dass große models kleine models koordinieren, was sich stark von der vorstellung unterscheidet, dass ein model eine person ist.

wir haben größere, leistungsstärkere modelle und schnellere, billigere und weniger intelligente modelle, und einige kunden haben festgestellt, dass das große modell aufgaben auf eine große anzahl kleiner modelle verteilen kann, die dann dem großen modell bericht erstatten, um die aufgabe wie folgt zu erledigen schwarm.

wir erforschen auch die besten möglichkeiten, modelle zu nutzen, die immer intelligenter werden und diese probleme besser lösen können. letztlich kommt es also darauf an, ob das skalierungsgesetz bestand haben wird. wenn sie weitermachen, wird es ein prozess sein, wie sie ihn beschreiben. wenn sie aufhören würden, würde die innovation aufhören und der von ihnen beschriebene prozess würde enden.

niemand sollte glauben, dass das skalierungsgesetz für immer bestehen bleibt, es ist nur eine empirische beobachtung und kann jederzeit aufhören. ich beobachte sie seit zehn jahren und meine vermutung, dass sie nicht aufhören werden, ist nur eine 60-40- oder 70-30-prognose, basierend auf der zeitspanne, die ich sie beobachte.

erik torenberg:

was würde ihre meinung ändern? was würde ihre chancen dort verändern?

dario amodei:

ich denke, wenn wir zunächst nur ein modell trainieren und dann das nächste maßstabsgetreue modell ausprobieren, sind die ergebnisse sehr schlecht. wir haben ein paar mal versucht, das problem zu beheben, aber es hat immer noch nicht geklappt, und ich dachte: oh, ich schätze, dieser trend hört auf.

wenn es ein problem mit der datenknappheit gibt und wir nicht genügend synthetische daten generieren können, um diesen prozess fortzusetzen, dann würde ich irgendwann sagen: hey, das sieht tatsächlich schwierig aus, zumindest wird dieser trend anhalten, vielleicht sogar aufhören, aber es kann sein, dass es nicht aufhört. ich vermute immer noch, dass so etwas nicht passieren wird, aber wissen sie, es ist ein sehr komplexes thema.

05

ki könnte biologische entdeckungen um das hundertfache beschleunigen

komprimierung der zeit des jahrhundertfortschritts

noah smith:

wenn der engpass der ki-ressourcen eher in der rechenleistung als in der energie liegt, dann werden wir durch den einsatz von ki mehr komparative vorteile haben. stimmen sie dieser ansicht grundsätzlich zu?

dario amodei:

ja, ich denke, das macht sinn. sie meinen, um eine etwas lächerliche metapher zu verwenden,wenn kis wie cybermen sind und der prozess ihrer herstellung und züchtung dem von menschen sehr ähnlich ist, dann sind wir in schwierigkeiten.aber wenn es nur ein cluster von servern irgendwo mit völlig unterschiedlichen eingaben ist, dann ist alles in ordnung.

ich habe nicht ausführlich darüber nachgedacht, aber es scheint auf den ersten blick sinn zu ergeben. wenn wir uns in einer situation befänden, in der ki die welt umgestaltet und sich die wirtschaftsstruktur verändert hätte, dann reden wir vielleicht über etwas anderes. aber wenn die normalen regeln der ökonomie weiterhin gelten, und ich denke, dass dies noch eine weile der fall sein wird, dann klingt das sehr vernünftig.

noah smith:

aber meine andere frage ist: ist es notwendig, eine welt des extremen überflusses in betracht zu ziehen? ki ist so leistungsstark, dass sie uns erstaunliche biologie und fertigung ermöglicht und alles, was wir wollen, zehnmal, hundertmal besser usw. macht.

dario amodei:

ich denke, wir unterschätzen das potenzial der künstlichen intelligenz in der biologie wirklich. vor zehn jahren, als ich in diesem bereich tätig war, herrschte die einstellung vor, dass die qualität der daten, die wir aus der biologie erhielten, fraglich sei, die datenmenge, die wir erhalten konnten, begrenzt sei und experimente oft unterbrochen würden. natürlich sind mehr datenanalyse, big data und künstliche intelligenz gut, aber bestenfalls eine unterstützende rolle. vielleicht ändert sich das mit der einführung von alpha fold.

aber ich bin der meinung, dass ki-modelle als biologen oder co-biologen fungieren können. wenn wir über die wirklich fortgeschrittene biologie nachdenken, kommt es uns so vor, als wären es wirklich unverhältnismäßig viele technologien, die alles antreiben. beispielsweise ist die genomsequenzierung, die fähigkeit, das genom zu lesen, die grundlage der modernen biologie. die neueste crispr-technologie ist die möglichkeit, das genom zu bearbeiten. wenn wir ki richtig einsetzen können, kann sie die geschwindigkeit, mit der wir diese entdeckungen machen, um das zehnfache, vielleicht sogar das hundertfache steigern.

nehmen wir zum beispiel crispr, das aus dem bakteriellen immunsystem zusammengesetzt wurde und dessen erfindung 30 jahre dauerte. ich denke, wenn wir die geschwindigkeit, mit der diese entdeckungen gemacht werden, erheblich steigern können, werden wir auch die geschwindigkeit, mit der krankheiten geheilt werden können, erheblich steigern.

mein gedanke ist: können wir den fortschritt im 21. jahrhundert komprimieren? können wir den gesamten biologischen fortschritt im 21. jahrhundert mithilfe von ki um den faktor 10 beschleunigen?wenn man an all die fortschritte denkt, die wir im 20. jahrhundert in der biologie gemacht haben, und das dann auf fünf bis zehn jahre komprimiert, ist das für mich die gute seite. ich denke, das könnte wahr sein. wir könnten krankheiten heilen, die uns seit jahrtausenden plagen, was natürlich die produktivität dramatisch steigern, den wirtschaftlichen kuchen vergrößern und die menschliche lebensspanne verlängern würde.