nuntium

Google maximus victor est!Ut AI in Apple praecipue telephoniis gestabilibus utatur, coquus etiam adversariis inclinatus est

2024-07-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Praeterito biduo, Lorem Apple Intelligentia una ex maximis technologiarum nuntiis facta est.

Etsi ad plenam versionem Apple Intelligentiae plus quam ante mensem pronuntiatum est, Apple Intelligentiae notae in Apple iOS 18.1 beta 1 inductae non sunt integrae Nequaquam.

Sed in genere, Apple adhuc instrumenta scripturae affert), recordationem vocant (inclusam transcriptionem) et Siri nuper designatum.

Inter eos, Instrumenta scripturae subsidia rescribendi, specializationis, abbreviationis et aliarum functionum, et uti possunt in missionibus sicut in fabulando, dispositis ad Momenta, Xiaohongshu notas, et scripturam vocant; textus, qui usoribus opportunus est.

Praeterea Siri etiam "upgraded" est, sed proh dolor nunc ad designandum limitatur, inter novos "marquee" speciales effectus et subsidia claviaturae initus.

Sed quid mirum est quod Apple in charta detegitur quod "Apple Intelligentia Foundation Language Exemplaria"Lacus communi NVIDIA H100 et aliis GPUs non utebatur, sed TPU suae "antiquae rivalis" Google elegit ut exemplar fundamentale intelligentiae Apple erudiret.


Picture/Apple

Google TPU utere creare Apple intelligenti

Ut omnes novimus, Apple Intelligentia in tres ordines dividitur: una est machina AI localiter in Apples machinas currens, altera est nubes AI currens in propria Apple data centra secundum "nubem privatam computandi" technologiam. Secundum nuntium e copia catenae, Lacus suum centrum datorum aedificabit a massa-faciendi M2 Ultra.

Praeterea est alius pannus qui coniungit nubem magnam cum tertia-parte exemplorum, ut GPT-4o, etc.

Sed haec est consequentia in parte. Ex charta officiali Apple iudicans, Apple duo exemplaria fundamentalia in ferramentis racemis TPUv4 et TPUv5p exercuit:

Unum est exemplar fabricae AFM-in-fabricae cum scala parametri 300 decies centena milia, quae exercetur utens 2048 insulis TPU v5p et localiter in Apple machinis decurrit; scala parametri, utens 8192 caudices.


Picture/Apple

Hoc mirum est. Omnes scimus GPUs ut Nvidia H100 nunc amet electionem ad exercendam AI.

E contra, Google TPU aliquantum "ignotum" videtur.

Re quidem vera, Google TPU accelerator est ad apparatus discendi et alta discendi opera specialiter destinata, quae praestantia commoda perficiendi praebere possunt. Cum efficiente computandi vim et coniunctiones retis humiliores latency, Googles TPU bene facit cum magnas formas exercitationesque tractat.

Exempli gratia, TPU v4 potest apicem computandi potestatem usque ad 275 TFLOPS per chip praebere, et 4096 TPUv4 assulas in magnam scalam TPU supercomputatum per ultra-magnam celeritatem connexionis per connexionem praebere potest, duplicando scalam potentiae computandi.

Et non solum Apple, sed aliae societates magnae exemplar etiam Google TPU adoptaverunt ut magna exempla sua exerceant.Claud, ex anthropica typica exemplum est.


Chatbot Arena Rankings, Photo/LMSYS

Claude nunc dici potest potentissimum competitorem exemplaris OpenAI GPT esse. In LMSYS chat robot arenae, Claude 3.5 Sonnet et GPT-4o semper "dracones accubantes et pullos phoenix" (laus). Secundum detectiones, Anthropicus Nvidia GPUs ad supercomputationem aedificandam numquam emit, sed TPU ligaturas in Google Cloud ad formandam et consequentiam adhibet.

Fine ultimo anno, publice Anthropicus pronuntiavit primum usum TPU v5e botri fore in Google Cloud ad instituendi Claude.

Diu terminus usus anthropicorum et eventus a Claudius effecti efficientiam et fidem Google TPU in AI disciplina plene demonstrant.

Praeterea Gemini Google etiam in se evoluta TPU astulas ad exercitationem nititur. Gemini exemplar intendit ad processum et generationem technologiam linguae naturalis progredi, eiusque disciplina processus requirit magnas copiae notitiarum textuum processus et calculi complexi exemplar faciendo.

TPU potens computandi potestas et efficax architecturae institutio distributa efficax est Geminis ut in brevi temporis spatio aliquid perficiant et significantes breakthroughs in effectu consequantur.

Sed si Gemini intellegi possunt, cur homines ab anthropico ad Apple Google TPU loco Nvidia GPU eligunt?

TPU et GPU, proelium secretum inter Google et Nvidiam

In SIGGRAPH 2024, summa collationis graphicae computatrum die Lunae, NVIDIA conditor et CEO Jensen Huang revelavit NVIDIA exempla architecturae Blackwell hac septimana missurum esse, quae architecturae GPU novissimae generationis NVIDIA est.

Die 18 Martii 2024, NVIDIA novissimam generationem architecturam GPU - Blackwell dimisit, et novissimam generationem B200 GPU in colloquio GTC. In terminis faciendis, B200 GPU 20 petaflops (quadrillionis per secundam fluitantis operationum) vim computandi in FP8 et novum FP6 attingere potest, id praestans in exemplorum complexorum AI dispensando.

Duobus mensibus post Blackwell emissio, Google quoque suam sextam generationem TPU (Trillium TPU) dimisit., unumquodque assium apicem computandi vim TFLOPS fere 1,000 (trillions per secundam) sub BF16 praebere potest, et Google etiam eam aestimare ut "summa-faciens et industria salutaris TPU modernorum."


Picture/Google

Comparatus cum Trillium TPU, NVIDIA Blackwell GPU quaedam adhuc utilitates habet in magni operis computatione cum subsidio altae sedis memoriae (HBM3) et CUDA oecosystematis. In una systemate, Blackwell coniungere potest ad 576 GPUs in parallelis ad obtinendam potentiam computandi potentem et scalam flexibilem.

E contra, Trillium TPU Google ratio ad efficientiam et humilem latentiam spectat in disciplina magna-scalarum distributa. TPU designatus est efficax manere in magnarum formarum formatione et altiore computatione efficientiae meliore reducendo latency communicationem per network ultra-celeritate internectit.

Et non solum in novissima generatione AI xxxiii,"Secretum bellum" inter Google et Nvidia octingentos annos exstitit, incipiens anno 2016 cum Google suum AI chip TPU evolvit.

Ad hunc diem, NVIDIA scriptor H100 GPU nunc maxime popularis AI in mercatu amet. Ex Tensor Core technicae artis, H100 GPU summam computationalem efficaciam in profundis discendi et consequentiae operibus habet.

Eodem autem tempore, TPUv5e significantes utilitates habet in recompensatione sumptus et maxime apta ad exempla parva et media mediocria. Commodum TPUv5e positum est in potentia computandi distributa et optimized energiae consumendi rationem, quae bene praestare facit cum magna-scalarum notitia processus. Praeterea, TPUv5e etiam per Google Cloud Platform praesto est, utentes utentes ad nubem flexibilem ducere disciplinam et instruere.


Google data centrum, photo/Google

Super, NVIDIA et Google variae rationes pro AI chippis habent: NVIDIA exempla perficiendi limites AI urget, dum potentem vim computandi et amplam elit sustentationem praebens; . Hae duae electiones diversae semitae efficiunt ut singulares utilitates in suis propriis applicationibus agrorum ostendant.

Sed potius, solae quae Nvidiam debellare possunt sunt illae quae programmatum et ferramenta consiliorum consiliorum captant et validas facultates et programmatum capaces habent.

Google est tale adversarium.

Fortissimus provocator ad iter Nvidiae

Blackwell alia maior upgrade ex NVIDIA post Hopper est. Valida computandi facultates habet et ad exempla magnarum linguae (LLM) et generativae AI destinatur.

Secundum relationes, B200 GPU fabricatur processu TSMC scriptoris N4P, usque ad 208 miliarda transistorum, "componitur" ex duobus GPU assulis utentibus technologiarum interconnectorum, et usque ad 192GB ipsius HBM3e (magni-Sedis memoriae) instructum est. latitudo autem usque ad 8TB / s.

In terminis faciendis, Google Trillium TPU emendavit 4.7 temporibus sub BF16 generationi priori TPU v5e, et facultatem HBM et bandam, sicut et bandam cum chirographo coniungunt, etiam duplicantur. Praeterea Trillium TPU etiam tertiae generationis SparseCore instructum est, quae institutionem novae generationis exemplorum fundamentalium accelerare potest, cum inferiore latency ac minore sumptu.

Trillium TPU aptissimum est ad formationem exemplorum magnarum linguarum et systematum commendaticiorum. Dilatari potest ad centena copiae et conectere decem milia astularum per technologiam inter connexionem retis PB-gradu per secundam, alium gradum super "computatrum computatorium" cognoscens. ", valde augens efficientiam computandi ac latentiam retis minuendo.


Picture/Google

Incipiens in medium huius anni, Google Cloud utentes erit primus qui hoc chip adoptabit.

In genere, ferramentum commodum Google TPU in sua efficiente computandi potentia et humili latency distribuit architecturae disciplinae. Hoc TPU praestantissimum facit in exercitatione magnarum linguarum exemplorum et rationum commendaticiorum. Nihilominus, utilitas Google TPU in alia integra ecosystematis independentis a CUDA et altiori integratione verticali iacet.

Per suggestum Google Cloud, utentes molliter instituere et in nube explicari possunt. Haec nubes muneris exemplar non solum inceptis obsidionis in ferramentis minuit, sed etiam in AI exemplorum efficientiam exercendam meliorem facit. Google et Cloud etiam seriem instrumentorum et officiorum quae progressionem AI sustentant, sicut TensorFlow et Iupyter Comentarii praebent, faciliorem praebent ad formas tincidunt instituendi et experiendi.


Google TPU v5p adhibita Apple, photo/Google

Google AI ecosystematis etiam ecosystem evolutionis varia instrumenta et compages comprehendit, sicut TensorFlow, fons apertae machinae discentis compagis late adhibitae quae plene utetur capacitatibus hardware accelerationis facultatum TPUs. Google etiam alia instrumenta ad progressionem AI sustentandam praebet, ut TPU Estimator et Keras. Inconsutilem integrationem horum instrumentorum progressionem progressionis valde simplicit.

Praeterea utilitas Google est ipsum Google emptorem maxima postulatione pro TPU computandi potestate. Ex processu magni ponderis YouTube video contentum ad omnem disciplinam et consequentiam Geminorum, TPU iam diu in systemate negotii Google inserta et etiam ingentes necessitates computandi Google occurrit.

Affirmari potest integrationem Google verticalem longe altiorem esse quam Nvidia, et paene perfecte dominari clavos nodos ab exemplari disciplinae ad applicationem usui experientiae forum trends.

Itaque, licet Trillium TPU adhuc difficile sit cum Blackwell GPU contendere cum indicibus chippis faciendis, cum ad magnarum exemplorum institutionem pervenerit, Google potest adhuc systematice efficientiam optimize ad aemulandum vel etiam NVIDIA's CUDA ecosystem vincendum.

TPU utens in Google Cloud est optio Apple optimus

In summa, perficiendi, sumptus et commoda fringilla TPU Botri Google fac eam optimam electionem pro magnarum formarum AI exemplarium instituendis. Rursus, TPU in Google Cloud utens, etiam Apple optima electio in hoc statu est.


Super computatione in TPU v4 fundatur, etiam Apple utitur.Picture/Google

Ex altera parte sunt effectus et sumptus. TPU peragit bene in tractandis muneribus permagna distributis exercitiis, efficientibus et humilibus latenciis facultatibus computandis ut obviam necessitatibus Apple in AI formationem praebeat. Utendo suggestu Google Cloud, Apple ferramenta gratuita reducere potest, opes computandi molliter accommodare et altiore AI progressu sumptus optimize.

Alia ratio est ecologia.Google AI ecosystem evolutionis evolutionis copia etiam instrumentorum subsidiorumque copia praebet, Apple sino eius AI exempla efficacius evolvere et explicari.

Mense Martio huius anni, Sumit Gupta, qui Nvidia, IBM et Google laboraverat, Apple coniungitur ut nubes infrastructuram duceret. Secundum relationes, Sumit Gupta equos infrastructuras Googles AI 2021 coniunxit, et tandem factus procurator TPU Google, Arm CPU auto-evoluta et alia infrastructura.

Sumit Gupta intelligit commoda TPU Google melior quam plerique intus Apple.

In prima parte anni 2024, circulus technologiae turbulentus est.
Exsecutio magnarum exemplorum accelerans est, AI phones mobiles, AI PCs, AI domum adjumenta, AI quaerentes, AI e-commercium... AI applicationes sine fine emergunt;
Visio Pro venditio et terras in mercatu Sinensi proficiscens, undam aliam computandi xr spatiales interclusit;
HarmonyOS DEINDE publice dimisit, mobilem OS ecosystematis mutans;
Cars plene "secundum medium" ingressi sunt, et intelligentia summa prioritas facta est;
E-commercia certaminis magis magisque atrox fit, cum pretiis inferioribus et melioribus servitiis;
Unda expansio transmarina oritur, et faces Sinenses iter globalizationis aggrediuntur;

Mense Iulio, Lei Technologia· Medius annus recensionis locus est online, notae, technologiae et producta notanda, in primo dimidium 2024 in technologiae industriae memoria, memoria praeteritorum et futurorum prospiciendo, sic morari versas.