nouvelles

iFlytek investira 400 millions de dollars de Hong Kong à Hong Kong pour se concentrer sur le développement de grands modèles de langage Nvidia Mistral AI ;

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

L’actualité du financement du jour

iFlytek investira 400 millions de dollars de Hong Kong à Hong Kong et établira un siège international

iFlytek a annoncé un plan d'investissement sur cinq ans de 400 millions de dollars de Hong Kong et a établi un siège international à Hong Kong. La société a déclaré que ce plan d'investissement l'aidera à former une équipe de R&D de 150 personnes qui se concentrera sur le développement de grands modèles de langage, ainsi que sur des applications d'IA dans des domaines tels que la parole intelligente, l'éducation et les soins médicaux. Duan Dawei, vice-président d'iFlytek, a déclaré : « Notre budget initial est de 400 millions de dollars de Hong Kong. Si tout se passe bien à Hong Kong, ce chiffre augmentera (South China Morning Post).

Shell Intelligence a reçu un investissement stratégique de 120 millions de RMB de Tianyang Technology Investment

Shell Intelligence est une société d'intelligence artificielle engagée dans l'innovation. Elle propose plusieurs grands modèles de langage de base, tels que de grands modèles généraux, de grands modèles de code, des graphiques multimodaux et de grands modèles de texte, ainsi que de grands modèles de parole multimodaux, adaptés à un déploiement rapide. par les entreprises nationales.

Tianyang Technology a signé l'« Accord d'investissement concernant Beijing Shell Intelligent Technology Co., Ltd. » avec Benghu Chuang, Bengshell Consulting, Bengshell Management et Benghu Chuangzhi, investissant 120 millions de yuans dans Bengshell Intelligent et souscrivant à Bengshell Intelligent New Technology Co., Ltd. Le capital social sera augmenté de 870 000 RMB et les 119 millions de RMB restants seront inclus dans le fonds de réserve de capital pour obtenir 8 % des capitaux propres de Clamshell Intelligence une fois l'augmentation de capital terminée.

Gantu Technology, un développeur de produits et de technologies de vision par ordinateur, a reçu des centaines de millions de yuans dans le cadre du financement du cycle C2

Sentu Technology est un développeur de technologies et de produits de vision par ordinateur. Son activité principale est d'appliquer la technologie de vision par ordinateur à des scénarios d'inspection d'apparence de précision. Actuellement, Gantu Technology se concentre sur le contrôle qualité intelligent et la gestion du rendement dans le domaine de la fabrication haut de gamme, et fournit des solutions intelligentes uniques pour la fabrication haut de gamme grâce à son cadre d'IA sous-jacent et à ses technologies de base développés indépendamment. Gantu Technology a réalisé des centaines de millions de yuans dans le cadre du cycle de financement C2. Ce cycle de financement a été soutenu par les fonds industriels du gouvernement local et a reçu le soutien du crédit de plusieurs banques. (communauté d'investissement)

La plateforme de paiement B2B basée sur l'IA, Slope, obtient un financement stratégique par actions et par emprunt de 65 millions de dollars

Slope, une plateforme de paiement B2B basée sur l'IA, a reçu 65 millions de dollars de financement stratégique en actions et en emprunt de JPMorgan Chase. Y Combinator, Notable Capital, Jack Altman et le nouveau fonds Saga de Max Altman ont également participé au tour de table.

Planned, un fournisseur de solutions de bout en bout pour les voyages et les activités, lève 35 millions de dollars en financement de série B

Fondée en 2017, Planned est une société de services « source-to-pay » qui accélère les voyages et les activités grâce à la technologie. La société combine les services humains et l'intelligence artificielle pour fournir des services d'achat et de réservation personnalisés à des clients tels que PwC, Block, AWS et Instacart.

Cette ronde de financement a été menée par Drive Capital, avec la participation d'Outsiders Fund et de deux autres sociétés. En plus d'annoncer le financement, Planned a également ajouté à son conseil d'administration le PDG et co-fondateur de Hopper, Frédéric Lalonde, ancien vice-président d'Expedia.

La société d'automatisation du cycle de revenus basée sur l'IA Thoughtful AI lève 20 millions de dollars de financement

Thoughtful Automation Inc., une startup de gestion du cycle de revenus basée sur l'IA et axée sur le secteur de la santé, a lancé trois agents d'IA : CAM, EVA et PHIL pour gérer respectivement le traitement des réclamations, la vérification de l'éligibilité des patients et la publication des paiements. Le cycle a été dirigé par Nick Solaro de Drive Capital, avec la participation de TriplePoint Capital.

Le fournisseur de cloud GPU SF Compute reçoit un financement de 12 millions de dollars dirigé par Alt Capital

SF Compute, fondée par Evan Conrad et son colocataire Alex Gajewski, qui a travaillé au sein de l'accélérateur de startups OpenAI et AI Grant, a annoncé avoir reçu un financement de 12 millions de dollars dirigé par Alt Capital, fondé par le frère de Sam Altman, avec une valorisation de 12 millions de dollars américains. 70 millions de dollars.

En raison du manque de puissance de calcul suffisante sur le marché, il est difficile pour les startups d'obtenir les grandes quantités de semi-conducteurs nécessaires à l'IA. SF Compute espère aider les startups à obtenir ces ressources et à créer actuellement une plateforme d'échange de puissance de calcul ; a reçu 8 000 commandes de H100 pour démarrer ce projet. (Il y a un nouveau Newin)

AI guidance glasses.lumen finalise un financement de 5 millions d'euros

.lumen s'engage à créer une technologie qui change la vie. Fondé par Cornel Amariei, son produit phare .lumen Glasses et la technologie d'IA sous-jacente offrent indépendance et sécurité aux personnes malvoyantes. Les lunettes .lumen pour aveugles utilisent la technologie de conduite autonome pour piétons (PAD AI) pour imiter les fonctions d’un chien-guide. .lumen a levé 5 millions d'euros lors d'un tour de table auprès de la société de gestion de fonds propres et d'investissement SeedBlink. (Zpotentiels)

Le service client d'IA Xinlian Times a reçu 20 millions de yuans de financement providentiel

Basé sur la technologie de l'intelligence artificielle, Xinlian Times fournit aux entreprises des produits et services intelligents, couvrant le service client intelligent, le marketing intelligent et d'autres domaines. Cette ronde de financement a été menée par United Capital Co., Ltd.

Le fournisseur de moteurs d’IA Artificial.Agency finalise un financement d’amorçage de plusieurs millions de dollars

Artificial.Agency a été fondée en 2023 et se concentre sur la fourniture de moteurs comportementaux basés sur l'IA aux créateurs de jeux et aux studios. Le moteur intègre les décisions d'exécution dans la dynamique du jeu pour offrir une expérience dynamique aux joueurs. Les investisseurs comprennent BDC Capital de risque, Kaya, Radical Ventures, TIRTA Ventures et Toyota Ventures.

La société d'IA générative EdgeRunner AI finalise un financement d'amorçage de 5,5 millions de dollars

EdgeRunner AI est conçu pour créer une IA générative sûre, fiable et transparente pour la périphérie. La société développe de petits modèles de langage ultra-efficaces, spécifiques à des tâches, qui fonctionnent sans accès à Internet, améliorant ainsi la confidentialité, la sécurité et la conformité des données. Cette ronde de financement a été menée par Four Rivers Group, avec la participation de Madrona Ventures et d'investisseurs providentiels stratégiques.

La plateforme d'édition d'IA Edit Cloud obtient un financement de 2 millions de livres sterling

Edit Cloud est un fournisseur de plateforme d'édition d'intelligence artificielle basée sur le cloud, dont le siège est à Londres, au Royaume-Uni, qui fournit une plateforme de production cloud conçue pour créer du contenu de haute qualité grâce à la technologie de l'intelligence artificielle. Il rassemble également des outils basés sur le cloud pour permettre aux équipes de travailler ensemble efficacement. Cette ronde de financement a été menée par Edge, avec des investisseurs providentiels dont Simon Ward et Justin Cooke.

La plateforme de développement de grands modèles d'IA Arcee.ai finalise un financement de série A

Arcee.ai a été fondée en février 2023 et s'engage à développer un système de modèle de langage adaptatif au domaine, visant à fournir un LLM sur mesure pour des domaines spécifiques et à intégrer de manière transparente DALM aux opérations commerciales pour obtenir une prise de décision éclairée par les données et des informations efficaces sur la valeur. Le système de l'entreprise aide non seulement les clients à obtenir un LLM, mais crée également un système fiable et authentique. Les investisseurs de ce cycle comprennent Centre Street Partners, Emergence, Flybridge Capital et Journey Ventures. (milliards d'euros)

La société d'intelligence artificielle Nobikan a finalisé une ronde de financement D+

Nobikan se concentre sur l'application de la technologie avancée d'intelligence artificielle et de la technologie des jumeaux numériques à des scénarios ouverts de haute complexité, fournissant des produits d'intelligence artificielle hautement universels et orientés vers l'exploitation et la maintenance du transport ferroviaire, l'énergie intelligente, les villes intelligentes, l'environnement intelligent, etc. Solutions industrielles dans le domaine . L'investisseur de ce tour est Peikun Investment.

Ingemar Robot Technology a reçu un investissement stratégique du National Supercomputing Wuxi Center

EnigmaRobotics est une start-up créée en 2023, qui se concentre sur le développement et la promotion de robots compagnons intelligents, de modèles complets multimodaux et de leurs applications. Le National Supercomputing Wuxi Center a annoncé un investissement stratégique dans la technologie robotique Ingmar.

La plateforme de financement par crédit basée sur l'IA, New Frontier Funding, reçoit des investissements

New Frontier Funding s'engage à utiliser l'IA générative pour aider les petites et moyennes entreprises à trouver du crédit et du financement par emprunt. La société utilise ses données exclusives et affine le modèle de langage d'OpenAI pour la recherche sémantique et les flux de travail des agents afin de réduire le travail de back-office et avec précision. Les emprunteurs sont jumelés aux prêteurs. Nous clôturons actuellement une ronde de financement en capital de croissance pour Homsher Family Office. Le montant de la transaction n'a pas été divulgué.

Edge Innovation reçoit un investissement providentiel

Le principal scénario d'application d'Edge Innovation consiste à utiliser des capteurs multimodaux + la technologie IA pour quantifier les données des patients mentaux pendant le processus de diagnostic et de traitement, améliorer l'efficacité du traitement des psychiatres et se concentrer sur les changements des muscles du visage, la fréquence cardiaque et la respiration. et d'autres indicateurs. Récemment, elle a reçu un investissement providentiel de Qiji Chuangtan. Le PDG Zhao Zihe est diplômé de l'Université des sciences et technologies de Hong Kong et est un entrepreneur en série. Il possède une riche expérience dans le développement d’algorithmes robotiques et dans la recherche et le développement de produits, et a travaillé chez DJI.

Galaxy General, un développeur de robots multimodaux à grande échelle, a reçu un investissement d'une société d'investissement de Hong Kong

Galaxy General est un développeur de robots multimodaux à grande échelle qui se concentre sur la fabrication de robots avec AGI intégrée et fournit des robots à usage général dans le monde entier. Hong Kong Investment Management Co., Ltd., la « version hongkongaise de Temasek », a annoncé son investissement dans « Galaxy General ». Le montant de l'investissement n'a pas été divulgué. En juin dernier, Galaxy General Motors avait reçu 700 millions de yuans de financement providentiel de la part d'investisseurs stratégiques et industriels de premier plan tels que Meituan-Dianping Venture Capital, BAIC Industrial Investment, SenseTime Guoxiang Fund, iFlytek Fund, etc. Light Source Capital a servi de partenaire financier exclusif. conseiller et a participé Investir tôt.

(Bienvenue pour ajouter AIyanxishe2 sur WeChat pour en savoir plus sur l'AIGC et les conditions de financement, et discuter des produits Shixin AI avec des amis partageant les mêmes idées)

Les grandes rumeurs d’usine d’aujourd’hui

Nvidia Mistral AI lance conjointement le petit modèle Mistral Nemo avec paramètre 12B, écrasant le runtime 4090 unique de Llama 3

NVIDIA a collaboré avec Mistral AI pour lancer un nouveau petit modèle d'IA, Mistral NeMo, doté de 12 milliards de paramètres et prenant en charge un contexte de 128 000 pixels, battant des modèles similaires Gemma 2 9B et Llama 3 8B dans plusieurs tests de référence. Mistral NeMo est conçu pour servir les utilisateurs d'entreprise, facilitant la personnalisation et le déploiement d'applications d'entreprise prenant en charge les chatbots, les tâches multilingues, l'encodage et la synthèse. Les modèles Mistral NeMo offrent des performances élevées, une compatibilité, une facilité d'utilisation et peuvent remplacer tout système utilisant Mistral 7B. Le modèle utilise le format de données FP8 pour l'inférence, ce qui réduit la taille de la mémoire et accélère le déploiement tout en conservant la précision. Mistral NeMo prend également en charge les applications multilingues et dispose d'un segmenteur de mots efficace Tekken, qui améliore l'efficacité du traitement de plusieurs langues. De plus, Mistral NeMo est prêt à fonctionner n'importe où, y compris dans le cloud, le centre de données ou la station de travail RTX, et les développeurs peuvent essayer Mistral NeMo en utilisant l'inférence mistral.

Les grands modèles Xiaomi Xiaoai sont sur le point d'être entièrement mis à niveau : le tout gratuitement et seront entièrement pris en charge sur les téléphones mobiles, les tablettes et les téléviseurs d'ici la fin de ce mois.

Les grands modèles Xiaomi Xiaoai recevront une mise à niveau complète, et tous seront gratuits. Le modèle mis à niveau sera plus intelligent, prendra en charge les questions et réponses intelligentes, la création et d'autres fonctions, et améliorera l'expérience de chat. La prise en charge du nouveau modèle sera disponible sur les appareils tels que les téléphones, les tablettes et les téléviseurs d'ici fin juillet. La version pour téléphones mobiles et tablettes est V6.126.5 et la version pour téléviseur est V4.30.1. La capacité de mémoire doit être supérieure à 1 Go. Les haut-parleurs sans écran seront mis à niveau fin août et les haut-parleurs à écran seront mis à niveau fin octobre. (Technologie rapide)

Apple lance le modèle open source DCLM-7B aux performances super Mistral-7B

Apple a publié le modèle open source DCLM-7B sur Hugging Face. Les performances de ce modèle ont dépassé celles de Mistral-7B et se rapprochent de celles de Llama 3 et Gemma. Les ressources open source pour le modèle DCLM-7B incluent les poids du modèle, le code de formation et les ensembles de données de pré-formation. L'équipe de recherche a proposé un nouveau benchmark DCLM pour évaluer les performances des grands modèles de langage, en particulier dans le domaine multimodal. Le benchmark DCLM utilise un cadre expérimental standardisé, comprenant une architecture de modèle fixe, un code de formation, des hyperparamètres et une évaluation, pour identifier les stratégies de traitement des données les mieux adaptées à la formation de modèles hautes performances. Le modèle DCLM-7B utilise une solution de pré-entraînement basée sur le framework OpenLM, et sa précision à 5 tirs sur le benchmark MMLU atteint 64 %, ce qui est comparable à Mistral-7B-v0.3 et Llama 3 8B, mais le requis le montant du calcul est seulement Lama 3 1/6 de 8B.

Google et le fabricant Ray-Ban développent des lunettes intelligentes équipées du modèle Gemini AI

Google a contacté EssilorLuxottica (la société à l'origine de la marque Ray-Bans) et envisage de coopérer à la production des lunettes intelligentes Gemini. EssilorLuxottica a déjà coopéré avec Meta Company pour lancer deux générations de lunettes intelligentes Ray-Ban Meta, et aux dernières nouvelles, Meta envisage de dépenser des milliards de dollars pour acquérir environ 5 % des actions d'EssilorLuxottica. (Le bord)

L'actualité des produits du jour

Liste de produits recherchés, Flow Studio

Flow Studio est un outil développé par l'équipe Flow GPT qui peut convertir du texte en courtes vidéos de haute qualité. La plateforme a été co-développée par Lifan Wang, Sam Xu, Qianhua Ge, Jay Dang et Luke Pioneero et lancée sur Product Hunt le 18 juillet 2024. Le point fort de Flow Studio est sa capacité à générer automatiquement une vidéo complète comprenant l'histoire, le doublage, la musique de fond et les effets sonores via une seule invite de texte, simplifiant considérablement le processus de production vidéo. Flow GPT est très bien noté par les utilisateurs, avec une note moyenne de 4,9/5 étoiles.

Le fondateur Jay Dang a étudié l'informatique à l'Université de Californie à Berkeley. Il est le fondateur de FlowGPT, Markit AI et LUUM. Il a également travaillé en tant que data scientist et chercheur indépendant chez C. Light Technologies, Inc. et Glaucomark.

?https://flowgpt.com/flow-studio?ref=producthunt

GitHub Trending Hot List, Langflow, un framework pour créer des multi-agents et RAG

Langflow est un framework visuel conçu pour aider les développeurs à créer des applications multi-agents et RAG. Le projet est développé sur la base de Python, est open source, peut être entièrement personnalisé et prend en charge différents modèles de langage et stockage vectoriel. Les utilisateurs peuvent installer Langflow via pip et doivent s'assurer que la version de Python installée sur le système est au moins 3.10. Le projet fournit une documentation détaillée et des guides de déploiement.

?https://github.com/langflow-ai/langflow

Attention particulière

Yi Tay, ancien chercheur principal chez Google Brain et co-fondateur de Reka AI, explique : Pourquoi n'avons-nous pas vu davantage d'extensions de modèles d'encodeurs après BERT ?

Yi Tay est le co-fondateur et scientifique en chef de Reka AI, qui a levé 100 millions de dollars de financement. Il a travaillé sur des modèles de langage à grande échelle et des recherches sur l'intelligence artificielle chez Google Brain. De 2020 au début de 2023, il a été profondément impliqué dans la plupart des modèles de langage à grande échelle et des travaux multimodaux de Google. Il a remporté le prix du meilleur article lors des conférences ICLR et WSDM et a été conférencier invité dans le cours CS25 de l'Université de Stanford.

Yi Tay publie le premier d'une série de blogs sur la plateforme X, visant à explorer l'architecture des modèles à l'ère des grands modèles de langage. Diverses architectures, notamment le codeur Transformer, le codeur-décodeur, le PrefixLM et les objectifs de débruitage, sont discutées. Yi Tay a cité une question courante quant à savoir pourquoi nous n'avons pas vu plus d'extensions de modèles d'encodeur après BERT, et le sort des modèles encodeur-décodeur ou encodeur uniquement. Il a également remis en question l’efficacité du débruitage des cibles et a partagé ses réflexions dans un article de blog.

Le blog a d'abord évoqué la confusion dans le domaine du traitement du langage naturel concernant la disparition des modèles d'encodeurs ces dernières années, ainsi que le développement de modèles tels que BERT et T5. Les différences et les connexions entre les modèles de codeur-décodeur, les modèles de codeur uniquement et les modèles de décodeur uniquement sont soulignées, et les caractéristiques de l'architecture PrefixLM sont soulignées. Le concept de cibles de débruitage est expliqué plus en détail, y compris les méthodes de débruitage « sur place » de style BERT et de débruitage séquence à séquence de style T5, et les avantages et les inconvénients des cibles de débruitage sont discutés.

Yi Tay a également analysé le coût de calcul des modèles de codeur-décodeur et pourquoi les modèles de style BERT sont progressivement supprimés. Et a souligné que les objectifs de débruitage sont souvent complémentaires des modèles de langage causal et jouent un rôle dans la pré-formation de grands modèles de langage. De plus, le rôle des mécanismes d’attention bidirectionnelle dans des modèles de différentes tailles est également discuté. Enfin, Yi Tay a résumé les avantages et les inconvénients de l'architecture codeur-décodeur et a souligné l'importance de comprendre les stratégies de biais inductif et de pré-entraînement, ainsi que les raisons pour lesquelles le modèle BERT a été remplacé par le modèle T5, plus flexible.

?https://www.yitay.net/blog/model-architecture-blogpost-encoders-prefixlm-denoising

Restez à l'écoute des dernières mises à jour demain !

leifeng.com