Nachricht

iFlytek wird 400 Millionen HK$ in Hongkong investieren, um sich auf die Entwicklung großer Sprachmodelle von Nvidia Mistral zu konzentrieren

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Die heutigen Finanzierungsnachrichten

iFlytek wird 400 Millionen HK$ in Hongkong investieren und einen internationalen Hauptsitz errichten

iFlytek kündigte einen fünfjährigen Investitionsplan von 400 Millionen HK$ an und richtete einen internationalen Hauptsitz in Hongkong ein. Das Unternehmen sagte, dass dieser Investitionsplan es dabei unterstützen werde, ein 150-köpfiges Forschungs- und Entwicklungsteam zu bilden, das sich auf die Entwicklung großer Sprachmodelle sowie KI-Anwendungen in Bereichen wie intelligente Sprache, Bildung und medizinische Versorgung konzentrieren soll. Duan Dawei, Vizepräsident von iFlytek, sagte: „Unser anfängliches Budget beträgt 400 Millionen HK$. Wenn in Hongkong alles reibungslos verläuft, wird diese Zahl steigen.“

Shell Intelligence erhielt eine strategische Investition von 120 Millionen RMB von Tianyang Technology Investment

Shell Intelligence ist ein Unternehmen für künstliche Intelligenz, das sich der Innovation verschrieben hat. Es verfügt über mehrere grundlegende große Sprachmodelle, wie z. B. allgemeine große Modelle, große Codemodelle, multimodale große Grafik- und Textmodelle sowie multimodale große Sprachmodelle, die für eine schnelle Bereitstellung geeignet sind durch inländische Unternehmen.

Tianyang Technology unterzeichnete die „Investitionsvereinbarung bezüglich Beijing Shell Intelligent Technology Co., Ltd.“ mit Benghu Chuang, Bengshell Consulting, Bengshell Management und Benghu Chuangzhi, investierte 120 Millionen Yuan in Bengshell Intelligent und abonnierte Bengshell Intelligent New Technology Co., Ltd Das eingetragene Kapital wird um 870.000 RMB erhöht und die restlichen 119 Millionen RMB werden in den Kapitalrücklagefonds aufgenommen, um nach Abschluss der Kapitalerhöhung 8 % des Eigenkapitals von Clamshell Intelligence zu erhalten.

Gantu Technology, ein Computer-Vision-Technologie- und Produktentwickler, erhielt in der C2-Finanzierungsrunde Hunderte Millionen Yuan

Sentu Technology ist ein Entwickler von Computer-Vision-Technologie und -Produkten. Sein Hauptgeschäft besteht in der Anwendung von Computer-Vision-Technologie für präzise Inspektionsszenarien. Derzeit konzentriert sich Gantu Technology auf intelligente Qualitätskontrolle und Ertragsmanagement im Bereich der High-End-Fertigung und bietet durch sein unabhängig entwickeltes zugrunde liegendes KI-Framework und seine Kerntechnologien intelligente Lösungen für die High-End-Fertigung aus einer Hand. Gantu Technology hat in der C2-Finanzierungsrunde Hunderte Millionen Yuan abgeschlossen. Diese Finanzierungsrunde wurde von Industriefonds der lokalen Regierung unterstützt und erhielt Kreditunterstützung von mehreren Banken. (Investmentgemeinschaft)

Die KI-geführte B2B-Zahlungsplattform Slope sichert sich 65 Millionen US-Dollar an strategischer Eigen- und Fremdfinanzierung

Slope, eine KI-gesteuerte B2B-Zahlungsplattform, hat von JPMorgan Chase strategische Eigenkapital- und Fremdkapitalfinanzierungen in Höhe von 65 Millionen US-Dollar erhalten. An der Runde beteiligten sich auch Y Combinator, Notable Capital, Jack Altman und Max Altmans neuer Fonds Saga.

Planned, ein End-to-End-Lösungsanbieter für Reisen und Aktivitäten, sammelt 35 Millionen US-Dollar im Rahmen einer Serie-B-Finanzierung ein

Planned wurde 2017 gegründet und ist ein „Source-to-Pay“-Dienstleistungsunternehmen, das Reisen und Aktivitäten durch Technologie beschleunigt. Das Unternehmen kombiniert menschliche Dienstleistungen mit künstlicher Intelligenz, um maßgeschneiderte Einkaufs- und Buchungsdienste für Kunden wie PwC, Block, AWS und Instacart bereitzustellen.

Diese Finanzierungsrunde wurde von Drive Capital geleitet, unter Beteiligung von Outsiders Fund und zwei weiteren Unternehmen. Neben der Bekanntgabe der Finanzierung hat Planned auch den CEO und Mitbegründer von Hopper, Frederic Lalonde, einen ehemaligen Vizepräsidenten von Expedia, in seinen Vorstand aufgenommen.

Thoughtful AI, ein Unternehmen für KI-gesteuerte Umsatzzyklusautomatisierung, sammelt 20 Millionen US-Dollar an Finanzmitteln

Thoughtful Automation Inc., ein KI-gesteuertes Revenue-Cycle-Management-Startup mit Fokus auf die Gesundheitsbranche, hat drei KI-Agenten eingeführt: CAM, EVA und PHIL, um die Schadensbearbeitung, die Überprüfung der Patientenberechtigung bzw. die Zahlungsbuchung zu übernehmen. Die Runde wurde von Nick Solaro von Drive Capital geleitet, unter Beteiligung von TriplePoint Capital.

Der GPU-Cloud-Anbieter SF Compute erhält eine von Alt Capital angeführte Finanzierung in Höhe von 12 Millionen US-Dollar

SF Compute, gegründet von Evan Conrad und seinem Mitbewohner Alex Gajewski, der beim Startup-Accelerator OpenAI und AI Grant arbeitete, gab bekannt, dass es eine Finanzierung in Höhe von 12 Millionen US-Dollar erhalten hat, angeführt von Alt Capital, gegründet von Sam Altmans Bruder, mit einer Bewertung von US 70 Millionen Dollar.

Aufgrund des Mangels an ausreichender Rechenleistung auf dem Markt ist es für Startups schwierig, die großen Mengen an Halbleitern zu beschaffen, die für die KI erforderlich sind. SF Compute hofft, Startups dabei zu helfen, diese Ressourcen zu erhalten und eine Handelsplattform für Rechenleistung zu schaffen erhielt 8.000 H100-Bestellungen, um dieses Projekt zu starten. (Es gibt neue Newin)

AI Guiding Glasses.lumen schließt Finanzierung über 5 Millionen Euro ab

.lumen engagiert sich für die Entwicklung lebensverändernder Technologien. Das von Cornel Amariei gegründete Flaggschiffprodukt .lumen Glasses und die zugrunde liegende KI-Technologie bieten Sehbehinderten Unabhängigkeit und Sicherheit. Die Blindenbrillen von .lumen nutzen die PAD AI-Technologie (Pedestrian Autonomous Driving), um die Funktionen eines Blindenhundes nachzuahmen. .lumen hat in einer Finanzierungsrunde 5 Millionen Euro von der Aktienverwaltungs- und Investmentfirma SeedBlink eingesammelt. (Zpotentiale)

Der KI-Kundendienst Xinlian Times erhielt eine Angel-Finanzierungsrunde in Höhe von 20 Millionen Yuan

Basierend auf der Technologie der künstlichen Intelligenz bietet Xinlian Times Unternehmen intelligente Produkte und Dienstleistungen, die intelligenten Kundenservice, intelligentes Marketing und andere Bereiche abdecken. Diese Finanzierungsrunde wurde von United Capital Co., Ltd. geleitet.

KI-Engine-Anbieter Artificial.Agency schließt Seed-Finanzierung in Höhe von mehreren Millionen Dollar ab

Artificial.Agency wurde 2023 gegründet und konzentriert sich auf die Bereitstellung KI-gesteuerter Verhaltens-Engines für Spieleentwickler und Studios. Die Engine integriert Laufzeitentscheidungen in die Spieldynamik, um den Spielern ein dynamisches Erlebnis zu bieten. Zu den Investoren zählen BDC Venture Capital, Kaya, Radical Ventures, TIRTA Ventures und Toyota Ventures.

Das generative KI-Unternehmen EdgeRunner AI schließt eine Seed-Finanzierung in Höhe von 5,5 Millionen US-Dollar ab

EdgeRunner AI wurde entwickelt, um sichere, zuverlässige und transparente generative KI für den Edge zu entwickeln. Das Unternehmen entwickelt kleine, aufgabenspezifische, hocheffiziente Sprachmodelle, die ohne Zugang zum Internet laufen und so den Datenschutz, die Sicherheit und die Compliance verbessern. Diese Finanzierungsrunde wurde von der Four Rivers Group geleitet, unter Beteiligung von Madrona Ventures und strategischen Angel-Investoren.

Die KI-Bearbeitungsplattform Edit Cloud sichert sich eine Finanzierung in Höhe von 2 Millionen Pfund

Edit Cloud ist ein cloudbasierter Anbieter von Bearbeitungsplattformen für künstliche Intelligenz mit Hauptsitz in London, Großbritannien, der eine Cloud-Produktionsplattform bereitstellt, die darauf ausgelegt ist, mithilfe von Technologie der künstlichen Intelligenz hochwertige Inhalte zu erstellen. Es vereint außerdem cloudbasierte Tools, um Teams eine effiziente Zusammenarbeit zu ermöglichen. Diese Finanzierungsrunde wurde von Edge geleitet, mit Angel-Investoren wie Simon Ward und Justin Cooke.

Die KI-Entwicklungsplattform für große Modelle Arcee.ai schließt die Finanzierung der Serie A ab

Arcee.ai wurde im Februar 2023 gegründet und widmet sich der Entwicklung eines domänenadaptiven Sprachmodellsystems mit dem Ziel, maßgeschneidertes LLM für bestimmte Domänen bereitzustellen und DALM nahtlos in den Geschäftsbetrieb zu integrieren, um datengestützte Entscheidungen und effektive Werterkenntnisse zu erreichen. Das System des Unternehmens unterstützt Kunden nicht nur beim Erwerb von LLM, sondern schafft auch ein vertrauenswürdiges und authentisches System. Zu den Investoren dieser Runde gehören Center Street Partners, Emergence, Flybridge Capital und Journey Ventures. (Milliarden Euro)

Nobikan, ein Unternehmen für künstliche Intelligenz, hat die D+-Finanzierungsrunde abgeschlossen

Nobikan konzentriert sich auf die Anwendung fortschrittlicher künstlicher Intelligenztechnologie und digitaler Zwillingstechnologie auf hochkomplexe offene Szenarien und bietet hochuniverselle Produkte künstlicher Intelligenz, die auf den Betrieb und die Wartung des Schienenverkehrs, intelligente Energie, intelligente Städte, intelligente Umgebungen usw. ausgerichtet sind. Branchenlösungen in diesem Bereich . Der Investor dieser Runde ist Peikun Investment.

Ingemar Robot Technology erhielt strategische Investitionen vom National Supercomputing Wuxi Center

EnigmaRobotics ist ein 2023 gegründetes Start-up-Unternehmen, das sich auf die Entwicklung und Förderung intelligenter Begleitroboter, multimodaler Gesamtmodelle und deren Anwendungen konzentriert. Das National Supercomputing Wuxi Center gab eine strategische Investition in Ingmar Robotics Technology bekannt.

KI-gesteuerte Kreditfinanzierungsplattform New Frontier Funding erhält Investitionen

New Frontier Funding setzt sich für den Einsatz generativer KI ein, um kleinen und mittleren Unternehmen bei der Suche nach Kredit- und Fremdkapitalfinanzierungen zu helfen. Das Unternehmen nutzt seine proprietären Daten und optimiert das Sprachmodell von OpenAI für die semantische Suche und die Agenten-Workflows, um den Backoffice-Aufwand präziser zu gestalten Kreditnehmer werden mit Kreditgebern zusammengebracht. Derzeit wird eine Wachstumskapitalfinanzierungsrunde für das Homsher Family Office abgeschlossen. Der Transaktionsbetrag wurde nicht bekannt gegeben.

Edge Innovation erhält Angel Round-Investition

Das primäre Anwendungsszenario von Edge Innovation besteht darin, multimodale Sensoren + KI-Technologie zu verwenden, um die Daten von Geisteskranken während des Diagnose- und Behandlungsprozesses zu quantifizieren, die Effizienz der Behandlung durch Psychiater zu verbessern und sich auf Veränderungen der Gesichtsmuskulatur, Herzfrequenz und Atmung zu konzentrieren und andere Indikatoren. Kürzlich erhielt das Unternehmen eine Angel-Round-Investition von Qiji Chuangtan. CEO Zhao Zihe hat einen Abschluss von der Hong Kong University of Science and Technology und ist ein Serienunternehmer. Er verfügt über umfangreiche Erfahrung in der Entwicklung von Roboteralgorithmen sowie in der Produktforschung und -entwicklung und hat bei DJI gearbeitet.

Galaxy General, ein Entwickler multimodaler Großroboter, erhielt eine Investition von einer Hongkonger Investmentgesellschaft

Galaxy General ist ein multimodaler Großroboterentwickler, der sich auf die Herstellung von Robotern mit eingebetteter AGI konzentriert und Universalroboter auf der ganzen Welt anbietet. Hong Kong Investment Management Co., Ltd., die „Hongkong-Version von Temasek“, gab seine Investition in „Galaxy General“ bekannt. Der Investitionsbetrag wurde nicht bekannt gegeben. Im Juni zuvor hatte Galaxy General Motors eine Angel-Finanzierung in Höhe von 700 Millionen Yuan von führenden strategischen und industriellen Investoren wie Meituan-Dianping Venture Capital, BAIC Industrial Investment, SenseTime Guoxiang Fund, iFlytek Fund usw. erhalten. Light Source Capital fungierte als exklusive Finanzierung Berater und beteiligte sich frühzeitig an Invest.

(Willkommen, AIyanxishe2 auf WeChat hinzuzufügen, um mehr über AIGC und Finanzierungsbedingungen zu erfahren und mit gleichgesinnten Freunden über Shixin AI-Produkte zu chatten.)

Die großen Fabrikgerüchte von heute

Nvidia Mistral AI veröffentlicht gemeinsam das kleine Modell Mistral Nemo mit 12B-Parametern, das die Laufzeit von Llama 3 Single 4090 übertrifft

NVIDIA hat mit Mistral AI zusammengearbeitet, um ein neues kleines KI-Modell Mistral NeMo herauszubringen, das über 12 Milliarden Parameter verfügt und 128K-Kontext unterstützt und damit die ähnlichen Modelle Gemma 2 9B und Llama 3 8B in mehreren Benchmark-Tests besiegt. Mistral NeMo wurde für Unternehmensanwender entwickelt und erleichtert die individuelle Anpassung und Bereitstellung von Unternehmensanwendungen, die Chatbots, mehrsprachige Aufgaben, Kodierung und Zusammenfassung unterstützen. Mistral NeMo-Modelle bieten hervorragende Leistung, Kompatibilität und Benutzerfreundlichkeit und können als Ersatz für jedes System verwendet werden, das Mistral 7B verwendet. Das Modell nutzt das FP8-Datenformat zur Inferenz, wodurch die Speichergröße reduziert und die Bereitstellung beschleunigt wird, während gleichzeitig die Genauigkeit erhalten bleibt. Mistral NeMo unterstützt auch mehrsprachige Anwendungen und verfügt über einen effizienten Wortsegmentierer Tekken, der die Verarbeitungseffizienz mehrerer Sprachen verbessert. Darüber hinaus kann Mistral NeMo überall ausgeführt werden, einschließlich der Cloud, des Rechenzentrums oder der RTX-Workstation, und Entwickler können Mistral NeMo mithilfe von Mistral-Inferenz ausprobieren.

Die großen Modelle von Xiaomi Xiaoai stehen kurz vor dem vollständigen Upgrade: alles kostenlos und bis Ende dieses Monats vollständig auf Mobiltelefonen, Tablets und Fernsehern unterstützt

Die großen Modelle von Xiaomi Xiaoai erhalten ein vollständiges Upgrade, und alle sind kostenlos. Das aktualisierte Modell wird intelligenter sein, intelligente Fragen und Antworten, Erstellung und andere Funktionen unterstützen und das Chat-Erlebnis verbessern. Die Unterstützung für das neue Modell wird ab Ende Juli auf Geräten wie Telefonen, Tablets und Fernsehern verfügbar sein. Die Version für Mobiltelefone und Tablets ist V6.126.5 und die Version für Fernseher ist V4.30.1. Die Speicherkapazität muss mehr als 1 GB betragen. Bildschirmlose Lautsprecher werden Ende August aufgerüstet, Bildschirmlautsprecher Ende Oktober. (Schnelle Technologie)

Apple veröffentlicht das leistungsstarke Open-Source-Modell DCLM-7B mit Mistral-7B-Leistung

Apple hat das Open-Source-Modell DCLM-7B auf Hugging Face veröffentlicht. Die Leistung dieses Modells hat Mistral-7B übertroffen und nähert sich Llama 3 und Gemma. Zu den Open-Source-Ressourcen für das DCLM-7B-Modell gehören Modellgewichte, Trainingscode und Datensätze vor dem Training. Das Forschungsteam schlug einen neuen DCLM-Benchmark zur Bewertung der Leistung großer Sprachmodelle vor, insbesondere im multimodalen Bereich. Der DCLM-Benchmark nutzt ein standardisiertes experimentelles Framework, einschließlich fester Modellarchitektur, Trainingscode, Hyperparametern und Auswertung, um die Data-Wrangling-Strategien zu identifizieren, die sich am besten für das Training von Hochleistungsmodellen eignen. Das DCLM-7B-Modell verwendet eine Pre-Training-Lösung, die auf dem OpenLM-Framework basiert, und seine 5-Schuss-Genauigkeit beim MMLU-Benchmark erreicht 64 %, was mit Mistral-7B-v0.3 und Llama 3 8B vergleichbar ist, aber den Anforderungen entspricht Der Berechnungsbetrag beträgt nur Lama 3 1/6 von 8B.

Google und Ray-Ban-Hersteller entwickeln Datenbrillen mit Gemini-KI-Modell

Google hat Kontakt zu EssilorLuxottica (dem Unternehmen hinter der Marke Ray-Bans) aufgenommen und plant eine Zusammenarbeit bei der Produktion der Gemini-Datenbrille. EssilorLuxottica hat zuvor mit der Meta Company zusammengearbeitet, um zwei Generationen von Ray-Ban-Meta-Datenbrillen auf den Markt zu bringen. Die neuesten Nachrichten besagen, dass Meta Milliarden von Dollar ausgeben will, um etwa 5 % der Anteile von EssilorLuxottica zu erwerben. (Der Rand)

Die heutigen Produktneuigkeiten

Produktsuche-Hotlist, Flow Studio

Flow Studio ist ein vom Flow GPT-Team entwickeltes Tool, das Text in hochwertige Kurzvideos umwandeln kann. Die Plattform wurde von Lifan Wang, Sam Xu, Qianhua Ge, Jay Dang und Luke Pioneero gemeinsam entwickelt und am 18. Juli 2024 auf Product Hunt gestartet. Das Highlight von Flow Studio ist die Fähigkeit, über eine einzige Textaufforderung automatisch ein komplettes Video inklusive Story, Synchronisation, Hintergrundmusik und Soundeffekten zu generieren, was den Videoproduktionsprozess erheblich vereinfacht. Flow GPT wird von Benutzern mit einer durchschnittlichen Punktzahl von 4,9/5 Sternen sehr gut bewertet.

Gründer Jay Dang studierte Informatik an der University of California, Berkeley. Er ist der Gründer von FlowGPT, Markit AI und LUUM. Er hat auch als Datenwissenschaftler und unabhängiger Forscher bei C. Light Technologies, Inc. und Glaucomark gearbeitet.

?https://flowgpt.com/flow-studio?ref=producthunt

GitHub Trending Hot List, Langflow, ein Framework zum Erstellen von Multi-Agenten und RAG

Langflow ist ein visuelles Framework, das Entwicklern beim Erstellen von Multiagenten- und RAG-Anwendungen helfen soll. Das Projekt basiert auf Python, ist Open Source, kann vollständig angepasst werden und unterstützt verschiedene Sprachmodelle und Vektorspeicher. Benutzer können Langflow über pip installieren und müssen sicherstellen, dass die im System installierte Python-Version mindestens 3.10 ist. Das Projekt bietet detaillierte Dokumentation und Bereitstellungshandbücher.

?https://github.com/langflow-ai/langflow

Besondere Aufmerksamkeit

Yi Tay, ehemaliger leitender Forscher bei Google Brain und Mitbegründer von Reka AI, erklärt: Warum haben wir nach BERT nicht mehr Encoder-Modellerweiterungen gesehen?

Yi Tay ist Mitbegründer und leitender Wissenschaftler von Reka AI, das 100 Millionen US-Dollar an Fördermitteln eingesammelt hat. Er arbeitete bei Google Brain an groß angelegten Sprachmodellen und an der Forschung zu künstlicher Intelligenz. Von 2020 bis Anfang 2023 war er intensiv an den meisten groß angelegten Sprachmodellen und multimodalen Arbeiten von Google beteiligt. Er hat auf ICLR- und WSDM-Konferenzen Auszeichnungen für die beste Arbeit gewonnen und war Gastdozent im CS25-Kurs der Stanford University.

Yi Tay veröffentlicht den ersten einer Reihe von Blogs auf der X-Plattform mit dem Ziel, die Modellarchitektur im Zeitalter großer Sprachmodelle zu erforschen. Verschiedene Architekturen, darunter Transformer-Encoder, Encoder-Decoder, PrefixLM und Rauschunterdrückungsziele, werden besprochen. Yi Tay stellte eine häufig gestellte Frage, warum es nach BERT keine weiteren Encoder-Modellerweiterungen gab, und wie das Schicksal der Encoder-Decoder- oder Nur-Encoder-Modelle ausfiel. Er stellte auch die Wirksamkeit der Rauschunterdrückung von Zielen in Frage und teilte seine Gedanken in einem Blogbeitrag mit.

Der Blog erwähnte zunächst die Verwirrung im Bereich der Verarbeitung natürlicher Sprache über das Verschwinden von Encodermodellen in den letzten Jahren sowie die Entwicklung von Modellen wie BERT und T5. Die Unterschiede und Zusammenhänge zwischen Encoder-Decoder-Modellen, Encoder-Only-Modellen und Decoder-Only-Modellen werden hervorgehoben und auf die Merkmale der PrefixLM-Architektur hingewiesen. Das Konzept der Rauschunterdrückung von Zielen wird weiter erläutert, einschließlich der „In-Place“-Entrauschung im BERT-Stil und der Sequenz-zu-Sequenz-Entrauschung im T5-Stil, und die Vor- und Nachteile der Rauschunterdrückung von Zielen werden erörtert.

Yi Tay analysierte auch die Rechenkosten von Encoder-Decoder-Modellen und warum Modelle im BERT-Stil nach und nach auslaufen. Und wies darauf hin, dass Entrauschungsziele oft eine Ergänzung zu kausalen Sprachmodellen sind und eine Rolle beim Vortraining großer Sprachmodelle spielen. Darüber hinaus wird auch die Rolle bidirektionaler Aufmerksamkeitsmechanismen in Modellen unterschiedlicher Größe diskutiert. Abschließend fasste Yi Tay die Vor- und Nachteile der Encoder-Decoder-Architektur zusammen und betonte die Bedeutung des Verständnisses der induktiven Vorspannung und der Pre-Training-Strategien sowie die Gründe, warum das BERT-Modell durch das flexiblere T5-Modell ersetzt wurde.

?https://www.yitay.net/blog/model-architecture-blogpost-encoders-prefixlm-denoising

Seien Sie gespannt auf die neuesten Updates morgen!

leifeng.com