Nachricht

AI-Wochenbericht | Das große Modell kann nicht bestimmen, welches größer ist, 9.11 oder 9.9; OpenAI veröffentlicht das leichte Modell GPT-4o mini

2024-07-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Das große Modell kann nicht erkennen, welches größer ist, 9,11 oder 9,9

Eine für Grundschüler schwierige Mathematikaufgabe hat viele große KI-Modelle im In- und Ausland zum Scheitern verurteilt. Was ist größer, 9,11 oder 9,9? In Bezug auf dieses Problem testeten Reporter von China Business News am 17. Juli 12 große Modelle, darunter Alibaba Tongyi Qianwen, Baidu Wenxinyiyan, Minimax und Tencent Yuanbao, aber ChatGPT-4o, Byte Doubao, Dark of the Moon Mian Kimi und Zhipu Qingyan , Zero One All Things Knowledge, Step Stars Yuewen, Baichuan Zhibai Xiaoying, Shangtang Discussion bekamen alle falsche Antworten, und die falschen Wege sind unterschiedlich. Die meisten großen Modelle vergleichen in ihren Fragen und Antworten fälschlicherweise Zahlen nach dem Komma und denken, dass 9,11 größer als 9,9 ist.

Kommentar: Hinter den Fehlern steckt die schlechte mathematische Fähigkeit großer Modelle. Einige Brancheninsider glauben, dass generative Sprachmodelle eher auf wörtliches als auf numerisches Denken ausgelegt sind. Allerdings könnte ein gezieltes Korpustraining die Fähigkeit des Modells, wissenschaftliche Fragen zu beantworten, in Zukunft schrittweise verbessern.

OpenAI veröffentlicht das leichte Modell GPT-4o mini, dessen Modellkosten in zwei Jahren um 99 % gesunken sind

Am 18. Juli Ortszeit veröffentlichte OpenAI ein neues leichtes Großmodell GPT-4o mini. Berichten zufolge wird GPT-4o mini ab sofort GPT-3.5 Turbo im Frage- und Antwortroboter ChatGPT ersetzen, und Unternehmensbenutzer können ab nächster Woche auf GPT-4o mini zugreifen. „Wir gehen davon aus, dass GPT-4o mini die Anwendung künstlicher Intelligenz erweitern und künstliche Intelligenz erschwinglicher machen wird.“ Token (Wortelemente) beträgt der Ausgabepreis 60 Cent (0,6 USD)/Million Token, 60 % günstiger als bei GPT-3.5 Turbo. OpenAI sagte, das Unternehmen werde auch weiterhin die Kosten senken und gleichzeitig die Modellleistung verbessern. Im Vergleich zum Modell 2022 text-davinci-003 sind die Kosten des GPT-4o mini um 99 % gesunken.

Kommentar: Obwohl OpenAI das Modell GPT-5 der nächsten Generation noch nicht veröffentlicht hat, aktualisiert es das Modell immer noch auf der Grundlage seiner vorhandenen Fähigkeiten und senkt weiterhin die Kosten großer Modelle. Auch andere große Modellhersteller fördern in diesem Jahr Leichtbaumodelle. Google hat im Mai dieses Jahres das Leichtgewichtmodell Gemini 1.5 Flash veröffentlicht. Die im März von Anthropic veröffentlichte Claude 3-Serie umfasst das leichte Claude 3 Haiku. Große Modelle mit kleineren Parametern haben in diesem Jahr großes Potenzial gezeigt. Training kann die Leistung verbessern, indem es die Datenmenge erhöht, anstatt die Menge der Parameter zu erhöhen.

Sechs große Modellhersteller reagierten auf das Problem der schlechten digitalen Fähigkeiten großer Modelle

Reporter von China Business News haben kürzlich eine Reihe großer Modellhersteller kontaktiert und interviewt, darunter Alibaba Tongyi, Tencent Hunyuan Team, Dark Side of the Moon Kimi, MiniMax Conch, Xueersi Jiuzhang, NetEase Youdao usw. Während des Interviews beantworteten sie große Fragen Problem der schlechten Modellmathematik. Wang Xiaoming, Produktmanager des Alibaba Tongyi Laboratory, sagte, dass es sich bei ähnlichen Problemen um häufige mathematische Berechnungs- und logische Denkprobleme handelt und dass es sich auch um Fälle handelt, die Entwickler häufig während des Modelltrainings und der Verwendung testen. Große Modelle haben „richtige Antworten“ oder „. falsche Antworten“. „Eigentlich ist es eine Frage der Wahrscheinlichkeit. Das Team von Tencent Hunyuan erklärte, dass das große Modell selbst ein probabilistisches Modell sei und es unter verschiedenen Umständen schwierig sei, solche numerischen Berechnungs- oder Vergleichsprobleme stabil zu lösen.

Kommentar: „Welches ist größer, 9,11 oder 9,9?“ ist für Menschen nicht schwierig, aber für große Modelle ist die Frage nicht unbedingt leicht zu beantworten. Aus den umfassenden Antworten geht hervor, dass die zuständigen Verantwortlichen großer Modellhersteller unter anderem die Ansicht vertreten, dass große Modelle die Berechnungs- oder Vergleichsregeln zwischen Zahlen noch nicht genau kontrollieren. Gleichzeitig ist die Erforschung der Fähigkeiten großer Modelle durch den Menschen nicht möglich in einem sehr frühen Stadium. Viele Brancheninsider glauben auch, dass es in Zukunft notwendig ist, den Intelligenzgrad des zugrunde liegenden Basismodells zu verbessern und solche Fehler auf der Ebene von Trainingsdaten und externen Tools zu beheben. Die endgültige Lösung könnte darin bestehen, die Fähigkeiten der nächsten Generation zu verbessern Modell. Die Entdeckung solcher Fälle wird den Herstellern helfen, ihr Verständnis für die Grenzen der Fähigkeiten großer Modelle zu verbessern.

Das Gesetz über künstliche Intelligenz wird am 1. August EU-weit in Kraft treten

Das weltweit erste von der Europäischen Union erlassene Gesetz über künstliche Intelligenz (EU-KI-Gesetz) wird am 1. August in der gesamten EU in Kraft treten. Dies ist auch der umfassendste Gesetzentwurf zur Überwachung künstlicher Intelligenz, der bisher weltweit veröffentlicht wurde. Das EU-Gesetz zur künstlichen Intelligenz legt auch den Grundstein für eine globale Regulierung der künstlichen Intelligenz und zielt darauf ab, den gleichen „Brüsseler Effekt“ wie die Datenschutz-Grundverordnung (DSGVO) zu erzielen. Dem neuesten Gesetzentwurf zufolge drohen Unternehmen, die gegen die Vorschriften verstoßen, Verwaltungsstrafen von bis zu 35 Millionen Euro oder 7 % des maximalen Jahresumsatzes, je nachdem, welcher Betrag höher ist.

Kommentar: Die EU war schon immer Vorreiter bei der Technologieregulierung. Das EU-Gesetz zur künstlichen Intelligenz ist das weltweit erste umfassende Regulierungsgesetz zur künstlichen Intelligenz und demonstriert die Weitsicht und Führungsrolle der EU im Bereich der Technologieregulierung. Allerdings werden die Regeln auch die Betriebskosten der Unternehmen erhöhen. You Yunting, Partner bei der Anwaltskanzlei Shanghai Dabang, sagte, dass die Kosten der Unternehmen, insbesondere die Compliance-Kosten, seit der Einführung der DSGVO erheblich gestiegen seien. Es wird erwartet, dass das Gesetz über künstliche Intelligenz dasselbe sein wird, was bedeutet, dass Unternehmen in neue Vorschriften investieren und spezielles Personal einstellen müssen, um Compliance-Richtlinien zu studieren. Darüber hinaus werden auch die Bearbeitung von Verstoßmeldungen, Offenlegungssystemen usw. die Kosten erhöhen.

Die Ergebnisse der sieben Hauptmodelle nach der Teilnahme an der „Hochschulaufnahmeprüfung“ werden veröffentlicht: Es können nur zwei naturwissenschaftliche Fächer belegt werden

Im Juni zuvor veröffentlichte OpenCompass, das Sinan-Bewertungssystem des Shanghai Artificial Intelligence Laboratory, die ersten vollständigen Bewertungsergebnisse der AI-College-Aufnahmeprüfung, die zeigten, dass KI-Kandidaten außerdem in drei Fächern maximal 303 Punkte erreichen konnten Sprache und Mathematik und habe alle Mathematikleistungen nicht bestanden. Am 17. Juli veröffentlichte OpenCompass eine weitere Bewertung, die den Umfang der Fächer erweiterte. Das Team testete 7 große KI-Modelle in allen 9 Fächern der Hochschulaufnahmeprüfung, damit sie mit den Zulassungsergebnissen für die Hochschulaufnahmeprüfung verglichen werden können.

An welcher Universität kann AI zugelassen werden, wenn sie die Hochschulaufnahmeprüfung ablegt? Der OpenCompass-Test ergab, dass, wenn das große Modell die Prüfung für Geisteswissenschaften ablegt, die beste Punktzahl für ein Buch „zugelassen“ werden kann, aber wenn es die Naturwissenschaftsprüfung ablegt, kann es nur für höchstens zwei Bücher „zugelassen“ werden (basierend auf die Ergebnislinie der Provinz Henan, die in diesem Jahr die meisten Hochschulaufnahmeprüfungen aufweist) als Referenz).

Kommentar: Gemessen an der Bewertung der Bewertungslehrer im Vergleich zu menschlichen Kandidaten weist das aktuelle große Modell immer noch große Einschränkungen auf. Nach Abschluss der Benotung waren sich die Lehrer einig, dass das große Modell zwar bei der Beherrschung des Grundwissens gute Leistungen erbrachte, hinsichtlich des logischen Denkens und der flexiblen Anwendung des Wissens jedoch immer noch unbefriedigend war. Insbesondere bei der Beantwortung subjektiver Fragen können große Modelle den Fragestamm oft nicht vollständig verstehen und die Richtung der Pronomen nicht verstehen, was bei der Beantwortung mathematischer Fragen zu falschen Antworten führt. Bei Geometriefragen ist der Problemlösungsprozess mechanisch. Es treten häufig Probleme mit der räumlichen Logik auf.

Li Feifei brütet „Einhorn“ aus, der Wert von World Labs übersteigt 1 Milliarde US-Dollar

Am 17. Juli wurde berichtet, dass der Wert von World Labs, einem vom berühmten chinesischen Informatiker Li Feifei gegründeten Startup für „räumliche Intelligenz“, eine Milliarde US-Dollar überschritten hat. Das Startup nutzt hauptsächlich menschenähnliche visuelle Datenverarbeitungstechnologie, um KI mit fortschrittlichen Denkfähigkeiten auszustatten.

Seit seiner Gründung im April dieses Jahres hat World Labs zwei Finanzierungsrunden durchgeführt, an denen unter anderem der Top-Technologieinvestor Andreessen Horowitz und der KI-Fonds Radical Ventures beteiligt waren. Es wird davon ausgegangen, dass die jüngste Finanzierungsrunde des Unternehmens etwa 100 Millionen US-Dollar erreichen könnte. Li Feifei, Andreessen Horowitz und Radical Ventures antworteten nicht auf Anfragen nach Kommentaren.

Kommentar: Als legendäre Figur haben die unternehmerischen Trends von Li Feifei auch große Aufmerksamkeit in der Branche auf sich gezogen. Li Feifei wurde im Alter von 33 Jahren ordentlicher Professor am Fachbereich Informatik der Stanford University, im Alter von 44 Jahren Akademiker der National Academy of Engineering und ist derzeit Direktor des Stanford Human-Centered Artificial Intelligence Institute (HAI). ). Auch ImageNet, die Benchmark-Errungenschaft im Bereich Computer Vision, wurde von ihr vorangetrieben. Er hat viele Schüler, wie Andrej Karpathy, der bei OpenAI und Tesla gearbeitet hat, und Jim Fan, der derzeit bei Nvidia arbeitet, usw. Sie sind auch einflussreiche Persönlichkeiten auf dem Gebiet der KI.

Giganten von KI-Chip- und Cloud-Herstellern „schnappen“ sich globale KI-Unternehmen

Laut Statistiken von Crunchbase, einem Unternehmen für Unternehmensdienstleistungen, stiegen die Finanzierungen für globale KI-Startups im ersten Halbjahr dieses Jahres im Jahresvergleich um 24 % auf 35,6 Milliarden US-Dollar KI-Investitionen in den letzten Jahren. Laut öffentlichen Statistiken von China Business News hat Nvidia in diesem Jahr in nicht weniger als 16 KI-bezogene Unternehmen investiert oder diese übernommen, und die meisten Finanzierungsrunden beliefen sich auf mehr als 100 Millionen US-Dollar. Nachdem Microsoft in OpenAI investierte, beteiligte sich das Unternehmen in diesem Jahr auch an mehreren Finanzierungsrunden mit einem Gesamtvolumen von mehr als 100 Millionen US-Dollar. Google hat das KI-Ökosystem über seine zahlreichen Investitionsplattformen umfassend eingesetzt und an nicht weniger als 31 Finanzierungsrunden teilgenommen. Zu den aktiven Akteuren dieser Runde des KI-Investitionsbooms gehören AMD, Amazon, SoftBank usw.

Kommentar: Die Popularität von KI spiegelt sich intuitiv in den Investitionen wider. Die Anlagestile und Präferenzen der großen Giganten sind nicht genau die gleichen. Es lohnt sich darüber nachzudenken, ob es sich um Hersteller handelt, deren Hauptgeschäft Halbleiterhardware wie Nvidia und AMD ist, oder um Cloud-Hersteller wie Microsoft, Google und Amazon Hoffnung auf Investitionen in einige große Unternehmen und Cloud-Anbieter sind eher bereit, große Modell-Start-ups stark zu binden. Wenn wir die größten Finanzierungsrunden der Branche in diesem Jahr beobachten, können wir feststellen, dass einfache Großmodelle, autonomes Fahren, KI-Daten und humanoide Roboter die größten Hotspots sind.

Großbritannien leitet kartellrechtliche Untersuchung zum Microsoft- und Inflection-AI-Deal ein

Die britische Kartellbehörde Competition and Markets Authority (CMA) gab kürzlich bekannt, dass sie eine formelle kartellrechtliche Untersuchung der Microsoft-Inflection AI-Transaktion eingeleitet hat. Im März dieses Jahres stimmte Microsoft zu, 650 Millionen US-Dollar an das KI-Startup Inflection AI zu zahlen, um dessen KI-Software zu lizenzieren. Darüber hinaus gab Microsoft die Einstellung der Mitbegründer von Inflection AI, Mustafa Suleyman und Karén Simonyan, sowie der Mehrheit der Mitarbeiter des Unternehmens bekannt.

Kommentar: Der Wert von Inflection AI liegt bei etwa 4 Milliarden US-Dollar. Brancheninsider sagen, dass das Verhalten von Microsoft einer Annexion von Inflection AI zu einem niedrigen Preis gleichkommt. Im Gegensatz zur Übernahme behält Inflection AI weiterhin seine proprietäre Technologie. Neben Großbritannien gab es letzten Monat auch Berichte, dass auch die US-amerikanische Federal Trade Commission (FTC) den Deal prüfe. Berichten zufolge hat die FTC Vorladungen an Microsoft und Inflection AI gerichtet und relevante Dokumente aus den letzten zwei Jahren angefordert.

Zhuji Dynamics, ein Unternehmen für humanoide Roboter, schließt die Finanzierung der Serie A ab

Am 15. Juli erfuhr China Business News, dass das allgemeine humanoide Roboter-Startup Zhuji Dynamics eine Serie-A-Finanzierung abgeschlossen hat, angeführt von China Merchants Venture Capital, Shangqi Capital, der Private-Equity-Investitionsplattform der SAIC Group, sowie den alten Aktionären Fengrui Capital, Oasis Capital und Mingshi Capital an der Investition beteiligt, der Finanzierungsbetrag wurde nicht bekannt gegeben. Zuvor hatte Alibaba auch in Zhuji Dynamics investiert. Zhuji Dynamics wurde 2022 gegründet. Der Gründer Zhang Wei ist Professor an der Southern University of Science and Technology. Zu den Produkten von Zhuji Dynamics gehören humanoide Roboter in Originalgröße, Vierbeinerroboter, Zweibeinerroboter und verwandte Lösungen.

Kommentar: Viele Unternehmen für humanoide Roboter befinden sich noch in der Finanzierungsphase. In diesem Jahr gab es regelmäßig Finanzierungsveranstaltungen in der Humanoiden-Roboter-Strecke. Im Januar dieses Jahres gab Xingdong Era den Abschluss einer Angel-Finanzierungsrunde über 100 Millionen Yuan bekannt. Anschließend gab Yushu Technology den Abschluss einer B2-Finanzierungsrunde über 1 Milliarde Yuan bekannt, Kepler Exploration Robot schloss die Angel-Runde ab und Galaxy Universal Robots schloss die Angel-Runde ab runde Finanzierung von 700 Millionen Yuan. Die Internetgiganten Tencent, Baidu und Alibaba haben jeweils in UBTECH, Zhiyuan Robot und Zhuji Dynamics investiert, während Meituan in Galaxy Universal Robots und Yushu Robot investiert hat. Nachdem die Unternehmen für humanoide Roboter Gelder gesammelt haben, besteht der nächste Schritt darin, die Massenproduktion umzusetzen.

NVIDIA und Mistral AI veröffentlichen großes Modell Mistral-NeMo

Laut Nachrichten vom 19. Juli haben NVIDIA und das französische Startup Mistral AI das große Sprachmodell Mistral-NeMo AI veröffentlicht, das über 12 Milliarden Parameter und ein Kontextfenster verfügt (die maximale Anzahl von Token, die das KI-Modell gleichzeitig verarbeiten kann). von 128.000 Token. Das große KI-Modell von Mistral-NeMo richtet sich hauptsächlich an Unternehmensumgebungen und implementiert Lösungen für künstliche Intelligenz, ohne große Mengen an Cloud-Ressourcen zu nutzen.

Kommentar: Mistral AI hat in diesem Jahr eine Finanzierung in Höhe von 600 Millionen Euro abgeschlossen, und auf der Investorenliste stehen unter anderem Nvidia und Samsung. Microsoft hat außerdem bereits zuvor eine Investition von 15 Millionen Euro in Mistral AI angekündigt, die in der nächsten Finanzierungsrunde von Mistral AI in Eigenkapital umgewandelt wird. Mistral AI hat sich mit Nvidia zusammengetan, um große Modelle auf den Markt zu bringen, und das Unternehmen wird auch einen Ausgleich schaffen und die Zusammenarbeit zwischen großen Giganten anstreben. Nvidia engagiert sich stärker im KI-Ökosystem. Das Unternehmen hat das Modell der Nemotron-4 340B-Serie bereits als Open Source bereitgestellt, damit Entwickler synthetische Daten für das Training großer Sprachmodelle generieren können.