2024-08-18
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Le moteur de recherche académique construit par une équipe de trois personnes a directement remporté SOTA !
Il affirme que la pertinence des résultats de recherche est en moyenne cinq fois supérieure à celle de Google Scholar et qu'il peut rechercher plus de 100 millions d'objets de recherche sans recourir au LLM.
De plus :gratuit, la fête étudiante est aux anges !
Jetons d'abord un coup d'œil aux effets d'utilisation. Entrez les mots-clés de recherche et cela ne prend que 350 millisecondes. En un clic, les documents très pertinents seront répertoriés :
Vous pouvez également filtrer les fichiers pouvant être visualisés au format PDF en un seul clic.
Vous pouvez définir un filtrage en un clic depuis l'année et le nombre de citations jusqu'au type de publication et à la revue spécifique :
Vous pouvez prévisualiser les articles recherchés en cliquant sur le titre et prendre en charge la copie en un clic des formats de citations académiques courants :
Ce nouveau moteur de recherche s'appelleLumina, aurait traité plus de 300 000 requêtes et prend en charge 24 langues.
Afin de comparer avec les moteurs de recherche universitaires traditionnels tels que Google Scholar, l'équipe de développement a également effectué un test de référence, et la base de code a été open source. Les résultats du test ont montré que la pertinence des résultats de recherche Lumina a remporté le SOTA.
Les développeurs ont tweeté pour défier Google :
Il nous a fallu quelques mois à trois pour le réaliser, et c'est mieux que celui de Google.
Le co-fondateur et CTO du moteur de simulation IA 3D Ego et ancien chercheur Meta a déclaré qu'après l'avoir regardé, il a fermé les yeux et s'est précipité :
Je recommande vivement à tout le monde de l'essayer.
De nombreux chercheurs ont également exprimé sa grande utilité :
La pertinence de la recherche est jusqu'à 11 fois supérieure
Comme mentionné au début, afin de tester les performances de Lumina, l'équipe de recherche a réalisé un test de référence en open source.
En utilisant GPT-4 comme « évaluateur », nous nous sommes concentrés sur la comparaison de la pertinence et de l’exactitude des résultats de recherche Lumina Base (mode de recherche de base), Lumina Recursive (mode de recherche récursive), Semantic Scholar et Google Scholar.
La détection directe évalue les performances de chaque moteur de recherche10 premiers résultats de recherche, la comparaison est la suivante :
En mode de recherche de base (Lumina Base), les résultats de recherche Lumina sont 4,8 fois plus pertinents que Google Scholar et 8 fois plus pertinents que Semantic Scholar. L'évaluation est basée sur un ensemble de données généré d'environ 2470 requêtes.
Dans le mode de recherche récursive de Lumina, la pertinence des résultats de recherche est encore améliorée, 6,8 fois supérieure à celle de Google Scholar et 11,3 fois supérieure à celle de Semantic Scholar, également basée sur 2 470 ensembles de données de requête.
De plus, Lumina en fournit systématiquement 2 à 3 par rechercheTrès pertinentEn conséquence, en comparaison, seulement 50 % des recherches Google Scholar ont fourni un résultat très pertinent, et seulement 30 % des recherches Semantic Scholar répondaient à cette norme.
En d’autres termes, Lumina peut trouver des résultats de recherche qui seraient autrement difficiles à trouver.
L'équipe a également déclaré qu'en utilisant l'API Lumina et un simple script récursif, elle peut atteindre une pertinence 11 fois supérieure à celle de Google Scholar. L'API Lumina sera bientôt publiée.
En plus de la recherche de base, Lumina propose égalementAperçu de l'IAFonction.
Par exemple, si vous effectuez une recherche avec le mot-clé « apprentissage automatique », le résumé de l'article récupéré sera cité pour présenter l'apprentissage automatique :
Cliquer sur le mot-clé souligné dans l'aperçu de l'IA déclenchera d'autres recherches pour le mot-clé :
Sous l'aperçu de l'IA, vous trouverez également un résumé des graphiques des résultats de recherche des articles de recherche :
Construit par une équipe de trois personnes
Derrière Lumina se trouve une équipe de développement de seulement trois personnes, qui a reçu un investissement de YC.
Le co-fondateur et PDG Mehul Chadda est diplômé de l'Université du Wisconsin-Madison avec un baccalauréat en génie des matériaux. Il était un ancien ingénieur de fabrication chez CAMECA, une société d'instruments scientifiques de haute précision, et était responsable de la recherche et du développement de l'énergie atomique. sondes.
Le co-fondateur et CTO Akhilesh Sharma est diplômé de l'Université de l'Illinois à Urbana-Champaign avec un baccalauréat en génie mécanique. Il était auparavant co-fondateur et directeur technique de la plateforme de médias sociaux Postpress, et a également occupé le poste de responsable de la technologie cloud. consultant associé pour Neudesic, une société américaine de conseil en technologie.
Le co-fondateur Ishaan Kapoor, diplômé en statistiques de l'Université de Californie à Los Angeles, s'intéresse à l'apprentissage profond, à l'algèbre linéaire et aux grands modèles de langage.
En plus du nouveau moteur de recherche académique cette fois, l'équipe a également créé un outil d'interprétation des articles par l'IA——Lumina-chat。
Cliquez sur « Legacy System » dans le coin supérieur droit de la page d'accueil de Lumina pour passer à l'utilisation.
Après ouverture, cela ressemble à ceci. Vous pouvez télécharger le PDF et interagir avec l'IA pour l'interprétation du papier :
Si vous êtes intéressé par les chaussures pour enfants, vous pouvez les essayer~