Le mie informazioni di contatto
Posta[email protected]
2024-08-18
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Il motore di ricerca accademico costruito da un team di tre persone ha vinto direttamente SOTA!
Afferma che la pertinenza dei risultati di ricerca è in media cinque volte superiore a quella di Google Scholar e può cercare oltre 100 milioni di oggetti di ricerca senza fare affidamento su LLM.
Cosa c'è di più:gratuito, la festa studentesca è in estasi!
Diamo prima un'occhiata agli effetti sull'utilizzo. Inserisci le parole chiave di ricerca e bastano 350 millisecondi. Con un clic verranno elencati i documenti altamente pertinenti:
Puoi anche filtrare i file che possono essere visualizzati come PDF con un clic.
Puoi impostare il filtro con un clic dall'anno e dal conteggio delle citazioni al tipo di pubblicazione e alla rivista specifica:
Puoi visualizzare in anteprima gli articoli cercati facendo clic sul titolo e supportare la copia con un clic dei formati di citazione accademica più comuni:
Questo nuovo motore di ricerca si chiamaLuminosità, si dice che abbia elaborato più di 300.000 query e supporti 24 lingue.
Per confrontarlo con i tradizionali motori di ricerca accademici come Google Scholar, il team di sviluppo ha anche condotto un test di benchmark e il codice di base è stato reso open source. I risultati del test hanno mostrato che la pertinenza dei risultati di ricerca di Lumina ha vinto il SOTA.
Gli sviluppatori hanno twittato per sfidare Google:
Noi tre abbiamo impiegato alcuni mesi per realizzarlo ed è migliore di quello di Google.
Il co-fondatore e CTO del motore di simulazione AI 3D Ego e un ex ricercatore di Meta hanno detto che dopo averlo visto, ha chiuso gli occhi e si è precipitato:
Consiglio vivamente a tutti di provarlo.
Molti studiosi hanno anche affermato che è molto utile:
La pertinenza della ricerca è fino a 11 volte superiore
Come accennato all'inizio, per testare le prestazioni di Lumina, il team di ricerca ha reso open source un test benchmark.
Utilizzando GPT-4 come "valutatore", ci siamo concentrati sul confronto della pertinenza e dell'accuratezza dei risultati di ricerca di Lumina Base (modalità di ricerca di base), Lumina Recursive (modalità di ricerca ricorsiva), Semantic Scholar e Google Scholar.
Il rilevamento diretto valuta ciascun motore di ricercaPrimi 10 risultati di ricerca, il confronto è il seguente:
Nella modalità di ricerca di base (Lumina Base), i risultati di ricerca di Lumina sono 4,8 volte più pertinenti di Google Scholar e 8 volte più pertinenti di Semantic Scholar. La valutazione si basa su un set di dati generato di circa 2470 query.
Nella modalità di ricerca ricorsiva di Lumina, la pertinenza dei risultati di ricerca è ulteriormente migliorata, 6,8 volte superiore a Google Scholar e 11,3 volte superiore a Semantic Scholar, anch'esso basato su 2470 set di dati di query.
Inoltre, Lumina fornisce costantemente 2-3 per ricercaAltamente rilevanteDi conseguenza, in confronto, solo il 50% delle ricerche di Google Scholar ha fornito un risultato altamente pertinente e solo il 30% delle ricerche di Semantic Scholar ha soddisfatto questo standard.
In altre parole, Lumina può trovare risultati di ricerca che altrimenti sarebbero difficili da trovare.
Il team ha inoltre affermato che, utilizzando l'API Lumina e un semplice script ricorsivo, è possibile ottenere una rilevanza 11 volte superiore rispetto a quella di Google Scholar. L'API Lumina verrà rilasciata a breve.
Oltre alla ricerca di base, Lumina fornisce anchePanoramica dell'intelligenza artificialeFunzione.
Ad esempio, se cerchi con la parola chiave "machine learning", verrà citato il riepilogo del documento recuperato per introdurre l'apprendimento automatico:
Facendo clic sulla parola chiave sottolineata nella panoramica AI si attiveranno ulteriori ricerche per la parola chiave:
Sotto la panoramica dell'intelligenza artificiale è presente anche un riepilogo dei grafici dei risultati della ricerca dei documenti di ricerca:
Costruito da un team di tre persone
Dietro Lumina c'è un team di sviluppo di sole tre persone, che ha ricevuto investimenti da YC.
Il co-fondatore e CEO Mehul Chadda si è laureato in ingegneria dei materiali presso l'Università del Wisconsin-Madison. Era un ex ingegnere di produzione presso CAMECA, un'azienda di strumenti scientifici di alta precisione, ed era responsabile della ricerca e dello sviluppo di atomici. sonde.
Il co-fondatore e CTO Akhilesh Sharma si è laureato in ingegneria meccanica presso l'Università dell'Illinois a Urbana-Champaign. In precedenza è stato co-fondatore e direttore tecnico della piattaforma di social media Postpress e ha anche lavorato come tecnologia cloud. consulente correlato per Neudesic, una società americana di consulenza tecnologica.
Il co-fondatore Ishaan Kapoor, laureato in statistica presso l'Università della California, a Los Angeles, è interessato all'apprendimento profondo, all'algebra lineare e ai modelli linguistici di grandi dimensioni.
Oltre al nuovo motore di ricerca accademico, questa volta il team ha anche creato uno strumento di interpretazione dei documenti basato sull'intelligenza artificiale:Lumina-chat。
Fai clic su "Sistema legacy" nell'angolo in alto a destra della home page di Lumina per iniziare a utilizzarlo.
Dopo l'apertura, appare così. Puoi caricare il PDF e interagire con l'intelligenza artificiale per l'interpretazione della carta:
Se sei interessato alle scarpe per bambini, puoi provarle~