notizia

è stato rivelato che il misterioso modello "strawberry" di openai sarà lanciato tra due settimane. ci vorranno più di dieci secondi per rispondere alla domanda e il prezzo dell'abbonamento potrebbe essere 10 volte più costoso.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

il mese scorso, il ceo di openai altman ha conquistato molti titoli dei giornali con una foto di fragole. ora, forse, il modello della fragola sta davvero “maturando”.

secondo the information, nell'ambito del servizio chatgpt,openai prevede di rilasciare il modello "strawberry" entro due settimane.

naturalmente, il rapporto afferma anche che la data di rilascio finale potrebbe cambiare, quindi procedi con cautela.

l'affidabile informatore @apples_jimmy ritiene che il modello della fragola dovrebbe essere rilasciato questa settimana.

e ha anche detto che openai dovrebbe rilasciare un nuovo modello chiamato versione gpt-4.x in ottobre, che potrebbe essere chiamato gpt-4.5.

per quanto riguarda il modello più potente gpt-5, ho sentito che potrebbe essere lanciato già a dicembre, ma per sicurezza ti consiglio di aspettarlo nel primo o nel secondo trimestre del 2025.

secondo l'information, non è chiaro in quale forma verrà lanciato il modello della fragola.una possibilità è che il modello della fragola sarà un prodotto autonomo.

un'altra possibilità è quella del modello fragolaverrà integrato nel menu di selezione del modello chatgpt, gli utenti possono passare da un modello all'altro a piacimento.

rapporti precedenti menzionavano anche che la differenza più grande tra il modello della fragola e gli altri modelli è proprio questasa "pensare" prima di rispondere a una domanda.

inoltre, il modello della fragola non solo funziona bene in matematica e programmazione, ma se gli viene concesso più tempo per "pensare", può anche rispondere alle domande dei clienti su argomenti soggettivi, come le strategie di marketing del prodotto.

l'informazione afferma,il tempo di riflessione del modello della fragola dura solitamente dai 10 ai 20 secondi, il che ha il vantaggio di contribuire a ridurre gli errori.

e poiché il modello della fragola dedica più tempo a pensare, questo lo porta a essere in grado di capire quando è necessario porre più domande al cliente per comprendere appieno le esigenze dell'utente.

inoltre, il modello a fragola presenta anche alcune differenze rispetto al modello gpt-4o. ad esempio, la sua versione originalenon ha le funzionalità multimodello di gpt-4o, può solo ricevere e generare risposte di testo, ma non può elaborare immagini.

secondo the information, ciò potrebbe essere dovuto al fatto che anche i concorrenti stanno lanciando prodotti simili, quindi anche se questo prodotto non è perfetto in alcuni aspetti (come l'impossibilità di elaborare le immagini), openai può solo accelerare il ritmo del lancio.

a questo proposito, l'informatore @apples_jimmy ha anche menzionato: anche anthropic e google stanno preparando segretamente i loro nuovi modelli,e prevede di lanciarlo in concomitanza con le elezioni americane.

inoltre, il prezzo dell’abbonamento ha più volte suscitato le emozioni degli utenti.

chatgpt ha lanciato un nuovo livello a pagamento, chatgpt pro, e lo ha già offerto ad alcuni utenti.al prezzo di $ 200 al mese, dieci volte più costoso degli attuali $ 20 al mese.

se fosse vero, ciò potrebbe anche riecheggiare le relazioni sopra menzionate sul modello della fragola.

l'informazione sottolinea inoltre che il modello fragola potrebbe essere limitato nel numero di volte in cui un utente può utilizzarlo all'ora come chatgpt plus, mentre i modelli con prezzi di abbonamento più elevati saranno più reattivi.

al momento della stesura di questo articolo, openai non ha risposto a questa questione.

strato dopo strato, tagliare le "fragole"

cosa significa per noi il modello “strawberry” di openai?

in effetti, il predecessore di strawberry model è "q*", un'esistenza misteriosa che ha suscitato scalpore alla fine dello scorso anno.

lo scorso novembre, sam altman è stato espulso dal consiglio di amministrazione senza preavviso. è stato addirittura informato durante la riunione, cosa che ha scioccato l'intera azienda e l'intero settore.

il motivo addotto all'epoca dal consiglio di amministrazione era che lui e il team non riuscivano a raggiungere un accordo sulla sicurezza e sulla gestione dei rischi. e questo rischio all'epoca era legato al progetto top secret "q*".

questo progetto è stato originariamente guidato da ilya sutskever. ora ha lasciato openai per avviare un'attività, svolgendo attività legate alla sicurezza dell'intelligenza artificiale. considerando che musk una volta disse che questo progetto “rappresenta una minaccia per l’umanità”, è difficile non chiedersi cosa sta succedendo qui.

in precedenza, the information e reuters hanno fatto del loro meglio per ottenere informazioni privilegiate, ma alla fine sono riusciti solo a confermarle.l'abilità nelle operazioni matematiche è al centro di "q*"

immagine da: reuters

il modello grande è bravo in "letterario" e può gestire abilmente la lingua e il testo. è fondamentalmente alla pari con gli umani. ma le operazioni matematiche non sono mai state molto buone. anche se "q*" una volta ha innescato un enorme cambiamento in openai, secondo reuters, le sue prestazioni in quel momento erano all'incirca al livello di calcolo di uno studente di scuola elementare.

le ultime informazioni attualmente note mostrano che esistono già progetti all’interno di openai che possono raggiungere una precisione del 90% nelle operazioni matematiche, il che rappresenta un miglioramento sorprendente.

immagine da: reuters

vorrei sottolinearlo: al momento è impossibile confermare quale passo abbia raggiunto "strawberry".

si può solo dire che se "strawberry" verrà utilizzato come versione aggiornata di "q*", c'è un'alta probabilità che sarà un progetto che continuerà a cercare scoperte nel campo della matematica e dell'informatica.

il rapporto tra "calcolo matematico" e "ragionamento" non può essere direttamente equiparato, ma rivela le ambizioni di openai.

parlo sempre di ragionamento, di cosa stai parlando esattamente?

quindi, cos’è esattamente il “ragionamento”?

queste due parole ovviamente hanno una definizione molto ampia in realtà. all’inizio di quest’anno, un team guidato dall’università cinese di hong kong ha condotto una revisione completa delle capacità di ragionamento basate su modelli. la definizione più fondamentale di "ragionamento" è triplice:

ragionamento cognitivo: capacità di trarre conclusioni significative da conoscenze incomplete e incoerenti

la forma più comune di questo tipo di ragionamento è mettere insieme un puzzle. ogni piccolo pezzo è un angolo di un'immagine enorme. se prendi due pezzi a caso, sicuramente non combaceranno.

puoi solo tenere questi piccoli frammenti e metterli insieme per formare lentamente un'immagine completa. in questo processo non ci sono istruzioni o diagrammi di passaggi e spesso devi fare affidamento sulla sensazione e sull'intuizione.

ragionamento logico: trarre conclusioni in modo ordinato sulla base delle premesse e della relazione tra queste premesse, e la conclusione ha una relazione implicita o è stabilita logicamente

la risoluzione dei problemi matematici è un tipico ragionamento logico. esistono condizioni note e domande da porre. sulla base di queste è possibile calcolare i risultati passo dopo passo. il ragionamento logico è attualmente “l’osso più duro” nello sviluppo di modelli di grandi dimensioni.

ragionamento in linguaggio naturale: questo è un processo di integrazione di più tipi di conoscenza, che può essere conoscenza esplicita o implicita, per trarre nuove conclusioni sul mondo.

gli amici a cui piace leggere gialli e romanzi gialli dovrebbero trovarlo facile da capire. questo tipo di ragionamento è come imbattersi in una storia di omicidio. ci sono alcuni accenni vaghi e alcune informazioni poco chiare. è necessario combinare vari indizi per dedurre chi è l'assassino e quale è stato il processo del crimine.

se si guardano i documenti interni di openai ottenuti da reuters, l'obiettivo di "strawberry" è pianificare, accedere a internet ed eseguire ricerche approfondite.

questi assomigliano più all’ultimo tipo di ragionamento in linguaggio naturale, che non è altro che un rafforzamento. è difficile dire se possa essere considerato un miglioramento della capacità di ragionamento.

ma,openai non è così rigido nel "ragionare", ma ha una visione più ampia

due mesi fa, john schulman, uno dei fondatori di openai, ha affermato sul podcast di dwarkensh che il progresso di gpt-4 è in gran parte dovuto alla tecnologia post-allenamento.

“è molto complicato creare un modello che abbia le funzioni a cui le persone tengono dopo la formazione”, ha affermato john schulman. “ciò richiede molti investimenti e l’accumulo di molto lavoro di ricerca e sviluppo, il che crea barriere per raggiungere un determinato obiettivo estensione. "

la definizione di “ragionamento” di john schulman è questa:

"ragionare significa che sono necessari alcuni calcoli o alcune detrazioni. da questa definizione è necessario essere in grado di eseguire calcoli e calcoli passo passo durante l'elaborazione dell'attività."

si può vedere che nella sua definizione, i comportamenti di ragionamento e di calcolo sono altamente vincolati, e spera che il ragionamento delle macchine possa essere eseguito in tempo reale - proprio come gli esseri umani, possono analizzare e interpretare le informazioni mentre le ricevono.

tuttavia, anche se una persona non è brava in matematica, ciò non gli impedisce di pensare alle cose in modo logico e può comunque completare vari tipi di ragionamento. perché l’abilità matematica delle macchine è così importante?

si può intendere così:la matematica non è mai solo fare operazioni, è anche un modo di esprimere informazioni.

la matematica è un linguaggio che si basa maggiormente sulla forma simbolica e sulla precisione del significato, dove 1 è 1 e 0 è 0. quando si utilizzano simboli ed equazioni computazionali per presentare le informazioni, in realtà hanno dimensioni inferiori rispetto al linguaggio naturale.

in altre parole, il motivo per cui i grandi modelli sono “alfabetizzati” è che si basano sul “calcolo” e convertono il linguaggio naturale in linguaggio informatico.

questo punto fu posto già nel xix secolo da george boole, uno dei matematici più importanti della storia (lo stesso boole che creò la variabile booleana).

giorgio boole

boole era un uomo profondamente religioso che voleva addirittura spiegare l'esistenza di dio attraverso il ragionamento matematico.

indipendentemente da quale sia stata la sua conclusione finale, la ricchezza che alla fine ha lasciato al mondo, ovvero il libro "inchiesta sulle leggi del pensiero", spiega il suo grande obiettivo iniziale: usare il linguaggio simbolico del calcolo per esprimere il concetto di ragionamento 1. leggi fondamentali delle attività di pensiero.

ciò spiega anche perché, quando si tratta delle prestazioni dell’intelligenza artificiale nelle operazioni matematiche, le aspettative delle persone sono un po’ più nervose:

una volta che avrai superato il linguaggio matematico, potresti essere davvero vicino a sfondare nelle attività di pensiero.

i veterani della tecnologia openai si sono nuovamente dimessi

c’è un fenomeno molto strano. sembra che ogni grande novità sugli addetti ai lavori della tecnologia openai sia sempre accompagnata da drastici cambiamenti di personale.

per coincidenza, oggi anche diversi dipendenti interni di openai hanno annunciato ufficialmente le loro dimissioni.

ad esempio, alexis conneau, ex direttore della ricerca di openai audio agi, ha annunciato che lascerà l'azienda per avviare un'impresa. nell'altra sua veste, è un importante membro tecnico del gruppo di ricerca gpt-4o.

prima del rilascio di gpt-4o, aveva previsto con entusiasmo che avrebbe potuto inaugurare una nuova era di interazione uomo-computer.

è entrato in openai nell'aprile 2023 dopo aver maturato una vasta esperienza lavorativa in importanti aziende come google e meta. secondo lui, il compito principale è dotare il modello gpt di una "bocca parlante".

prafulla dhariwal, capo del gruppo di ricerca dietro gpt-4o, una volta ha elogiato conneau:

alexis conneau ha avuto la visione di her prima di chiunque altro in openai e ha lavorato instancabilmente per metterla in pratica!

oppure anche arvind neelakantan, che ha lavorato presso openai per quattro anni e mezzo, è passato oggi al gruppo di ricerca meta ai del "campo nemico".

ha partecipato allo sviluppo di molti importanti progetti di openai, tra cui embeddings, gpt-3 e gpt-4, api e chatgpt, ecc.

neelakantan ha affermato che lavorare presso openai è stato il momento clou della sua carriera. a meta ai si concentrerà sullo sviluppo del modello llama di prossima generazione.

a questo proposito, anche l'ex direttore delle relazioni con gli sviluppatori di openai logan kilpatrick ha inviato le sue benedizioni per le dimissioni.

dall'inizio di quest'anno, openai ha scatenato un'ondata di dimissioni e il suo team fondatore si è addirittura "distrutto".

l'ex capo scienziato ilya sutskever ha appena annunciato il suo ritiro da openai, e anche jan leike, uno degli inventori di rlhf, ha seguito le sue orme e se n'è andato.

le ragioni dell'abbandono sono fondamentalmente diverse, fatta eccezione per le conseguenze della "lotta a palazzo" dell'anno scorso, potrebbe anche essere dovuta alla pianificazione della carriera personale.

è improbabile che i drastici cambiamenti del personale di openai abbiano un impatto sul panorama competitivo dell’ia a breve termine. allo stesso tempo, in mezzo alla crisi, l’immaturo settore dell’ia non può più tollerare una finestra di un anno.

con la continua esposizione di novità sui modelli, non vediamo l’ora di rivedere una magnifica era della navigazione ai nella seconda metà dell’anno.

non importa quanto sia grave, sarà almeno più interessante delle noiose nuove tecnologie di intelligenza artificiale nella prima metà dell’anno.

è prevedibile che il progresso del modello sottostante della tecnologia ai possa essere come una potente forza trainante, spingendo l’esplosione dell’intero lato applicativo, proprio come allora l’emergere di gpt-4, portandoci sorprese perdute da tempo.

a quel punto, noi come utenti saremo sempre i maggiori beneficiari.