notizia

Tutti amano l'Antropico

2024-08-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Il “gioco di potere” di OpenAI continua Questa volta, il co-fondatore John Schulman si è dimesso.IA apertaDopo aver lavorato per quasi 9 anni, è passato al concorrente Anthropic.

John Schulman ha affermato che la mossa non è stata dettata dall'insoddisfazione nei confronti di OpenAI, ma per concentrarsi maggiormente sulla ricerca sull'allineamento dell'intelligenza artificiale e tornare in prima linea nella tecnologia. Credeva che Anthropic potesse fornire una nuova prospettiva e un ambiente di ricerca più in linea il suo piano di sviluppo professionale. Ciò è simile alle ragioni addotte da Ilya Sutskever, capo scienziato di OpenAI, e Jan Leike, capo del superallineamento, che in precedenza avevano lasciato OpenAI.

Inoltre, anche il leader del prodotto OpenAI Peter Deng ha scelto di andarsene e il presidente Greg Brockman prolungherà il suo congedo fino alla fine dell'anno. A questo punto, degli 11 cofondatori di OpenAI rimangono solo gli amministratori delegati Sam Altman e Wojciech Zaremba, e Greg Brockman, che è ancora in congedo a lungo termine. La partenza di questo dirigente ha innescato ancora una volta discussioni nel settore sullo stato di sviluppo di OpenAI. Questa è anche la seconda volta che un dirigente di OpenAI lascia Anthropic dopo Jan Leike.

Tuttavia, in netto contrasto con l’anno “turbolento” di OpenAI, Anthropic ha mostrato uno slancio impressionante. Non solo ha attirato l'adesione dei talenti di OpenAI, ma anche i suoi ultimi prodotti sono stati ampiamente elogiati dagli utenti.

In un mercato sempre più competitivo, Anthropic ha gradualmente attirato maggiore attenzione con la sua struttura aziendale e il suo concetto di prodotto unici. Sebbene eChatGPTC'è ancora un ampio divario, ma negli ultimi 6 mesi la quota di traffico di Claude è gradualmente aumentata, soprattutto nel periodo più recente, mostrando un trend di crescita significativo.

1

"Claude lascerà il lavoro quando la sua quota sarà esaurita."

Anthropic è una startup di intelligenza artificiale fondata nel 2021 e il team comprende molti ex dipendenti di OpenAI. L'azienda è guidata dai fondatori Dario e Daniela Amodei, fratello e sorella, che ricoprono rispettivamente il ruolo di amministratore delegato e presidente. I due hanno precedentemente ricoperto posizioni di rilievo presso OpenAI. A causa di disaccordi sulla direzione di sviluppo di OpenAI, lasciò il lavoro e fondò Anthropic. Le due società con sede a San Francisco sono state in forte competizione per sviluppare i migliori modelli di intelligenza artificiale sin dalla fondazione di Anthropic.

L’ultimo modello di Anthropic è il Claude 3.5 Sonnet, che stabilisce nuovi parametri di riferimento del settore in molteplici aree, tra cui capacità di ragionamento a livello di laurea (test GPQA), riserva di conoscenza a livello universitario (test MMLU) e capacità di programmazione (test HumanEval). Superato in molteplici valutazioni, superando i modelli concorrenti pur mantenendo la velocità e il costo del Claude 3 Sonnet di fascia media.

Sonnet 3.5 è al primo posto nella categoria di codifica dell'arena chatbot.

Claude 3.5 è particolarmente apprezzato per le sue potenti capacità di generazione di codice. Molti programmatori affermano che la scrittura del codice è inseparabile dall'aiuto di Claude 3.5 Sonnet Recentemente, il CEO di Y Combinator ha inoltrato un articolo in cui elogiava Claude Sonnet 3.5 su X e ha ottenuto oltre 4 milioni di visualizzazioni. .

Nell'articolo, l'autore scrive che dopo aver utilizzato Claude Sonnet 3.5, l'efficienza del lavoro è stata notevolmente migliorata e le parti tecniche delle applicazioni più popolari possono essere implementate 10 volte più velocemente di prima. Anche se è ancora necessario prendere decisioni sull'architettura e sull'infrastruttura, aspetti come la funzionalità dei componenti dell'interfaccia utente sono ora 10 volte più veloci, rendendo le iterazioni molto veloci.

Il suo flusso di lavoro è diviso in tre fasi:

1. Pensare attentamente alla funzione e discuterne con Claude;

2. Scrivere una specifica di base per la funzionalità (di solito solo poche frasi ed elenchi puntati) e ripetere con Claude;

3. Assicurati di fornire a Claude tutto il contesto e i requisiti rilevanti per l'implementazione, (codice)

L'amministratore delegato di ottogrid.ai ha anche affermato nel post che il 50% del loro codice è scritto da Claude e che aumenterà all'80% l'anno prossimo. Ha anche detto senza mezzi termini: "Non usare Claude 3.5 per scrivere codice? Fai attenzione di essere lasciato indietro da una squadra come la nostra."

Claude non è più disponibile, quindi ho semplicemente deciso di prendermi un giorno libero.

Claude lascerà il lavoro quando la sua quota sarà esaurita.

Ciò che è ancora più esagerato è che Erik Schluntz, un ingegnere di Anthropic, si è rotto la mano destra in un incidente in bicicletta e poteva scrivere solo con la mano sinistra. Ha usato la sintesi vocale e l'intelligenza artificiale di Claude per continuare a lavorare, e ha anche scritto di più 3.000 righe di codice in una settimana.

Anche Erik Schluntz ha scritto un articolo per condividere la sua esperienza. Crede che l'applicazione dell'intelligenza artificiale nel campo dello sviluppo del software stia mostrando una rapida tendenza allo sviluppo. Prevede che nei prossimi 1-3 anni gli ingegneri dell’intelligenza artificiale diventeranno una realtà, in grado di lavorare in modo autonomo e collaborativo. A quel punto la creatività diventerà l’unico collo di bottiglia.

1

Artefatto: avvio della rivoluzione dell'interazione con l'IA

Vale la pena ricordare che Claude ha anche lanciato un nuovo metodo di interazione, Artifact, che consente agli utenti di eseguire ed eseguire il debug del codice direttamente nell'interfaccia di conversazione AI. Le caratteristiche principali di Artifacts includono l'esecuzione di codice in tempo reale, operazioni interattive, anteprima visiva e funzionalità di condivisione multipiattaforma. Queste funzionalità consentono agli sviluppatori di convalidare rapidamente le idee, ripetere i prototipi e dimostrare facilmente i risultati.

Claude 3.5 Sonnet + Artifacts è un "punto di svolta".

Gli artefatti forniscono agli sviluppatori un'esperienza di programmazione più diretta. Molti sviluppatori affermano che questa funzionalità apre nuove possibilità per lo sviluppo assistito dall’intelligenza artificiale e ha il potenziale per cambiare l’attuale modello di sviluppo delle applicazioni.

A prima vista, Artifacts potrebbe essere solo un aggiornamento insignificante. Solo uno spazio di lavoro dedicato, insieme all'interfaccia di chat, che consente agli utenti di manipolare e ottimizzare i contenuti generati dall'intelligenza artificiale in tempo reale. Ma questa nuova funzionalità, apparentemente semplice, potrebbe diventare uno dei campi di battaglia più critici per l’intelligenza artificiale nei prossimi anni: l’interfaccia interattiva.

Perché una delle sfide più importanti nel campo dell’intelligenza artificiale non è solo creare un’intelligenza artificiale più intelligente, ma anche renderla facile da usare, intuitiva e perfettamente integrata nei flussi di lavoro esistenti.

È qui che Anthropic è completamente diverso dai concorrenti come OpenAI. Le nuove funzionalità vocali di ChatGPT sono impressionanti e Google sottolinea le capacità di Gemini nell'acquisizione ed elaborazione della conoscenza, ma Anthropic punta a una domanda più fondamentale: come trasformare l'intelligenza artificiale da un sofisticato chatbot a un vero partner di collaborazione?

Creando uno spazio in cui i contenuti generati dall'intelligenza artificiale possono essere facilmente modificati, ottimizzati e integrati in progetti esistenti, Anthropic sta cercando di colmare il divario tra l'intelligenza artificiale come strumento e l'intelligenza artificiale come membro del team. Questo cambiamento ha il potenziale per rivoluzionare i modelli di lavoro in tutti i settori.

Evidenzia inoltre le crescenti differenze filosofiche nello sviluppo dell’intelligenza artificiale. OpenAI e Google sembrano essere bloccati in una corsa agli armamenti di capacità di modello, in competizione tra loro per costruire l’IA più grande e intelligente. Anthropic sta giocando un gioco diverso, concentrandosi sulla praticità e sull'esperienza dell'utente.

In un settore spesso accusato di perseguire il benchmarking a scapito delle applicazioni del mondo reale, l'enfasi di Anthropic sull'esperienza dell'utente può distinguersi. Poiché le aziende si sforzano di integrare l’intelligenza artificiale nelle loro operazioni, le soluzioni che non solo sono sufficientemente intelligenti ma offrono anche interfacce intuitive e una perfetta integrazione del flusso di lavoro avranno un vantaggio decisivo.

Man mano che il divario di capacità tra i modelli si riduce, costruire un ecosistema attorno ai modelli è fondamentale per fidelizzare i clienti. Soprattutto nel campo della programmazione, Artifacts offre agli sviluppatori un flusso di lavoro nuovo e più efficiente.

Naturalmente, Artifacts è ancora agli inizi e i concorrenti non rimarranno a guardare. Puoi aspettarti molta innovazione in quest'area poiché altre aziende si rendono conto dell'importanza di reinventare le interfacce utente.

Il solido lancio di Anthropic, OpenAI è stato spesso criticato per aver esagerato

1

“Quello che succede a OpenAI non succederà a noi”

Durante il precedente incidente di "lotta di palazzo" di OpenAI, il consiglio di amministrazione ha licenziato Sam Altman. Il motivo per cui ciò è accaduto è stato a causa dei pericoli nascosti sepolti nella struttura aziendale di OpenAI. Nella struttura di OpenAI, la società è governata da un consiglio di amministrazione senza scopo di lucro che non è responsabile nei confronti degli azionisti della società.

Anthropic è più vicina a una società tradizionale, con un consiglio di amministrazione responsabile nei confronti degli azionisti. Tuttavia, Anthropic adotta anche una struttura societaria non tradizionale. Non è una società a responsabilità limitata, ma una società di pubblica utilità (PBC). Oltre ad aumentare Oltre alla responsabilità fiduciaria per i profitti degli azionisti, il suo consiglio di amministrazione ha anche spazio legale per garantire che "l'intelligenza artificiale trasformativa aiuti l'umanità e la società a prosperare". In altre parole, il consiglio di amministrazione sceglie di dare priorità alla sicurezza piuttosto che all'aumento dei profitti e sarà più difficile per gli azionisti fare causa al consiglio di amministrazione di Anthropic.

Anthropic è sempre stata orgogliosa della sua struttura aziendale unica e si considera diversa da OpenAI. Anthropic ha inoltre sottolineato ai media che ciò che è accaduto a OpenAI non accadrà ad Anthropic. Tuttavia, la struttura di Anthropic è un progetto intrinsecamente sperimentale. Noah Feldman, professore di diritto di Harvard che ha lavorato come consulente esterno quando Anthropic ha costruito la sua prima struttura di governance, ha affermato che anche i migliori progetti al mondo a volte non funzionano. Ma nutre grandi speranze per il successo di Anthropic.

Oltre alla struttura aziendale, un’altra grande differenza tra OpenAI e Anthropic è l’utilizzo di un approccio strutturato per garantire che il comportamento del sistema AI rispetti specifici standard etici e codici di condotta, che è una caratteristica importante di Anthropic.

Anthropic presta maggiore attenzione alla sicurezza e alla controllabilità dell’intelligenza artificiale e si impegna a sviluppare un’intelligenza artificiale spiegabile, verificabile e guidabile per garantire che l’intelligenza artificiale possa servire l’umanità. Pertanto, Anthropic ha utilizzato un metodo chiamato “Constitutional AI” (CAI) durante la formazione di Claude, che è simile a OpenAIGPTEsistono differenze nel modo in cui i modelli vengono addestrati.

Fornendo a Claude una serie di linee guida o "costituzione" che vengono introdotte nelle prime fasi della formazione del modello, anziché essere utilizzate semplicemente per filtrare dopo che le risposte sono state generate. Questi principi coprono una vasta gamma di aree, dall’etica alla privacy dei dati, e hanno lo scopo di consentire ai sistemi di intelligenza artificiale di prendere decisioni e generare contenuti coerenti con questi principi.

Tuttavia, questo impegno comporta anche sfide più grandi. Sebbene Anthropic aderisca alla sua struttura e missione aziendale uniche, nel contesto economico reale deve ancora affrontare le duplici sfide della pressione esterna e dell’equilibrio interno.

Anthropic ha raccolto più di 7 miliardi di dollari nell’ultimo anno, principalmente da giganti della tecnologia come Amazon e Google. Queste aziende, insieme a Microsoft e Meta, stanno gareggiando per dominare il campo dell’intelligenza artificiale. In futuro, Anthropic avrà bisogno di maggiore sostegno finanziario. Deve continuare a lanciare prodotti migliori e dimostrare enormi prospettive di profitto per soddisfare le aspettative degli investitori al fine di ottenere gli ingenti fondi necessari per costruire modelli di punta.

D'altra parte, se Anthropic riuscisse a mantenere il suo attuale trend di sviluppo che è più stabile di OpenAI, l'azienda potrebbe essere in grado di aprire un nuovo percorso - un percorso in cui l'intelligenza artificiale può svilupparsi in modo sicuro, non essere influenzata dalla dura pressione del mercato. mercato e servire l’intero settore del benessere sociale.