notizia

Non rendere pubblico GPT-5? OpenAI cambia formato della conferenza

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Novità del 6 agosto dell'anno scorsoAIStartupIA apertaLa prima conferenza degli sviluppatori si è tenuta a San Francisco con grande clamore ed è stata lanciata, alla fine, senza successoGPT Store (simile all'Apple App Store) e tanti nuovi prodotti e strumenti.

Tuttavia, l'evento di quest'anno sarà relativamente di basso profilo. Lunedì OpenAI ha annunciato che trasformerà la conferenza degli sviluppatori DevDay in una serie di conferenze partecipative incentrate sugli sviluppatori. La società ha inoltre confermato che non rilascerà il modello di punta principale di prossima generazione durante il DevDay, concentrandosi invece sugli aggiornamenti alle sue API e ai servizi per sviluppatori.

Un portavoce di OpenAI ha rivelato: "Non prevediamo di annunciare il nostro prossimo modello alla conferenza degli sviluppatori. Ci concentreremo maggiormente sull'introduzione delle risorse esistenti agli sviluppatori e sulla presentazione delle storie della comunità di sviluppo".

Gli eventi OpenAI DevDay di quest'anno si terranno a San Francisco il 1 ottobre, a Londra il 30 ottobre e a Singapore il 1 novembre. Tutti gli eventi si terranno sotto forma di workshop, sessioni interattive, demo dal vivo da parte dei team di progettazione e prodotto OpenAI e sessioni di sviluppatori. La quota di registrazione è di US $ 450 e la scadenza per la registrazione è il 15 agosto.

Negli ultimi mesi, OpenAI ha adottato una strategia di iterazione più solida nel campo dell’intelligenza artificiale generativa invece di perseguire passi da gigante. L'azienda ha scelto di perfezionare e perfezionare i propri strumenti formando al tempo stesso i successori dei suoi attuali modelli di punta, GPT-4 e GPT-4 mini. L’azienda ha migliorato i suoi metodi per migliorare le prestazioni complessive del modello e ridurre al minimo la frequenza con cui i modelli deviano dalla rotta, ma secondo alcuni benchmark, OpenAI sembra aver perso il suo vantaggio tecnologico nella corsa alla generazione di intelligenza artificiale.

Uno dei motivi potrebbe essere che i dati di addestramento di alta qualità sono sempre più difficili da trovare.

Come la maggior parte dei modelli di intelligenza artificiale generativa, i modelli di OpenAI sono addestrati su grandi quantità di dati dal web e molti creatori scelgono di bloccare i propri dati perché temono che vengano plagiati o che non ottengano il riconoscimento o la ricompensa che meritano . Secondo i dati di Originality.AI, uno strumento di rilevamento dei contenuti e di plagio basato sull’intelligenza artificiale, oltre il 35% dei 1.000 siti Web più importanti del mondo ora bloccano i web crawler di OpenAI. Una ricerca della MIT Data Provenance Initiative ha inoltre rilevato che circa il 25% dei dati “di alta qualità” è stato escluso dai principali set di dati utilizzati per addestrare i modelli di intelligenza artificiale.

La società di ricerca Epoch AI prevede che se l’attuale tendenza a bloccare l’accesso ai dati continua, gli sviluppatori finiranno i dati che possono essere utilizzati per addestrare e generare modelli di intelligenza artificiale tra il 2026 e il 2032. Ciò, combinato con il timore di azioni legali sul copyright, ha costretto OpenAI a stipulare costosi accordi di licenza con editori e vari intermediari di dati.

Si dice che OpenAI abbia sviluppato una tecnologia di inferenza in grado di migliorare la reattività dei suoi modelli su determinati problemi, in particolare in matematica. Mira Murati, chief technology officer dell'azienda, ha promesso che i futuri modelli OpenAI avranno un'intelligenza di "livello di dottorato". Sebbene questa prospettiva sia promettente, comporta anche pressioni significative. È stato riferito che OpenAI spende miliardi di dollari per addestrare i suoi modelli e assumere ricercatori ben pagati.

Il tempo dirà se OpenAI riuscirà a raggiungere i suoi obiettivi ambiziosi affrontando numerose controversie. Indipendentemente da ciò, rallentare il ciclo del prodotto può aiutare a contrastare le affermazioni secondo cui OpenAI ha trascurato gli sforzi di sicurezza dell’IA nella ricerca di tecnologie di intelligenza artificiale generativa più potenti. (poco)