chatgpt4

OpenAI ha annunciato che il modello di linguaggio più potente disponibile gpt4 verrà distribuito agli sviluppatori e alle persone con accesso all’API OpenAI. 

Questo stavano aspettando, chatgpt 4 da quando un CTO regionale di Microsoft ha fatto trapelare la notizia la scorsa settimana.

Nel loro ultimo post sul blog, OpenAI ha affermato che GPT-4 è già in uso nelle app di Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy e il governo islandese.

Ora la buona notizia per gli abbonati ChatGPT Plus: puoi già utilizzare GPT-4 con un limite di 100 messaggi/ora. Se non sei abbonato ChatGPT Plus dovrai aspettare un po’.

Nuove funzionalità sbloccate

Riporto qui di seguito la dichiarazione iniziale di OpenAI, contenuta nelle note di rilascio GPT-4:

In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere lieve. La differenza emerge quando la complessità dell’attività sale: GPT-4 risulta essere più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5. — Note sulla versione di OpenAI GPT4

Ho provato brevemente GPT-4 tramite l’ interfaccia ChatGPT Plus, e in effetti ho avuto risultati migliori in attività di narrazione più complicate come trame multiprospettiche e nella costruzione di archi narrativi.

Screenshot per autore, puoi provare GPT-4 tramite il tuo abbonamento ChatGPT Plus

Le nuove capacità di ragionamento sono illustrate con un diagramma, che mostra il miglioramento di chatGPT-4 in vari test rispetto ai suoi predecessori:

Note sulla versione di OpenAI GPT4

In particolare, chatGPT-4 è risultato brillante nell’esame USABO (USA BioOlympics) e nel test verbale GRE (il test di ammissione al college e alla scuola di specializzazione più utilizzato al mondo). E nell’UBE (esame di avvocato uniforme), complessivamente chatGPT-4 migliora notevolmente.

In alcune aree, aumenta il potere di ragionamento di chatGPT-4. Ecco una panoramica di alcuni dei test simulati:

Note sulla versione di OpenAI GPT4

Competenza linguistica

GPT-4 ha sovraperformato GPT-3.5 e altri modelli linguistici per problemi a scelta multipla che coprono 57 soggetti in 24 lingue, comprese lingue con poche risorse come lettone, gallese e swahili.

Note sulla versione di OpenAI GPT4

Multimodalità: input visivo

GPT-4 può accettare messaggi costituiti sia da testo che da immagini. Questo ci consente di specificare qualsiasi compito visivo o linguistico che combini queste modalità di input. Tuttavia, gli input delle immagini sono ancora in fase di ricerca e non sono ancora disponibili al pubblico.

Tuttavia, è impressionante vedere fino a che punto è già avanzata la comprensione delle immagini con GPT-4! 

Il nuovo modello legge e interpreta documenti, risolve enigmi visivi, qui di seguito due esempi:

Manovrabilità

Con GPT-4 sarà possibile alterare il cosiddetto messaggio “di sistema” per modificare la verbosità, il tono e lo stile di conversazione dell’Intelligenza Artificiale. Una funzionalità che era già disponibile per gli sviluppatori che lavorano con GPT3.5 turbo sarà presto disponibile per tutti gli utenti di ChatGPT:

Note sulla versione di OpenAI GPT4

Limitazioni, rischi e mitigazioni

Naturalmente, ci sono ancora dei limiti. Il problema legato alla conversazione di eventi estremi, per esempio, o di errori di ragionamento. GPT-4 è migliorato sotto questo aspetto e ci sono anche progressi nei confronti di comportamenti errati e contenuti sensibili. Comunque OpenAI afferma che c’è ancora “molto da fare”:

Note sulla versione di OpenAI GPT4

Le nostre mitigazioni hanno notevolmente migliorato molte caratteristiche di sicurezza di GPT-4 rispetto a GPT-3.5. Abbiamo ridotto dell’82% la tendenza del modello a rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e GPT-4 risponde alle richieste sensibili (ad es. consulenza medica e autolesionismo) in conformità con le nostre norme il 29% più spesso . — Note sulla versione di OpenAI GPT4

Note sulla versione di OpenAI GPT4

Potrebbe interessarti anche

Ercole Palmeri

Autore