GPT-4 è arrivato! Analizziamo insieme le nuove funzionalità
OpenAI ha annunciato che il modello di linguaggio più potente disponibile gpt4 verrà distribuito agli sviluppatori e alle persone con accesso all’API OpenAI.
Questo stavano aspettando, chatgpt 4 da quando un CTO regionale di Microsoft ha fatto trapelare la notizia la scorsa settimana.
Nel loro ultimo post sul blog, OpenAI ha affermato che GPT-4 è già in uso nelle app di Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy e il governo islandese.
Ora la buona notizia per gli abbonati ChatGPT Plus: puoi già utilizzare GPT-4 con un limite di 100 messaggi/ora. Se non sei abbonato ChatGPT Plus dovrai aspettare un po’.
Nuove funzionalità sbloccate
Riporto qui di seguito la dichiarazione iniziale di OpenAI, contenuta nelle note di rilascio GPT-4:
In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere lieve. La differenza emerge quando la complessità dell’attività sale: GPT-4 risulta essere più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5. — Note sulla versione di OpenAI GPT4
Ho provato brevemente GPT-4 tramite l’ interfaccia ChatGPT Plus, e in effetti ho avuto risultati migliori in attività di narrazione più complicate come trame multiprospettiche e nella costruzione di archi narrativi.
Le nuove capacità di ragionamento sono illustrate con un diagramma, che mostra il miglioramento di chatGPT-4 in vari test rispetto ai suoi predecessori:
In particolare, chatGPT-4 è risultato brillante nell’esame USABO (USA BioOlympics) e nel test verbale GRE (il test di ammissione al college e alla scuola di specializzazione più utilizzato al mondo). E nell’UBE (esame di avvocato uniforme), complessivamente chatGPT-4 migliora notevolmente.
In alcune aree, aumenta il potere di ragionamento di chatGPT-4. Ecco una panoramica di alcuni dei test simulati:
Competenza linguistica
GPT-4 ha sovraperformato GPT-3.5 e altri modelli linguistici per problemi a scelta multipla che coprono 57 soggetti in 24 lingue, comprese lingue con poche risorse come lettone, gallese e swahili.
Multimodalità: input visivo
GPT-4 può accettare messaggi costituiti sia da testo che da immagini. Questo ci consente di specificare qualsiasi compito visivo o linguistico che combini queste modalità di input. Tuttavia, gli input delle immagini sono ancora in fase di ricerca e non sono ancora disponibili al pubblico.
Tuttavia, è impressionante vedere fino a che punto è già avanzata la comprensione delle immagini con GPT-4!
Il nuovo modello legge e interpreta documenti, risolve enigmi visivi, qui di seguito due esempi:
Manovrabilità
Con GPT-4 sarà possibile alterare il cosiddetto messaggio “di sistema” per modificare la verbosità, il tono e lo stile di conversazione dell’Intelligenza Artificiale. Una funzionalità che era già disponibile per gli sviluppatori che lavorano con GPT3.5 turbo sarà presto disponibile per tutti gli utenti di ChatGPT:
Limitazioni, rischi e mitigazioni
Naturalmente, ci sono ancora dei limiti. Il problema legato alla conversazione di eventi estremi, per esempio, o di errori di ragionamento. GPT-4 è migliorato sotto questo aspetto e ci sono anche progressi nei confronti di comportamenti errati e contenuti sensibili. Comunque OpenAI afferma che c’è ancora “molto da fare”:
Le nostre mitigazioni hanno notevolmente migliorato molte caratteristiche di sicurezza di GPT-4 rispetto a GPT-3.5. Abbiamo ridotto dell’82% la tendenza del modello a rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e GPT-4 risponde alle richieste sensibili (ad es. consulenza medica e autolesionismo) in conformità con le nostre norme il 29% più spesso . — Note sulla versione di OpenAI GPT4
Potrebbe interessarti anche
Ercole Palmeri