Questo stavano aspettando, chatgpt 4 da quando un CTO regionale di Microsoft ha fatto trapelare la notizia la scorsa settimana.
Nel loro ultimo post sul blog, OpenAI ha affermato che GPT-4 è già in uso nelle app di Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy e il governo islandese.
Ora la buona notizia per gli abbonati ChatGPT Plus: puoi già utilizzare GPT-4 con un limite di 100 messaggi/ora. Se non sei abbonato ChatGPT Plus dovrai aspettare un po’.
Riporto qui di seguito la dichiarazione iniziale di OpenAI, contenuta nelle note di rilascio GPT-4:
In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere lieve. La differenza emerge quando la complessità dell’attività sale: GPT-4 risulta essere più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5. — Note sulla versione di OpenAI GPT4
Ho provato brevemente GPT-4 tramite l’ interfaccia ChatGPT Plus, e in effetti ho avuto risultati migliori in attività di narrazione più complicate come trame multiprospettiche e nella costruzione di archi narrativi.
Le nuove capacità di ragionamento sono illustrate con un diagramma, che mostra il miglioramento di chatGPT-4 in vari test rispetto ai suoi predecessori:
In particolare, chatGPT-4 è risultato brillante nell’esame USABO (USA BioOlympics) e nel test verbale GRE (il test di ammissione al college e alla scuola di specializzazione più utilizzato al mondo). E nell’UBE (esame di avvocato uniforme), complessivamente chatGPT-4 migliora notevolmente.
In alcune aree, aumenta il potere di ragionamento di chatGPT-4. Ecco una panoramica di alcuni dei test simulati:
GPT-4 ha sovraperformato GPT-3.5 e altri modelli linguistici per problemi a scelta multipla che coprono 57 soggetti in 24 lingue, comprese lingue con poche risorse come lettone, gallese e swahili.
GPT-4 può accettare messaggi costituiti sia da testo che da immagini. Questo ci consente di specificare qualsiasi compito visivo o linguistico che combini queste modalità di input. Tuttavia, gli input delle immagini sono ancora in fase di ricerca e non sono ancora disponibili al pubblico.
Tuttavia, è impressionante vedere fino a che punto è già avanzata la comprensione delle immagini con GPT-4!
Il nuovo modello legge e interpreta documenti, risolve enigmi visivi, qui di seguito due esempi:
Con GPT-4 sarà possibile alterare il cosiddetto messaggio “di sistema” per modificare la verbosità, il tono e lo stile di conversazione dell’Intelligenza Artificiale. Una funzionalità che era già disponibile per gli sviluppatori che lavorano con GPT3.5 turbo sarà presto disponibile per tutti gli utenti di ChatGPT:
Naturalmente, ci sono ancora dei limiti. Il problema legato alla conversazione di eventi estremi, per esempio, o di errori di ragionamento. GPT-4 è migliorato sotto questo aspetto e ci sono anche progressi nei confronti di comportamenti errati e contenuti sensibili. Comunque OpenAI afferma che c’è ancora “molto da fare”:
Le nostre mitigazioni hanno notevolmente migliorato molte caratteristiche di sicurezza di GPT-4 rispetto a GPT-3.5. Abbiamo ridotto dell’82% la tendenza del modello a rispondere alle richieste di contenuti non consentiti rispetto a GPT-3.5 e GPT-4 risponde alle richieste sensibili (ad es. consulenza medica e autolesionismo) in conformità con le nostre norme il 29% più spesso . — Note sulla versione di OpenAI GPT4
Ercole Palmeri
Coveware by Veeam continuerà a fornire servizi di risposta agli incidenti di cyber-estorsione. Coveware offrirà funzionalità di forensics e remediation…
La manutenzione predittiva sta rivoluzionando il settore dell'oil & gas, con un approccio innovativo e proattivo alla gestione degli impianti.…
La CMA del Regno Unito ha lanciato un avvertimento circa il comportamento delle Big Tech sul mercato dell’intelligenza artificiale. La…
Il Decreto "Case Green", formulato dall'Unione Europea per potenziare l'efficienza energetica degli edifici, ha concluso il suo iter legislativo con…