Això estaven esperant, xatgpt 4 des que un CTO regional de Microsoft va filtrar la notícia la setmana passada.
A la seva última publicació al bloc, OpenAI ho va dir GPT-4 ja s'utilitza a les aplicacions de Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy i el Govern d'Islàndia.
Ara les bones notícies per als subscriptors Xateja GPT Plus: ja podeu utilitzar GPT-4 amb un límit de 100 missatges/hora. Si no sou subscriptor de ChatGPT Plus, haureu d'esperar una estona.
Aquí teniu la declaració inicial d'OpenAI, continguda a les notes de llançament de GPT-4:
En una conversa informal, la distinció entre GPT-3.5 i GPT-4 pot ser lleugera. La diferència sorgeix a mesura que augmenta la complexitat de la tasca: GPT-4 resulta ser més fiable, creatiu i capaç de gestionar instruccions molt més matisades que GPT-3.5. — Notes de la versió d'OpenAI GPT4
Vaig provar breument GPT-4 a través de la interfície Xateja GPT Plus, i, de fet, he tingut millors resultats en tasques de narració més complicades, com ara històries de múltiples perspectives i en la construcció d'arcs de la història.
Les noves capacitats de raonament s'il·lustren amb un diagrama, que mostra la millora de chatGPT-4 en diverses proves en comparació amb els seus predecessors:
En particular, el chatGPT-4 va tenir un bon rendiment a l'examen USABO (USA BioOlympics) i al GRE Verbal Test (la prova d'accés a la universitat i postgrau més utilitzada del món). I a l'UBE (examen de la barra uniforme), el chatGPT-4 en general millora dràsticament.
En algunes àrees, augmenta el poder de raonament de chatGPT-4. Aquí teniu una visió general d'algunes de les proves simulades:
GPT-4 va superar GPT-3.5 i altres models lingüístics per a problemes d'elecció múltiple que cobreixen 57 matèries en 24 idiomes, inclosos idiomes amb pocs recursos com el letó, el gal·lès i el suahili.
GPT-4 pot acceptar missatges formats per text i imatges. Això ens permet especificar qualsevol tasca visual o lingüística que combini aquests modes d'entrada. No obstant això, les entrades d'imatge encara estan en recerca i encara no estan disponibles per al públic.
Tanmateix, és impressionant veure fins a quin punt la comprensió de la imatge ja ha avançat amb GPT-4!
El nou model llegeix i interpreta documents, resol puzles visuals, aquí teniu dos exemples:
Amb GPT-4 serà possible alterar l'anomenat missatge del "sistema" per canviar la verbositat, el to i l'estil de conversa delIntel · ligència artificial. Una funció que ja estava disponible per als desenvolupadors que treballen amb GPT3.5 turbo aviat estarà disponible per a tots els usuaris de ChatGPT:
Per descomptat, encara hi ha límits. El problema relacionat amb la conversa d'esdeveniments extrems, per exemple, o errors de raonament. GPT-4 ha millorat en aquest sentit, i també hi ha avenços cap al comportament d'errors i el contingut sensible. Tanmateix, OpenAI afirma que encara queda "molt per fer":
Les nostres mitigacions han millorat significativament moltes funcions de seguretat de GPT-4 respecte a GPT-3.5. Hem reduït la tendència del model a respondre a les sol·licituds de contingut no permès en un 82% en comparació amb GPT-3.5, i GPT-4 respon a sol·licituds sensibles (p. ex., assessorament mèdic i autolesions) d'acord amb les nostres polítiques un 29% més sovint . — Notes de la versió d'OpenAI GPT4
Ercole Palmeri
Es va realitzar una operació d'oftalmoplàstia amb el visualitzador comercial Apple Vision Pro a la Policlínica de Catània...
El desenvolupament de la motricitat fina a través del color prepara els nens per a habilitats més complexes com escriure. Per acolorir...
El sector naval és una veritable potència econòmica mundial, que ha navegat cap a un mercat de 150 milions...
Dilluns passat, el Financial Times va anunciar un acord amb OpenAI. FT autoritza el seu periodisme de classe mundial...