Hier zaten ze op te wachten, chatgpt 4 sinds een regionale CTO bij Microsoft het nieuws lekte vorige week.
In hun laatste blogpost zei OpenAI dat GPT-4 wordt al gebruikt in apps door Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy en de regering van IJsland.
Nu het goede nieuws voor abonnees Chat GPT Plus: je kunt GPT-4 al gebruiken met een limiet van 100 berichten/uur. Als u geen ChatGPT Plus-abonnee bent, moet u even wachten.
Hier is de eerste verklaring van OpenAI, opgenomen in de GPT-4 release-opmerkingen:
In een informeel gesprek kan het onderscheid tussen GPT-3.5 en GPT-4 klein zijn. Het verschil komt naar voren naarmate de complexiteit van de taak toeneemt: GPT-4 blijkt betrouwbaarder, creatiever en in staat om veel genuanceerdere instructies te verwerken dan GPT-3.5. — OpenAI GPT4 release-opmerkingen
Ik heb GPT-4 kort via de interface geprobeerd Chat GPT Plus, en inderdaad heb ik betere resultaten behaald bij meer gecompliceerde verteltaken zoals verhaallijnen met meerdere perspectieven en bij het bouwen van verhaallijnen.
De nieuwe redeneermogelijkheden worden geïllustreerd met een diagram, dat de verbetering van chatGPT-4 in verschillende tests laat zien in vergelijking met zijn voorgangers:
Met name presteerde chatGPT-4 briljant op het USABO-examen (USA BioOlympics) en de GRE Verbal Test (de meest gebruikte toelatingstest voor hogescholen en universiteiten ter wereld). En in het UBE (Uniform Bar Exam) verbetert de algehele chatGPT-4 dramatisch.
Op sommige gebieden vergroot het de redeneerkracht van chatGPT-4. Hier is een overzicht van enkele van de gesimuleerde tests:
GPT-4 presteerde beter dan GPT-3.5 en andere taalmodellen voor meerkeuzevragen over 57 onderwerpen in 24 talen, waaronder talen met weinig middelen zoals Lets, Welsh en Swahili.
GPT-4 kan berichten accepteren die uit zowel tekst als afbeeldingen bestaan. Hierdoor kunnen we elke visuele of taalkundige taak specificeren die deze invoermodi combineert. De beeldinvoer wordt echter nog onderzocht en is nog niet beschikbaar voor het publiek.
Het is echter indrukwekkend om te zien hoe ver beeldbegrip al is gevorderd met GPT-4!
Het nieuwe model leest en interpreteert documenten, lost visuele puzzels op, hier zijn twee voorbeelden:
Met GPT-4 is het mogelijk om het zogenaamde "systeem"-bericht te wijzigen om de breedsprakigheid, toon en conversatiestijl van de boodschap te veranderen.Intelligenza Artificial. Een functie die al beschikbaar was voor ontwikkelaars die met GPT3.5 turbo werken, zal binnenkort beschikbaar zijn voor alle ChatGPT-gebruikers:
Natuurlijk zijn er nog grenzen. Het probleem had bijvoorbeeld betrekking op het gesprek over extreme gebeurtenissen of redeneerfouten. GPT-4 is in dit opzicht verbeterd en er is ook vooruitgang op het gebied van buggedrag en gevoelige inhoud. OpenAI beweert echter dat er nog "veel te doen" is:
Onze oplossingen hebben veel beveiligingsfuncties van GPT-4 aanzienlijk verbeterd ten opzichte van GPT-3.5. We hebben de neiging van het model om te reageren op verzoeken om niet-toegestane inhoud met 82% verminderd in vergelijking met GPT-3.5, en GPT-4 reageert 29% vaker op gevoelige verzoeken (bijvoorbeeld medisch advies en zelfbeschadiging) in overeenstemming met ons beleid. — OpenAI GPT4 release-opmerkingen
Ercole Palmeri
Afgelopen maandag maakte de Financial Times een deal met OpenAI bekend. FT geeft licenties voor haar journalistiek van wereldklasse...
Miljoenen mensen betalen voor streamingdiensten en betalen maandelijkse abonnementskosten. De algemene mening is dat je…
Coveware by Veeam zal responsdiensten op het gebied van cyberafpersingsincidenten blijven leveren. Coveware zal forensische en herstelmogelijkheden bieden...
Voorspellend onderhoud zorgt voor een revolutie in de olie- en gassector, met een innovatieve en proactieve benadering van fabrieksbeheer.…