OpenAI wprowadził model językowy GPT-4, który może obsługiwać tekst i obrazy

Autor: Maksim Panasovskyi | 15.03.2023, 12:52
OpenAI wprowadził model językowy GPT-4, który może obsługiwać tekst i obrazy

Osławiony chatbot ChatGPT działa na GPT-3.5. Dzień wcześniej OpenAI ogłosiło nowy model językowy. Ma on kilka zalet i nazywa się GPT-4.

Co wiadomo.

Twórcy twierdzą, że GPT-4 to pierwsze na świecie doświadczenie z wysokowydajnym systemem sztucznej inteligencji. Firma zauważa, że użytkownikom trudno będzie zauważyć różnicę podczas komunikacji z chatbotem, ale w bardziej złożonych zadaniach różnice staną się widoczne.

Według OpenAI, model językowy GPT-4 nie tylko zdołał zdać egzamin adwokacki. Jego wynik znalazł się w pierwszej dziesiątce. Twórcy twierdzą, że nowy model okazał się bardziej kreatywny niż obecna wersja. W szczególności potrafi pisać skrypty, a nawet piosenki.

GPT-4 jest w stanie generować odpowiedzi składające się z 25 tysięcy słów. Limit ten został zwiększony ponad 4-krotnie w porównaniu do ChatGPT. Kolejną ważną innowacją jest to, że nowy model może analizować obrazy. Będzie on odpowiadał tylko w formie tekstowej.

OpenAI współpracuje już z firmami, które są gotowe do integracji nowego modelu językowego w swoich produktach (Duolingo, Stripe i Khan Academy). GPT-4 będzie dostępny jako API oraz w abonamencie ChatGPT Plus o wartości 20 dolarów/miesiąc.

Źródło: OpenAI