본문 바로가기

카테고리 없음

GPT-4o: OpenAI의 새로운 모델과 그 특징

반응형

GPT-4o가 발표됐습니다.새로운 GPT의 특징은 다음과 같습니다.

공식 홈페이지 : https://openai.com/index/hello-gpt-4o/

Open AI에 생긴 GPT-4o 항

 

결론 : 윈도우 사용자는 당장 사용 불가하며, 윈도우 무료 사용자도 하반기엔 사용가능!

 

- GPT-4o "o"의 의미 : omni(모든, 전체)

- 보다 자연스러운 상호작용

- 텍스트, 오디오, 이미지를 입력하고 텍스트, 오디오, 이미지를 출력 함

- 기존 모델에 비해 시각과 오디오 이해가 뛰어남

- 음성대답에 대해 평균 320ms(2.8(GPT-3.5)5.4(GPT-4)) 만에 대답 함

- 비영어 텍스트에 대해 토큰 효율이 향상 됨(한국어의 기준 1.7배 향상 됨)

- API 사용가격은 50% 낮아짐

- 모든 입력과 출력에 대해 하나의 신경망으로 텍스트, 비전, 오디오를 입력함
   (
각각의 모델로 텍스트, 비전, 오디오를 처리하지 않음)

- GPT-4o의 기능은 단계적으로 제공될 예정이며, 발표날 부터 레드팀은 접근이 가능 함

- 텍스트와 이미지 처리 기능은 오늘부터 사용 가능

- 무료 사용자에게도 GPT-4o 제공, Plus 사용자는 5배 많은 메시지 한도 가짐

- 개발자들은 API를 통해 GPT-4o 접근 가능

- 맥OS 부터 공개되고 윈도우는 순차적으로 공개합니다.

 

한국어 토큰이 1.7배 줄었음을 알리는 말

 

GPT-4o의 벤치마크(타 AI 비교)
음성 기능
GPT-4 vs GPT-4o Zero Short 성능비교

 

* Zero Short : 모델이 학습 과정에서 배우지 않은 작업을 수행하는 것

Vision understanding evals 비교

* 기계 학습 모델이 이미지나 비디오를 얼마나 잘 이해하고 분석하는지 평가

 

모델 선택 항목

 

반응형