
OpenAI가 알파 버전을 발표했습니다. ChatGPT의 고급 음성 모드, 제공:혁신적인 GPT-4o 모델. 다음을 약속하는 이 혁신적인 기능은 초현실적인 오디오 응답, 모든 Plus 가입자에게 가용성을 확대하려는 목표로 오늘부터 소규모 ChatGPT Plus 사용자 그룹이 처음으로 액세스할 수 있습니다. 2024년 가을까지.
음성 모드: ChatGPT의 음성 모드가 공식화되었습니다.
지난 4월 GPT-XNUMXo를 이용한 음성 모드 발표는 대중들 사이에서 큰 관심과 감탄을 불러일으켰다. 놀라운 세대 속도 그리고 실제 사람의 목소리와 눈에 띄게 유사하여 유명한 여배우 스칼렛 요한슨과 비교를 불러일으켰습니다.
OpenAI는 여배우의 목소리를 사용했다는 사실을 부인했으며 이후 데모에서 목소리를 삭제하고 6월에 고급 음성 모드 출시 연기 보안 조치를 개선합니다.
이번 알파 단계에서는 봄 업데이트 때 선보인 동영상, 화면 공유 등 일부 기능이 포함되지 않으며 추후 소개될 예정이다. 그러나 선택된 프리미엄 사용자 그룹 데모에 제시된 ChatGPT 음성 기능에 액세스할 수 있습니다.
또한 읽기 : SearchGPT: OpenAI 검색 엔진의 정의 및 작동 방식
고급 음성 모드는 세 가지 개별 모델을 기반으로 하는 ChatGPT에서 현재 제공하는 오디오 솔루션과 다릅니다. GPT-4o, 그의 덕분에 본능 멀티 모달, 보조 모델에 의지하지 않고 이러한 작업을 처리할 수 있으며 하나의 모델로 음성 응답을 생성할 수 있습니다. 대기 시간 대폭 감소. 또한 OpenAI는 GPT-4o의 능력을 강조합니다. 목소리의 감정적인 뉘앙스를 인지한다, 슬픔과 설렘 등을 인식하고 노래를 인식합니다.
ChatGPT의 음성 사용을 주의 깊게 모니터링하기 위해 OpenAI는 다음을 선택했습니다. 점진적 방출. 알파 프로그램 회원은 ChatGPT 앱에서 알림을 받은 후 기능 사용 지침이 포함된 이메일을 받게 됩니다.
GPT-4o의 보컬 기능 45개 언어로 테스트되었습니다, 이는 이 기술을 광범위한 국제 청중이 이용할 수 있도록 하려는 OpenAI의 의지를 보여줍니다. 또한 회사는 다음에 대한 새로운 필터를 구현했습니다. 음악 제작 요청 방지 또는 저작권으로 보호되는 기타 오디오 자료를 사용하여 지적 재산을 보호합니다.
ChatGPT의 향상된 음성 모드는 처음에는 다음으로 제한됩니다. 4가지 프리셋 음색 by ChatGPT: Juniper, Breeze, Cove 및 Ember는 전문 성우들과 협력하여 제작되었습니다. ChatGPT는 다른 사람의 음성을 모방할 수 없으며 이러한 기본 음성에서 벗어나는 출력을 차단하여 기술의 윤리적이고 책임감 있는 사용을 보장합니다.