Meta에 두 가지 새로운 항목이 추가되었습니다. 언어 모델 그의 시리즈에: 라마 3 8B e 라마 3 70B. 이는 인공 지능 세계에서 탁월한 성능을 약속합니다. 가장 눈에 띄는 소식은? 각각 8억 개와 70억 개의 매개변수가 존재합니다. 이 숫자는 모델이 처리하고 처리할 수 있는 복잡성과 능력을 나타냅니다. 프로세스 informazioni.
Llama 3는 단지 두 가지 모델이 아닙니다. 더 많은 자료가 준비 중입니다.
메타는 거기서 멈추지 않습니다. ~할 계획이다 Llama 3 시리즈의 더 많은 모델 출시, 그러나 날짜를 지정하지 않았습니다. 이 전략은 기대를 불러일으키고 제품을 지속적으로 개선하려는 회사의 의지를 보여줍니다.
I 새로운 라마 모델 이전 모델에서 도약한 것으로 설명됩니다. 이러한 개선은 부분적으로 2개의 커스텀 GPU 클러스터, 각각 24.000개의 단위로 구성되어 모델을 보다 효과적이고 정확하게 훈련할 수 있습니다. Meta는 보유하고 있는 매개변수의 수로 인해 이러한 모델이 다음과 같다고 주장합니다. 가능한 최고 중 오늘은 생성 인공지능에 대해 알아보겠습니다.
라마 3의 성능은 AI 모델의 성능을 평가하는 데 사용되는 표준화된 테스트인 다양한 AI 벤치마크를 통해 측정되었습니다. 여기에는 다음이 포함됩니다 MMLU 지식을 위해, ARC 기술 습득을 위해 e DROP 텍스트 블록에 대해 추론합니다. 이러한 벤치마크의 유용성에 대해서는 서로 다른 의견이 있지만 AI 모델의 기능을 평가하고 비교하는 일반적인 방법으로 남아 있습니다.
특히 Llama 3 8B는 Mistral 및 구글 젬마, 적어도 4개의 다른 벤치마크에서. 여기에는 생물학, 물리학, 화학, 심지어 코드 생성 및 수학 문제와 같은 분야의 일반 지식, 추론 및 특정 기술에 대한 테스트가 포함됩니다. 예를 들어 GPT-XNUMX는 잘 할 수 없습니다.
가장 큰 모델인 Llama 3 70B는 경쟁할 뿐만 아니라 어떤 경우에는 다음과 같은 플래그십 모델을 능가합니다. Google의 Gemini 1.5 Pro 다양한 테스트를 통해 치열한 경쟁에도 불구하고 업계의 거대 기업들과도 맞설 수 있음을 입증했습니다. 그러나 다음과 같은 일부 플래그십 모델보다 성능이 뛰어나다는 점에 유의하는 것이 중요합니다. Anthropic의 클로드 3 소네트 여러 테스트에서 더 발전된 Claude 3 Opus 모델의 성능에 도달하지 못했습니다.