
지능 인공 오늘은 모든 사람의 입술에 있습니다. 이제 우리는 사용 방법을 알고 있습니다. 인터넷에 접속하고 ChatGPT, Dall-E 및 Synthesia와 같은 플랫폼을 사용하기만 하면 됩니다. 이와 관련하여 인공 지능을 사용하여 매우 다른 작업을 수행하는 10개의 웹 사이트에 대한 흥미로운 기사를 준비하고 있습니다. 하지만 가장 널리 사용되는 AI의 예를 들어 보겠습니다. 어떻게 태어 났습니까? 오늘날 우리 모두가 사용할 수 있는 버전에 도달한 방법 무료로?
오늘날 우리 중 많은 사람들이 ChatGPT를 사용하지만 모든 사람이 그 배후에 무엇이 있고 어떻게 거기에 도달했는지 알지 못합니다. 80년대부터 현재까지의 타임라인입니다.
80년대부터 시작해 봅시다: 순환 신경망
ChatGPT는 OpenAI에서 개발한 초대형 언어 모델인 GPT-3의 버전입니다. 언어 모델은 일종의 신경망 그는 매우 많은 텍스트에 대해 훈련을 받았습니다. 신경망은 인간 두뇌의 뉴런이 서로 통신하는 방식에서 영감을 얻은 소프트웨어입니다. 모든 텍스트는 다양한 길이의 문자와 단어의 시퀀스로 구성되기 때문에 언어 모델에는 이러한 유형의 데이터를 이해할 수 있는 일종의 신경망이 필요합니다. 순환 신경망(재발 신경망)는 80년대에 발명된 단어 시퀀스를 처리할 수 있지만 학습 속도가 느리고 시퀀스에서 이전에 학습한 단어를 잊어버릴 수 있습니다. LSTM은 수백 단어의 텍스트 문자열을 처리할 수 있지만 언어 기능이 제한되었습니다. 무엇인가? "의 약어장기 단기 기억" 또는 "장기 기억”는 인공지능 분야에서 사용되는 인공신경망

또한 읽기 : 구글, 챗봇과 AI로 생성된 콘텐츠의 호환성 확인
2017년: Transformers와 함께하는 인공 지능 혁신의 해
현재 세대의 대규모 언어 모델로 이어진 돌파구는 Google의 연구원 팀이 다음을 발명했을 때 이루어졌습니다. 트랜스포머, 각 단어나 구문이 순서대로 나타나는 위치를 추적할 수 있는 일종의 신경망입니다. LSTM의 가장 큰 문제가 극복되었음을 스스로 이해할 것입니다. 그러나 그들은 그것을 어떻게 했습니까? 응용 언어학의 개념이 기술에 도입되었습니다. 단어의 의미는 종종 그 단어 앞이나 뒤에 오는 다른 단어의 의미에 따라 달라집니다. 이것들을 추적 컨텍스트 정보, 변환기는 더 긴 텍스트 문자열을 처리하고 단어의 의미를 더 정확하게 캡처할 수 있습니다. 예를 들어 "핫도그"는 "핫도그보다 햄버거가 더 좋아"그리고"핫도그는 겨자와 함께 먹는 것이 가장 좋습니다.". 본질적으로 인간은 파악하고 기계는 파악하지 못하는 맥락 정보가 변화를 가능하게 했습니다.
2018-2019: GPT 개발의 해
OpenAI의 처음 두 가지 주요 언어 모델은 서로 몇 달 안에 도착했습니다. 이 회사는 다목적 및 범용 AI를 개발하기를 원했으며 대규모 언어 모델이 이 목표를 향한 핵심 단계라고 믿습니다. 이러한 방식으로 소프트웨어는 다음을 수행할 수 있습니다. 데이터의 패턴을 직접 찾아보세요., 그들이 보고 있거나 읽고 있는 것을 듣지 않고. 머신 러닝에서 이전의 많은 성공은 감독 학습 및 주석이 달린 데이터에 의존했지만 수동 데이터 레이블 지정은 교육에 사용할 수 있는 데이터 세트의 크기를 제한하는 느린 작업입니다. 그것은 가장 큰 파문을 일으킬 GPT-2. 사실 OpenAI는 사람들이 GPT-2를 사용하고 있을지도 모른다고 우려했습니다.”기만적이거나 왜곡되거나 모욕적인 언어를 생성하기 위해” 전체 모델을 출시하지 않을 것입니다. 하지만 그게 다가 아닙니다.
GPT-2가 인상적이었다면 OpenAI의 속편인 GPT-3는 말 그대로 혁명을 일으켰습니다. 그것의 능력 인간과 유사한 텍스트 생성 큰 도약을 보여주었습니다. GPT-3는 질문에 답하고, 문서를 요약하고, 다양한 스타일로 스토리를 생성하고, 영어, 프랑스어, 스페인어, 일본어 등을 번역할 수 있습니다. 그러나 여전히 인간의 건국적 특성이 없기 때문에 인간을 대신할 수는 없다. 우리는 그것에 대해 깊이 이야기했습니다. 이 문서.
소스 | MIT