OpenAI 현재 의 개념 슈퍼 얼라인먼트, 초지능과 관련된 위험을 관리하는 데 있어 중요한 진전입니다. 인류가 발명한 가장 영향력 있는 기술로 알려진 초지능은 세계에서 가장 중요한 많은 문제를 해결하는 데 도움이 될 수 있습니다. 그러나 그 막강한 힘은 초지능 그것은 또한 매우 위험하여 인류의 무력화 또는 심지어 인류의 멸종으로 이어질 수 있습니다.
OpenAI, Superalignment 제시: 인공 지능을 인간의 의도와 "정렬"하려는 시도
초지능이 멀리 떨어져 있는 것처럼 보일 수 있지만 OpenAI는 그것이 XNUMX년 안에 올 수 있다고 믿습니다. 이러한 위험을 관리하려면 무엇보다도 다음이 필요합니다. 거버넌스 및 초지능 정렬 문제 해결을 위한 새로운 제도: 인간보다 훨씬 똑똑한 AI 시스템이 인간의 의도를 따르도록 보장할 수 있는 방법은 무엇입니까?
현재 초지능 시스템을 안내하거나 제어할 수 있는 솔루션은 없습니다. 현재 AI 정렬 기술 AI를 감독하는 인간의 능력에 의존, 초지능으로 확장할 수 없습니다. OpenAI의 목표는 자동화된 인간 수준 정렬 탐색기. 이 목표를 달성하려면 확장 가능한 교육 방법을 개발해야 합니다.
또한 읽기 : AI 및 AGI: Google CEO DeepMind는 임박한 돌파구를 예측합니다.
OpenAI는 이 문제를 해결하기 위해 최고의 기계 학습 연구원 및 엔지니어 팀을 구성하고 있습니다. 향후 20년 동안 사용 가능한 컴퓨팅 성능의 XNUMX%를 이 문제를 해결하는 데 사용할 것입니다.. 목표는 XNUMX년 안에 초지능 정렬의 주요 기술적 과제를 해결하는 것입니다. OpenAI는 기계 학습에 성공한 모든 사람들이 정렬에 관심을 집중하도록 초대합니다. 이러한 노력의 결실은 널리 공유될 것이며 비 OpenAI 모델의 정렬 및 보안이 중요합니다. 회사는 또한 현재 모델의 보안을 개선하고 AI의 다른 위험을 해결하기 위해 노력할 것입니다.
초지능 정렬을 해결하려면 세계 최고의 정신이 필요합니다. 개방형 AI 학제 간 협업을 장려합니다. 초 지능 정렬과 관련된 사회 기술 문제에 적극적으로 참여합니다.