인공지능 분야의 선두주자 OpenAI가 최근 발표 특정 업무를 담당하는 새로운 팀의 창설 AI 관련 기술 발전과 관련된 잠재적으로 치명적인 위험을 평가하고 완화합니다.. 이러한 움직임은 생성 모델이 가져올 수 있는 문제와 위험을 사전에 해결하는 것의 중요성이 커지고 있음을 강조합니다. 당연히 제대로 모니터링되지 않는 곳입니다.
이 문서의 주제:
OpenAI를 통한 위험 식별
인공지능이 빠르게 발전함에 따라 전 세계적으로 심각한 영향을 미칠 수 있는 새로운 위험이 등장하고 있습니다. 이를 위해 새로운 OpenAI 준비팀은 추적, 평가, 예견하다 e 프로 테거 이러한 잠재적인 문제에 대비합니다. 확인된 위험은 다음과 같습니다. 위협 핵무기, AI 분야에서 책임 있는 조치의 시급성을 강조하는 주제입니다.
팀은 핵 위협 외에도 물질 관련 위험에도 중점을 둘 예정입니다. 화학, 생물학, 방사선학뿐만 아니라 f에도인공지능의 자기복제 현상, 또는 인공지능 시스템이 스스로를 자율적으로 복제하는 능력입니다. 다른 초점 영역에는 인간을 속이는 AI의 능력과 위협 모든 사이버 보안.
고급 AI의 이점과 과제
OpenAI는 가장 발전된 기존 모델의 기능을 능가하는 프론티어 AI 모델이 다음과 같은 잠재력을 가지고 있음을 인식합니다. 모든 인류에게 이익이 된다. 그리고 아니, 당신이 생각하는 것과는 반대로,인공지능은 우리의 일자리를 훔치러 온 것이 아니다 오히려 그것을 창조하는 것입니다.
그러나 큰 힘에는 큰 책임도 따릅니다. 그러므로 개발이 필수적이다. 정책 위험에 대한 정보를 제공하여 다음을 수행할 수 있습니다. AI 모델 평가 및 모니터링, 이점이 관련 위험보다 더 큰지 확인합니다.
또한 읽기 : DeepMind에는 AI 위험을 예방하는 솔루션이 있습니다
이 새로운 팀의 리더십은 다음에게 위임되었습니다. 알렉산더 마드리, 머신러닝 분야의 선두주자입니다. 현재 그 사람은 휴직 중 이사의 역할 MIT 배포 가능한 기계 학습 센터, 지혜로운 위험에 기반한 개발 정책을 개발하고 유지하기 위한 노력을 조정할 것입니다.
글로벌 우선순위를 향해
오픈AI CEO, Sam Altman 샘 올트먼, 새로운 게 아니야 AI의 잠재적인 재앙적 위험에 대한 우려 때문입니다. 그는 AI 기술의 치료가 P이어야 한다고 제안했습니다.핵무기만큼 심각하게 받아들여져, AI와 관련된 멸종 위험을 완화하기 위한 공동 노력의 필요성을 강조합니다. 이 새로운 팀은 이 비전을 실현하기 위한 구체적인 단계를 나타내며, 인공지능 책임경영.