MIT 연구진은 AI 기술의 잠재적 위험성을 이해하기 위해 AI ‘위험 저장소’라는 데이터베이스를 만들었습니다. 여기에는 차별 및 사이버 공격과 같은 700여 가지의 위험이 포함되어 있으며, 정책 입안자들이 AI 사용을 규제하는 규칙을 만드는 데 도움을 주기 위한 것입니다. 이 저장소는 위험을 식별하고 분석하는 데 도움이 되지만 모든 AI 위험에 대한 명확한 합의가 이루어지지 않았기 때문에 더 많은 작업이 필요합니다.
MIT 연구원, AI 위험 저장소 공개
—