AI 모델이 AI가 생성한 데이터로 학습할 때 생기는 일

최근 연구에 따르면 다른 인공지능이 생성한 텍스트로 인공지능 모델을 학습시키면 모델이 넌센스를 생성하기 시작할 수 있으며, 이는 모델 붕괴로 알려진 문제입니다. 이 문제는 대규모 언어 모델이 인간이 생성한 데이터를 소진하고 온라인에서 제공되는 AI 생성 콘텐츠에 점점 더 의존함에 따라 개선 속도가 느려질 수 있습니다. 이러한 문제를 극복하기 위해 연구자들은 사용되는 학습 데이터의 품질에 주의를 기울이고 학습 프로세스에 사용하기 전에 AI가 생성한 텍스트를 큐레이션하는 등의 조치를 취할 것을 제안합니다.

Source↗


Awsom GPT에서 더 알아보기

구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.