백악관은 인공지능 위험성을 낮추기 위해서 대형 테크기업(아마존, 앤스로픽, 구글, Inflection, 메타, 마이크로소프트, 오픈 AI)의 8가지 규정을 포함한 팩트 시트를 만들었습니다. 인공지능 위험성에 대한 팩트 시트에는 많은 전문가들이 이야기하는 워터마크와 안전 보고, 안전 리서치, 보안 테스트 등 AI 위험성을 낮추기 위해 꼭 필요한 것들이 포함됩니다. 하지만 이곳에 가장 중요한 것이 누락됐는데요, 바로 ‘인간’입니다. 인공지능 위험성 연구가 인간 가치와 일치해야 되는 것이 강조되는 현대사회에서 AI에 대한 인간의 감독은 놓쳐서는 안 될 부분입니다.
AI 개발에서 인간의 감독은 AI 기술이 윤리적 기준과 사회적 규범에 부합하도록 보장하고, 우수하고 신뢰할 수 있는 AI를 생성할 수 있게 하며, 정부에 모니터링이나 규제를 위한 실질적인 기반을 제공하기 때문에 인공지능 위험성을 완화하는 데 가장 중요합니다.
미국의 백악관이 다가오는 행정 명령을 개정함에 따라 인간의 감독 관련한 조항이 이번 팩트 시트에 추가되어야 할 것입니다.
인공지능 위험성을 낮추기 위해서는 인공지능 교육과 재교육 그리고 모니터링이 꼭 필요합니다. AI의 출력값이 제작자의 의도와 일치하지 않는 정렬(alignment) 문제가 일어날 수 있기 때문이죠. 예를 들어, Google 포토에서는 편향된 AI 알고리즘으로 인해 사람을 고릴라로 잘못 식별한 경우가 있었습니다. 또한 가석방 신청자를 평가하는 데 사용되는 모델(COMPAS 시스템)에서 AI 편견은 부당한 결과를 초래하고 제도적 불평등을 만들어 낼 수 있기에 더욱 조심해야 하죠. 특히 AI가 사회 전반에 확산됨에 따라 공정하고 공평한 결정을 보장하기 위해 AI 편견을 완화하는 것이 중요합니다.
AI 위험성 문제를 해결하려면 많은 노력이 필요합니다. AI 시스템 배포는 끝없는 최적화의 과정입니다. 인간의 가치를 우선시하기 위해서는 AI 모델 최적화와 가중치 및 AI 편향 조정이 필수입니다. 이 중요한 과정이 사라져버리면 우리의 AI 약속은 지켜질 수 없죠. 하지만 다행히도 현재 대다수의 거대 테크 회사들은 이미 딥 러닝 프로젝트에서 정확한 조정을 위해 대규모 인간 피드백을 사용하고 있습니다.
결과적으로 AI 개발에서 인간적 요소를 무시하면 인공지능의 효율성이 떨어지게 됩니다. 인간의 피드백은 머신에 더 나은 품질의 데이터를 제공하며, 이는 오픈 액세스 저널 arXiv에 발표된 최근 영국과 캐나다 연구에서 사실로 증명됐습니다.
이 연구는 AI 모델이 다른 인공지능에서 생성된 데이터를 훈련할 때 발생하는 모델 붕괴라는 현상에 대해 경고하고 있습니다. 이는 AI가 기본 데이터 분포를 점진적으로 잊어버리는 퇴행성 프로세스로 이어질 수 있습니다. AI가 생성한 데이터는 인기 있는 데이터에 과대 적합되는 경향이 있고 상대적으로 덜 인기 있는 데이터를 잘못 표현하는 경우가 많아 왜곡된 현실 인식으로 이어질 수 있습니다. 시간이 지남에 따라 생성된 데이터의 오류가 복합적으로 발생하게 되면 AI 모델은 현실을 잘못 인식하게 됩니다. 이것은 사회적 차별에서 경제적 차별에 이르기까지 사회에 심각한 영향을 미칠 수 있습니다.
인간의 가치와 사회적 규범이 계속해서 진화함에 따라 인간의 지속적인 모니터링과 제어는 여전히 필요합니다. 자율주행차를 예로 들어보겠습니다. AI 제어 기계가 안전 측면에서 인간 운전자를 능가한다 하더라도 AI는 변화하는 법률이나 새로 만들어진 도시의 레이아웃, 교통에 대한 사회적 태도 변화에 적응해야 합니다.
AI 위험성을 낮추기 위해서는 인간이 AI에 대한 통제력을 유지하고 AI 기술이 우리의 진화하는 가치와 사회적 맥락에 부합하도록 해야 합니다. 최신 피드백 기술은 정부가 AI의 잠재적 피해를 완화하고 우리 사회가 어떻게 행동하는 AI를 원하는지 논의할 수 있는 방법을 제공합니다. 그뿐만 아니라 혁신을 촉진할 수 있는 인간 모니터링을 제공하죠. 하지만 현재 과정은 올바른 기술을 얻고 AI 리더가 스스로 교정 과정을 수행하기 위해 재정적 동기를 극복할 것이라는 희망에 의존하고 있습니다.
백악관 팩트 시트에 요약된 약속에는 인간 참여와 인간의 지속적인 모니터링 및 피드백에 대한 조항이 보완되어야 합니다. AI 시스템의 개발과 배치에서 가장 중요한 것은 인류의 발전입니다. 따라서 바이든 행정부는 인공지능 관련 행정 명령을 개정함에 따라 AI가 우리의 집단적 가치와 열망에서 벗어나지 않도록 인간의 감독을 명확히 해야 합니다.
인간의 피드백 서비스를 통한 AI 모델 배포 방법이 궁금하시다면 아래 문의하기 페이지를 통해 연락 주세요!