인공지능 기술 변화의 속도가 빨라지며 인공지능 윤리에 대한 관심도 점점 더 커지고 있습니다. 생성형 인공지능은 AI의 혁신임과 동시에 많은 최첨단 기술과 마찬가지로 윤리적 문제에 직면해 있습니다. 우리는 일반적으로 인공지능 윤리에 대해 인간보다 더 높은 기준을 설정합니다. 인공지능이 단순히 좋은 일을 하는 것만으로는 충분하지 않으며 나쁜 일을 절대 해서는 안 되고 실수가 허용하지 않죠. 그럼 현대 사회에서 인공지능 윤리가 어떻게 실현되고 있는지 알아보겠습니다.
인공지능은 버려지는 농작물을 절약을 통해 더 많은 식량을 생산할 수 있도록 지원하고습니다. 잡초를 찾아내고 작물 심을 새로운 위치를 찾는 초기 단계부터 질병으로 죽어가는 식물을 식별하는 것까지 AI는 농작물의 전체 성장 과정에 긍정적인 영향을 미칠 수 있습니다. 농작물을 수확할 때도 인간이 먹을 수 있는 작물과 해당 작물이 먹이 사슬의 어디 위치에 속하는지를 식별함으로써 인간에게 도움을 줍니다.
데이터는 지구의 미래에 중요한 역할을 합니다. 머신러닝은 날씨 변화와 자연재해가 닥칠지 예측하는 데 사용되고 있습니다. 이러한 인공지능 모델은 과거 기상 데이터로 훈련되고 있으며 이를 통해 다음 태풍이 닥칠 시기와 자연재해가 해당 지역에 미칠 수 있는 영향에 대해 예측할 수 있습니다. 이러한 AI 기술이 구현되기 전에는 인공지능 모델을 교육하는 데 필요한 에너지의 양과 온실가스 배출 증가에 대한 우려가 있습니다. 하지만 IEA(International Energy Agency)에 따르면 현재 전 세계 전력의 1%만이 전 세계 데이터 센터에서 사용되고 있습니다. 또한 이러한 수치를 유지하기 위해서는 하드웨어의 효율을 향상시킬 수 있습니다. 이렇게 하면 인공지능 서비스에 대한 수요가 증가해도 전력 출력이 증가하지 않습니다.
번역 없이는 여러 국가의 사람들이 서로 소통하는 데 어려움을 겪게 됩니다. 이로 인해 중요한 역사 및 문화적 사건이 손실되거나 중요한 과학 및 의학적 발견이 특정 그룹 내에서만 공유될 수 있습니다. 언어는 전 세계 사람들을 연결할 수 있지만 부적절한 번역은 정보에 대한 불평등한 접근으로 이어질 수 있습니다. 인공지능이 이러한 정보의 불평등 문제를 해결하는 방법 중 하나는 바로 편견이 없는 다양한 데이터셋을 활용하는 것입니다. 다양한 데이터셋은 훈련된 챗봇과 기타 대화형 AI 기반 플랫폼에 활용될 수 있습니다. 많은 언어와 방언을 사용하고 여러 인구 통계, 연령, 종교 및 문화를 가진 전 세계 사람들로부터 데이터를 수집하면 국가적 중요한 커뮤니케이션에 대한 접근성을 확대하는 데 도움이 됩니다.
최근에 생성형 AI 모델이 할루시네이션을 일으키고 존재하지 않는 사실을 만들어내는 사례가 많이 있습니다. 이는 소설 쓰기와 같은 창의적인 활동에는 괜찮지만 진위 여부가 중요한 상황이나 검색 엔진과 같은 로컬 최신 정보를 찾는 경우에는 위험할 수 있습니다.
이러한 대규모 언어 모델(LLM)은 주로 인터넷에서 현재 사용 가능한 서면 데이터를 통해 훈련되기 때문에 결국 성별이나 정치적 선호도와 같은 영역에서 잘못된 편향으로 이어지는 소스 데이터를 필터링하기가 매우 어렵습니다. 이것은 인간이 아무리 노력해도 본질적으로 편향되어 있거나 인터넷 액세스와 같은 여러 요인을 기반으로 콘텐츠를 만드는 사람이 왜곡되어 있기 때문에 발생합니다.
우리는 생성형 AI로 인한 잠재적 위험을 방지하기 위한 프로세스가 필요합니다. 책임감 있고 윤리적인 인공지능을 만들기 위해서 모두가 함께 노력하는 것이 중요합니다.
인공지능 윤리를 위해서는 개인 정보 보호 전문가의 AI 설계를 통한 개인 정보 보호 개념에서의 접근 방식이 필요합니다. 이를 위해서는 인공지능 윤리를 처음부터 기술, 비즈니스 관행 및 물리적 인프라의 설계 사양에 포함해야 합니다. 이 작업은 인공지능 설계 단계에서 미리 수행하는 것이 소급하여 진행하는 것보다 훨씬 낫습니다.
인공지능 윤리가 가능하다는 것을 증명하기 위해서는 알고리즘과 훈련 모델 자체에 초점을 맞추는 것도 중요하지만, 기본 데이터셋과 인간 피드백에 더 초점을 맞추고 출력에 제공되는 정밀 조사 및 가드레일을 증가시키는 것이 중요합니다.
다양한 배경에 걸쳐 실제 경험을 가진 실제 사람들의 피드백을 통합하는 것이 인공지능 모델이 인간처럼 행동하도록 훈련시키는 가장 좋은 방법입니다. 인간의 피드백이 다양하고 광범위할수록 인공지능 윤리 구현이 쉬워집니다.
인공지능 윤리는 인종이나 성별, 지역, 배경에 관계없이 모든 사람에게 혜택을 주는 방식으로 작동해야 합니다. 대규모 언어 모델(LLM)은 일반적으로 온라인 콘텐츠의 대부분을 차지하는 영어 데이터를 기반으로 구축됩니다. 하지만 세계 인구의 20% 미만만이 실제로 영어를 제1 또는 제2 언어로 사용합니다. 이렇게 영어로 언어 입력을 제한하면 인공지능 모델에서 과소대표되는 사용자들에게 엄청난 언어 격차가 발생할 뿐만 아니라 문화적 격차도 발생합니다.
기본 학습 데이터에 사용자가 표시되지 않으면 인공지능이 작동하지 않을 가능성이 더 높습니다. 언어와 상관없이 인공지능 윤리를 구현하는 것은 AI를 교육 및 개선하는 데 관련된 사람들이 궁극적으로 서비스를 제공하는 사람들의 다양성을 반영할 뿐만 아니라 자신이 수행하는 중요한 역할을 이해해야 함을 의미합니다.
에펜은 170개 이상의 국가에 걸쳐 235개 이상의 언어와 방언을 구사하는 다양하고 강력한 100만 명의 인공지능 학습 전문가 팀을 보유하고 있습니다. 에펜의 인공지능 전문가들은 AI가 작동하고 사회와 문화적 차별이 없도록 보장하는 윤리적이고 다양한 AI 공급망을 뒷받침합니다.
인공지능 라이프 사이클의 중요한 구성 요소는 데이터 소싱과 데이터 준비(데이터 수집, 데이터 어노테이션 및 데이터 평가)입니다. 저희 에펜은 전 세계 회사를 위한 데이터셋을 만들고 글로벌 크라우드의 지원을 통해 성공적인 AI 라이프 사이클을 지원합니다. 또한 데이터를 수집하고 라벨링 하여 인공지능 및 머신 러닝 솔루션을 가능하게 합니다.
에펜는 모두에게 데이터가 공정하게 공급되고 관리되도록 인공지능 윤리 강령 및 공정한 급여 프로그램을 수립하고. 크라우드 윤리 코드(Crowd Code of Ethics)를 제정했습니다. 이 인공지능 윤리 코드를 통해 저희는 윤리적인 고품질 데이터를 제공합니다.
생성형 AI를 통해 인공지능 학습 전문가의 작업이 단순한 어노테이션 작업에서 모델 평가와 최종 사용자 경험에 대한 컨설팅으로 확장되고 있습니다. 데이터 라벨러의 이러한 기술 발전은 선진국뿐만 아니라 전 세계에 적용되어 현재의 기술 격차를 줄이데 매우 중요한 역할을 할 것입니다. 저희 에펜의 데이터 라벨러들은 이미 개선된 생성형 AI 시스템에서 중요한 역할을 차지하고 있으며 데이터 학습에 중요한 가이드라인을 제공하고 있습니다.
에펜는 인공지능 윤리에 대한 큰 희망을 가지고 있으며 신기술이 사회에 미치는 영향을 반영하기 위해 많은 노력을 하고 있습니다. 저희와 함께 인공지능 윤리를 성공적으로 실현시켜 보세요.
인공지능 윤리 실현을 위한 방법이 궁금하시다면 아래 문의하기 페이지를 통해 연락 주세요!