AI에 윤리성을 부여하는 8가지 방법

윤리적 인공지능(AI) 구현을 위해 전사적 차원의 노력을 기울이는 기술 기업을 위해 Workday의 경험에 근거한 8가지 교훈을 소개합니다.

Image placeholder

최신 인공지능(AI) 기술과 데이터 보호 정책에 보조를 맞추는 것이 부담스럽게 느껴질 수 있습니다. 무궁무진한 가능성과 기회가 있지만, 다른 한편으로는 데이터 오용 및 개인 프라이버시 침해에 대한 우려도 있습니다. 이 주제가 심도 있게 다뤄지고 4차 산업혁명이 본격화되는 가운데 AI의 가능성과 위험성, 그리고 AI의 가치를 더 효과적으로 실현할 방법에 관한 물음이 제기되고 있습니다.

기술 제품에 "윤리성"을 접목하는 일이 엔지니어와 개발자에게 낯설게 느껴질 수 있습니다. 많은 기술 기업이 각자 구체적이고 현실적인 형태로 이와 관련된 이니셔티브를 추진하고 있으나, 이 외딴 섬 같은 방식에서 벗어나 모범 사례를 공유해야 합니다. 협업하고 서로 경험을 공유하며 학습함으로써 업계 전체의 기준을 한 단계 높일 수 있습니다. 그럼 어디서 출발하면 좋을까요? 신뢰를 얻은 분야에 집중하는 것입니다.

Workday는 처음부터 신뢰를 근간으로 삼았습니다. 고객은 Workday가 고객의 개인정보 보호 및 보안을 중요하게 여기면서 오랫동안 각별한 노력을 기울였음을 잘 알고 있습니다. Workday의 개인정보 보호 원칙, 유럽 일반 개인정보 보호법(GDPR) 이행 방식, 강력한 개인정보 보호 프로그램을 통해 개인정보 보호가 Workday 서비스의 핵심 요소로 자리잡았기 때문입니다. 그리고 사람이 중심이 되는 머신러닝(ML)의 미래를 지향하는 지금, Workday는 개인정보 보호 및 보안 제일주의 접근법을 윤리적 ML 설계 및 제공에도 적용하고 있습니다.

많은 기업이 AI 제품 설계 및 배포에 관한 강도 높은 원칙을 내놓고 있습니다. 하지만 원칙은 실제로 이행될 때 가치가 있습니다. 최근 Workday는 고객 서비스, 무결성, 혁신의 핵심 가치에 근거한 원칙의 실천 방안을 알리기 위해 윤리적 AI를 위한 약속을 발표했습니다. 전사적 차원에서 이러한 원칙을 정착시키기 위해 노력하는 기술 기업에 도움이 될, Workday의 경험에 기초한 8가지 교훈을 소개합니다.

1. AI 윤리성의 의미에 관한 합의를 도출합니다. 이는 회사의 모든 이해관계자에게 구체적이고 실행 가능한 정의가 되어야 합니다. Workday가 지향하는 AI 윤리성은 윤리적 AI를 위한 Workday의 약속이 머신러닝 시스템에 반영되는 것을 의미합니다. 이 약속은 사람을 최우선에 두고, 사회에 관심을 갖고, 공정하게 행동하면서 법률을 준수하고, 투명성을 보장하면서 책임을 다하고, 데이터를 보호하고, 기업 환경에 최적화된 머신러닝 시스템을 제공하는 것입니다.

2. 윤리적 AI를 제품 개발 및 릴리스 프레임워크의 기본 요소로 포함시킵니다. 별도의 프로세스로 추가하여 개발자 및 제품 팀의 업무 부담과 복잡성을 가중시켜서는 안 됩니다. Workday는 이러한 원칙을 제품 개발 체계의 기본 요소로 삼고, 이를 계속 준수하기 위한 프로세스를 마련했습니다. 새로운 ML 컨트롤을 Workday 공식 컨트롤 프레임워크에 통합하여 Workday ML 윤리성 원칙을 더 확실히 이행하게 했습니다. Workday 개발 팀은 데이터 수집/데이터 최소화, 투명성에 관한 질문, 그리고 가치 기준 질문을 통해 모든 ML 제품을 윤리적 기준으로 검토합니다. Workday는 오래 전부터 개인정보 보호에 최선을 다해 왔습니다. 여기에는 개인정보 보호를 염두에 둔 설계 프로세스 및 Workday 통제 및 기준에 따른 제3자 감사 등이 포함됩니다. Workday는 ML을 위한 윤리적 설계 컨트롤 모음을 채택했습니다. 아울러 신기술 출시 및 데이터의 새로운 사용 목적에 관한 엄격한 검토/승인 제도를 마련했습니다. 프로세스를 상시 검토하고 발전시켜 업계의 새로운 모범 사례 및 규정 지침을 통합하는 데에도 주력합니다.

3. 책임이 부여되는 ML/AL의 설계, 개발, 배포에 관한 모든 의사결정에서 길잡이의 역할을 할 수 있는 전문가들로 CFT(Cross-Functional Team)를 조직합니다. 이 여정의 초기 단계에서 Workday는 제품 및 엔지니어링, 법무, 공공 정책 및 개인정보 보호, 윤리/준법 감시 부서 소속의 내부 전문가들로 구성된 머신러닝 대책 팀을 만들었습니다. 이 팀이 ML을 사용하는 중이거나 사용할 계획인 Workday 제품을 검토합니다. 이처럼 다양한 전문성과 관점을 접목하여 Workday 제품의 ML 사용 문제를 논의함으로써 매우 큰 효과를 거뒀습니다. 특히 제품 라이프사이클 초기에 잠재적인 문제를 파악할 수 있었습니다.

4. 책임이 부여되는 AI 설계, 개발, 배포에서 고객과 협업합니다. Workday는 제품 개발 라이프사이클 과정에서 다양한 배경을 가진 이들로 구성된 고객 자문 위원회를 참여시켜 AI/ML 관련 개발 주제에 관한 의견을 받습니다. 그리고 얼리어답터 프로그램에서는 몇몇 고객이 설계 파트너로 참여하는데, 이들과의 긴밀한 공조를 통해 Workday Innovation Services에서 새로운 ML 모델과 기능을 테스트합니다. 이러한 노력을 통해 사람이 중심이 되는 ML 솔루션을 공동 개발함으로써 일찍부터 AI/ML에 관한 고객의 생각을 이해하고 우려를 불식시킬 수 있습니다.

5. "라이프사이클 접근 방식"으로 머신러닝의 편향성을 해결합니다. 머신러닝 도구는 고객이 데이터를 활용하여 더 차원 높은 의사결정을 내릴 전례 없는 기회를 제공합니다. 그와 함께 고객의 깊은 신뢰를 얻고 유지하기 위한, 기업 환경에 최적화된 도구를 만들 책임도 부여합니다. 이런 까닭에 Workday는 AI 윤리성 보장의 핵심 요소 중 하나로 ML의 유해한 편향성 최소화에 주력합니다. Workday는 라이프사이클 접근 방식에 중점을 둡니다. 즉, 제품 최초 구상부터 출시 후까지 전 과정에 여러 체크포인트를 두고 다양한 편향성 평가 및 검토를 진행합니다.

6. 투명성을 유지합니다. ML의 윤리적 데이터 사용은 투명성을 전제 조건으로 합니다. 머신러닝 알고리즘은 매우 복잡할 수 있기 때문에 기업은 어떤 데이터가 어떤 목적으로 어떻게 사용되는지 정확하고 자세하게 설명해야 합니다. 이런 까닭에, Workday는 고객에게 Workday ML 기술의 작동 방식과 이점을 알리고, 어떤 ML 솔루션이든 진가를 발휘하는 데 필요한 데이터 콘텐츠도 설명합니다. Workday는 고객에게 책임을 다하면서 ML 솔루션을 제공합니다.

7. 책임이 부여된 제품을 올바르게 설계하도록 직원의 역량을 강화합니다. 이를 위해 필수 윤리 교육 모듈, 툴킷, 세미나, 직원 온보딩, 워크숍 등을 마련하여 Workday 직원이 윤리적 AI를 위한 약속을 지키는 방법을 교육받을 수 있게 합니다. 예를 들어, 인간 중심의 설계 방법에 관한 워크숍에서는 다양한 시나리오와 사용자 유형을 활용하여 윤리적인 ML 기술 개발에 대한 Workday의 약속을 직원들이 이해할 수 있게 합니다.

8. 지식을 공유하고, 업계 관계자들의 경험으로부터 학습합니다. 이를 위해 Workday는 세계경제포럼 윤리적 기술 설계 및 배포 운영 위원회를 비롯한 업계 그룹 및 전문가 회의에 참여하여 기술 산업의 윤리성 프레임워크 개발에 노력하고 있습니다. 또한 Workday는 새로운 표준과 계획을 모니터링하고 참여하는 것을 최우선 과제로 삼고 있습니다. 미국에서는 "윤리적 AI를 위한 업계의 노력"을 주제로 의회 AI 위원회 실무자 브리핑을 계획하고 참여하는 등 윤리적 AI와 관련하여 입법 기관 및 정부 당국 관계자들과 활발하게 협력하는 한편, 여러 분야에서 업계 관계자와 정책 입안자 간의 소통 창구로서 주도적 역할을 맡고 있습니다. 그뿐만 아니라, Workday는 국립과학재단(National Science Foundation)이 국가 인공지능 연구 및 개발 전략 계획(National Artificial Intelligence Research and Development Strategic Plan)을 새롭게 정비하도록 지원하고, 국립 표준 기술 연구소(NIST)의 "인공지능 표준 및 도구 개발(Artificial Intelligence Standards and Tools Development)" 보고서 작성을 도왔으며, AI 윤리성 도구 개발을 위한 NIST의 역할 확장을 계속 지지하고 있습니다. 유럽에서는 유럽 연합 고위 전문가 그룹 윤리 지침(HLEG)의 신뢰할 수 있는 인공지능 평가 목록(Trustworthy Artificial Intelligence Assessment List)을 심사하는 파일럿 프로그램에 참여했습니다.

날로 발전하는 윤리적 AI 환경에서 각종 사례와 경험을 통해 얻은 교훈을 공유하고 탐구하는 것이 그 어느 때보다 중요해질 것입니다. Workday는 효과적인 확장/구현 방식에 관한 다양한 의견과 아이디어를 경청하고 기꺼이 공유합니다. 세계경제포럼과의 협업에서도 책임이 부여된 윤리적 기술을 뒷받침할 모범 사례 공유를 촉진하는 것을 목표로 삼습니다. 책임이 부여된 윤리적인 인공지능 및 기술을 지향하는 것은 매우 중요합니다. 개별 기업이나 조직에 맡길 수 없는 중대한 과제입니다.

함께 노력하고 실천하면서 우호와 신뢰를 공고히 하여 이 강력한 신기술의 진정한 가치를 실현해야 합니다.

더 보기