워크플레이스에서 이루어지는 책임 있는 AI: Future of Privacy Forum이 제안하는 모범 사례

Workday의 공공 정책 부문 VP, Chandler C. Morse가 Workday와 Future of Privacy Forum에서 워크플레이스에서 이루어지는 책임 있는 AI를 위한 로드맵을 어떻게 개발했는지 간략하게 설명합니다.

Workday는 인공지능(AI)의 엄청난 잠재력을 활용하고 그에 따른 리스크로부터 사람들을 보호하려면 현명한 공공 정책이 중요하다고 생각합니다. 또한 끊임없이 진화하는 디지털 환경에서 기업에서도 책임 있는 AI 사용을 위해 선제적인 조치가 필요함을 인식하고, 이를 실천하기 위해 최선을 다하고 있습니다.  

이러한 이유로 Workday는 전 세계 정책 입안자 및 이해 관계자와 협력하여 AI에 관한 신뢰를 구축하는 프레임워크, 규정, 이니셔티브를 장려합니다. AI의 신뢰성이 확보되고 이를 뒷받침할 현명한 공공 정책이 마련되어야 AI는 우리가 일하는 방식을 발전시키고, 각 인력에 필요한 업스킬링 및 커리어 관리를 위한 의사결정을 지원하고, 기회의 접근성을 향상할 수 있습니다. 

오늘, Future of Privacy Forum(FPF)은 Workday, ADP, Indeed, LinkedIn과 공동으로 1년간 개발한 'AI 및 업무 환경 평가 기술을 위한 모범 사례'를 발표했습니다. 이 모범 사례는 채용 및 승진/승급과 같은 중요한 고용 결정을 위해 AI 도구를 개발하거나 사용하는 미국 기업을 위한 권장 로드맵입니다. 

책임 있는 AI 거버넌스를 발전시키는 것 외에도 이 모범 사례는 AI 규제 및 미래의 업무 환경에 관한 정책 토론에도 매우 유용합니다. Workday는 이 전략을 자랑스럽게 지지하며, 고객이 할 만한 일반적인 질문에 답변하려 합니다. 

Future of Privacy Forum 모범 사례 소개

Future of Privacy Forum(FPF)은 개인정보 보호 및 책임 있는 데이터 프랙티스에 관한 연구로 전 세계적인 명성을 얻었습니다. Workday는 AI 개발자와 배포자의 공동 책임을 설명하는, 워크플레이스에서 이루어지는 책임 있는 AI에 관한 확실하고 실용적인 로드맵의 필요성을 느껴 FPF와 공동으로 모범 사례를 개발했습니다. 

이 모범 사례는 강력하고 책임 있는 AI 거버넌스 프로그램을 유지관리하고 개인정보 보호 및 데이터 보안을 강화하는 혁신적인 엔터프라이즈 AI 기능을 개발하는 Workday의 경험을 활용합니다. 또한 Workday가 얼리 어답터로 참여하는 미국립표준기술원(NIST)의 AI 리스크 관리 프레임워크(RMF), 그리고 평등고용기회위원회(Equal Employment Opportunity Commission)를 포함한 미국 규제 기관의 가이드를 참조합니다.

이 모범 사례는 중요한 고용 결정을 위해 AI 도구를 개발하거나 사용하는 미국 기업을 위한 권장 로드맵입니다.

책임 있는 AI 발전을 위한 모범 사례

이 모범 사례는 중요한 고용 결정을 위해 AI를 개발하거나 사용하는 미국 기업을 위한 로드맵입니다. 여기에는 다음과 같은 6가지 정책 원칙이 포함됩니다. 

  1. 무차별
  2. 책임 있는 AI 거버넌스
  3. 투명성
  4. 개인정보 보호 및 데이터 보안
  5. 인간의 감독 
  6. 대체 검토 절차 

이 모범 사례 전문을 읽어보시는 것이 좋으며, 주요 내용을 요약하면 다음과 같습니다.

  • AI 개발자와 배포자는 중요한 고용 결정에 사용되는 AI에 관한 영향 평가를 수행해야 합니다.
  • AI 거버넌스 팀은 고위 경영진과의 투명한 소통 창구를 마련해야 하며, 중요한 고용 결정에 쓰이는 AI 도구를 개발, 판매, 구현, 사용하는 팀과 운영상 분리되어야 합니다.
  • AI 도구는 정보를 갖춘 인간을 중심으로 설계 및 운영되어야 합니다.
  • 개발자는 AI 도구의 편향을 식별하고 완화하는 조치를 하되, AI 도구에 '편향이 없다'는 주장을 삼가야 합니다.

Workday는 오늘 Future of Privacy Forum 관련 모범 사례를 지지하고 실천하는 데 다른 조직도 동참할 것을 요청합니다.

책임 있는 AI를 위한 공동의 노력

정책 입안자는 AI 안전장치에 관한 정책을 마련하면서 각 기업에서 책임감 있게 AI를 개발하고 사용하기를 기대합니다. 이에 Workday는 AI의 신뢰성을 강화하고자 최근에도 NIST AI RMF를 지지하고, 인공지능 규제법(Artificial Intelligence Act)과 관련하여 유럽의 정책 입안자들과 협력하고, 캘리포니아에서 AI 정책에 관한 대화 활성화에 힘쓰는 등 적극적인 행보를 보여주었습니다. 

Workday가 보기에 FPF 모범 사례는 워크플레이스에서 이루어지는 책임 있는 AI에 관한, 매우 중요하고 가치 있는 로드맵입니다. Workday는 다른 조직도 이 모범 사례를 지지하고 이행할 것을 요청합니다.

더 보기