논란이 된 AI 챗봇 ‘이루다’의 동성애자 혐오 발언. /스캐터랩, 페이스북 캡처
 
최근 스케터랩의 인공지능 챗봇 이루다로 인해 다시금 인공지능 윤리에 대한 내용들이 이슈화되고 있다.
상대적으로 소중하게 다루어지지 못했던 고객들의 개인정보, 그리고 편향된 데이터셋들에 대한 학습을 통한 대화 결과로 인해 여러모로 큰 시행착오를 겪고 있는 과정이라고 생각한다. (솔직히 정말 데이터셋이 편향된 것인지, 우리들 자체가 편향되어있는 것인지는 진지하게 고려해볼 필요가 있다고 생각한다.)
 
인공지능은 어떻게 학습해야 할까? 결과적으로는 어떤 확률로 어떤 결정을 내리고 예측하고 대답해야 할까?
숫자로 딱 떨어지는 수학적인 결과는 오해의 소지가 적을 수도 있으나 정성적, 감성적으로 다가서는 인간의 대화에서의 선택들은 훨씬 모호하고 애매한 지점들이 존재한다.

싫다, 증오한다, 미워한다, 불쾌하다, 마음에 들지 않는다 등의 미묘한 감정들을 숫자로 이루어진 통계값으로 얼마나 정확히 선택할 수 있을까? 아니 어떤 단어들을 선택해야 할까?

이런 대화 외에도 정말 애매해 보이는 인공지능 자율주행차량의 윤리에 대해 고민하게끔 하는 테스트가 있다. MIT에서 만든 Moral Machine이라는 설문인데, 이 설문을 보면 사람조차 선택하기 어려운 상황들이 다양한 케이스별로 존재함을 알 수 있다.

MIT Moral Machine

 
도대체 인공지능은 어떤 윤리를 가져야 하는걸까?
스스로 학습하는 인공지능에게 사람이 어느정도까지를 정의해줄 수 있는 것일까?현재까지 정리된 몇 가지 인공지능 윤리 가이드라인을 살펴보면서 조금이라도 도움이 되었으면 한다.
 
 

Ethics guidelines for trustworthy AI


사람들의 개인정보 부터 신용정보를 매우 중요시 하는 EU에서  2019년 4월, 신뢰할 수 있는 AI를 위한 윤리지침 가이드라인을 만들어 배포한 적이 있었다. 간단히 요약하면 아래 3가지를 주장하고 있다. (2019년 4월)

  • 합법적이어야 함(Lawful): 모든 관련 법률 및 규정을 준수
  • 윤리적이어야 함(Ethical): 윤리적 원칙과 가치를 존중
  • 견고해야 함(Robust)-사회적 환경을 고려하며 모든 기술적 관점을 존중

그 외 보다 상세한 7가지 가이드라인을 확인해보려면 아래 링크를 확인해보도록 하자.

EU의 신뢰할 수 있는 AI를 위한 윤리지침

 

한국 과학기술부 정보 통신부의 인공지능 윤리 가이드


 
우리나라 과기부(과학기술정보통신부)에서도 인공지능 시대 바람직한 인공지능 개발,활용방안을 제시하기 위한 ‘국가 인공지능 윤리기준‘안을 만들었다. (2020년 11월)
‘인간성을 위한 인공지능(AI for Humanity)’를 통해 초안을 만든 후 인공지능, 윤리학, 법학 등 다학제적인 부서의 전문가들, 그리고 시민단체들이 모여 함께 의견을 수렴하고 윤리기준안을 만들어 내었다. 
이렇게 만들어진 ‘국가 인공지능 윤리기준’안은 인간성을 위한 3대 기본원칙과 10대 핵심조건을 제시하고 있다.
 

3대 기본원칙

1. 인간 존엄성 원칙: 
인간의 신체와 이성은 기계와 다르며, 인간에게 해가 되지 않는 방향으로 개발되고 활용되어야 한다.
 
2. 사회 공공성 원칙:
사람의 행복과 안녕을 위해야 하며, 사회적 약자 등 취약계층의 접근성, 그리고 보편적 복지를 가져야 한다.
 
3. 기술의 합목적성 원칙:
궁극적으로 인간에게 도움이 되어야 하며, 인류의 삶과 번영에 도움이 되어야 한다.
 

10대 핵심요건

1. 인권보장: 모든 인간에게 동등한 권리의 종중하며 권리와 자유를 침해하면 안된다.
 
2. 프라이버시 보호: 개인의 프라이버시를 중요시 하며 오용을 막아야 한다.
 
3. 다양성 존중: 사용자의 다양성과 대표성을 반영하며 취약계층을 배려할 수 있어야 한다.
 
4. 침해금지: 인간에게 해를 입히지 않으며 부정적 결과에 대한 대응을 해야 한다.
 
5. 공공성: 인류의 공동이익을 생각하며 긍정적인 사회변화를 이끌 수 있어야 한다.
 
6. 연대성: 미래세대를 고려하며 다양한 주체들을 포함한 국제사회가 협력할 수 있어야 한다.
 
7. 데이터관리: 데이터는 목적에 부합하도록 활용하며 편향성이 최소화 될 수 있어야 한다.
 
8. 책임성: 개발과정에서 책임주체와 소재를 명확히 설정하여야 한다. 
 
9. 안정성: 위험을 방지하고 오류 시 제어할 수 있는 방법을 마련하여야 한다.
 
10. 투명성: 신뢰형성을 위해 투명하고 설명가능하도록 하며 위험사항은 미리 공지하도록 한다.

 

상세한 가이드라인은 아래 링크에서 확인해보도록 하자.

과기정통부, 사람이 중심이 되는 「국가 인공지능 윤리기준」(안) 공개

 

미국 연방거래위원회(FTC)의
AI와 알고리즘 이용에 대한 지침


미국의 연방거래 위원회인 FTC(Federal Trade Commission) 에서 역시 AI와 알고리즘 이용에 대한 지침(Using Artificial Intelligence and Algorithms)을 발표하였다. (2020년 4월)

총 5가지의 가이드라인을 제시하고 있는데 내용은 아래와 같다.

5가지 알고리즘 이용 지침

* 아래 5가지 지침은 개인적으로 의역한 부분이 많아 오역이 있을 수 있습니다.
 
1. BE TRANSPARENT (투명하기)
: 인공지능과 같은 자동화 도구를 사용하는 방법에 대해서 소비자를 속여서는 안된다. AI는 백그라운드에서 동작하기 때문에 사용자들에게 내용을 설명하지 않거나 쉽게 속일 수 있다. 특히나 민감한 데이터를 다룰 때는 더욱 투명해야 하며 데이터를 수집할 때 부터 신중을 기해야 한다. 몰래 데이터를 수집하는 것 또한 해서는 안되는 일이다. 페이스북 사건에서도 알 수 있듯이 데이터를 모으는 방법은 매우 중요하다.
 
2. EXPLAIN YOUR DECISION TO THE CONSUMER (소비자에게 결정 설명하기)
: 인공지능 알고리즘이 블랙박스 모형이라고 해서 사용자에게 설명하기 어렵다고 이야기해서는 안된다. 신용점수 산정 시에도 대출이 거부된 이유에 대해 단순한 설명 보다 왜 거부되었는지에 대한 상세하고 구체적인 설명을 할 수 있어야 한다. 어떤 맥락에서든 소비자에게 해당 내용을 설명할 수 있도록 하자. 자동화된 도구를 기반으로 거래조건을 변경할 수 있다면 이 또한 소비자에게 설명할 수 있어야 한다. 예를 들어 나이트클럽, 마사지샵 등에서 거래를 하는 경우 신용점수에 반영될 수 있음에도 이 부분을 소비자에게 미리 언급하지 않은경우 FTC법을 위반할 수 있다. 소비자에게 알고리즘을 활용해 거래조건을 변경한다면 반드시 알려야 한다.
 
3. ENSURE THAT YOUR DECISIONS ARE FAIR (결정이 올바른지 확인하기)
: AI를 무심하게 활용함으로써 취약계층에 대한 차별을 초래할 수도 있다. 인종, 피부색, 종교, 출신, 국가 등에 따라 신용차별은 금지되어 있습니다. 만들어진 알고리즘이 금지되어 있는 기준을 통해 판단하지 않는지 확인해보는 것이 필요하다. 뿐만 아니라 소비자에 대한 어떤 결정을 할 때 사용되는 데이터에 대한 엄격한 규제를 제시할 수 있다. 
 
4. ENSURE THAT YOUR DATA AND MODELS ARE ROBUST AND EMPIRICALLY SOUND (데이터 모델이 견고하고 경험적으로 건전한지 확인하기)
: 소비자의 데이터를 다른 기관이나 사람에게 공유하게 되는 경우 제공되는 가이드를 준수해야 하며, 오류가 존재하는 경우 소비자에게는 오류를 수정하고 본인 정보에 접근 가능하도록 절차를 구성하여야 한다. 그리고 자동화된 의사결정에 활용하려고 고객정보를 전달하게 되는 경우 데이터자체가 정확하고 완결성 있는지를 검토할 필요가 있다. 이는 AI에 활용되는 정보가 정확하고 최신상태를 유지하게끔 하는데 중요한 역할을 한다.
 
5. HOLD YOURSELF ACCOUNTABLE FOR COMPLIANCE, ETHICS, FAIRNESS, AND NONDISCRIMINATION (규정준수, 윤리, 공정성, 그리고 차별금지를 위해 책임지기)
: 빅데이터 분석을 제대로 하지 않으면 소비자들에게 편견과 다른 문제를 야기시킬 수 있다. 이를 방지하기 위해 아래와 같은 질문을 해보자.
  • 데이터셋을 얼마나 대표하는가?
  • 데이터모델이 편향을 설명할 수 있는가?
  • 빅데이터를 활용한 예측의 정확도는 얼마나 되는가?
  • 빅데이터 의존성에 따른 윤리적, 공정성 문제가 발생하는가?

빅데이터가 무단으로 사용되지 않고 알고리즘이 윤리적, 공정함을 책임질 수 있는 구조로 만들어져 있는지 다시금 생각해보자.

 

카카오의 알고리즘 윤리 헌장


카오에서도 꽤 오래전에 알고리즘에 대한 윤리 헌장을 내놓았었는데 얼마전 해당 내용이 리뉴얼 되었다. (2018년 1월 초안, 2020년 6월 개정 등) 관련내용도 간단히 살펴보도록 하겠다. 

1. 카카오 알고리즘의 기본 원칙
카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.
 
2. 차별에 대한 경계
알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
 
3. 학습 데이터 운영
알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집·분석·활용한다.
 
4. 알고리즘의 독립성
알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.
 
5. 알고리즘에 대한 설명
이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.
 
6. 기술의 포용성
알고리즘 기반의 기술과 서비스가 우리 사회 전반을 포용할 수 있도록 노력한다.
 
7. 아동과 청소년에 대한 보호
카카오는 아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 알고리즘 개발 및 서비스 디자인 단계부터 주의한다.

특히 7. 아동과 청소년에 대한 보호 원칙은 N번방 방지법’ 시행을 앞두고 추가된 내용으로 전체 가이드라인은 사회적인 이슈들을 지속적으로 반영하여 업데이트되고 있는 것으로 보인다.

 

물론 찾아보면 더 많은 인공지능 윤리, 알고리즘 등에 대한 가이드라인과 원칙들이 존재하고 있을 것이다.
하지만 몇 가지 대표적인 가이드라인들을 살펴보면 전반적으로 이야기하고자 하는 방향성과 원칙들은 (설명하는 구체적인 내용의 차이일 뿐) 동일해 보이긴 한다. 이러한 가이드라인들은 필요할 때 마다 찾아 보는 것도 중요한 방법이겠지만 인공지능을 디자인하고 개발하고 관리하는 모두가 맘 속에 기억하고 언제든지 떠올릴 수 있어야 한다고 생각한다. 추상적이고 정성적이라고 생각할 수도 있지만, 내가 만들고 내가 참여한 인공지능 프로젝트를 오픈하기 전에 꼭 점검해보야야 할 체크리스트로는 충분히 중요한, 그리고 활용도 높은 가이드가 되지 않을까 싶다.
 
 

Reference

해당 글은  글쓰는몽글C님과 모비인사이드의 파트너쉽으로 제공되는 기사입니다.