AI와 관련해 제기되는 전통적인 윤리 문제들 가운데 첫 번째는 AI 로봇의 의인화(擬人化) 문제다. 이 문제는 AI가 인간의 능력을 모방하기 위해 모색된 과학 기술이라는 점에서 불가피한 결과다. 예를 들어, 보스턴 다이내믹스사(社)가 2015년 자신들이 개발한 개 모양의 사족 보행 로봇 ‘스팟(Spot)’의 뛰어난 균형 능력을 보이기 위해 개발자가 발로 차도 넘어지지 않는 홍보 동영상을 공개했을 때, 이에 대해 시청자들이 보인 엄청난 도덕적 분노와 비난 사례가 의인화의 대표적인 사례다.
-01_“AI 시대의 도래와 AI 윤리의 필요성” 중에서
예를 들어, 자율 주행 자동차 관련 AI 윤리 지침이 학문적으로 논란이 많은 트롤리 문제 해결책을 제시하기보다는, 상식적인 수준의 내용들만 담고 있는 것이 이러한 제도 층위의 윤리 성격을 잘 보여 준다. 2018년 독일이 전 세계에서 최초로 자율 주행 자동차와 관련된 윤리 지침을 발표하였고, 한국은 2019년 12월 초안을 발표한 후 각계의 의견을 수렴하여 2020년 12월 최종안을 발표하였다(국토교통부, 2020). 국토교통부가 발표한 ‘자율 주행 자동차 윤리 가이드라인’은 자율 주행 차량의 설계·제작·관리 등의 과정에서 고려해야 할 기본 가치로 인간의 존엄성, 인간의 행복, 피해 최소화, 지속 가능한 발전 등을 제시하고, 행위 원칙으로 투명성, 제어 가능성, 책임, 안전성, 보안성을 제시하였다.
-03_“제도 층위의 AI 윤리” 중에서
개인 윤리 층위, 제도 윤리 층위, 이론 윤리 층위가 적절한 관계 속에서 선순환적으로 작동할 때, 해당 과학 기술에 대한 윤리적 실천이 효력을 나타낼 수 있다. 제도 층위에서 제시한 윤리 지침이 개인 층위에서 자신의 윤리로서 동기 부여 하는 규범성을 가져 윤리 실현을 도모할 수 있다.
-06_“윤리 층위 사이의 올바른 관계” 중에서
원칙과 규칙을 제시하는 방식인 지침으로서의 과학 윤리는 내면화된 동기 부여와 거리가 멀어 구체적인 사안에 대해 행위 지침을 제시하기에 취약하다. 이에 대안으로 제시된 것이 과학적 덕성 모델이다. 덕성 모델은 덕성의 연습과 훈련을 통한 내면화를 본질로 하고 있어서 실천을 위한 동기 부여에 효과적이기 때문이다. 더욱이, 덕성 모델은 비록 사안이 다양하더라도 과학자의 성품이 덕성을 갖추고 있으면 구체적 사안에 적절한 맞춤형 대응이 가능하다는 강점이 있다. 과학적 덕성 모델은 과학적 덕성 목록 구성, 과학적 덕성 교육 모델 계발, 과학적 덕성 교육 워크숍 실행의 3단계의 순차적 과정으로 이루어진다.
-09_“벤치마킹할 과학적 덕성 모델” 중에서