期刊:人文學硏究 [Humanities Research Institute Incheon National University] 日期:2021-06-30卷期号:35: 37-63
标识
DOI:10.31323/sh.2021.06.35.02
摘要
본 논문은 인공지능 윤리 담론의 현황을 개괄하고 그 핵심 원리 중 하나인 해명가능성의 본성과 만족 조건을 밝힌다. 먼저, 윤리적 원리를 중심으로 이루어지는 AI 윤리 담론에 대해 제기된 원리 증식의 문제와 원리중심주의의 문제를 살펴보고, 구체적 상황에 대한 적용을 염두에 둔 윤리적 원리에 대한 논의가 여전히 유효함을 주장한다. 우리는 인공지능 윤리에서 중요한 원리로 부각된 해명가능성 원리가 왜 별도의 핵심 원리로서 필요한지 정당화하고, 그 원리가 어떻게 이해되어야 하는지를 밝힌다. 해명가능성의 인식적 측면인 이해가능성은 인공지능 알고리듬이 내린 개별 판단에 대한 인과적 설명으로 충족되며, 윤리적 측면인 석명 책임은 인과적 설명에 대한 윤리적 정당화와 인공지능 모형의 적절성 평가에 의해 충족된다.