Lifestyle

[DBR]AI 설명 많고 복잡하면 수용도 낮고 거부감 높아

인공지능(AI)의 설명 가능성을 높이려는 시도가 이어지고 있다. AI의 의사 결정 과정이 불투명하면 직원이 기술에 대한 불신을 넘어 조직의 공정성에 의구심을 갖게 될 수 있기 때문이다. 하지만 이를 해결하기 위해 의사 결정 근거를 밝히는 ‘설명 가능한 AI(xAI)’가 역효과를 낼 수도 있다는 연구 결과가 나왔다. 호주 매쿼리대와 모내시대 연구진은 최근 배달 플랫폼 라이더 1107명을 대상으로 AI의 의사 결정 방식과 설명 유형이 이들 직원의 수용성에 미치는 영향을 분석했다. 연구진은 배달 기사가 AI 시스템에서 벌금을 부과받았을

동아일보
2026년 4월 26일·1분 소요
[DBR]AI 설명 많고 복잡하면 수용도 낮고 거부감 높아

Image: 동아일보

인공지능(AI)의 설명 가능성을 높이려는 시도가 이어지고 있다. AI의 의사 결정 과정이 불투명하면 직원이 기술에 대한 불신을 넘어 조직의 공정성에 의구심을 갖게 될 수 있기 때문이다. 하지만 이를 해결하기 위해 의사 결정 근거를 밝히는 ‘설명 가능한 AI(xAI)’가 역효과를 낼 수도 있다는 연구 결과가 나왔다. 호주 매쿼리대와 모내시대 연구진은 최근 배달 플랫폼 라이더 1107명을 대상으로 AI의 의사 결정 방식과 설명 유형이 이들 직원의 수용성에 미치는 영향을 분석했다. 연구진은 배달 기사가 AI 시스템에서 벌금을 부과받았을 때 벌금을 매긴 이유를 설명하는 방식을 다르게 설정해 실험을 수행했다. AI의 설명 방식을 두 가지 기준으로 나눠 총 네 가지 조합을 설계했다. 첫 번째 기준은 ‘사실’이냐, ‘대안’이냐였다. 사실적 설명에서는 “배달이 3분 늦어 규정에 따라 벌금이 부과됐다”처럼 일어난 일을 그대로 전달했다. 대안적 설명에서는 “처음부터 제시간에 완료 가능한 주문만

원문 기사

[DBR]AI 설명 많고 복잡하면 수용도 낮고 거부감 높아

게시자 동아일보

전체 기사 읽기