본문바로가기

김경환 법무법인 민후 대표변호사는 전자신문에 인공지능 판사 도입의 한계와 이유에 대해 기고했습니다.

 

AI를 이용한 인공지능 판사의 도입으로 공정한 판결이 내려질 것이라 기대하는 이들이 많습니다. 그러나 최근 AI 챗봇 이루다사건을 통해 AI에 학습되는 내용이 결과에 큰 영향을 미칠 수 있다는 점이 알려지면서 AI 판사 시스템 역시 의구심을 자아내고 있습니다.

 

실제로 AI 알고리즘을 이용한 재판 전 위험평가를 도입한 미국의 사례를 보면 AI 시스템이 재범 가능성이 있다고 판단한 사람 가운데 20%만이 재범을 저질렀으며, 특히 백인에 비해 흑인의 재범 가능성을 높게 평가하는 인종차별적 판단을 내리고 있음을 확인할 수 있었습니다.

 

이와 같은 결과로 인해 AI를 활용한 판단을 반대하는 목소리는 물론, 재판 전 위험평가를 전면 반대하는 시민단체도 등장하였습니다.

 

김경환 변호사는 기고를 통해 AI 판사의 실패 원인을 데이터의 편향성에 있다고 설명했습니다. AI에 입력된 데이터가 축적되는 과정에서 현실의 불평등하고 차별화된 데이터가 반영되어 AI의 판단에 영향을 미친다는 것입니다.

 

예를 들어 미국 내 사회적 문제로 떠오르고 있는 경찰대응 문제에 있어서 흑인과 백인의 경찰에 제지되는 횟수 등에 차이가 발생하고, 이를 AI에 학습시킬 경우 인종차별적 결과가 산출될 수밖에 없는 것입니다.

 

법무법인 민후 김경환 대표변호사는 기고를 통해 인공지능을 공공 영역에서 사용하는데 있어서 불공정한 데이터를 투입하는 오류로 인해 발생할 수 있는 문제에 대한 주의를 강조하였습니다.

 

기고 전문은 기사를 통해 확인할 수 있습니다.