본문바로가기

법무법인 민후 김경환 변호사는 전자신문에 '챗GPT의 잘못된 정보 생성은 개인정보를 침해하는가'를 주제로 기고하였습니다.

 

해당 기고문에서는 생성형 AI가 잘못된 정보를 제공하여 개인정보자기결정권을 침해했을 경우 개인정보보호법상 법적 책임이 발생하는지에 대해 다루고 있습니다. 실제 사례로, GPT가 노르웨이 사람 'Arve Hjalmar Holmen'에 대해 사실과 다른 살인 혐의와 유죄 판결 정보를 생성했고, 이를 본 당사자는 큰 충격을 받아 개인정보 시민단체 Noyb에 문의했습니다. 이에 Noyb는 챗GPT의 생성 결과가 EU GDPR, 즉 개인정보보호법을 위반한 것이라고 주장했습니다.

 

생성형 AI가 부정확한 정보 생성은 '환각(hallucination)' 현상에서 비롯되며, 이는 현 기술로 완전히 해결하기 어려운 문제입니다. 이러한 기술적 한계에도 불구하고 개인정보처리자는 개인정보의 정확성을 보장할 의무가 있으며, 유럽연합(EU) GDPR 및 한국 개인정보보호법에서도 이 원칙을 명확히 규정하고 있습니다.

 

이와 관련해 개인정보 시민단체 Noyb는 챗GPT가 허위 정보를 제공함으로써 개인정보 정확성 원칙을 위반했다며 허위정보 삭제 및 미세조정을 요구하고 있습니다. 반면, 오픈AI는 프롬프트 차단과 면책조항 표시를 대안으로 제시하지만, 이는 근본적인 해결책이 되지 않는다는 비판을 받고 있습니다.

 

결국, 생성형 AI가 잘못된 정보를 생성하지 않도록 하는 것뿐만 아니라, 정보주체의 시정 요청을 어떻게 처리할 것인가도 중요한 쟁점으로 떠오르고 있습니다. 특히, 허위정보 삭제 및 AI 모델의 미세조정이 개인정보보호법상 의무인지에 대한 논의가 지속될 전망입니다.

 

법무법인 민후 김경환 변호사는 기고를 통해 생성형 AI에서도 정확한 정보 제공이 필수적이며, 이는 기존 검색 엔진보다 더 중요한 문제라고 강조했습니다. 또한, 이번 사건이 AI 발전에 큰 이정표가 될 것이라고 전망하며 기고문을 마쳤습니다.


기고 전문은 우측 상단의 [기사바로보기]를 통해 만나보실 수 있습니다.