본문바로가기

김경환 법무법인 민후 변호사는 전자신문에 인공지능(AI) LLM 프롬프트 해킹에 대한 형사처벌이라는 제목으로 기고하였습니다.

 

대규모언어모델(LLM)은 자연어를 이해하고 처리하는 AI, 다양한 보안 위협에 노출될 가능성이 큽니다. 주요 해킹 방법은 다음과 같습니다:

 

프롬프트 주입: 악의적인 입력을 통해 모델의 행동을 조작하는 방법입니다. 예를 들어, 챗봇에게 특정 응답을 강요하여 비정상적인 행동을 유도할 수 있습니다.

 

프롬프트 유출: 민감한 정보나 기밀 정보를 유출시키는 프롬프팅을 통해 정보를 빼내는 방법입니다.

 

탈옥(Jailbreaking): DAN, STAN 같은 명령어를 사용해 모델의 안전 장치를 무력화하고 유해한 콘텐츠를 출력하게 하는 방법입니다.

 

모델 절도: 모델의 권한을 부정하게 획득하거나, 모델의 답변을 통해 모델을 복제하는 방법입니다.

 

모델서비스거부(LLM DoS): 모델의 리소스를 소모시켜 정상적인 서비스를 방해하는 방법입니다.

 

기존 해킹은 주로 데이터베이스 정보를 유출하거나 서비스 이용을 방해하는 것이었지만, LLM 해킹은 모델의 유용한 정보를 유출하거나 모델의 정상적인 이용을 방해하는 것이 목적입니다.

 

이러한 해킹 행위는 기존 법률로 처벌하기 어려우며, 특히 컴퓨터등장애업무방해죄(형법 제314조 제2)를 적용하기 위해서는 악의적인 프롬프팅이 허위 정보 또는 부정한 명령에 해당해야 하고, 그로 인해 정보처리에 장애가 발생해야 합니다.

 

법무법인 민후의 김경환 변호사는 기고를 통해 LLM 해킹 문제를 해결하기 위해 법적 대비가 필요하며, AI 기술의 발전과 함께 해킹 기법도 발전할 가능성이 높아, 이에 대한 대비가 중요하다고 강조하였습니다.

 

기고 전문은 우측 상단의 [기사바로보기]를 통해 만나보실 수 있습니다.