'데이터 유출' 문제 안은 생성형 AI…"하이브리드 방식으로 해결"

파수, 생성형 AI 데이터 유출 해결 방안 제시
퍼블릭 LLM·프라이빗 LLM 공동 사용 구조
안전성·고성능 모두 확보 가능
  • 등록 2023-06-08 오후 5:52:24

    수정 2023-06-08 오후 5:52:24

윤경구 파수 본부장이 발표하는 모습(사진=김가은 기자)
[이데일리 김가은 기자] 최근 삼성전자(005930), SK(034730), 애플 등 국내외 주요 대기업들이 줄줄이 사내 ‘챗GPT 금지령’을 내린 배경에는 데이터 유출 문제가 있다. 임직원들이 챗GPT를 업무에 활용하는 과정에서 각종 개인정보나 회사 내부 기밀이 외부로 새어나갈 가능성이 높아서다. 국내 보안기업 파수는 이같은 문제를 해결할 대안으로 ‘하이브리드 방식’을 제안했다.

윤경구 파수(150900) 개발 본부장 전무는 8일 서울 강남구 삼성동 코엑스에서 열린 ‘2023 개인정보보호페어’에서 “현재 초거대언어모델(LLM)은 개인정보는 물론, 기업이 보유한 지적 자산 정보 유출 문제를 지니고 있다”며 “넓고 깊은 학습 데이터를 기반으로 인간의 생산성을 올려주는 건 맞지만 안전하게 활용해야 하는 기업 입장에서는 큰 문제가 발생할 수 있다”고 말했다.

윤 본부장이 제안한 ‘하이브리드 방식’은 ‘오픈AI 챗GPT, 구글 바드(Bard)’ 등 퍼블릭 LLM과 기업 내부에서 자체적으로 구축한 프라이빗 LLM을 공동 사용하는 방식이다. 이를 통해 안전성과 고성능 ‘두 마리 토끼’를 모두 잡을 수 있다는 것이다.

앞서 파수는 생성형 AI 시대 대응 전략으로 ‘로컬 LLM’을 제시한 바 있다. 로컬 LLM은 기업과 기관 내에 축적된 데이터를 이용한 프라이빗 모델이다. 외부에 데이터를 제공할 필요가 없어 기밀정보 유출 우려가 없는 점이 특징이다.

이와 함께 파수는 로컬 LLM을 기업 맞춤형으로 개발·공급할 수 있는 ‘파수 프라이빗 AI 어시스턴트 서비스(F-PAAS)·파수 퍼블릭 AI 프록시’ 등 솔루션 2종을 제시하기도 했다. F-PAAS는 기업들이 원하는 AI 엔진을 공급하고, 학습까지 시켜줘 서비스 개발 속도를 높여주는 점이 특징이다.

파수 퍼블릭 AI 프록시는 직원들이 챗GPT와 같은 생성형 AI 기반 챗봇을 사용할 시 내부 민감 정보가 활용되지 않도록 막는 역할을 한다. 예를 들어 직원이 내부 중요 데이터를 대화창에 입력하고, 마케팅 전략을 묻는 대화를 할 경우 전송되지 않도록 차단하는 방식이다.

윤 본부장은 “프라이빗 LLM은 퍼블릭 LLM보다 매개변수 측면에서 크기가 작아 거대한 파워는 없지만, 기업 내부 기밀 정보를 학습시켜 안전하게 활용할 수 있다”며 “일반적이고, 안전한 데이터는 퍼블릭 LLM을 활용하는 사용 구조가 중요하다”고 말했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 돌발 상황
  • 이조의 만남
  • 2억 괴물
  • 아빠 최고!
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원

ⓒ 이데일리. All rights reserved