[이슈분석] 데이터로 수집된 사생활, 개인정보 보호 위해 생성형 AI 규제 필요
상태바
[이슈분석] 데이터로 수집된 사생활, 개인정보 보호 위해 생성형 AI 규제 필요
  • 박예송 기자
  • 승인 2023.06.26 11:14
  • 댓글 0
이 기사를 공유합니다

AI 기술이 발전하면서 개인정보 보호는 점점 더 중요한 이슈로 떠오르고 있다. 특히 생성형 인공지능(Generative AI)의 발전과 함께 이러한 기술의 데이터 수집이 개인정보 보호에 어떤 영향을 미칠지 우려의 목소리가 커지고 있다. 생성형 AI는 놀라운 기능을 제공하지만 개인정보의 피해로 이어질 수 있는 가능성이 제기되는 상황이다.

대규모 데이터 수집해 학습하는 AI

생성형 AI는 대량의 데이터를 분석한 후 해당 데이터를 사용해 새로운 콘텐츠를 만드는 방식으로 작동한다. 이 과정에서 머신러닝과 딥러닝 알고리즘을 사용해 사용자 입력을 기반으로 콘텐츠를 생성한다.

생성형 AI로 널리 알려진 챗GPT의 개발사 오픈AI 이용약관에는 “오픈AI는 고객이 챗GPT에 제공하는 데이터를 당사의 서비스 향상 목적으로 사용할 수 있습니다”라는 내용이 적혀있다.

챗GPT 이용자가 입력하는 질문 값을 오픈AI가 수집하고 자사의 서비스 개발에 사용할 수 있다는 것이다. 이는 사용자가 개인정보가 포함된 질문을 챗GPT에 입력했을 때 해당 내용을 오픈AI가 수집하고 다시 사용할 경우 개인정보 유출로 이어질 수 있다는 것을 의미한다.

데이터 기반 개인정보 유출 사례 이어져

지난 3월 삼성전자가 디바이스솔루션(DS·반도체) 부문 사업장 내 챗GPT 사용을 허가하자마자 기업 정보가 유출되는 사고가 났다. 반도체 ‘설비 계측’과 ‘수율·불량’ 등과 관련한 프로그램 내용이 고스란히 미국 기업의 학습 데이터로 입력됐다. 이로 인해 삼성전자는 DS 내 조직인 혁신센터의 주관 아래 사내 전용 자체 인공지능(AI) 서비스를 개발하고 있다.

전체 기사를 보시려면 로그인 필요

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.