튜닙, 뤼튼테크놀로지스에 AI 윤리성 판별 모델 제공
상태바
튜닙, 뤼튼테크놀로지스에 AI 윤리성 판별 모델 제공
  • 곽중희 기자
  • 승인 2022.12.22 13:13
  • 댓글 0
이 기사를 공유합니다

자연어처리(NLP) 기반 AI 스타트업 튜닙이 뤼튼테크놀로지스에 AI 윤리성 판별 모델을 제공한다. 양사는 AI 기반 창작물의 윤리성을 확보하기 위해 앞으로 지속적으로 협력할 계획이다.

튜닙은 2021년 3월 카카오브레인 NLP 팀 멤버들이 공동 창업한 AI 기술 스타트업으로 NLP, 초거대 AI 등 AI 기술을 자체 개발한다. 지난 8월 선보인 튜닙의 윤리성 판별 API는 텍스트에서 혐오 표현을 자동 탐지해 모욕, 욕설, 범죄 조장 등 11가지 항목으로 분류한다. 또한 혐오 표현의 심각성을 3단계로 구분하고 순화 표현을 제시해, 중요한 사회 아젠다로 부상 중인 AI 윤리성을 확보할 수 있는 기술로 주목받고 있다.

뤼튼테크놀로지스는 초거대 AI 모델인 네이버 하이퍼클로바를 기반으로 광고 문구, 이메일, 블로그 포스팅 등 50가지가 넘는 다양한 텍스트 콘텐츠를 작성해주는 서비스 ‘뤼튼'을 개발했다. 최근 38억 원 규모의 프리A(Pre-A) 투자 유치에 성공하고 CES 2023 혁신상을 받으며 성장성을 입증하고 있다.

양사는 튜닙의 윤리성 판별(Safety Check) API를 뤼튼 서비스에 적용해, 부적절한 정보의 입력을 차단하고 생성되는 콘텐츠의 윤리성을 확보할 계획이다. 최근 빠르게 발전 중인 생성 AI 기술에 윤리성을 더함으로써, AI의 활용 가능성을 한층 더 높여나갈 방침이다. 

박규병 튜닙 대표는 “생성 AI 분야에서 국내 선두 주자로 많은 주목을 받고 있는 뤼튼테크놀로지스와의 협력을 발판 삼아 AI 윤리성 확보의 중요성을 다시 한번 증명해나갈 것”이라고 말했다.

한편, 튜닙은 윤리성 판별 API를 활용해 한국지능정보사회진흥원(NIA)과도 협업하고 있다. NIA가 수집 및 배포하는 말뭉치의 일부를 튜닙의 서비스로 검증함으로써, 데이터를 다루는 과정부터 AI 윤리성을 확보해나갈 계획이다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.