- 과학향기 Story
- 스토리
스토리
[과학향기 Story] 생성형AI를 발전시키는 ‘거대 언어 모델’
<KISTI의 과학향기> 제3063호 2024년 05월 27일미국 인공지능 전문기업 오픈AI가 지난 2022년 선보인 대화형 인공지능(AI) 챗봇 ‘챗GPT’에 대한 관심이 식을 줄 모르고 있다. 출시 후 5일 만에 사용자 100만명을 넘기며 생성형 AI 붐을 일으키자 국내외 빅테크 기업들도 서둘러 제미나이, 클로바X 등을 선보였다. 특히 구글은 AI 챗봇으로 인해 검색 엔진 이용률이 줄어들 것으로 전망되자 내부 위기 경보인 ‘적색경보(코드 레드)’를 발령하며 향후 테크 업계가 생성형 AI를 중심으로 재편될 것임을 시사했다.
생성형 AI는 요구 사항에 맞는 텍스트, 이미지, 오디오 등을 만들어내는 인공지능을 총칭한다. 챗GPT 같은 대화형 AI 챗봇은 텍스트에 특화된 생성형 AI로, 거대 언어 모델(Large Language Model, LLM)을 기반으로 만들어진다. 거대 언어 모델은 말 그대로 거대한 양의 텍스트 데이터를 학습해 답변, 요약, 번역 등을 수행하는, 인공신경망으로 구성된 언어 모델이다. 거대 언어 모델이 작동하기 위해 어떤 것들이 필요한지 자세히 알아보자.
그림 1. 생성형 인공지능은 거대 언어 모델을 기반으로 만들어 진다. ⓒshutterstock
시냅스 역할하는 ‘파라미터’ 수천억개 있어야
우선 언어 모델(Language Model)은 입력된 단어나 문장에 대해 통계적으로 가장 적절한 단어 혹은 문장을 출력하도록 훈련된 인공지능이다. 네이버나 구글 같은 검색 엔진의 연관 검색어 기능이 대표적인 예시다. 예컨대 검색창에 ‘아이’를 입력하면 ‘아이유’, ‘아이패드’, ‘아이폰’ 같은 연관 검색어가 표시되는데 이는 언어 모델이 입력값인 ‘아이’와 연관 있는 단어를 확률에 따라 보여주는 것이다. 확률은 학습한 검색 데이터를 기반으로 하는 만큼 많은 데이터를 학습할수록 정확한, 즉 사용자가 원하는 답변을 내놓는다.
거대 언어 모델은 수천억 개의 파라미터를 활용해 방대한 텍스트 데이터를 학습한 언어 모델이다. 파라미터는 언어 모델을 구성하는 신경망에 가중치를 부여한다. 언어 모델이 데이터를 학습하는 과정에서 파라미터는 요구 사항에 대해 정확한 답변을 산출하는 방향으로 값이 바뀐다.
예컨대 일차함수 f(x)=c*x로 짜인 언어 모델은 x에 어떤 값을 입력하면 파라미터 c에 x를 곱한 값을 내놓는다. 이 모델이 연관 검색어를 보여주는 언어 모델이라면 ‘아이’와 ‘아이패드’에 각각 숫자를 부여(예: 아이=3, 아이패드=9)한 후 데이터를 학습하면서 적합한 c를 찾아 나선다. 초기에는 c를 무작위로 부여(예: c=2)하는데 2*3이 9보다 작은 걸 인식해 c를 늘려가며 10을 내놓는 값(3)에 다가선다.
그림 2. 파라미터가 많을수록 AI의 성능이 좋아진다. ⓒshutterstock
로봇팔의 관절이 많아야 섬세한 동작을 할 수 있는 것처럼 파라미터가 많을수록 미세한 조정이 가능하다. 즉 파라미터가 많을수록 입력값의 세부적인 특성까지 파악할 수 있다는 뜻이다. 이런 이유로 파라미터는 시냅스(뉴런과 뉴런 사이에서 신경전달물질이 오가는 틈)에 비유되는 동시에 언어 모델의 성능을 판단하는 지표 중 하나로 여겨진다.
거대 언어 모델은 일반적으로 1,000억 개 이상의 파라미터를 가진다. 대표적으로 챗GPT 초기 버전에 쓰인 GPT-3의 파라미터는 1,750억 개로 알려졌고, 구글이 개발한 거대 언어 모델 PaLM은 5,400억 개의 파라미터를 갖고 있다. 파라미터가 1,000억 개 미만이면 ‘경량 거대 언어 모델(small Large Language Model, sLLM)’, ‘소형 언어 모델(Small Language Model, SLM)’ 등으로 따로 구분한다.
우리 삶과 밀접한 거대언어모델
생성형 AI가 산업계의 트렌드가 되면서, 구글, 네이버 등 다양한 국내외 기업에서 대규모 언어 모델 개발에 박차를 가하고 있다. 자체 보유한 데이터를 활용해 대규모 언어 모델을 개발하는 기업도 있지만, 메타 LLaMA2처럼 오픈 소스를 기반으로 제작한 대규모 언어 모델도 개발되고 있다. 다만 한글에 특화돼 있고, 과학 기술 정보 제공을 목적으로 한 대규모 언어 모델은 존재하지 않았다. 이에 한국과학기술정보연구원(KISTI)은 논문, 보고서 등 연구데이터를 대상으로 한 대규모 언어 모델 'KONI'를 개발해냈다. KONI는 올해 7월 중 오픈 소스로 공개될 예정이다.
이렇게 만들어진 거대 언어 모델은 이미 다양한 형태로 우리 삶에 침투하고 있다. 구글은 지난 5월 14일 제미나이와 음성 모델을 기반으로 만들어진, 사람처럼 보고 들을 수 있고 음성으로 대화하는 기능을 선보이면서 SF영화에서 나오는 AI 비서가 출시될 날이 머지않았음을 알렸다. 앞으로 AI 생태계가 우리의 삶을 어떻게 바꿔 놓을지 지켜보자.
글 : 김우현 과학칼럼니스트 / 일러스트 : 유진성 작가
추천 콘텐츠
인기 스토리
-
- [과학향기 Story] 스페이스X 스타십, 집으로 돌아와 주차까지 완료!
- 파란 하늘 높은 곳에서 기다란 원통형의 물체가 떨어진다. 이내 끝부분에서 새빨간 불길이 뿜어져 나오지만, 물체는 속도를 줄일 뿐 여전히 아래로 내려온다. 그러고 몸체를 좌우로 기우뚱하며 방향을 바꾸는가 싶더니, 커다란 기둥에 다다른다. 이를 감지한 듯 기둥에 있는 집게 두 개가 오므라들며 원통형 물체를 잡아내고, 동시에 사람들이 환호성을 지릅니다. 로...
-
- [과학향기 Story] 계단 오르고 장애물 넘는다?… 자유자재로 변하는 모핑 휠 등장
- 기원전 3500년경 메소포타미아서부터 현재 전 세계에 이르기까지, 무려 5,500여 년간 인류 문명과 떼려야 뗄 수 없는 위대한 발명품이 있다. 회전축과 원형 틀이라는 간단한 구조로 이뤄진 ‘바퀴’다. 바퀴가 등장한 이후, 인류는 장거리 이동과 대량 운송에 큰 이점을 가질 수 있게 됐다. 사진 1. 바퀴는 인류의 역사와 함께 진화하며, 장거리...
-
- [과학향기 Story] 식물인간 넷 중 하나는 당신 말을 듣고 있다
- 몇몇 드라마에서는 교통사고로 의식을 잃고 장기간 입원 중인 인물이 등장하곤 한다. 식물인간은 심각한 뇌 손상으로 의식과 운동 기능을 상실했으나 호흡이나 소화 등 생명을 유지하기 위한 다른 활동은 계속하는 이를 말한다. 현실에서는 교통사고 외에도 넘어져 머리를 부딪치거나 고의적인 충격으로 두부를 다치는 경우, 수술 중 뇌의 혈류가 막혀 의식을 잃는 등 ...
이 주제의 다른 글
- [과학향기 Story] 사이버 안보 위협하는 사이버 공격, 어떻게 대응할까?
- [과학향기 for Kids] 창과 방패의 전쟁, 사이버 공격 VS 사이버보안
- [과학향기 Story] 딥러닝, 똑똑한 인공지능을 만든 비밀
- [과학향기 for Kids] 과학기술 발전에 필수! ‘연구데이터’란?
- [과학향기 for Kids] “어떤 일이든 맡겨줘!” 마법 같은 생성형 AI의 비밀은?
- [과학향기 for Kids] 인공지능(AI)이 똑똑해진 비결은? ‘기계학습’
- [과학향기 Story] ‘꿈의 컴퓨터’ 양자컴퓨터, 어디까지 왔을까?
- [과학향기 Story] 과학기술 발전의 핵심, 연구데이터
- [과학향기 for Kids] 전 세계 연결망, 해저케이블을 위협하는 범인은?
- [과학향기 for Kids] 놀라운 힘을 가진 미래 컴퓨터, 양자컴퓨터
ScienceON 관련논문