![]() |
▲이병욱 서울과학종합대학원 AI전략경영 주임교수 |
‘챗GPT(Generative Pre-trained Transformer)’가 화제다. 챗GPT는 그동안 GPT 시리즈로 뛰어난 자연어 능력을 보여주고 있는 미국의 비영리 연구소 ‘오픈AI’가 개발해 불과 2개월 전 출시한 대화형 AI(인공지능) 챗봇이다.
챗GPT에게 "한국에서 가장 인기있는 가수는?"하고 물었더니 "시대와 사람의 개인적 견해에 따라 변하므로 꼬집어 대답은 힘들지만, 가장 성공적이었던 몇 명은 싸이, BTS, 블랙핑크, EXO, 빅뱅 등이 있다"고 대답한다. 마치 대화하는 듯한 이 반응 때문에 인공지능이 생각을 한다거나, 사람같은 인공지능이 곧 탄생할 것이라는 생각이 들 정도다.
하지만 사람의 대화란 ‘생각의 전달’이고, ‘문법에 맞는 문장’은 그 형식에 불과한데, 언어 모델은 단지 ‘문법에 맞는’ 문장을 생성하는 것일 뿐이다. 즉 GPT는 인간의 ‘형식’을 흉내낸 단계일 뿐, 생각을 전달하는 대화가 아니다.
챗GPT는 수십억 개의 문장을 학습하여, 그 중 대답으로 그럴싸하며 문법에도 맞는 문장을 생성하도록 특화되었다. 마치 사람처럼 생각하고 대화하는 듯 착각을 주기엔 충분하지만, 사전에 학습되지 않은 어떤 주제도 자신의 ‘생각’을 전달할 수 없다. 이런 주제에 대해서는 그저 "모른다"라고 학습 목록에 없던 주제임을 알릴 뿐이다.
눈에 보이는 것과 실제는 다르며, AI 기술을 그저 피상적으로 해석하면 안된다. 특히 비용 때문에 상용화가 불가능한 것도 많다. 그렇다면 AI 기술은 지금 어떤 단계까지 왔고, 우리는 그 기술을 어떤 시각으로 보아야 할까.
지난 1월초에는 CES(국제전자제품박람회)가 3년만에 대면 행사로 열렸다. 전시부스 640여개에는 41개로 세분화된 각종 기술이 전시되었고, AI 기업도 많이 참여했다. 삼성과 LG전자를 중심으로 된 부스도 눈길을 사로잡기에 충분했다. TV 자체의 선명도를 위해 AI가 응용되기도 했지만 가전이나 사물을 중심으로 연결을 보다 스마트하고 효율적으로 통제하는데 인공지능 기술이 역할을 했다.
CES를 중심으로 바이오 헬스, 자율 주행,초 연결 등으로 인공지능의 기술 트렌드를 분석한 글은 많고 이와 별도로 영국의 미래학자 버나드 마르는 다섯 가지 트렌드를 소개하기도 했다.그러나 이러한 분류는 주관적일 수밖에 없고, 전체 트렌드를 이해하기에는 한계가 있다. CES와 최근 경향을 중심으로 AI기술이 지속적으로 지향하고 있는 세가지 키워드를 살펴보고자 한다.
첫째, 더욱 확대되어 가는 ‘초거대 AI’이다. GPT를 위해 오픈AI가 사용한 매개변수는 무려 1750억개였다. 매개변수란 모델을 정의하는 값으로 생각할 수 있으며, 개수가 많아질수록 더 복잡하고 정교한 모델을 정의할 수 있으나, 여기에는 기하급수적인 계산량과 전력이 요구된다. LG는 한발 더 나아가 6000억개의 매개변수를 가진 모델을 만들겠다고 나섰다. 이런 초거대 모델은 막대한 하드웨어를 동원할 수 있는 대기업의 전유물이 되고 있고, 구글·네이버·카카오 등 굴지의 대기업들이 보다 큰 연산량을 소화할 수 있는 모델을 만들기 위해 뜨겁게경쟁하고 있다.
둘째는, 생성모델의 약진이다. 과거 일반적인 인공지능모델은 ‘판별모델’이었다. 데이터가 주어지면 그 데이터에서 최대한 정보를 추출하여 ‘판단’하는 것이 일반적인 방식이기 때문이다.
이와 반대로 생성모델은 소위 무에서 유를 창출하는 방식이다. 불규칙한 노이즈에서 목표로 설정한 의미있는 영상이나 정보를 생성해낸다. 컴퓨터로 그림도 그리고, 소설도 쓸 수 있는 것이다. 문장을쓰면, 그대로 그림을 그려주는 ‘스테이블 디퓨젼(Stable Diffusion)’, 질문에 답하는 챗GPT 등이 생성모델을 활용한 예이며 보다 상호작용적인 응용이 쏟아질 것이다.
세번째는 설명가능한 모델이다. 의사결정에 인공지능이 더 활용되면서 특히 딥러닝의 블랙박스 성질은 문제가 되고 있다. 예컨대 딥러닝이 특정 주식이 크게 오른다고 예측한 경우, 왜 그렇게 예측했는가에 대한 아무런 정보가 없다면 단순히 인공지능의 결과만을 믿고 거금을 들여 선뜻 주식을 매수하는 것은 쉬운 결정이 아닐 것이다. 천문학적인 매개변수간의 복잡한관계를 통해 어떤 결과를 예측하는 딥러닝의 특성상 모든 결과는 블랙박스로 다가올 수밖에 없는 것이다. 이때문에 결과와 함께 왜 그런 결과를 예측했는지에 대한 정보를 같이제공해주는 기술인 ‘설명가능한 AI’가 더욱 주목받고 있다. 흔히 어떤 특징변수의 어떤 값이 그러한 결론에 이르게 했는 지에 일종의 리버스엔지니어링까지 동원된다.
앞으로도 AI의 여러 트렌드가 생겼다 사라지기를 반복하겠지만, AI 본연의 기능은 데이터에서 정보를 추출하고 이를 통해 사람의 의사결정을 지원하기 위한 것이며, 그러한 맥락에서 전술한 세가지 키워드는 앞으로도 지속적으로 주요한 과제로 연구될 것이다.