텍스트, 이미지, 영상 등 특정 유형의 데이터를 학습하여 답변하는 AI를 넘어서,
사용자의 질문을 이해하고 추론해 의도를 파악할 뿐만 아니라 다른 시스템과 연동하여 스스로 행동하는 에이전틱 AI가 등장하고 있습니다.
*현재 우리가 아는 대부분의 AI는 ANI, Artificial Narrow Intelligence 입니다.
ANI를 넘어 AGI(Artificial General Intelligence), ASI(Artificial Superintelligence)로 고도화되고 있는 요즘,
답변을 넘어 행동으로 이어지는 이러한 흐름을 쫓아가기 위해서 근본적인 개념을 명확히 이해하는 것이 중요합니다.
바로 AI가 우리 말을 어떻게 이해할 수 있는지 즉 우리와 어떻게 대화할 수 있는지 말이죠.
이번 게시글에서 딥러닝, 자연어 처리, 트랜스포머, LLM 개념을 살펴보며 “AI가 우리와 어떻게 대화할 수 있는지” 라는 질문에 답해보겠습니다.
1.딥 러닝 (Deep Learning)
딥러닝(Deep Learning)은 컴퓨터가 사람처럼 스스로 학습할 수 있게 만든 기술입니다. 특히 데이터를 많이 넣어주면 넣어줄수록 점점 더 정확하게 판단하고 똑똑해지는 것이 특징인데요.
딥러닝은 사람의 뇌 구조를 본떠 만든 인공 신경망(Artificial Neural Network, ANN)을 아주 깊고 복잡하게 쌓아 만든 구조입니다.
여기서 ANN(Artificial Neural Network)은 각 단어를 벡터(숫자)로 표현하고 이 벡터 간의 연관 강도를 계산하는 역할을 합니다. 이를 통해 단어들 간의 관계성, 중요도, 의미적 거리 등을 수치화하여 더욱 정교한 문장 이해가 가능해졌다고 볼 수 있습니다.
2. 자연어 처리 기술 (NLP)
자연어 처리(Natural Language Processing, 이하 NLP)는 사람의 언어를 컴퓨터가 이해하고 해석하도록 만드는 기술로, 특히 시간 흐름과 문맥이 중요한 대화형 언어를 처리하기 위해 순차적 구조의 모델이 발전해 왔습니다.
1) Recurrent Neural Networks(RNN)
순환 신경망이라는 단어 그대로 문장의 단어를 시간의 순서에 따라 입력받아 처리하는 구조입니다. 예를 들어 ‘오늘 날씨가 좋다’라는 문장은 ‘오늘 → 날씨가 → 좋다’의 순서로 단어가 들어오며 이전 단어의 정보가 다음 단어의 해석에 영향을 주는 방법입니다. 그러나 문장의 길이가 길어질수록 앞부분의 정보가 뒤로 갈수록 소실되는 문제가 발생하여 “나는 어제 친구들과 저녁을 먹고…” 같은 문장에서 앞의 ‘어제’ 같은 핵심 정보가 누락될 수 있는 단점이 존재하였습니다.
2) Long Short-Term Memory (LSTM)
이러한 RNN의 구조적 한계를 극복하기 위해 LSTM이라는 개선된 순환 신경망이 등장하였습니다. 이는 필요 없는 정보는 잊고(forget), 중요한 정보는 유지하고(remember), 새로운 정보를 저장하는(update) 방식으로 동작하는데요. 문장이 길어져도 핵심 정보를 오래 기억할 수 있다는 장점이 있습니다.
3) 인공 신경망 기반의 어텐션 구조 (ANN + Attention)
이 시점에서 연구자들은 RNN 없이도 문장을 이해할 수 있다는 사실을 알게 되었습니다. Attention 메커니즘을 ANN 구조 위에 도입하면 순차 구조 없이도 ANN이 입력 단어를 각각 병렬적으로 처리하여 Attention이 문맥을 연결해주었죠. 이 조합은 이후의 트랜스포머(Transformer) 모델의 기본 틀을 구성하게 되었습니다.
Attention의 핵심 원리는 이름에서도 알 수 있듯, 중요한 단어에 집중하는 것입니다. 문장의 모든 단어를 동시에 살펴보면서, 각 단어가 주변 단어들과 얼마나 관련이 있는지, 그래서 얼마나 중요한지를 스스로 판단하는 것이죠. 그리고 중요하다고 판단되는 단어에 더 많은 주의(가중치)를 기울입니다. 예를 들어 “그는 사과를 먹고 사과했다.” 라는 문장을 생각해 보겠습니다. 첫 번째 ‘사과’는 ‘먹고’라는 단어와 관련이 깊다고 판단하여 ‘과일’이라는 과일을 의미에 집중하게 됩니다. 두 번째는 주어인 ‘그는’이나 동사인 ‘했다’고 관련이 깊다고 판단하여 ‘용서를 구하는’ 행동 의미에 더욱 집중하게 됩니다. 이처럼 Attention 매커니즘은 문맥 속에서 각 단어의 중요도를 파악하고 중요한 정보를 연결하여 문장의 이미를 정확히 이해할 수 있도록 돕습니다.
3.트랜스포머(Transformer)
트랜스포머(Transformer)는 자연어(인간의 언어)를 컴퓨터가 더 잘 이해하고 처리할 수 있도록 만들어진 언어 모델 설계 방법 (아키텍처)입니다. 앞서 간단히 설명한 것과 동일하게 딥러닝의 한 종류로 ANN위에 Attention 메커니즘을 추가한 구조입니다. GPT, Gemini 등 대부분의 대규모 언어 모델(LLM)이 이 설계를 기반으로 만들어졌다고 볼 수 있습니다.
트랜스포머는 문장을 처리할 때, 단어 하나하나를 그냥 읽는 것이 아니라 숫자 벡터(수치 표현)로 바꿔서 분석하는데요. 이를 통해 단어 간의 관계를 수치적으로 계산하고, 의미적 거리를 파악하는 형태로 작동합니다.
단계 | 설명 |
토큰화 | 문장을 단어/문장 조각으로 나눔 |
임베딩 | 각 토큰을 숫자 벡터로 변환 |
어텐션 | 단어 간 중요도 계산 |
모델 학습 최적화 | 벡터 관계를 학습하며 정교화 |
4. LLM (Large Language Model)
대규모 언어 모델(Large Language Model, 이하 LLM)은 수많은 텍스트 데이터를 학습하여 인간처럼 말할 수 있는 인공지능 모델입니다. 이 LLM을 만드는 데 사용된 기본 구조가 바로 트랜스포머 아키텍처라고 할 수 있습니다.
모델 | 설명 |
GPT | OpenAI가 개발한 LLM. 트랜스포머 기반의 대표 모델 |
Gemini | Google DeepMind가 개발한 LLM. 역시 트랜스포머 기반 |
ChatGPT | GPT 모델에 대화형 서비스를 붙인 챗봇 서비스. |
◎ LLM과 기업 챗봇의 차이
ChatGPT는 공개된 범용 데이터를 기반으로 대화할 수 있는 일반용 AI입니다. 반면 기업 챗봇은 자사의 내부 데이터(정책, 상품 정보 등)를 기반으로, LLM이 맞춤형으로 응답할 수 있도록 설계된 전용 시스템이라는 점에서 차이가 있습니다.
오늘은 우리가 AI와 대화할 수 있었던 기술에 대해 간략히 알아보았는데, 이해가 되셨을까요?
본 게시글은 메가존소프트 유튜브 [AI기초 개념 완벽 이해, 5분만에 끝내는 AI(인공지능) 교육 [잇(IT)타강사] 1부 1편] 내용을 바탕으로 하고 있습니다.
위의 내용을 더욱 쉽고 재미있게 알고 싶다면, < [잇(IT)타강사] 1부 1편 >을 확인해 보세요!
지금 잇(IT)타 강사님 pick 무료 도서 증정 이벤트도 진행하고 있으니 많은 관심과 참여 부탁드립니다.