반응형

자연어 처리(NLP, Natural Language Processing)

인터넷의 발달과 함께 SNS(페이스북, 트위터, 유튜브, 링크드인, 핀터레스트, 인스타그램, 스냅챗 등)의 등장과 미디어로의 확장은 각 개인의 감정 및 생각을 파악할 수 있는 새로운 장을 열었다고 생각합니다. 하루에도 10억개 이상의 글들이 생성되는 시점에서, 우리는 정보의 홍수 속에 어떤 글, 그림, 동영상을 보아야 할지 파악하기 조차 어렵습니다. 

그래서, SNS와 같은 자연어에서 인사이트(insight)를 뽑아내 활용하는 것이 매우 의미가 있을 것으로 생각합니다.

인터넷을 통해 생성되는 대부분의 텍스트 데이터는 짧은 글(Short text, Small text massages 등)로 되어 있습니다. 이에 텍스트 마이닝(Text mining) 분야에서도 짧은 글을 분석하는 연구들이 많이 진행되고 있다고 합니다. 

특히, 유사도를 비교 분석하는 것은 스펠링 체크, 키워드 서치, 단어들의 읽기 레벨, 부정/긍정, 문서 요약, 문서 분류 등 다양한 어플리케이션 영역에 활용될 수 있기 때문에 짧은 텍스트 간의 유사도(Similarity) 비교하는 연구가 많이 이루어지고 있습니다.  

이번 글에서는 NLP에서 사용하는 몇가지 용어를 정리해 보도록 하겠습니다.


1. 자연어 처리(NLP) 관련해서 나오는 용어들

챗봇(Chatbots) : 채팅 로봇의 줄임말로, 사용자와 메신저가 서로 대화를 나누고 필요한 정보를 서치해서 제공해 주는 AI 기반 커뮤니케이션 소프트웨어(SW)입니다. 정보를 검색해 주거나, 쇼핑 주문을 해 줄 수도 있습니다. 요즘에는 능동적으로 사람의 감정을 읽고 대응하거나 상황에 맞게 먼저 말을 걸 수도 있습니다.

Deep Learning for NLP : 자연어 처리를 위한 딥 러닝이라고 할 수 있습니다. 2000년 초부터 인공신경망은 언어 모형을 구현하기 위해 사용되어 왔습니다. 핵심 기법은 negative sampling과 단어 표현(word embedding)입니다. 

Word2Vec : 데이터 집합으로 주어진 단어들 사이의 관계를 학습하는 인공신경망을 이용하여 단어를 벡터 공간 상에 나타내는 것이라고 할 수 있습니다. 단어 표현을 재귀 신경망(RNN)의 입력 계층으로 이용하면 해당 신경망이 compositional vector grammer를 통해 문장과 구(phrase)를 분석하도록 학습시킬 수 있습니다. 이 compositional vector grammer는 재귀 신경망으로 구현된 probabilistic context free grammar(PCFG)라고 할 수 있습니다. 단어 표현을 기반으로 구성된 Recursivr autoencoder는 문장 간의 유사도 판단과 의역 탐지를 하도록 훈련이 가능합니다. (위키피디아 참조)

RNN(Recurrent Neural Network) 순환 신경망 : 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말합니다. 순환 신경망은 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있습니다. 이러한 특성에 의해 순환 신경망은 필기체 인식(Handwriting recognition)과 같은 분야에 활용되고 있고, 높은 인식률을 나타냅니다. 

RNN(Recursive Neural Network) 재귀 신경망 : tree 구조를 가지는 데이터 처리에 사용합니다. Tree 구조는 언어 분석과 이미지 내부의 물체들의 관계에서 볼 수 있습니다. 사진을 문장으로 자동으로 변환하는 딥러닝 인공신경망에 Recursive Neural Network가 기여하고 있습니다.


2. NLP 활용 전망

자연어 검색(구어와 문어), 온라인 광고 매칭(구글 애드센스), 기계 번역 자동화(구글 번역 등), 마케팅 또는 파이낸스/트레이딩을 위한 정서 분석(물건을 팔고 사기 위한 결정을 도울 수 있는 정보), 음성 인지(알렉사, 구글 홈, 시리 등), 챗봇/다이얼로그 대리인(고객 지원 자동화, 디바이스 콘트롤, 물건 주문) 등 다양한 분야에서 사업이 추진되고 있습니다. 

앞으로 더 많은 분야로 확대되어 사용될 수 있을 것으로 전망하고 있습니다. 


3. Deep Learning이 최근에 뜨는 이유



딥 러닝 기술 자체는 80~90년대에 대부분이 개발되었다고 합니다. 다만 그 기술을 실제 적용할 수 있는 길이 최근에 생긴 것입니다. 


딥러닝에서 학습을 위해 매우 많은 데이터(빅데이터)를 이용한 학습이 매우 중요합니다. 그러나 빅데이터를 반복하여 학습시키는 데는 매우 많은 시간이 걸리게 되는데, 이러한 이유로 컴퓨팅 파워가 약한 과거의 CPU로는 많은 학습 데이터를 처리하는데 너무나 많은 시간이 걸려 실용적이지 못하였습니다.

요즘 CPU는 과거에 비해 비교적 빠른 처리를 할 수 있으나 획기적으로 빠른 학습을 위한 머신은 그래픽카드에 사용되는 GPU를 이용할 수 있게 된 최근 2~3년 동안 딥러닝의 성능이 크게 향상되었고 실용화될 수 있는 기반이 마련되었습니다. 


머신러닝(딥 러닝)을 공부하다 보니, 개념도 생소하지만 용어도 헷갈리는 것이 많습니다. 

앞으로 머릿 속 개념 정리를 위해서라도 용어를 일목요연하게 정리해야겠네요.






반응형

+ Recent posts