티스토리 뷰

728x90
반응형
BIG

4차 산업혁명 챗봇

생활 속 인공지능 채팅 서비스

 

"페이스북의 미래는 메신저에 있다." 2016년 4월 샌프란시스코에서 열린 콘퍼런스인 'F8 2016'에서 마크 저커버그(Mark Zuckerberg)는 이렇게 말하며 주목해야 하는 서비스로 메신저와 챗봇을 들었습니다.

이를 증명하듯 페이스북은 세계적인 채팅 앱인 왓츠앱(WhatsApp)을 2013년에 인수했으며, 

2016년 2월을 기준으로 사용자수 10억 명을 돌파 했습니다.

이후 페이스북은 2016년 4월에 인공지능 챗봇을 처음 선보였으며, 2017년 기준으로 3만 4,000개의 챗봇

계정을 운영하고 있습니다.

챗봇(Chatbot)은 채팅하듯 질문을 입력하면 인공지능이 순식간에 빅데이터를 분석하여 대화나 채팅 텍스트로 사람과 대화를 하며 답하는 대화형 메신저입니다.

챗봇이란 단어는 채팅하는 로봇이자 정해진 응답 규칙에 따라 사용자 질문에 응답할 수 있도록 만들어진

소프트웨어라는 뜻입니다. 인공지능을 기반으로 사람과 자동으로 대화를 나누는 소프트웨어인 셈입니다.

글로벌 시장에서는 2015년부터 챗봇이 화두가 되어왔습니다.

미국 시장 조사 기관 TMR에 따르면, 지난 2015년 이들 글로벌 챗봇 시장을 선점한 구글, 페이스북, 마이크로소프트의 시장 점유율은 약 97.5%에 달한다고 합니다.

지난 2015년 글로벌 챗봇 시장의 규모는 약 1억 1,300만 달러였지만, 2024년 말에는 시장 규모가 10억 달러 수준으로 성장할 것이라고 합니다.

현재 페이스북, 텐센트, 텔레그램, 네이버, 이스트소프트 등 여러 IT 기업들이 챗봇 기능을 개발하는 중이거나 제공하고 있습니다.

모바일 메신저 기업들은 메신저를 새로운 플랫폼으로 만들어나가는 방안을 고민하던 중 인공지능과 메신저를 결합한 챗봇 기술에 주목했습니다.

챗봇 API는 서버와 서로 통신 알고리즘으로 설계·개발되어 있습니다. 사용자가 메신저 대화창에 메시지를 입력하면, 메신저 사업자의 챗봇 API 서버는 해당 메시지에 적합한 응답을 해줍니다.

API에 설계된 알고리즘에 따라 사용자에게 텍스트만 전달하는 방식 외에도 영상, 이미지, 웹주소(URL) 등을 결합해서 보낼 수 있습니다.

 

 

 

 

쇼핑·생활·금융 상담을 챗봇이 한다.

네이버는 2017년 8월부터 챗봇을 활용한 톡톡 서비스를 제공하고 있습니다. 네이버 톡톡은 고객과 실시간으로 소통이 가능한 비즈니스 상담 창구입니다.  네이버 쇼핑 이용자가 상품에 대한 질문을 남기면

인공지능 챗봇이 대신 답변해주는데 현재 여행, 의료, 전문가, 생활 서비스 등으로 사용 범위를 확대해가고 있습니다.

세탁소 네트워크 기업 리화이트는 2017년 11월 네이버 톡톡 과 제휴로 인공지능 챗봇 세탁 주문 서비스를

오픈했습니다. 네이버 톡톡 채팅을 통해 간편하게 세탁물 수거와 배달을 신청할 수 있습니다.

2017년 4월 기준 국내 사용자 4,243만 명에 이르는 카카오톡은 플러스 친구와 자동 응답 API를 사용하여

챗봇을 제공하고 있습니다.

챗봇과 상담 센터가 별도로 나눠져 있으며 1분 내에 1회만 답변이 가능한 수준이라 기능이 아직 제한적

이지만 꾸준히 발전할 것으로 기대됩니다.

금융 생활을 도와주는 챗봇 서비스는 국내 은행에서도 선보이고 있습니다. 2016년 신한은행의 '엠폴리오', KEB하나은행의 '하이 로보', 우리은행의 '우리 로보-알파', NH농협은행의 'NH로보-Pro' 등이 그것입니다.

음성으로 금융 거래를 지시하면 실행하는 인공지능 뱅킹이나 상담을 위한 챗봇도 서비스되고 있습니다.

NH농협은행이 카카오톡 채팅을 기반으로 한 '금융 봇'을 내놨고, 우리은행은 현재 직원 업무 상담용으로 

운영 중인 챗봇 서비스를 향후 대고객 서비스로도 확대할 예정이라고 합니다.

 

API(Application Programming Interface)

 응용 프로그램 개발자들이 애플리케이션을 만들 때 운영 체제에서 동작하는 프로그램을 쉽게 만들 수

있도록, 화면 구성이나 프로그램 동작에 필요한 각종 함수의 집합을 말합니다.

 

 

 

 

 

4차 산업혁명 빅데이터와 인공지능

 

사물인터넷과 스마트 디바이스가 생활화될 미래에는 일상적으로 매우 짧은 시간에 방대한 수치, 문자,

그래픽, 영상 같은 다양한 종류의 데이터들이 생성된 것입니다.

양을 가늠할 수 없이 많은 이 데이터들이 생성된 것입니다. 양을 가늠할 수 없이 많은 이 데이터들을 

우리는 빅데이터라고 부릅니다.

디지털 환경에서의 빅데이터에 대해 IT 시장 조사 기관 가트너(Gartner)는 "데이터는 미래 경쟁력을 좌우하는 "데이터는 미래 경쟁력을 좌우하는 21세기 원유"이며 "기업들은 다가오는 데이터 경제 시대를 이해하고 이에 대비해야 한다."라고 강조했습니다. 왜 데이터가 미래 경쟁력을 좌우하는 것일까?

가트너는 빅데이터가 세 가지 특징이 있다고 설명합니다. 데이터의 물리적 크기(Volume)입니다. 소셜 미디어 데이터, 소비자 데이터, 기업 데이터, 웹 데이터, 센서 데이터 등 페파 바이트(PB, 약 100만 GB) 이상으로 데이터의 양이 엄청납니다.

둘째, 데이터의 다양성(Variety)입니다. 페이스북과 트위터에서 수집된 데이터인지, 사용자의 웹사이트 접속 흔적을 뜻하는 웹 로그(Web log)인지, 텍스트·이미지·영상·사운드 중 어느 형태의 데이터인지 등 데이터의 종류는 매우 다양합니다. 셋째는 속도(Velocity)입니다.

속도는 데이터를 수집·가공·분석하는 일 년의 과정을 실시간이나 일정한 주기에 맞춰 처리할 수 있는 능력입니다. 앞으로는 더욱 데이터 처리 속도가 관견이 될 것입니다.

 

가치를 뽑아내는 빅데이터 기술

시장 조사 기관 IDC(International Data Corporation)는 "빅데이터 기술은 다양한 형태로 구성된 방대한 크기의 빅데이터로부터 경제적으로 필요한 가치를 추출할 수 있도록 디자인된 차세대 기술"이라고 소개합니다. 빅데이터를 효과적으로 처리하고 분석하는 기술을 넘어서 "가치를 생성할 수 있는 데이터"로 만들어준다는 뜻입니다.

빅데이터 기술을 활용하면 과거와 비교할 수 없는 수준으로 대규모 고객 데이터를 빠르게 분석하여 마케팅과 고객 관리를 할 수 있습니다.

소셜 미디어와 인터넷에 생성되는 기업 관련 검색어와 댓글을 분석하면 자사의 제품과 서비스에 대한 고객

반응, 관심 내용, 부정적 이슈 발생을 실시간으로 파악해 대처할 수 있습니다.

구글은 수천만 권의 도서 정보와 유엔과 유럽의회 자료, 웹 사이트의 내용을 활용해 64개 언어 간 자동 번역 시스템 개발에 성공했습니다. 

전 세계 많은 사용자들이 사용하는 구글의 자동 번역 시스템은 바로 이 빅데이터를 자원으로 개발한 것입니다.

 

 

 

마이크로소프트사의 사례로 보는 빅데이터

마이크로소프트사의 독점 금지 소송 사례를 살펴보겠습니다. 1990년부터 마이크로소프트는 윈도에 자사의 익스플로러 브라우저를 끼워 넣어 브라우저 시장을 선점하고 있던 넷스케이프가 설 땅을 없애고, 인터넷 관련 소프트웨어의 발전을 저해하는 불공정 행위를 자행하고 있다는 비판이 공개적으로 제기되기 시작했습니다. 이런 이유로 마이크로소프트 사는 불공정행위로 1998년 10월에 소송을 당했습니다. 

이때 마이크로소프트는 2,500만 페이지에 달하는 엄청난 분량의 반박 자료를 제출합니다. 이 정도 분량의 자료를 사람들이 직접 살펴보며 필요한 내용들만을 추리려면 천문학적인 비용과 시간이 들 수밖에 없습니다. 하지만 빅데이터 처리 기술을 활용한다면 어렵지 않습니다.

인공지능 또는 지능의 핵심은 데이터를 기초로 적절하게 일반화하는 능력입니다. 내비게이션이 교통 정보를 종합하여 서울에서 부산까지 최적의 경로와 운전 시간을 판단하여 제시한다면 그 판단은 일종의 일반화입니다. 인공지능과 인간의 학습은 이제까지 경험한 내용을 바탕으로 미래를 분석하여 예측하는 일반화 과정의 수행입니다.

친구가 당신과 찍은 사진을 본인의 계정에만 올려도 페이스북은 당신이 아니냐는 질문을 보내옵니다. 어떻게 페이스북은 40억 명이 넘는 전 세계 사용자들 중 그 사진 속 인물을 찾아냈을까? 답은 단순합니다.

당신은 그동안 페이스북에 많은 사진과 글을 올리고 사진 찍은 친구와도 페이스북 친구로서의 답글이나 좋아요를 주고받았을 것이고 그러한 활동은 데이터로 남아 있을 것입니다. 이러한 데이터를 기반으로 인공지능은 얼굴과 목소리를 인식하고, 병을 진단하고, 재생됩니다.

4차 산업혁명 시대에 인공지능이 처리할 수 있는 데이터양은 제한이 없습니다.\

 

 

 

 

빅데이터가 어떻게 미래를 예측할까?

기계 학습(Machine learning)이란 방대한 데이터를 분석해 미래를 예측하는 기술입니다. 인공지능처럼 스스로 학습하는 프로그램은 기계 학습을 통해 스스로 패턴을 찾아냅니다. 

여기에서 필요한 데이터는 소셜 미디어에서 좋아요를 누르거나 공유한 데이터, 거리의 모습과 풍경, 전철과 버스를 타는 승객들, 공공장소에서 디지털 사이니지(공공장소에 설치된 디스플레이)에 물어보기 위해 선택한 횟수와 내용 등입니다.

인공지능은 새로운 분류 체계를 만들면서 데이터를 분석해 의미 있는 결과물을 내놓습니다.

정교한 알고리즘만 뒷받침된다면 결과물을 토대로 활동까지 예측해냅니다. 기계 학습은 세 단계의 학습 시스템을 반복합니다.

첫째는 정보가 전혀 없는 상황에서 수많은 데이터를 비슷한 것끼리 분류합니다. 둘째는 알고리즘을 활용해 분류한 그룹의 특징을 추출합니다. 셋째는 구축되어 있는 알고리즘 구조를 쌓아 올려 더욱 복잡한 계층 구조를 만들고 수천번, 수만 번 이상 최적화 알고리즘 체계를 스스로 찾습니다.

딜 러닝(Deep learning)은 컴퓨터가 여러 데이터를 이용해 마치 사람처럼 스스로 학습

할 수 있도록 인공 신경망을 기반으로 구축한 기계 학습 기술을 뜻 합니다. 딜러니는 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보 처리 방식을 보 방해서 컴퓨터가 사물을 분별하도록 기계를 학습시켜 구현되었습니다. 

딜 러닝 기술을 적용하면 사람이 모든 판단 기준을 정해주지 않아도 컴퓨터가 스스로 인지·추론·판단할 수 있습니다. 이는 음성·이미지·사진의 인식과 분석 등에 광범위하게 활용됩니다.

구글 알파고(AlphaGo)도 딥러닝 기술에 바탕을 둔 컴퓨터 프로그램입니다. 따라서 기계 학습과 딥러닝 기술을 기반으로 한 인공지능은 우리가 소셜 미디어에서 하는 대화나 텍스트들을 살펴보며 의미들의 관계를 추출하고 여론을 판단하고, 미디어와 사용자들이 생성하는 데이터를 수집하여 패턴을 인식합니다.

이러한 방법을 통해 인간이 파악하기 힘든 사이버 공격을 감자 하거나 잘못된 신용카드 사용을 예방하고 주식도 거래할 수 있습니다.

인류는 역사가 시작된 이래로 많은 데이터들을 만들고 수집하며 분석해왔습니다. 컴퓨터 기술은 인간의 두되 특성을 만듭니다. 인공 신경망은 인간의 두뇌 같은 신경망의 유기적 작용 구조와 원리를 구현한 컴퓨터 프로그램입니다. 인공 신경망은 고양이가 들어 있는 사진을 제시하기만 해도 고양이를 알아볼 수 있습니다.

패턴 인식을 통해 가능한 일입니다. 지금은 사진이나 영상에서 개체를 회전하거나 늘리거나 약간 변형하더라도 연관성을 찾아낼 수 있습니다.

2017년 12월 22일 구글은 서울에서 '구글 AI 포럼'을 열고 'AI 혁신과 구글 포토 들여다보기'를 주제로 구글의 인공지능 이미지 인식에 대해 구글 포토를 통해 인간을 뛰어넘는 이미지 인식 기술을 달성하는 것이 목표라고 이야기했습니다.

이미 구글 포토는 사용자가 사진별로 태그 등의 정보를 입력하지 않아도 특정한 인물별로 사진을 정리해주거나 축하, 식사, 축구 같은 단어로 검색하면 해당하는 사진을 찾아주는 기능을 제공하고 있습니다.

 

 

 

728x90

 

 

 

빅데이터의 빅뱅과 인공지능의 진화

빅데이터는 데이터들을 수집하고 분류해 인간이 파악할 수 없는 의미를 최적의 방법으로 제공하는 기술을 필요로 합니다. 예를 들면 자유 주행 자동차는 주변 환경에 대한 데이터 수집하여 감지하면서 빠르게 반응하려 능력이 핵심입니다.

라이더(LIDAR, light detection and ranging) 기술은 원래 군대에서 지도 제작과 표적 선정에 사용했습니다. 그런데 자율 주행 자동차에 도입되면서 신호등, 차량, 보행자, 자전거, 장애물 같은 데이터들을 실시간으로 수집·분석하여 반응하는 데 쓰고 있습니다.

앞에 나온 마이크로소프 드가 제출했던 2,500만 페이지 분량의 자료 이야기로 돌아가 봅시다. 이 어마어마한 자료를 인공지능이라면 어떻게 처리할까? 미국에는 전자 디스커버리(Electronic discovery) 제도가 있어서 소송에서 원고와 피고가 제시한 문서를 열람할 수 있습니다. 이때 빅데이터 처리 기술인 예측 부호화 기술을 활용하면 변호사들은 거대한 자료 속에서 의미 있는 자료만을 손쉽게 골라낼 수 있습니다.

그 자료를 기계 학습 프로그램이 변호사들이 수행하던 작업과 일치하는지 최종적으로 확인합니다.

관련 연구에 따르면 재판 결과를 예측하는 기술도 개발되고 있다고 합니다. 이 프로그램은 6만 건이 넘는 판례 자료들을 분석하며 결과를 예측한다고 알려져 있습니다.

제4차 산업혁명 환경은 우주 별무리보다 많은 빅데이터들을 생성합니다. 기업의 활동부터 공공의 공간에 이르기까지 실시간에 가깝게 자료들을 수집·분석·예측하여 반응하고 있습니다.

이러한 기술들은 사물인터넷 서버, 주식 투자를 위한 서버, 자율 주행 자동차, 로봇 등에 적용되어 빠른 속도로 진화해갈 것입니다.

 

예측 부호화 방식(Predictive Coding Method)

거의 표본 값으로부터 다음 표본값을 예측하여 예측값과 실제 표본값의 차만을 양자화, 부호화하는 것을 말한다. 표본값 상호 간에 상관관계가 강한 신호를 효율적으로 부호화할 때 사용된다.

 

 

728x90
반응형
LIST
댓글