언어는 사람과 기계를 구분시키는 고유한 특성이다. 하지만 앞으로는 기계 역시 사람 말을 알아듣고 사람처럼 말하게 될 것이다. 영화 ‘HER’에서 사만다란 인공지능 구동 체제는 사람과 똑같이 말하고 사람의 마음까지 이해하고 말을 건넨다. 지능형 인터페이스가 기존의 전통적 인터페이스를 대신해 말을 도구로 마치 사람과 대화하듯이 친구처럼 , 내지는 비서처럼, 내지는 애인처럼 말이다. 시간이 지남에 따라 사용자의 행동을 배움으로 맞춤형 서비스를 제공하고 작업 수행을 간소화한다. 이 지능형 인터페이스는 음성인식, 인공지능 및 증강 현실로 활성화되어간다.

 

컴퓨터인 기계가 실생활 언어를 빠르게 습득하고 발전해가고 있다. 음성 인식 인공지능의 뇌는 클라우드에 위치해 있다. 이 클라우드 서버에서 정보처리도 하고 분석, 연산 등을 처리하는 뇌를 가지고 있는 것이다. 그렇다면 기계는 어떻게 말을 할 수 있는 것일까?

아이가 말을 배우는 것처럼 기계도 언어 학습을 하는 것이다. 얼마나 많은 정보를 정확히 검색할 수 있고, 음성 인식률을 높이느냐에 따라 기계의 성능 차이가 일어난다. 얼마나 많은 정보를 정확히 검색할 수 있고 음성 인식률을 높이느냐에 따라 기계마다 차이를 보일 것이다. 알파고가 이세돌 기사를 이긴 것처럼 음성 인식 인공 지능도 사람의 말을 많이 듣고 인식률을 높일수록 사람과 같은 스피치를 하게 되는 것이다. 지금 현재 나와있는 아마존 에코는 필자가 아마존에서 주문해서 소유하고 있는 데 사용해본 결과 꽤 똑똑하다. 100% 만족을 주지는 못하지만 70~ 80% 정도 만족감으로 이용할 만하다. 애플의 ‘시리’ , 구글의 ‘구글 나우’(2012년) 그리고, 가정용 음성 인식 인공 지능 기기인 ‘구글홈’은 다양한 가전 제품과 연동해 사용하는 기기이다. 마이크로소프트는 2014년 음성 인식 인공지능 비서인 ‘코타나’를 공개했다.

이런 인공지능 에이전트와의 상호작용에서 중요한 것은 자연스러움이다. 버튼을 누르고 두드리지 않고 가장 자연스러운 소통 채널인 음성을 사용하면 두 손을 자유롭게 하는 것이다.

사물인터넷이 현실화되어가는 요즘 두 손이 자유롭고 정황 파악을 잘 하는 것이 중요하다. 구글 글래스나 애플 아이워치 등은 다양한 정황에 대응하기 위해 지능이 필요하다.  증강 현실에 대한 관심도 높아지고 있는 데, 오큘러스 VR이 개발한 헤드셋 오큘러스 리프트를 착용하면 머리의 움직임을 실시간 감지해 어느 방향이라도 그 방향의 시각을 제공한다. VR을 통한 여행지 체험에 인공지능 비서가 나선다면 그야말로 금상첨화이다.

 
인공지능 서비스가 보여줄 미래는 과연 어떤 것일까?

지능을 가진 기계가 내 맘을 알아주고 말을 건네고 필요한 정보를 제공해주고, 때로는 친구처럼, 비서처럼, 애인처럼, 말 벗이 되어준다면 사람으로부터 받게 되는 불쾌감, 배신감, 허무함, 불신감이 없으니 어찌보면 날로 진화하는 기계와 서비스와의 상호 작용에 훨씬 더 만족할 지 모를 일이다.

 



아나운서 이서영의 블로그

트위터 www.twitter.com/leeseoyoungann

싸이월드 www.cyworld.com/leemisunann

페이스북 www.facebook.com/leeseyoungann
스내커 칼럼니스트 이서영
-프리랜서 아나운서(SBS Golf , YTN, ETN, MBC,MBC SPORTS, NATV, WOW TV 활동)
-국제 행사 및 정부 행사 영어 MC
-대기업 및 관공서 등에서 스피치, 이미지 메이킹 강의
-국민대, 협성대, 한양대, 서울종합예술학교 겸임 교수 및 대학 강사

ⓒ 한경닷컴, 무단전재 및 재배포 금지