2011년 애플에서 시리(Siri)를 발표했을 때, 많은 사람은 이제 미래를 살게 된다고 여겼다. 말만 하면 알아서 검색도 해 주고, 조언도 해 주고, 정보도 주는 AI 비서를 가질 수 있다니! 정말 영화에서나 보던 세상이 곧 올 것만 같았다. 놀란 구글은 2012년, 구글 나우를 내놓게 된다. OK 구글로 호출하면 여러 가지 정보를 알려주고, 이용자가 어떤 정보를 원하는지 예측해 알아서 정보를 업데이트하는 앱이었다. 그때쯤 함께 출시된 스마트 워치들은 그런 기대를 부채질했다.
현실은 기대와 달랐다. 모바일 AI는 내 말을 제대로 못 알아들었고, 할 수 있는 기능도 별로 없었다. 스마트 워치도 꽤 비쌌고 알림과 만보계 기능을 빼면 쓸 곳이 별로 없었다. 붐은 곧 꺼졌고, AI는 점차 사람들의 머리속에서 희미해져 갔다. 꺼진 불씨는 아마존 알렉사가 살렸다. 아마존 에코 AI 스피커와 함께 출시된 알렉사는, 조용히 성장하다 2017년부터 널리 쓰이기 시작한다. 알렉사의 성장을 지켜보던 구글, 삼성전자 등에서도 다들 구글 어시스턴트, 삼성 빅스비 등을 공개한다. 예상보다 빠르게, 제대로 된 모바일 인공지능 시대의 막이 올랐다.
모바일 AI, 보기 시작하다
새로운 모바일 AI는 이전과 뭐가 다를까? 우선 그사이 ‘알파고 쇼크’가 있었음을 생각하자. 기계 학습과 딥러닝 기술로 인해 인공지능이 크게 발전했다. 전에는 음성인식만 제대로 해도 큰 성과였다면, 이젠 이미지 인식과 자연어 처리는 물론 상황을 인지하고 스스로 답을 찾아내는 방향으로 까지 발전하고 있다. 이런 기술은 번역 및 정보 검색, 증강 현실 영상에 이르기까지 다양하게 쓰이고 있다.
▲ 갤럭시 S10 야간촬영 모드로 찍은 야경 (출처: https://bit.ly/2G4ptUt)
모바일 AI가 널리 쓰이면서 잘 알려지지 않은 분야는 스마트폰 사진 촬영이다. 요즘 사람들을 놀라게 하는 스마트폰 야간 촬영 사진은, 대부분 여러 장의 사진을 순식간에 찍은 다음, AI로 합성해서 만든 사진이다. 갤럭시S10으로 사진을 찍을 때 ‘렌즈가 흐리니 닦으면 더 좋겠다.’, ‘눈을 감은 것 같다’라고 나오는 메시지 역시 마찬가지다. 찍는 상황을 파악해서 풍경이나 음식, 접사 등의 모드로 바꿔 준다거나, 좋은 구도를 제안해 주는 기능 역시 스마트폰에 있는 인공지능이 하는 일이다.
스마트폰 디스플레이, 세상을 보는 눈이 되다
▲ 스마트폰 카메라를 통해 개인 신체 지수를 측정할 수 있는 바디그램 앱 (출처: 바디그램 공식 홈페이지)
스마트폰 카메라 AI의 기능은 여기서 그치지 않는다. 카메라 앱에서 피부를 보정하거나, 화장을 해 주거나, 배경을 흐리게 해 주거나, 토끼 귀를 달아주는 일 역시 AI가 처리한다. 꽃을 비추면 꽃 이름을 알려주거나, 쓰인 글씨를 번역하는 일 역시 마찬가지다. MS에서 만든 ‘Seeing AI’ 앱을 이용하면 스마트폰 카메라가 보고 있는 상황을 음성으로 들을 수 있다. 예를 들어 테이블 위를 비추면 ‘컵’, ‘포크’, ‘화병’처럼 거기에 있는 물건 이름을 말해주고, 계단이 있으면 조심하라고 알려주는 식이다. 바디그램(Bodygram) 앱을 쓰면, 평소 옷차림 그대로 사진만 찍으면, 개인 신체 치수를 측정해서 알려준다.
▲ 가상키보드 앱 ‘셀피타입’ (출처: 삼성전자)
모바일 인공지능이 가진 눈은 동작도 파악한다. ‘라이크잇’ 같은 홈트레이닝 앱에선 움직이는 동작을 인식해 제대로 운동하고 있는지 알려준다. CES 2020에서 선보인 ‘셀피 타입’ 가상 키보드 앱은 이용자의 손가락을 인식해서, 손가락만 움직여도 마치 키보드를 치고 있는 듯 글씨를 입력할 수 있다.
&feature=youtu.be
▲ 구글 AR Core Depth API (링크 : https://www.youtube.com/watch?
그 뿐일까? 구글 맵에서는 현실 공간을 카메라로 비추면 AR 표지판을 보여주며 가야 할 길을 보여주는 기능을 선보였다. 작년 12월에 공개된 구글 ‘AR 코어 뎁스 API(AR Core Depth API)’를 이용하면, 포켓몬고 같은 게임에 등장하는 몬스터가 내 노트북 뒤로 숨었다가 도망가는 모습도 만들어낼 수 있게 된다. AI 덕분에 스마트폰 디스플레이는 보이지 않는 것을 보여주는, 새로운 눈이 되어 가고 있다.
모바일 AI, 듣고 이해하고 적기 시작하다
스마트폰 앱을 이용해, 지금 듣고 있는 노래가 누구 노래인지 검색해 본 사람은 얼마나 있을까? 음성인식이 제대로 되기 전이었지만, 이 정도 기능은 기존부터 쓰고 있었다. 요즘 모바일 음성인식 기능은 생각보다 꽤 좋아졌다. 삼성 빅스비가 탑재된 스마트폰을 이용해 글을 쓸 때, 빅스비 버튼을 누르고 있으면 음성으로 글씨를 쉽게 입력할 수 있다. 써보면 상당히 편하다. 사람 대신 전화를 걸어서 얘기하는 ‘구글 듀플렉스’를 발표해 화제를 모았던 구글은, 최신 인공지능 기술을 스마트폰 안에 모두 녹여내기 시작했다. 안드로이드 10 버전에 들어갈 ‘실시간 자막’ 기능을 이용하면 특별한 작업 없이도 영상에 바로 자막이 뜨고, 픽셀폰에 탑재된 녹음 앱을 이용하면 녹음하면서 바로 내용을 받아 적는다.
▲ 구글 어시스턴트 (출처 : 블로터)
요즘 스마트폰에 담긴 인공지능은 내 말을 이해해 다양한 정보를 검색하기도 한다. AI 종류에 따라 다르고 아직 많이 부족하지만, 말만 하면 주변 맛집을 찾는다거나, 날씨를 확인할 수 있고, 특정 장소에서 찍은 사진이나 누군가와 대화한 문자 메시지만 따로 골라서 볼 수도 있다. 예전부터 많이 쓰던 번역 기능도 좋아졌다. 구글 어시스턴트는 실시간 통역 기능을 지원하기 시작했고, 파파고는 온라인에 연결되어 있지 않아도 오프라인 번역을 지원한다. 해외여행을 할 때 쓰면 편하다. 앞으로는 자동 응답 기능을 비롯해, 보이스 피싱이나 딥페이크 기술을 이용해 변조된 전화 통화를 파악해 막는 등 다양한 기능이 출시될 가능성이 크다.
모바일 AI가 가져다 줄 편리한 생활
최근 모바일 AI가 향하고 있는 방향은 명확하다. 엣지 컴퓨팅과 이에 기반한 개인화다. 인터넷이 연결되지 않은 상황에서도 쓸 수 있는 AI 프로그램이 스마트폰에 들어간다는 말이다. 서버와 데이터를 덜 주고받으니 비교적 더 안전하다. 데이터 로밍 없이 해외여행을 가도 AI 기능을 쓸 수 있다. 내 스마트폰 안에 담긴 정보는, 내게 맞춰 AI가 알아서 관리한다. 출근하기 전에 날씨와 교통 정보를 자주 이용했다면, "앞으로 그 정보를 미리 알람으로 띄울까요?"하고 묻는다. 여기에 네트워크가 더해지면 AI의 퍼포먼스는 더욱 파워풀해진다. CES 2020에서 발표된 AI 로봇 ‘볼리’처럼 스스로 상황에 맞게 행동하고 사용자에게 중요한 상황을 알아서 판단해 알려주는 믿음직한 AI가 되는 것이다.
다음에는 어떻게 변할까? 멀리 보면 IT 기기는 ‘어디에도 있으며, 어디에도 없는’ 방향으로 가고 있다. 스마트폰으로 가전제품을 조작하는 시대를 지나, 집 전체를 하나의 커다란 컴퓨터, IT 집합체처럼 느끼게 되는 시대로. 그러한 변화가 오기 위해서는 우선 ‘배울 필요 없이’, ‘상황을 인식해’, ‘알아서 무언가를 해 주는’ 고차원 모바일 AI가 계속 등장해야 하며, 그러한 신뢰도 높은 AI가 보편화 될 때 우리의 일상에도 지금과는 다른 차원의 변화가 나타날 것으로 기대된다.
※ 이 칼럼은 해당 필진의 개인적 소견이며 삼성디스플레이 뉴스룸의 입장이나 전략을 담고 있지 않습니다.