‘거의 모든 것의 인터랙션’ 시대, 최후의 승자는?
지난 2012년 1월, 미국 뉴욕 링컨센터 에이브리 피셔 홀(Avery Fisher Hall). 앨런 길버트(Alan Gilbert) 뉴욕필하모닉오케스트라 음악감독의 지휘 아래 말러(Mahler) 교향곡 9번이 연주되고 있었다. 살아있는 모든 것에 작별을 고하듯 장중하면서도 비감하게 잦아드는 마지막 부분. 청중은 숨죽인 채 연주에 몰입하고 있었다.
클래식 애호가, 뉴욕필 공연서 ‘민폐 관객’ 되다
바로 그때, 별안간 휴대전화 전자 알람(alarm)음이 울렸다. “딩동 따당당 따당당!” 빠르면서도 경망스러운, 누가 들어도 스마트폰 알람이란 사실을 알아챌 수 있는 그 소린 반복되며 점점 커졌다. 명곡의 연주를 마무리 짓기 위해 이 사실을 애써 무시하며 지휘를 계속하던 길버트는 결국 연주를 중단시켰다.
여기저기서 성난 청중의 고함 소리가 터져 나왔다. “공연 보며 스마트폰을 켜두면 어떡해요?” “누구 겁니까? 당장 끄세요!” 말썽을 일으킨 기계음의 진원지는 링컨센터의 오랜 후원자 중 한 명인 70대 남성이었다. 그는 모든 이의 시선이 자신에게 집중된 후에도 한참 지나서야 호주머니에 손을 넣어 점점 더 시끄러워지는 자신의 스마트폰을 꺼냈다. 공연일 하루 전 구입한 제품이었다.
신사는 연주 시작 직전 분명히 기기를 무음(無音) 상태로 전환시켰다. 아니, 전환시켜놨다고 생각했다. 그리고 그건 사실이었다. 다만 그가 한 가지 놓친 게 있었다. 해당 모델에서의 ‘무음’은 전화 착신음에 적용될 뿐 알람음엔 해당하지 않는다는 사실이었다.
이 사건은 공연 이튿날 뉴욕타임스를 비롯, 미국 주요 일간지에 앞다퉈 소개됐다. 그에 관한 인터넷 댓글도 한동안 시끌벅적했다. 대부분은 ‘무음 전환 시 알람음도 함께 음 소거 처리가 돼야 하는지 여부’에 관한 갑론을박(甲論乙駁)이었다.
클릭·터치·스크롤… 이 모든 게 ‘마이크로인터랙션’
이 해프닝은 댄 새퍼(Dan Saffer)의 2014년 저서 ‘마이크로인터랙션(Microinteraction)’ 서두에도 등장한다. 가정용 로봇 제조 기업 ‘메이필드 로봇(Mayfield Robotics)’ 부사장인 동시에 저술가와 디자이너로도 활동 중인 그는 이 책에서 시종일관 마이크로인터랙션의 중요성을 강조한다. “디자이너(혹은 소비자) 입장에서 마이크로인터랙션의 적절한 활용 방안을 고민해야 한다”며 동명의 키워드를 유행시키기도 했다.
새퍼가 언급한 마이크로인터랙션은 쉽게 말해 ‘특정 기기(device)를 쓸 때 사용자가 실제로 행하는 움직임 일체와 관련된 요소’다. 스마트폰을 예로 들면 △설정(setting)을 바꿀 때 △서로 다른 기기 간 데이터를 동기화할 때 △알람을 맞추거나 비밀번호를 입력할 때 △로그인(로그아웃)할 때 △‘좋아요(like)’ 따위의 상태 메시지를 넣을 때 사용자는 해당 기기와의 마이크로인터랙션에 참여하고 있는 것이다.
마이크로인터랙션은 비단 스마트폰뿐 아니라 어느 기기에든 존재한다. 크고 작은 기계(장치)와 PC, 심지어 주거∙업무 환경에도 숨어있다. PC용 음악파일 재생장치 ‘곰플레이어’를 예로 들어보자. 바탕화면에서 마우스 왼쪽을 활용, ‘곰플레이어’ 아이콘을 클릭하면 곰플레이어 실행 화면이 떠오른다<아래 사진 참조>. 곰플레이어 아이콘을 선택, 클릭하는 사용자의 행동에 PC가 반응하는 과정 일체가 바로 마이크로인터랙션이다.
위 사례에서 사용자와 컴퓨터 간 상호작용은 말 그대로 그 규모가 지극히 작다(micro). 각종 IT 기기가 범람하는 요즘, 우린 도처에서 시시각각 다양한 용도로 마이크로인터랙션과 마주한다.
▲갤럭시 S7 엣지 바탕화면 하단의 연한 파란색 선을 위로 스크롤해 올리면(왼쪽 사진) 사용자가 미리 등록해둔 신용카드 이미지가 떠오르며 ‘삼성 페이’ 모드로 전환된다. 이 역시 사용자와 스마트폰 간 마이크로인터랙션의 한 예다
오늘날 사용자는 일상에서 일일이 세기조차 어려울 정도로 많은 마이크로인터랙션을 경험하고 있다. 때론 너무 미세해서, 때론 너무 자주 접해서 대부분 그 실체를 인식하지 못할 뿐이다. 하지만 앞서 소개한 ‘말러 교향곡 해프닝’에서 알 수 있듯 마이크로인터랙션은 자칫 큰 혼란을 야기할 수 있다. “스마트폰의 마이크로인터랙션 방식을 잘 이해하지 못했다”는 이유만으로 ‘자타공인 클래식 애호가’ 노(老)신사가 새해 벽두부터 온 미국을 떠들썩하게 만든 것처럼.
사용자 “어려운 건 싫다… 무조건 직관적으로, 쉽게!”
기기 제작자가 마이크로인터랙션 영역을 충분히 고민하지 않으면 해당 기기 사용자는 쉬 짜증을 내고 싫증을 느끼게 마련이다. 마이크로인터랙션은 기기의 기능과 특성을 사용자와 연결 짓는 ‘실행 고리’ 역할을 하기 때문이다. 이와 관련, 댄 새퍼는 “당신이 ‘사랑하는’ 제품과 당신이 ‘하는 수 없이 쓰는’ 제품의 차이는 대부분 각 제품이 지닌 마이크로인터랙션이 그 원인”이라고 지적했다.
새퍼에 따르면 마이크로인터랙션은 △트리거(trigger) △룰(rule) △피드백(feedback) △모드와 루프(mode & loop) 등 크게 네 요소로 구성된다. 트리거는 마이크로인터랙션이 시작될 수 있도록 방아쇠(trigger)를 당겨주는 단계다. 컴퓨터 메뉴 바(bar)와 스마트폰 화면의 수많은 아이콘, 하나의 아이콘을 클릭하면 나타나는 또 다른 아이콘(들)…. 이런 게 전부 트리거다.
컴퓨터가 상용화되고 스마트폰이 대중적으로 보급된 이래 무수한 디자이너가 ‘최적의 트리거’를 만들기 위해 고민해왔다. ‘어떻게 해야 사용자 이해를 도우면서도 기기를 오류 없이 작동시킬 수 있을까?’ 그들이 찾아낸 방법 중 가장 쉬운 건 ‘그림으로 동작 표시하기’였다. △쓸모없는 파일을 버릴 수 있는 공간은 ‘휴지통’ △그림 작업용 소프트웨어는 ‘(물감 묻은) 화판과 붓’ △스마트폰 통화 관련 기능은 ‘수화기’ △사진 촬영 기능은 ‘카메라’로 각각 형상화하는 식이다<아래 사진 참조>. 이 같은 아이콘은 점차 더 세련되고 부드럽게, 그러면서도 한눈에 들어오는 모양으로 가공돼왔다.
사용자가 아이콘 모양만 보고 어떤 기능인지 알아차린 후 해당 트리거를 클릭(혹은 터치)하면 그와 동시에 ‘보이지 않는 알고리즘’이 작동하기 시작한다. 사용자의 동작 개시 이후 기기 내 소프트웨어가 어떻게 반응해야 하는지 규정하는 이 과정이 바로 룰이다. 피드백은 ‘룰에 따라 소프트웨어가 작동돼 사용자의 눈에 보여지는 단계’를, 모드와 루프는 ‘보다 큰 틀에서 이 모든 과정이 어떤 포맷과 시스템에서 작동될지 결정하고 그 결과를 반영해 새 단계로 나아가게 해주는 단계’를 각각 일컫는다.
마이크로인터랙션은 그 특성상 꽤 미묘하게 작동돼 사용자가 잘 인식하지 못한다. 대부분은 기기 구입 시 사양, 일명 ‘스펙’을 꼼꼼히 따지는 데 그칠 뿐 마이크로인터랙션까지 챙기진 않는 게 일반적이다. 예를 들어 교보문고 홈페이지 초기화면 검색 창에서 ‘스테디’란 글자를 입력하면 교보문고 측이 제공하는 스테디셀러 안내 화면으로 전환된다<아래 사진 참조>. 이 역시 마이크로인터랙션이다. 대부분의 사용자는 이 사실을 익히 알고 있다. 하지만 그 순간, 얼마나 많고 복잡한 알고리즘이 맞물려 돌아가는지에 대해선 무관심하다. 그들이 원하는 건 그저 ‘직관적으로 이해되고 결과물이 쉽게 나타나는’ 인터랙션 그 자체다.
레버와 버튼, 서피스… 그 다음 인터랙션 매개 수단은?
인간은 도구를 만들 줄 아는 동물이다. 호미나 창(槍)처럼 초기 인간이 만들었던 도구는 인간이 일정한 힘을 쓰면 그만큼의 일을 해주는 형태로 작동했다. 이 과정에서 인간과 도구 간 ‘마이크로인터랙션’ 개념은 없다시피 했다.
인간이 했어야 할 일을 기계가 대신 해주기 시작한 건 산업혁명기, 즉 ‘기계’가 본격적으로 등장하면서부터다. 목화솜을 따서 넣으면 한편에선 씨앗을 빼주고 다른 한편에선 실을 뽑아내는 기계, 매끈한 건반을 누르는 동작만으로 팽팽한 철사(鐵絲)를 힘껏 내리쳐 강하고 아름다운 소리를 내는 피아노…. 이런 것들을 움직이게 하는 건 지렛대(lever)였다. 작은 힘을 큰 힘으로 바꿔주는 지렛대야말로 인간과 도구 간 마이크로인터랙션을 증폭시켜주는 매체였던 셈이다.
20세기 들어 전기가 일상에 응용되면서 인간의 작은 몸짓은 한층 큰 힘으로 증폭됐다. 1910년대 초, 손가락 끝으로 딸깍 올리기만 하면 온 방이 환해지는 스위치(switch)의 등장은 마이크로인터랙션의 본격적 대두를 예고했다. 이때 인간과 기계 간 마이크로인터랙션을 매개하는 건 ‘버튼(button)’이었다. 이어 공간 간격을 극복하게 해주는 리모컨(1956), 보다 정교한 마이크로인터랙션을 가능케 하는 컴퓨터 마우스(1963)가 각각 개발됐다.
(사진 출처: 위키피디아, 푸시클릭터치 블로그/출처가 명기된 이미지는 무단 게재, 재배포할 수 없습니다)
눈앞에 닥친 ‘무한대 자유’, 능히 감당할 수 있는가!
GE디지털 디자이너이면서 저술가로도 활동 중인 빌 드루시(Bill DeRouchey)는 프레젠테이션 공유 커뮤니티 ‘슬라이드셰어(SlideShare)’에 올린 ‘버튼의 역사(History of the Button)’란 글에서 “20세기 물질 문명을 이끌어온 인터랙션 매체 ‘버튼’이 21세기로 접어들며 ‘서피스(surface)’로 바뀌고 있다”고 지적했다.
‘차세대 인터랙션의 중심’으로 꼽히는 서피스 인터랙션, 그 가능성은 어디까지일까? 이제부터 고민해야 할 문제는 바로 이것이다. 인터랙션을 ‘트리거’ 하는 ‘버튼’은 이제 경계도, 형태도, 언어도, 장식도 벗어던지고 있다. 마침내 ‘모든 것이 모든 것과 상호작용(interaction) 하는’ 시대로 진입한 것이다. 미래 IT 산업계를 이끌 지도자는 바로 그 자유를 통제(control)할 수 있는 사람이 될 것이다.
삼성전자 뉴스룸의 직접 제작한 기사와 이미지는 누구나 자유롭게 사용하실 수 있습니다.
그러나 삼성전자 뉴스룸이 제공받은 일부 기사와 이미지는 사용에 제한이 있습니다.
<삼성전자 뉴스룸 콘텐츠 이용에 대한 안내 바로가기>