Content
home
Tech Blog (BEST⭐)
home
✉️

10주차 - Part 1 : 제품 디자인 의사결정 및 벤치마킹에 UX Metric 활용하기

목차 열어보기

CHAPTER 11 : Case Studies

 11.1 : 제품 디자인 의사결정에 In-depth Interview, Eye tracking 지표를 활용한 사례
 11.2 : 경쟁사 벤치마킹을 위한 PCW 프레임워크
 11.3 : UX Profit Chain Model 연구 사례

11.1 Thinking Fast and Slow in the Netflix TV User Interface

(By Zach Schendel, Product Consumer Insights, Netflix)

Background

글로벌 구독형 스트리밍 비디오 서비스 넷플릭스에는 다양한 장르 및 언어의 TV 시리즈, 다큐, 영화 등이 있고
유저는 서비스를 시작할 때 아래 2가지 상황을 마주하게 됩니다.
1) Destination (명확히 보고싶은 것이 있음)
유저 : 해당 콘텐츠를 가능한 빨리 보여주길 원함
넷플릭스 : 북마크 저장, 이어보기, 검색 기능 등을 제공함
2) Discovery (새로운 발견을 하고 싶음)
유저 : 정해진 것은 없고 새로운 콘텐츠를 원함
넷플릭스 : 신작, 반응 좋은 콘텐츠, 유저가 찜해놓은 콘텐츠가 공개됨 노티, 추천 기능 등을 제공함
→ 넷플릭스 프로덕트 팀은 2가지를 모두 만족시키려 하지만, 지금까지는 Discovery 가 좀 더 도전적인 과제
“뭘 봐야할지 모르겠어” “들어본 적이 없는 영화들인데..” “이걸 왜 추천해주지?”
이번 챕터에서는 넷플릭스 유저들의 새로운 콘텐츠 발견 경험 개선을 위한 연구들을 소개합니다.

Methods

In-depth Interview
인터뷰 참여자
Never members (n=25) : 처음 free trial 가입하고 넷플릭스 TV UI를 처음 본 유저
Early members : Never members 중 45일 뒤 인터뷰에 재참여한 유저 (대부분에 해당)
Tenured members (n=25) : 이용한지 최소 6개월 이상 된 유저
인터뷰 환경
집 거실 소파에 앉아 넷플릭스를 보는 상황
PS3 가 연결되어 있는 HDTV 에 넷플릭스 TV UI 를 보여줌 (게임 컨트롤러로 조절)
인당 1시간 진행
인터뷰 과정
목표는 “보고 싶은 콘텐츠를 찾는 것”
원하는 만큼의 시간을 쓸 수 있고, 각 인터뷰는 영상 재생 버튼을 누를 때 종료
연구자는 조용히 행동 관찰 및 기록하거나, 참여자가 행동을 구두로 말하도록 하기도 함
Eye tracking
인터뷰 참여자
최근에 넷플릭스 사용 경험이 있는 유저 (n=43)
인터뷰 환경 및 과정은 IDI 와 비슷하나, eye-tracking 안경을 착용한 점이 가장 큰 차이

Results

참여자들은 빠르게 UI 를 탐색함
Boxart 영역을 지속적으로 탐색하며, 해당 Artwork 가 어떤 의미를 전달하는지에 대해 이야기함
e.g., 장르, 톤, 무드, 배우, 이미 봤거나 볼 것들, 콘텐츠 주제와 매칭된다고 느끼는 아트워크 등
익숙한 콘텐츠가 보이면 탐색 행동을 잠시 멈추는 경향이 있음
“이 줄에서 2개를 봤네” “이 배우가 나온 건 다 좋았어” “내 최애 장르야”
좀 더 알아보고 싶은 콘텐츠가 나오면 또한 탐색 행동을 잠시 멈추는 경향이 있음
화면 2/3 가 해당 콘텐츠에 대한 설명이 나오고
시놉시스의 특정 단어, 배우를 언급하며 평점 등 나머지에 대해서는 거의 이야기 하지 않음
→ IDI 는 콘텐츠를 볼지/안볼지 결정하는 과정에 대한 가설, Eye Tracking 은 이러한 가설들을 테스트하는 데에 활용
Eye tracking 결과
Thinking Fast
75%의 시간을 boxart 를 보는데에 사용함
콘텐츠를 안보겠다고 결정한 것중 91% 가 1초도 걸리지 않음 (boxart 를 본 순간 결정)
→ 빠르게 스크롤링, 커버로 판단
→ boxart 는 이미지를 통해 중요 정보를 빠르게 전달하는 역할 (장르, 배우 짐작)
→ 다만, 판단 오류가 발생하기 쉬움 (다르게 이해, 좋아하는 것을 놓침)
boxart 로 올라가는 artwork 들을 최적화하는 것이 얼마나 중요한지 강조
Thinking Slow
각 작품별 추가 정보 (상단 이미지)를 얻으려고 함
3초 이상의 시간을 소요하는 작품의 경우 재생할 가능성이 높았음
→ 좀 더 천천히 세세하게 확인함
→ 판단 오류가 발생 가능한 위 유형의 평가 이후, 작품에 대한 다른 정보들을 활용해서 더블 체크를 가능하게 함 (알고보니 최애 장르, 배우가 나옴)
⇒ 해당 연구에서 이 단계까지 온 작품 수는 매우 적었음..!
즉, 이번 연구를 통해 무엇보다도 boxart 자체를 최적화하는 것이 필요함을 확인

Impact

넷플릭스는 boxart <> 중요 정보 (장르, 출연진 등) 관계를 잘 leverage 하기 위해 이미지 개인화를 진행
여러번의 실험 끝에, 단 하나의 이미지보다 여러개의 이미지가 도움이 된다는 것을 파악
로맨스 영화를 보는 유저 vs. 코미디 영화를 보는 유저
다만, 이런 개인화 알고리즘은 클릭 낚시나 허위 이미지를 보여주려는 것이 아님!
목표는 유저들에게 충분한 정보 제공 → 취향 저격 or 취향 아닌 것 잘 지나가기 → 경험 반복을 통해 새로운 콘텐츠 탐색을 좀 더 효율적이고 즐겁게 만드는 것!

11.2 Participate/Compte/Win (PCW) Framework : Evaluating Products and Features in the Marketplace

(By Sandra Teare, Linda Borghesani, and Stuart Martinez, Constant Contact, Inc.)

Introduction

전사 목표 : 시장에서 PCW 할 수 있는 프로덕트 개발 이니셔티브 세우기
UX Research 팀의 과제는 이니셔티브를 정의하고 측정하는 것
다만, Feature 릴리즈 전까지는 사실 측정하기 어려워, PCW Goal 에 가까워지고 있는지에 대한 객관적인 기준을 설정
→ 사용자 경험과 기능 차별화는 제품 경쟁력에서 모두 중요하므로 UsabilityUtility 메트릭을 포함한 기준 설정

Outlining Objective Criteria

Participate
목표 : MVP 제공
치명적인 사용성 문제가 없는지 확인 위해 성공률 80% 목표
사용성, 신뢰도, 학습 가능성에 대한 고객 평가 - 평균 이상 (3/5) 목표
10명의 참여자로 baseline 확인
Compete
목표 : 경쟁 업체와 비슷한 수준의 성공률 및 고객 평가
특정 기능들을 비교 테스트 - 강점, 약점, 개선 포인트를 파악
참여자
한 명이 2가지 제품(자사 vs 경쟁)을 모두 평가 : 15~20명
1가지 제품만 평가 : 최대 25명
Within-subjects design (반복 측정 설계) vs. Between-subjects design (독립 집단 설계) (https://dwmm.site/article/article_summary-1/)
제품간 정당한 비교를 위해, 참가자 선별이 매우 중요 → 두 제품에 똑같이 익숙하지 않거나, 비슷한 수준의 경험이 있어야 함
Win
목표 : 경쟁 업체보다 의미있고 통계적으로 유의한 차이를 목표 (약 30%)
참여자
한 명이 2가지 제품(자사 vs 경쟁)을 모두 평가 : 30명
1가지 제품만 평가 : 64명
실제로는 제품 이해도에 대한 제약 사항으로 인해 “1가지 제품만 평가” 방식만 사용

Feature Analysis

어떤 제품 기능들에 대해 위 지표들을 평가할까?
1) Generating the Feature List
프로덕트팀, UX팀이 함께 직간접적인 경쟁 제품의 기능들을 조사
경쟁 제품 웹사이트, 리뷰, 블로그, 마케팅 자료 등 활용
이 많은 Feature 들이 다 필요할까?
2) Calculating a Feature importance score
현, 잠재 고객들에게 가장 중요할 기능들을 선별
Optimal Sort : “Must Have”, “Nice to Have”, “Not Important” 로 분류
가중치로 Feature importance score 계산
→ Important score 가 높은 기능들을 최종적으로 테스트에 사용
3) Choosing a Competitive Product
프로덕트팀, UX 리서치 팀이 최종 경쟁 제품을 선정
How 는 책에 나오지 않았는데, 2번 결과를 참고해서 선정할 것으로 추측
4) Calculating a Feature Availability/Value Score
Important score 가 높은 기능들에 대해 모두 더해줌 (⇒ 제품 점수)
경쟁 제품과 어떤 기능들이 겹치는지, 얼마나 비슷한지 보여줌

PCW Usability Testing

선별한 경쟁 제품 및 기능들을 바탕으로 성공률, 고객 평가에 대한 테스트를 진행 (+정성적인 피드백 수집)
당연히, 모든 기능들을 테스트할 수 없고 있는 것 중에서!
고가치 기능이지만, 우리 제품에는 없는 경우 경쟁 제품으로부터 배움을 얻기도!
Overall Program Success
1.
PCW 프레임워크는 시니어 리더들에게 각 프로덕트 개발 이니셔티브가 목표하는 정도를 이야기할 때 성공적이었음
2.
기능 우선순위를 매김으로써 프로덕트 개발 과정을 개선, 팀 동기부여도 됨

11.3 Enterprise UX Case Study : Uncovering the “UX Revenue Chain”

(By JD Buckley, JD Usability)
Human-centered 디자인 프로세스 <> 기업 수익의 정량적 관계를 연구하는 UX 디자인&리서치팀의 사례를 소개합니다.
목표
지속적으로 사용자 태도 및 행동을 측정하기에 적절한 메트릭 설정
End user 의 핵심 행동 식별
정량적이고 통계적으로 유의한 측정값들을 통해 baseline 설정
UX팀의 가치, 임팩트 측정을 위한 메트릭 설정
연구 절차
Metric identification and selection
가장 유용한 UX 메트릭 선별에 있어 가장 중요한 3가지 질문
1.
UX 팀이 제품에 줄 수 있는 영향을 가장 잘 측정할 수 있는 UX 메트릭은?
2.
제품에서 만들고자 하는 변화를 가장 잘 반영하는 UX 메트릭은?
3.
경영진 입장에서 적합한 UX 메트릭은?
Top task identification
Top task force ranking survey
Qualitative and quantitative task-based benchmark study pre-redesign #1
Qualitative and quantitative task-based benchmark studies post-redesign (#2, #3, #4)
결과 요약
Discussions
PAP에서는 스터디 구성원들이 세션 진행 후 주제 발제를 통해 논의를 진행합니다.
10주차 - Part 2 에서 확인
Editor
김가연 데이터 분석가
다양한 콘텐츠를 즐기고, 자연스레 영업하고, 분석하기 좋아하는 사람.
제품 유저들의 행동을 더욱 잘 이해하고 싶어서 Quantitative UX 스터디를 시작했습니다.

이어지는 글 모아보기

Search