Проектирование интерфейса голосового помощника
Нелли Кам
Доклад рассчитан на дизайнеров, которым предстоит проектировать голосовой интерфейс.
Многим из нас предстоит, так как подростки уже начинают говорить с телефонами. И не стесняются.
Больше года мы разрабатываем голосовой интерфейс для нашего приложения. Год назад голосом можно было создать событие, сделать поиск. Потом мы сделали аудио заметки, которые конвертируются в текст. Теперь вернулись обратно к голосовому управлению и встраиваемся в интерфейсы корпоративных приложений.
Сейчас мы в процессе разработки интерфейса, который позволит сотрудникам корпораций, взаимодействовать со всеми своими приложениями (календари, почта, CRM, формы отчетности и т. д.) без необходимости смотреть в телефон. Сири и Алекса не делают этого. У них есть информация о человеке и его приложениях, но нет доступа к рабочему пространству, они не умеют заполнять сложные рабочие формы. Мы — умеем.
С первого взгляда, спроектировать голосовой интерфейс было легко. Есть много примеров: Сири, Алекса, Гугл, Алиса. Мы изучили основные состояния, которые они показывают. Обосновали, когда-какие помощники должны по разному себя вести, выглядеть и быть доступными. Сделали много ошибок и итераций. Хочу рассказать об этом опыте.
План доклада
- Отличия голосового интерфейса, помощника, чтения экрана, диктовки. Контекст и состояния Сири, Алексы, Алисы, Анны (для браузера), Гуглдоков.
- Модели реализации. Способы анимации. Неочевидные и иногда необходимые состояния на примере нашего приложения.
- Как наша нейросеть обрабатывает голосовой поток (кратко о разработке).
- Лифтёры: один из идеальных кейсов использования.
- Проблемы и ошибки: браузеры, технологии, психология (подростки и пример Калифорнии), как мы развернулись на 360 градусов за год, опасность визуализации «красивых интерфейсов будущего»
- Внутренние инструменты: как выглядят ответы изнутри. И как работа дизайнера с консолью помогла нам ускорить разработку.
- Демонстрация и видео.