Современные смартфоны нередко рассматривают как совокупность характеристик и оценивают исключительно по чипсету, емкости батареи и количеству мегапикселей. Но это не особо касается эппловской продукции, ведь ее предпочитают исключительно за бренд. И все же, нельзя не отметить, что одних технических параметров мало – в конечном итоге ключевую роль играют приложения и удобство операционной системы. Именно поэтому разработчики операционных систем придумывают всевозможные функции, позволяющие если не облегчить пользователю жизнь, то, как минимум выделиться на фоне базовых программных возможностей, к которым все итак давно привыкли.

Как бы там ни было, все пытаются заявить о своем гаджете различными программными фишками, и совсем недавно для Apple это стала возможность управления глазами. Но для начала немного истории.

Что предлагали в третьем поколении самсунговских флагманов?

Многим может показаться, что распознавание лиц или пролистывание страниц глазами – последние достижения на мобильном рынке. Между тем, подобный функционал был широко разрекламирован еще в Samsung Galaxy S Duos 3, о котором уже все и забыли. Да, гаджет уже тогда умел отслеживать глаза своего владельца. К примеру, функция «Интеллектуальное ожидание» предусматривала отслеживание глаз, дабы не входить в спящий режим, пока на экран смотрят. Еще было листание страниц взглядом, а позже в Нотах появилась и разблокировка по сетчатке глаза. Впрочем, все это работало не так гладко, как представлялось маркетологами, хотя и вызывало интерес публики.

Управление взглядом в iOS

Для Айфонов разрабатывают большое количество приложений, на что уходит немало времени и трудов программистов со всего мира. Как раз один из таких разработчиков из Сан-Франциско и обнаружил столь интересную функцию. Мэтт Мосс исследовал бета-версию iOS 12 поколения и выявил в платформе дополнительной реальности ARKit 2.0 возможности, позволяющие отслеживать движения глаз своего владельца, а это можно использовать для управления. Примечательно, что данная возможность не была официально представлена на конференции WWDC 18. А между тем, ключевой целью выставки стала именно презентация бета-версии новой ОС, причем в мероприятии участвовало немало разработчиков.

Для того чтобы лучше понять возможности смартфона, Мосс написал специальное приложение. Оказалось, ARKit 2.0 может куда больше, чем просто отслеживать направление взгляда. Как только функция стала известна разработчику, он тут же захотел проверить, на что способен гаджет. Выяснилось, Айфон может определить даже то, на какую часть дисплея в настоящий момент смотрит пользователь. Но отслеживание направления – только полдела в полноценном управлении гаджетом. Видео, которое записал автор приложения, демонстрирует, что таким образом можно даже нажимать на кнопки. Для этого достаточно взглянуть на кнопку и моргнуть, что будет зафиксировано и воспринято как команда нажатия.

Где предусмотрен функционал?

Увы, но пока что подобной фичей может похвастаться только самый дорогостоящий и продвинутый смартфон компании. Речь об Apple iPhone X, конечно же. Но перед тем как разобраться в чем причина такого неравенства, сравним модель с базовым восьмым поколением.

Модель Дисплей Процессор ОЗУ Батарея
Apple iPhone X 1125x2436, 5,8” А11 бионик 3 Гб 2716 мач
Apple iPhone 8 750x1334, 4,7” А11 бионик 2 Гб 1821 мач

Как видно, несмотря на различия в габаритах, гаджеты имеют одинаковую производительную платформу. Кроме того оба смартфона могут похвастаться одинаковыми версиями ПО. Тем не менее, гаджеты разные по своей сути и позиционированию. Отличаются они даже не дисплеем с модной «бровью», а методами биометрической разблокировки. В классических Айфонах оставили привычный уже с пятого поколения Touch ID, который позволяет пользователю не вводить пароль для разблокировки, а прикладывать палец к кнопке Home, после чего она считывает данные об отпечатке. В iPhone X, как известно, от функции отказались, зато детально проработали новую, только представленную компанией, технологию Face ID. Именно в этом и кроется отличие, позволяющее внимательнее следить за глазами пользователей.

Как работает распознавание лиц в эппловском Иксе?

Функции узнавания были заложены в разных моделях смартфонов и компьютеров. Но именно в Х-смартфоне от Эппл ее алгоритмы доведены до совершенства. Используемые программные и аппаратные компоненты позволяют анализировать больше тридцати тысяч точек на лице человека. В свою очередь, камера True Depth точно отслеживает действия лицевых мышц, а фрагмент нейронного ядра преобразует полученные данные в точную карту глубины, что не позволяет разблокировать гаджет по фотографии или другому плоскому изображению. Как видно, отслеживание взгляда – один из ключевых элементов системы распознавания. Но если задуматься, гаджет способен не только на это, а и на распознавание мимики, как следствие и настроения. Именно эти принципы решили использовать для релиза новых «Эмодзи».