Устройство обработки информации, способ обработки информации и программа

Иллюстрации

Показать все

Изобретение относится к устройству обработки информации, включающему в себя множество сенсорных панелей, и к способу обработки информации. Техническим результатом является обеспечение возможности связывать и управлять отображением объектов в качестве целевых объектов операций между множеством сенсорных панелей в соответствии с операциями касания на множестве сенсорных панелей. Устройство обработки информации содержит первую сенсорную панель для отображения первого объекта и обнаружения первой операции касания пользователем первого объекта; вторую сенсорную панель для отображения второго объекта и обнаружения второй операции касания пользователем второго объекта; и контроллер для связывания и изменения отображаемого первого объекта и отображаемого второго объекта, когда вторая операция касания обнаруживается в пределах заданного промежутка времени с момента обнаружения первой операции касания, при этом первый объект и второй объект отображаются как часть единого третьего объекта, причем первая операция касания и вторая операция касания являются операциями с вращательным направлением, при этом контроллер выполнен с возможностью поворота третьего объекта, когда вторая операция касания обнаруживается в пределах заданного промежутка времени с момента обнаружения первой операции касания. 2 н. и 8 з.п. ф-лы, 36 ил.

Реферат

Уровень техники

Настоящее изобретение относится к устройству обработки информации, включающему в себя множество сенсорных панелей, способу обработки информации для устройства обработки информации и программе для него.

Описание предшествующего уровня техники

Из прошлого известны устройства обработки информации, включающие в себя множество сенсорных панелей. Например, выложенная заявка на патент Японии №2003-150273 (фиг.1, 4, 10 и т.д.; далее именуемая как патентный документ 1) раскрывает персональный цифровой секретарь (PDA) типа наручных часов, в котором множество панелей, включающие в себя жидкокристаллические панели (LCD), соединенные в единое целое со множеством сенсорных панелей, соединены шарнирным элементом.

Сущность изобретения

Однако в PDA, раскрытом в патентном документе 1, сенсорной панелью обнаруживается только операция с кнопкой, отображаемой на каждой жидкокристаллической панели. Соответственно, когда обнаруживаются операции касания на множестве сенсорных панелей, то PDA неспособен связывать и управлять отображением соответствующих объектов в качестве целевых объектов операций между множеством сенсорных панелей. То есть PDA неспособен выполнять единую, комплексную обработку данных на множестве сенсорных панелей.

Ввиду вышеописанных обстоятельств существует потребность в устройстве обработки информации, способе обработки информации и соответствующей программе, которые способны связывать и управлять отображением соответствующих объектов в качестве целевых объектов операций между множеством сенсорных панелей в соответствии с операциями касания, определяемыми на множестве сенсорных панелей, и выполнять единую, комплексную обработку данных.

Согласно варианту осуществления настоящего изобретения, обеспечивается устройство обработки информации, включающее в себя первую сенсорную панель, вторую сенсорную панель и контроллер. Первая сенсорная панель отображает первый объект и обнаруживает первую операцию касания пользователем первого объекта. Вторая сенсорная панель отображает второй объект и обнаруживает вторую операцию касания пользователем второго объекта. Контроллер связывает и изменяет отображенный первый объект и отображенный второй объект, когда вторая операция касания обнаруживается в пределах заданного промежутка времени после обнаружения первой операции касания.

Устройство для обработки информации, имеющее такую структуру, может связывать и управлять отображением объектов в качестве целевых объектов операций между соответствующими сенсорными панелями в соответствии с операциями касания, обнаруженными первой и второй сенсорными панелями и, таким образом, выполнять единую, комплексную обработку данных. Соответственно, поскольку устройство обработки информации может обрабатывать множество объектов не только по отдельности, но также и комплексно, по сравнению со случаем, когда используется единственная сенсорная панель, то возможно увеличение гибкости обработки в соответствии с вариантами использования, определяемыми пользователем.

В данном случае заданный промежуток времени составляет, например, около 0-3 секунд, но не ограничивается этим. Другими словами, заданный промежуток времени также включает в себя случай, когда первая операция касания и вторая операция касания обнаружены одновременно. Первая и вторая сенсорные панели включают в себя панели, которые содержат емкостной датчик бесконтактного типа, при этом первая и вторая операции касания включают в себя операции, которые не сопровождаются физическим контактом с первой и второй сенсорными панелями. Кроме того, первый и второй объекты включают в себя, например, значок, окно, целый экран и различные другие изображения. Первый и второй объекты могут быть объектом, полученным с помощью разделения единого объекта, и отображаться на первой сенсорной панели и второй сенсорной панели, или они могут отображаться отдельно и индивидуально.

Первая операция касания и вторая операция касания могут быть операциями в противоположных направлениях.

Соответственно, с помощью установки операций касания для связывания и изменения первого и второго объектов, которые производятся в противоположных направлениях, устройство для обработки информации позволяет пользователю легко распознавать разницу с нормальной, несвязанной операцией касания и интуитивно вводить операцию касания. В результате устройство обработки информации может также не допустить ошибочную операцию пользователя. В данном случае противоположные друг другу направления включают в себя операции не только в линейном направлении, но также в криволинейном направлении и во вращательном направлении.

Контроллер может отображать первый объект на второй сенсорной панели и отображать второй объект на первой сенсорной панели, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Соответственно, пользователь может переключать отображение объектов или экранов, отображаемых на первой и второй сенсорных панелях, с помощью интуитивных операций касания.

Первый объект и второй объект могут отображаться как часть единого третьего объекта. В этом случае первая операция касания и вторая операция касания могут быть операциями во вращательном направлении. В этом случае контроллер может поворачивать третий объект, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Соответственно, пользователь может не только рассматривать один объект на множестве сенсорных панелей, но также поворачивать объект с помощью легких и интуитивных операций, которые аналогичны операции вращения реального объекта.

Первый объект и второй объект могут отображаться как часть единого третьего объекта. В этом случае первая операция касания и вторая операция касания могут быть операциями в противоположных направлениях перемещения. В этом случае контроллер может изменять третий объект таким образом, что третий объект разделяется, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Соответственно, пользователь может не только рассматривать один объект на множестве сенсорных панелей, но также изменять объект с помощью легких и интуитивных операций, которые аналогичны операции разделения реального документа или подобной операции.

В этом случае устройство обработки информации может дополнительно включать в себя запоминающее устройство для сохранения данных, соответствующих третьему объекту, а контроллер может удалить данные из запоминающего устройства, когда третий объект изменяется таким образом, что этот третий объект разделяется.

Соответственно, пользователь может интуитивно выполнить обработку удаления данных, соответствующих третьему объекту, рассматривая обработку удаления как операцию разделения третьего объекта.

Первая операция касания и вторая операция касания могут быть операциями с перемещением по направлению друг к другу. В этом случае контроллер может изменять первый объект и второй объект таким образом, что первый объект и второй объект объединяются в один объект, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Соответственно, пользователь может объединять объекты, отображаемые на первой и второй сенсорных панелях в один объект с помощью легких и интуитивных операций, которые аналогичны операции сближения реальных объектов и собирания их.

Устройство обработки информации может дополнительно включать в себя датчик для обнаружения предмета, находящегося на заданном расстоянии от первой сенсорной панели и второй сенсорной панели. В этом случае контроллер может связывать и изменять отображаемый первый объект и отображаемый второй объект, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания и предмет обнаруживается датчиком.

В этом случае предмет, который присутствует на заданном расстоянии, является, например, рукой пользователя, и более точно, базовым участком между двумя пальцами.

Соответственно, например, в том случае, когда первая операция касания является вводом с помощью пальца руки пользователя, а вторая операция касания является вводом с помощью другого пальца руки, то устройство обработки информации может надежно распознать, что операции касания являются вводом с помощью двух пальцев благодаря обнаружению руки датчиком. Соответственно, в том случае, когда только первая операция касания является вводом, а со второй сенсорной панелью случайно контактирует другой предмет, то устройство обработки информации может не допустить ошибочное обнаружение и ошибочное изменение отображения из-за контакта с другим предметом. Это происходит потому, что в этом случае сам предмет обнаруживается датчиком, но обнаруживается на расстоянии, меньшем заданного расстояния.

Кроме того, в этом случае контроллер может изменять отображаемый первый объект и отображаемый второй объект в первом режиме, когда предмет обнаруживается датчиком, и изменять отображаемый первый объект и отображаемый второй объект во втором режиме, который отличается от первого режима, когда предмет не обнаруживается датчиком.

Таким образом, в соответствии с наличием факта обнаружения предмета датчиком устройство обработки информации может изменять первый и второй объекты в различных режимах даже в том случае, когда обнаруживаются одинаковые первая и вторая операции. Таким образом, устройство обработки информации может выполнять обработку большего количества последовательностей в соответствии с первой и второй операциями касания и повышать дружественность по отношению к пользователю.

Устройство обработки информации может дополнительно включать в себя запоминающее устройство для сохранения первых данных, соответствующих первому объекту, и вторых данных, соответствующих второму объекту. В этом случае первая операция касания может быть операцией, окружающей первый объект в заданном направлении вращения, а вторая операция касания может быть операцией, окружающей второй объект в заданном направлении вращения. В этом случае контроллер может вызывать группирование и сохранение запоминающим устройством первых данных и вторых данных, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Соответственно, пользователь может группировать и сохранять первые данные и вторые данные, соответствующие первому и второму объектам, осуществляя только легкие и интуитивные операции окружения первого и второго объектов.

Согласно другому варианту осуществления настоящего изобретения, обеспечивается способ обработки информации, включающий в себя отображение первого объекта с помощью первой сенсорной панели и обнаружение первой операции касания пользователем первого объекта. Кроме того, способ обработки информации включает в себя отображение второго объекта с помощью второй сенсорной панели и обнаружение второй операции касания пользователем второго объекта. Когда вторая операция касания обнаруживается в пределах заданного промежутка времени с момента обнаружения первой операции касания, то отображенный первый объект и отображенный второй объект связываются и изменяются.

Согласно еще одному варианту осуществления настоящего изобретения, обеспечивается программа, вызывающая выполнение устройством обработки информации, включающим в себя первую сенсорную панель и вторую сенсорную панель первого этапа обнаружения, второго этапа обнаружения и этапа управления отображением. Первый этап обнаружения включает в себя отображение первого объекта с помощью первой сенсорной панели и обнаружение первой операции касания пользователем первого объекта. Второй этап обнаружения включает в себя отображение второго объекта с помощью второй сенсорной панели и обнаружение второй операции касания пользователем второго объекта. Этап управления отображением включает в себя связывание и изменение отображаемого первого объекта и отображаемого второго объекта, когда вторая операция касания обнаружена в пределах заданного промежутка времени с момента обнаружения первой операции касания.

Как описано выше, согласно вариантам осуществления настоящего изобретения, возможно выполнять единую, комплексную обработку с помощью соединения и управления отображением объектов как целевых объектов операций между множеством сенсорных панелей в соответствии с операциями касания, обнаруженными на множестве сенсорных панелей.

Эти и другие цели, признаки и преимущества настоящего изобретения станут более понятными с учетом нижеследующего подробного описания лучших вариантов осуществления изобретения, проиллюстрированных прилагаемыми чертежами.

Краткое описание чертежей

Фиг.1 - схема, показывающая внешний вид портативного информационного устройства согласно варианту осуществления настоящего изобретения;

фиг.2 - схема, показывающая структуру аппаратной части портативного информационного устройства согласно варианту осуществления настоящего изобретения;

фиг.3 - схемы, показывающие портативное информационное устройство в открытом и закрытом состоянии согласно варианту осуществления настоящего изобретения;

фиг.4 - блок-схема, показывающая процесс обработки данных в соответствии с операцией касания портативным информационным устройством согласно варианту осуществления настоящего изобретения;

фиг.5 - схемы, показывающие пример состояния вращательного жеста в портативном информационном устройстве согласно варианту осуществления настоящего изобретения, рассматриваемого с направления плоскости сенсорной панели;

фиг.6 - схемы, показывающие частный пример обработки отображения, соответствующей вращательному жесту, показанному на фиг.5;

фиг.7 - схемы, показывающие другой частный пример обработки отображения, соответствующей вращательному жесту, показанному на фиг.5;

фиг.8 - схемы, показывающие пример состояния сжимающего жеста в портативном информационном устройстве согласно варианту осуществления настоящего изобретения, рассматриваемого с направления плоскости сенсорной панели;

фиг.9 - схемы, показывающие частный пример обработки отображения, соответствующей сжимающему жесту, показанному на фиг.8;

фиг.10 - схемы, показывающие пример состояния жеста увеличения масштаба в портативном информационном устройстве согласно варианту осуществления настоящего изобретения, рассматриваемого с направления плоскости сенсорной панели;

фиг.11 - схемы, показывающие частный пример обработки отображения, соответствующей жесту увеличения масштаба изображения, показанному на фиг.10;

фиг.12 - схемы, показывающие пример состояния разделяющего жеста в портативном информационном устройстве согласно варианту осуществления настоящего изобретения, рассматриваемого с направления плоскости сенсорной панели;

фиг.13 - схемы, показывающие частный пример обработки отображения, соответствующей разделяющему жесту, показанному на фиг.12;

фиг.14 - схемы, показывающие пример состояния группирующего жеста в портативном информационном устройстве согласно варианту осуществления настоящего изобретения, рассматриваемого с направления плоскости сенсорной панели; и

фиг.15 - схемы, показывающие частный пример обработки отображения, соответствующей группирующему жесту, показанному на фиг.14.

Описание предпочтительных вариантов осуществления изобретения

Ниже описан вариант осуществления настоящего изобретения будет описываться со ссылкой на чертежи.

Общий план портативного информационного устройства

Фиг.1 - схема, показывающая внешний вид портативного информационного устройства, согласно варианту осуществления настоящего изобретения.

Как показано на чертеже, портативное информационное устройство 100 включает в себя так называемый корпус 1 двухстворчатого типа, в котором два корпуса 1а и 1b соединены с возможностью поворота (в открываемом состоянии). Фиг.1 показывает состояние, в котором корпуса 1а и 1b открыты. Пользователь работает с портативным информационным устройством 100, когда оно находится в этом состоянии.

Корпуса 1а и 1b включают в себя, соответственно, сенсорные панели 2а и 2b, находящиеся на поверхностях корпусов, которые могут быть подвергнуты воздействию в открытом состоянии. Сенсорные панели 2а и 2b составляют единое целое соответственно с дисплеями 25а и 25b. Сенсорная панель 2а включает в себя сенсорную поверхность, имеющую концевую сторону 21 и концевую сторону 22, противоположную концевой стороне 21. Аналогично, сенсорная панель 2b включает в себя сенсорную поверхность, имеющую концевую сторону 23 и концевую сторону 24, противоположную конечной стороне 23. Сенсорные панели 2а и 2b обнаруживают операции касания, осуществляемые пальцем пользователя на объекте, отображаемом на дисплеях 25а и 25b. Пользователь вводит операции касания, используя два пальца одной руки (обычно большой палец и указательный палец), или палец одной руки и палец другой руки (обычно указательные пальцы). Обычно операция касания включает в себя операцию перетаскивания пальца в произвольном направлении (операцию проведения пальцем по сенсорным панелям 2а и 2b) или операцию с кликом (простым касанием), но операции этим не ограничиваются.

Корпус 1а включает в себя зубчатые элементы 3а на обеих боковых поверхностях со стороны концевой стороны 22, а корпус 1b включает в себя зубчатые элементы 3b с концевой стороны 23. Зубчатые элементы 3а и зубчатые элементы 3b соединены и находятся во взаимозамкнутом состоянии с помощью соединительных элементов 4. Каждый соединительный элемент 4 имеет такую конструкцию, что концы двух пластин (или стержней) соединены с возможностью поворота, а другие концы двух пластин (или стержней) соединены с осями поворота зубчатых элементов 3а и 3b. С помощью зубчатых элементов 3а и 3b и соединительных элементов 4 корпуса 1а и 1b соединены с возможностью поворота. При такой конструкции расстояние между сенсорной панелью 2а корпуса 1а и сенсорной панелью 2b корпуса 1b может быть ближе, чем в том случае, когда корпуса 1а и 1b соединены, например, с использованием шарнирных петель.

Между конечной стороной 22 сенсорной панели 2а и конечной стороной 23 сенсорной панели 2b предусмотрен оптический датчик 5. Оптический датчик 5 включает в себя участок 5а оптического датчика, который тянется непрерывно на корпусе 1а от конечной стороны 22 сенсорной панели 2а, и участок 5b, который тянется непрерывно на корпусе 1b от конечной стороны 23 сенсорной панели 2b. Сенсорная поверхность сенсорной панели 2а, сенсорная поверхность сенсорной панели 2b и поверхность оптического датчика 5 обеспечиваются таким образом, чтобы они были расположены в одной плоскости, когда корпуса 1а и 1b находятся в открытом состоянии.

Структура аппаратной части портативного информационного устройства

Фиг.2 - схема, показывающая структуру аппаратной части портативного информационного устройства 100.

Как показано на чертеже, портативное информационное устройство 100 включает в себя, помимо сенсорных панелей 2а и 2b (дисплеев 25а и 25b) и оптического датчика 5, центральный процессор 11, оперативное запоминающее устройство (ОЗУ) 12 и флэш-память 13. Портативное информационное устройство 100 также включает в себя средство 14 связи, внешний интерфейс 15, средство 16 переключения, микрофон 17 громкоговоритель 18, наушник 19 и камеру 20.

Центральный процессор 11 обменивается сигналами с соответствующими элементами портативного информационного устройства 100 для выполнения различных операций и в целом осуществления управления различными типами обработки данных для управления отображением (изменением отображения) и выполнения другой обработки, которая соответствует операциям касания (жестам касания), осуществляемым на сенсорных панелях 2а и 2b.

ОЗУ 12 используется как рабочая зона центрального процессора 11 и временно сохраняет различные типы данных, включающие в себя различные графические интерфейсы пользователя (GUI) (объекты), которые должны быть обработаны процессором 11, и такие программы, как приложения для выполнения различных типов обработки отображения, соответствующих операциям касания, осуществляемым на сенсорных панелях 2а и 2b.

Флэш-память 13 использует, например, тип логической операции NAND (НЕ-И). Флэш-память 13 сохраняет различные типы данных, включающих в себя такие изображения, как различные значки и различные программы, например такие, как управляющие программы, которые должны выполняться центральным процессором 11, и приложения для выполнения различных типов обработки отображения. Приложение может сохраняться на других носителях записи, таких как карта памяти (не показана). Портативное информационное устройство 100 может включать в себя жесткий диск вместо или в дополнение к флэш-памяти 13.

Средство 14 связи является интерфейсом для подключения портативного информационного устройства 100 к Интернету или к локальной сети (LAN), согласно стандарту сети Ethernet (зарегистрированный товарный знак), беспроводной локальной сети и т.п.

Внешний интерфейс 15 обменивается различными типами данных через проводное или беспроводное соединение с внешним устройством на основе различных стандартов универсальной последовательной шины (USB), беспроводной локальной сети и т.п. Внешний интерфейс 15 может альтернативно быть интерфейсом для подключения различных карт памяти, таких как карта памяти "memory stick".

Средство 16 переключения принимает на себя операции, соответствующие функциям, эквивалентным таким функциям, которые нельзя выполнить с помощью операции касания панелей 2а и 2b, например такие, как включение/выключение источника питания (не показан), и включение различных функций, и функциям, которые могут быть выполнены с помощью операции касания панелей 2а и 2b, и передает входные сигналы к центральному процессору 11.

Микрофон 17 вводит звуковой сигнал, такой как голос пользователя, для речевых сообщений в случае, когда портативное информационное устройство 100 соединено с другими устройствами в сети через средство 14 связи.

Громкоговоритель 18 и наушник 19 выводят звуковые сигналы, которые хранятся во флэш-памяти 13 или подобном устройстве или вводятся из средства 14 связи или микрофона 17.

Камера 20 фиксирует неподвижное изображение и движущееся изображение с помощью устройства съемки изображения, такого как датчик на структуре КМОП (комплементарный металлооксидный полупроводник) и датчик на приборе с зарядовой связью (ПЗС). Снятые данные сохраняются в ОЗУ 12 или флэш-памяти 13, или передаются на другие устройства в компьютерной сети через средство 14 связи.

Хотя в качестве рабочей системы для сенсорных панелей 2а и 2b используется система с резистивной пленкой или система с применением емкостных датчиков, вместо этих систем могут использоваться другие системы, например такие, как система на электромагнитной индукции, система с матричным переключателем, система поверхностной упругой волны и система с использованием инфракрасных лучей. Когда в качестве рабочей системы используется система с применением емкостных датчиков, то «операция касания» в этом варианте осуществления изобретения включает в себя не только случай, когда палец пользователя находится в физическом контакте с сенсорными панелями 2а и 2b, но также и случай, когда палец пользователя подносится достаточно близко в пределах дальности, на которой может быть обнаружено изменение емкости.

Оптический датчик 5 является, например, датчиком отражающего типа и включает в себя светоизлучающее устройство, такое как светодиод (LED), который излучает инфракрасный свет, и принимающее свет устройство, такое как фотодиод и фототранзистор. Оптический датчик 5 обнаруживает, присутствует ли предмет в пределах заданной дальности над оптическим датчиком 5. В этом варианте осуществления изобретения оптический датчик 5 обнаруживает, присутствует ли рука (или палец) пользователя в пределах заданной дальности над оптическим датчиком 5. То есть оптический датчик 5 обнаруживает, находится ли рука пользователя над оптическим датчиком 5, так чтобы два пальца пользователя находились напротив сенсорных панелей 2а и 2b. В этом случае заданная дальность составляет, например, около 3-15 см, но этим не ограничивается.

В том случае, когда обнаруживаются операции касания сенсорных панелей 2а и 2b, и обнаруживается предмет, присутствующий в пределах заданной дальности, то делается вывод, что пользователь выполняет операции касания с помощью двух пальцев. Например, в том случае, когда пользователь осуществляет операции касания сенсорных панелей 2а и 2b с помощью большого и указательного пальцев, то базовый участок между большим и указательным пальцами обнаруживается оптическим датчиком 5. С другой стороны, в том случае, когда операции касания обнаруживаются, но оптическим датчиком 5 не обнаруживается никакого предмета в пределах заданной дальности, то делается вывод, что пользователь коснулся сенсорной панели 2а пальцем одной руки, и коснулся сенсорной панели 2b пальцем другой руки.

Хотя это не показано, портативное информационное устройство 100 также включает в себя кабель и гибкую подложку для электрического соединения между сенсорными панелями 2а и 2b. Кабель и гибкая подложка могут быть проведены через зубчатые элементы 3а и 3b и соединительные элементы 4.

Дисплеи 25а и 25b являются, например, жидкокристаллическими дисплеями (LCD) или дисплеями с активной матрицей управляющих элементов на тонкопленочных транзисторах (TFT) или подобного типа, или органическими электролюминисцентными дисплеями, и отображает различные графические интерфейсы пользователя (GUI) (объекты) для операций касания, такие как значок, окно и весь экран, а также другие изображения. Дисплеи 25а и 25b выполнены как единое целое с сенсорными панелями 2а и 2b, как было описано выше.

Функционирование портативного информационного устройства

Далее будет описана работа портативного информационного устройства 100, имеющего вышеописанную структуру.

Операция открывания и закрывания портативного информационного устройства

Сначала будет описана операция открывания и закрывания портативного информационного устройства 100. Фиг.3 - схемы, показывающие открытое и закрытое положения портативного информационного устройства 100.

Как показано на фиг.3А, когда пользователь поднимает корпус 1а в положении, например, когда корпуса 1а и 1b закрыты, то зубчатые элементы 3а и 3b, и соединительные элементы 4 поворачиваются, чтобы открыть корпус 1а, как показано на фиг.3B-3D. Соответственно, сенсорные панели 2а и 2b раскрываются. Затем, как показано на фиг.3Е, корпуса 1а и 1b фиксируются, когда они открыты на 180 градусов; таким образом поверхности касания сенсорных панелей 2а и 2b и оптический датчик 5 располагаются в одной плоскости. Операция касания пользователя вводится в состоянии, показанном на фиг.3Е. В таком состоянии поверхности касания находятся в одной плоскости, и для пользователя становится возможным выполнять интуитивные операции, не беспокоясь о том, что сенсорные панели разные и что оптический датчик находится между сенсорными панелями.

Обработка данных для управления отображением объекта на портативном информационном устройстве

Далее описана обработка для управления отображением, в которой объекты, соответствующие операциям касания (жесты касания), обнаруживаемые сенсорными панелями 2а и 2b портативного информационного устройства 100, будут связываться друг с другом. В последующем описании центральный процессор 11 описывается как исполнительное устройство для операций, но операции центрального процессора (ЦПУ) 11 выполняются во взаимодействии с программой, находящейся в ОЗУ 12.

Фиг.4 - блок-схема, показывающая процесс обработки для управления отображением объекта, выполненным портативным информационным устройством 100.

Как показано на чертеже, сначала ЦПУ 11 отображает объекты на сенсорных панелях 2а и 2b (этап 41). Потом ЦПУ 11 определяет, обнаружены ли операции касания объектов на сенсорных панелях 2а и 2b одновременно (этап 42). В данном случае «одновременно» может не означать одновременно в строгом смысле этого слова и включает в себя случай, когда каждая из операций касания обнаружена, например, в пределах 0,5 секунд.

В том случае, когда операции касания обнаружены одновременно (ДА), ЦПУ 11 определяют, поворачиваются ли точки касания обнаруженных операций касания в одинаковом направлении поворота (этап 43). Когда делается вывод, что точки касания поворачиваются в одинаковом направлении поворота (ДА), то ЦПУ 11 определяет, обнаруживает ли оптический датчик 5 предмет (руку) в пределах заданной дальности (этап 44). В том случае, когда предмет (рука) не обнаружен в пределах заданной дальности (НЕТ), то ЦПУ 11 делает вывод, что обнаруженные операции касания являются ошибочным обнаружением и прекращает обработку управления отображением для связывания объектов.

В том случае, когда предмет (рука) обнаружена в пределах заданной дальности (ДА), то ЦПУ 11 делает вывод, что операции касания представляют собой вращательный жест (этап 45).

Фиг.5 - схемы, показывающие пример состояния вращательного жеста в портативном информационном устройстве, рассматриваемого с направления плоскости сенсорных панелей 2а и 2b.

Как показано на фиг.5А и 5В, пользователь касается сенсорных панелей 2а и 2b двумя пальцами соответственно F1 и F2 (большим и указательным) и делает вращательные движения пальцами в направлениях, показанных на чертеже стрелками, при этом базовый участок пальцев служит в качестве оси вращения. В этом случае ЦПУ 11 обнаруживает операции касания в этом направлении вращения, а также подтверждает, что рука обнаружена оптическим датчиком 5.

Вернемся к фиг.4. При обнаружении вращательного жеста, ЦПУ 11 выполняет обработку управления отображением (изменение отображения), соответствующую вращательному жесту (этап 46). Фиг.6 содержит схемы, показывающие частный пример обработки управления отображением, соответствующей вращательному жесту. Фиг.6А и 6В показывают состояние, когда вводится вращательный жест, а фиг.6С показывает состояние после ввода вращательного жеста.

Как показано на фиг.6А, объекты O1 и O2, например экраны графического интерфейса пользователя (GUI) для прикладных программ А и В, которые выполняются портативным информационным устройством 100, отображаются на сенсорных панелях 2а и 2b. В этом положении пользователь вводит вращательный жест с помощью двух пальцев F1 и F2, как показано на фиг.6А и 6В. Затем ЦПУ 11 выполняет обработку обмена друг с другом экрана графического интерфейса пользователя (GUI) прикладной программы А и экрана графического интерфейса пользователя (GUI) прикладной программы В между сенсорными панелями 2а и 2b, как показано на фиг.6С.

Как показано на чертеже, ЦПУ 11 выполняет обработку изменения экранов целиком в соответствии с вращательным жестом, но может также изменять положения других объектов (изображений), таких как окна и значки, между сенсорными панелями 2а и 2b.

Фиг.7 - схемы, показывающие другой частный пример обработки управления отображением, соответствующей вращательному жесту. Фиг.7А и 7В показывают состояние, когда вводится вращательный жест, а фиг.7С показывает состояние после ввода вращательного жеста.

Как показано на фиг.7А, верхний участок O1 и нижний участок O2 одного объекта О, такого как изображение, отображаются, соответственно, на сенсорных панелях 2а и 2b. В этом положении пользователь вводит вращательный жест, описанный выше, с помощью двух пальцев F1 и F2, как показано на фиг.7А и 7B. Затем ЦПУ 11 поворачивает объект О на 180 градусов, при этом ось Z на этих чертежах в качестве оси вращения, как показано на фиг.7С.

ЦПУ 11 может поворачивать объект О не только на 180 градусов, но также на угол, соответствующий углу вращения вращательного жеста (величине перемещения соответствующих точек касания).

Снова вернемся к фиг.4. Когда производится определение при выполнении этапа 43, что точки касания не поворачиваются в одинаковом направлении поворота (НЕТ), то ЦПУ 11 определяет, имеется ли линейное перемещение точек касания в направлении сближения друг с другом (этап 47). Когда делается вывод, что точки касания линейно перемещаются в направлении сближения друг с другом (ДА), то ЦПУ 11 определяет, обнаруживает ли оптический датчик 5 предмет (руку) в пределах заданной дальности (этап 48). В том случае, когда предмет (рука) не обнаруживается в пределах заданной дальности (НЕТ), ЦПУ 11 делает вывод, что обнаруженные операции касания является ошибочным обнаружением и прекращает обработку управления отображением для связывания объектов.

В том случае, когда предмет (рука) обнаружен в пределах заданной дальности (ДА), ЦПУ 11 делает вывод, что обнаруженные операции касания являются сжимающим жестом (этап 49).

Фиг.8 - схемы, показывающие пример положения сжимающего жеста в портативном информационном устройстве, рассматриваемого с направления плоскости сенсорных панелей 2а и 2b.

Как показано на фиг.8А и 8В, пользователь касается сенсорных панелей 2а и 2b с помощью, соответственно, двух пальцев F1 и F2 (большого и указательного) и линейно перемещает пальцы в противоположных направлениях, при этом точки касания двух пальцев F1 и F2 перемещаются в направлении сближения друг с другом (в направлении стрелок, показанных на чертеже). То есть пользователь осуществляет жест касания, подобный сжиманию чего-либо с помощью двух пальцев F1 и F2 или соединению двух пальцев F1 и F2. В этом случае ЦПУ 11 обнаруживает операции касания в линейном и противоположном направлениях, при которых точки касания перемещаются ближе друг к другу, и подтверждает, что рука обнаружена оптическим датчиком 5.

Снова вернемся к фиг.4. Когда определяется сжимающий жест, ЦПУ 11 выполняет обработку управления отображением (изменения отображения), соответствующую сжимающему жесту (этап 50). Фиг.9 являются схемами, показывающими частный пример обработки данных управления отображением, соответствующей сжимающему жесту. Фиг.9А и 9В показывают состояние при вводе сжимающего жеста, а фиг.9С показывает состояние после ввода сжимающего жеста.

Как показано на фиг.9А, объект O1, такой как изображение пейзажа (задний план), отображается на сенсорной панели 2а, а объект O2, такой как изображение людей, отображается на сенсорной панели 2b. В этом состоянии пользователь вводит сжимающий жест, описанный выше, с помощью двух пальцев F1 и F2, как показано на фиг.9А и 9В. Затем ЦПУ 11 перемещает объекты O1 и O2 в сторону оптического датчика, как показано на фиг.9 В. Кроме того, например в том случае, когда расстояние между обоими объектами O1 и O2 (расстояние между обеими точками касания) меньше или равно заданному расстоянию, ЦПУ 11 объединяет объект O1 и объект O2 и отображает их, как показано на фиг.9С. То есть ЦПУ 11 объединяет объект O2 как изображение людей, с объектом O1, как изображение пейзажа, на объекте O1, а также генерирует и отображает объект O3 как новое изображение на сенсорной панели 2а (или сенсорной панели 2b).

При обработке управления отображением предполагаются различные типы обработки, отличающиеся от описанной выше обработки для объединения объектов, соответствующих сжимающему жесту. Например, ЦПУ 11 может выполнять управление дисплеем, при котором слизеподобный или ячеечный объекты отображаются на сенсорных панелях 2а и 2b и объединяются в один в соответствии со сжимающим жестом. Такое управление дисплеем может быть применено к игровому приложению или подобной функции.

Кроме того, в соответствии со сжимающим жестом по отношению к двум объектам, таким как изображения, ЦПУ 11 может выполнять обработку, при которой оба объекта хранятся в одном элементе данных альбома во флэш-памяти 13 или подобной памяти.

Снова вернемся к фиг.4. Когда производится определение при выполнении этапа 47, что точки касания не перемещаются линейно