A U.S. computer scientist says he‘s developed a prototype smartphone with a touchscreen that can sense touches from different parts of the hand.
Chris Harrison at Carnegie Mellon University in Pittsburgh says the screen can distinguish between touches from the knuckle, fingertip and even a fingernail, and initiate different phone action based on the hand part used, NewScientist.com reported.
Harrison’s modified Samsung Galaxy S3 smartphone senses the acoustic and vibrational differences between the three types of touch.
“A big problem with touchscreens right now is that they are very simplistic, relative to the capability of our hands,” Harrison says. “We could do so much more.”
For example, he says, a fingertip could select an object, while a knuckle tap could work like the right-click on a computer mouse and open up a sub-menu.
The sensor is a standard piece of electronics that can be added to the main circuit board of any smartphone, he says. What makes it work is his FingerSense software.
“The real magic is in the software, this artificial intelligence that lives in the heart of the phone,” said Harrison, who is already in talks with some major phone manufacturers about his system. (UPI)
<한글 기사>
“스마트폰 터치 인식 더 똑똑해진다”
미국 컴퓨터 공학자가 터치스크린에 손의 어떠한 부위를 사용하느냐에 따라 다르게 반응하는 스마트폰의 원형을 개발했다고 밝혔다.
카네기 멜론 대학의 크리스 해리슨(Chris Harrison)은 이 기술이 손가락 관절과 손끝, 손톱을 이용한 터치를 인식해, 그에 따라 다른 기능을 선보일 것이라고 말했다.
헤리슨은 기존 삼성 갤럭시 S3에 소형 바이브레이션 센서와 자신이 개발한 소프트웨어 핑거센스(FingerSense)를 장착해 세 가지 다른 터치를 감별해내는데 성공했다고 말했다.
그는 “현재의 스마트폰은 손이 가지고 있는 능력에 비해 매우 단조롭다는 문제점이 있다. 우리는 휠씬 더 많은 것을 할 수 있다”고 말했다.
해리슨은 예를 들어 손끝으로는 물체를 선택하고, 손마디를 사용하면 컴퓨터에서 오른쪽 클릭과 같은 기능으로 하위 메뉴를 열 수 있다고 설명했다.
그는 또 바이브레이션 센서는 어느 스마트폰의 주회로에나 추가될 수 있는 부품이며, 터치를 인식하게 하는 것은 소프트웨어라며 “진짜 마법은 소프트웨어에 있다. 전화기의 중심부에 인공지능이 장착되는 것이다”라고 말했다.
해리슨은 현재 대형 휴대폰 제조사들과 협상 중에 있다.