일본 도쿄의 토라노몬힐즈에서 개최된 MIT Media Lab TOKYO
여기에서는 카메라의 센서를 이용한 연구가 발표되었는데요,
그중 사람의 생리현상과 이모션을 수치화해서
컴퓨터로 감정인식을 가능하게 하는 시각툴을 작성하고 있었던
MIT Media Lab의 다니엘씨가 올림퍼스의 서포트하에서
심박수를 비롯한 인간의 생리현상을 인식해
감정까지 데이터화하는 시스템을 발표했습니다.
기존의 웹카메라는 세개는 빛 대역을 측정하는데
이것만으로는 얻을 수 있는 정보가 한정적이었다고 합니다.
그래서 빛의 대역을 다섯개 측정할 수 있는
카메라 프로트타입을 이용하는 것으로
심박수, 호흡수, 심박변동등은 인식할 수 있도록 했다고 합니다.
제조비용은 일반적인 카메라와 비슷하다고 합니다.
일반적으로 생리현상을 측정하려면
또다른 웨어러블단말기를 장착할 필요가 있지만
이것은 카메라로 피사체를 비추는 것만으로
미묘한 생리, 자율신경계 반응을 잡을 수 있다고 하네요,
카메라로 잡을 수 있는 모든 것을 측정할 수 있기때문에
한번에 여러 신체 부위를 인식시키는 것과
여러명을 동시에 분석할 수도 있다고 합니다.
이 연구의 재밌는 점은 샘플채취법에도 있습니다.
일반적으로 피험자는 한정적이 될 가능성이 높지만
인터넷에는 많은 동영상이 넘쳐나고
이들 클라우드상에 있는 피사체의 얼굴색이나 표정을
샘플로 할 수 있다고 합니다.
이 기술을 응용할 수 있다면
이른바 원격교육에 사용할 수도 있다고 하네요.
웹카메라너머로 학생에게 수학문제를 내고 답을 하라고 할때
피사체가 되는 학생에게 스트레스 반응이 보이면
문제답을 내는데 힘들어한다는 것을 할 수 있어서
선생님은 힌트를 준다던지 하는 것으로 응용할 수 있습니다.
감정과 본능을 데이터화하는 것으로
시스템을 만드는 쪽은 사람에게
기분좋은 서비스를 제공할 수 있게 된다고 하는데요,
카메라의 진화가 사람을 변화시킬 수 있다는 것은 재미있는 구상이긴 합니다.
하지만 그렇게까지 발전하는 것은 왠지모르게 아직은 무섭다고 느껴지네요.