잠시만 기다려 주세요. 로딩중입니다.
iggy_one 이기원이 보고, 쓴 것들을 분류해 둡니다.




얼굴을 증명하는

 : 사진에서 페이스ID까지



보스토크 8호 <사진 속 얼굴> 게재

글 이기원(보스토크 편집동인)

 



인류의 신체에서 가장 생김새가 다양한 얼굴은 개인을 구별해주는 기준으로 여겨져 왔다. 얼굴을 직관적으로 대조/확인할 없던 시대, 다시 말해 신분증마다 개인의 증명사진을 넣는 것이 보편화되기 이전에도 얼굴은 신원을 확인할 있는 링크처럼 기능했다. 사진이 보급되기 이전에는 눈의 크기가 얼마나 되고, 피부색은 어떠하며, 코는 어떤 모양인지 등을 신분증에 문자로 기술했다. 하지만 얼굴을 구성하는 시각 요소를 문자 언어로 변환해 서술하는 것은 필연적으로 오류를 동반할 수밖에 없으며, 당연히 증명사진을 대조하는 것만큼 효과적이지 못하다. 사진이 발명되고 증명사진이 보편화되면서 이러한사진 없는 신분증 필연적으로 사라지게 되었다. 나아가 증명사진 없는 신분증은신분증이 아닌 처럼 여겨질 정도로 사진은 신원확인에서 가장 중요한 수단이 되었다.   


사진이 신원 확인을 위한식별도구 시기는 19세기 후반으로, 프랑스 파리 경시청 신원확인부 경사인 알퐁스 베르티옹(Alphonse Bertillon)베르티오나지(bertillonnage)’ 만든 이후부터다. 베르티옹는 인간의 11 신체부위의 측정치(, 앉은 , 머리둘레, 손가락 길이, 발길이 ) 개인을 식별하는 신체측정 기준을 마련하고 식별사진의 촬영방식을 체계화했다. 다만 당시는 지금과 같은 주민등록 시스템이 구축되기 전이었기 때문에 베르티오나지는 경찰서에 잡혀온 범죄자의 외모와 아카이브를 대조해 이들의 전과를 확인하는 용도로만 사용됐다.

사진은 발명 초기부터 지금에 이르기까지 어떤 시각 요소를 마치 그대로 옮겨온 것처럼 보여주는 매체로 여겨졌기 때문에, (엄밀하게는 사진에 찍힌 대상이 실제 대상이라고 말할 수는 없지만) 사람들은 실제 대상과 사진 피사체를 동일시한다. 덕분에 사람들은 사진이 현실을 재현하는투명한 유리창내지는거울같은 것이라고 믿게 됐다. 이러한 맥락에서 증명사진과 얼굴의 대조를 통한 식별은 가장 전통적인 신원확인 방식이면서, 사진이 증명의 도구로 작동할 있게 하는 가장 견고한 토대가 되었다. 하지만 증명사진은 신원확인 과정에서 필요한 하나의 절차이지, 자체로 누군가의 신원을 확인시켜주진 않는다. 증명사진은 어디까지나 사진 인물과 신분증을 소지한 이가 동일 인물이라는 사실만을 확인해준다. 사진을 통해 연결되는 주민등록번호나 이름 역시 증명사진과 마찬가지로 자체로는 사람의 신원을 확인해 내지 못한다. 완전한 신원 확인은 증명사진과 주민등록번호, 이름이 포함된 데이터베이스와의 대조를 거쳐야 가능하기 때문이다. 과정에서 이미지는 데이터베이스에서 원하는 정보를 찾아내기 위한 검색어나 색인 같은 것으로 존재한다. 


스마트폰 등장 이후, 카메라는 단순히 사진을 생성해주는사진기 넘어 컴퓨터의 시각기관처럼 기능하기 시작했다. 스마트폰과 결합한 카메라는 스스로 프레임 안에 무엇이 있는지 판단하고, 이에 따라 초점을 맞춘다. 나아가 배경을 흐리게 하거나 피부의 잡티를 없애주는 실시간으로후보정 실행한다. 사용자가 셔터를 누르는 순간의 전후 이미지까지 스스로 저장하기도 한다. 이처럼 두뇌를 가지게 카메라에게 인간이 부여한 임무는 카메라 스스로 피사체를 인식/판별하는 것이다. 그중에서도 사진 발명 이후 가장 오랫동안 식별의 대상이었던 얼굴은 피사체 인식 기술의 최우선 목표가 됐다.


얼굴인식 기술 도입 초기에 가장 널리 사용됐던 주성분 분석법(PCA, Principal Component Analysis,) 알고리즘은 사이의 거리, 코의 길이와 너비처럼 숫자로 측정 있는 얼굴의 주요 특징을 추출/분석한다. 이외에도 동일 인물의 샘플 사진에서 유사성을 추출해 얼굴을 이루는 선들의 조합과 특징을 분석하는 선형판별 분석(LDA, Linear Discriminant Analysis,), 얼굴의 주요 특징을 격자로 형성해 얼굴 이미지의 비선형적인 요소를 비교하는 EBGM(Elastic Bunch Graph Matching) 여러 얼굴인식 알고리즘이 우리 생활에서 활용되고 있다. PCA 경우, 코와 눈의 정렬이 맞지 않는 사진 정면 사진이 아니면 인식이 어렵고, LDA 샘플 사진의 수가 적으면 정확도가 떨어진다는 단점이 있다. EBGM 알고리즘은 다양한 각도와 조명에서 촬영된 얼굴을 비교할 있지만 정확한 기준점 스캔이 필요하다는 약점이다. 2014 페이스북은 앞서 언급된 약점이 보완된 얼굴인식 알고리즘딥페이스(DeepFace)’ 발표했다. 딥페이스는 사진 얼굴에 67개의 기준점을 찍어 얼굴을 3D 그래픽으로 재구성한 이를 정면 이미지로 변환시키고, 이렇게 만들어진 결과를 400 개의 얼굴 이미지 데이터와 비교해 사진 인물의 계정에 태그시킨다. 페이스북 측은 딥페이스 알고리즘의 정확도를 97.25% 발표했는데, 이는 인간 시력의 정확도인 97.53% 차이가 나지 않는다. 사실상 사람처럼 얼굴을 인식한다고 있다. 과거의 비슷한 수치라 있다. 이처럼 얼굴인식 알고리즘은 차츰 2차원 이미지를 분석하는 것에서 얼굴을 3차원 모델로 변환시키거나 처음부터 3D 데이터를 수집해 분석하는 방향으로 나아가고 있다.


2017, 애플이 아이폰 X 발표하며 선보인 얼굴인식 기술인페이스ID’(Face ID)’ 사용자의 얼굴을 3차원 데이터로 기록해 얼굴을 인식한다. 아이폰 X 전면부에 탑재된트루뎁스(TrueDepth)’ 카메라 시스템이 30,000 개의 도트를 얼굴에 투사하고, 적외선 카메라가 이를 스캔해 3차원 데이터로 존재하는 얼굴 맵을 형성한다. 또한 데이터는 사용자가 잠금 해제를 위해 얼굴을 비출 때마다 머신러닝(Machine Learning) 통해 업데이트되며 정확도를 높여간다. 이는 페이스ID 기술 자체의 완성도나 대중적 성공 여부와 관계없이, 지금까지 신원확인의 식별도구로 통용되던 증명사진의 쓰임새를 무력하게 만든다.  


기존의 얼굴인식이 기본적으로 사진 이미지를 대조군이 되는 얼굴 이미지 데이터와 비교하는 평면의 범주에서만 이뤄졌다면, 페이스ID 2D 사진 이미지가 아니라 3D 입체로서의 얼굴을 인식/대조한다. 덕분에 페이스ID 지금까지 신원 확인의 과정에서 필수적으로 거쳐야 했던 (검색어로서의)초상사진을 이상 필요로 하지 않는다. ‘사진 얼굴 아니라 실제 얼굴이 곧바로 색인이자 검색어로 기능하기 때문이다. 

이처럼 사진에게 부여된 가장 오래된 임무 하나였던얼굴인식-신원 확인 사진 없이도 가능해졌다는 것은 중대한 전환점이 있다. 이러한 기술을 바탕으로 머지 않은 미래에 3차원으로 시각정보를 기록/분석하는 카메라(혹은 완전히 다른 이름을 쓰는 어떤 장치) 등장을 기대해 있기 때문이다. 등장할 가능성이 충분하기 때문이다. 물론 사진이광학 기기를 거쳐 만들어지는 시각 이미지라는 맥락에서 3차원의 영역까지 확장될 있을 것인지, 혹은 평면의 정지 이미지라는 형식에 매몰돼 역할과 기능이 축소될 것인지는 지켜봐야 하겠지만, 가지 확실한 사진의 위상과 역할에 어떤 균열이 생겼다는 것은 확실해 보인다.



(참고문헌)

1. 애플 아이폰 X 소개 페이지 www.apple.com/kr/iphone-x

2. 강진규, 「아이폰X 통해 안면인식의 세계」, 『테크M, 2017 11월호, 2017, 76-79pp.

3. 최지호, 「얼굴의 비밀 속에는 수학이 있다」, 『수학동아』, 2014 11월호, 2014, 72-77pp.

4. 한국콘텐츠진흥원, 「얼굴인식 기술이 주도할 콘텐츠 서비스의 진화」, CT-문화와 기술의 만남』, 2014 4월호, 2014, 19-36pp

5. 박상우, 「사진, 닮음, 식별: 베르티옹 사진 연구」, 한국사진학회지 AURA 20, 2009, 134-147pp

6. Yaniv Taigman , Deepface: Closing the gap to human-level performance in face verification, Proceedings of the IEEE conference on computer vision and pattern recognition. 2014.