[방송기술저널=이경동 KBS TV제작부] 방송기술교육원에서 주관하는 이번 과정을 모집하는 메일을 받고 한동안은 망설여졌다. 그럼에도 지원서를 내게 된 동기는 UHD 시대가 필자가 근무하는 부산권역에 곧 실시되므로 이에 대한 준비를 무엇인가는 해야 한다는 막연한 책임감과 입사 20년이 넘어서도 도전하는 시니어 엔지니어의 모습을 후배에게 보여주고 싶은 마음이었다.
교육 첫째날은 동경에서 떨어진 가나가와현 아츠기시에 있는 Sony Atsugi Center에서 교육이 이뤄졌다. IP Live System에 대한 개념부터 설명을 들었다. Sony는 이미 IBC 2017의 IP SHOWCASE에서 50개 이상의 VENDOR와 모여서 호환성 테스트도 시연했다고 한다. 브라질의 TV GLOBO에서 최초의 4K IP 중계차를 도입했으며, 영국의 BBC LONDON의 4K IP STUDIO도 구성했다고 한다. 4K가 도입되면서 12G 이상의 Data Rate로 인해 10GbE fiber Optic cable 수용을 못함에 따라 low latency를 가진 high quality video compressed가 필요하게 돼 Sony의 NMI 방식으로 single cable로 두 개의 4K signal을 전송할 수 있게 됐다.
Video를 IP에 싣는 표준은 크게 두 분류로 나뉘는데, AIMS(Alliance fir IP Media Solutions)그룹과 ASPEN(Adaptive Sample Picture Encapsulation)그룹으로, 전자는 Grass Valley, CisCo,EVS 등으로 후자는 Evertz, For-A,Ross, Sony 등으로 나뉜다. 이런 배경 지식을 바탕으로 장비에 대한 설명이 이뤄졌다.
방송의 처음 단계라 할 수 있는 카메라군에 대한 설명이 있었다. HDC4800은 Super 35mm CMOS Sensor를 가진 Ultra High Frame Rate 카메라인데 4K 출력뿐 아니라, 200fps(4배속), 400fps(8배속)의 출력도 나와서 향후 기술할 BPU-4800, PWS4500 장비와 연결해 SharePlay 기능을 활용할 수 있다. SharePlay 기능이란 서버 간 IP Network를 통해서 각각의 Clip을 이용할 수 있는 기능을 말한다. 다음으로 HDRC4000은 4K HDR(PQ, HLG), 4KSDR, HD HDR의 출력을 내보낼 수 있다.
BPU-4800은 베이스밴드 프로세스 유닛장비로서 찰나의 시간을 4K로 포착해 생생한 영상을 저장하며 IP 네트워킹을 통한 효율적 파일 공유를 할 수 있다. 4K HFR DATA 및 고화질 XAVC의 동시 레코딩 및 재생 기능을 가진다.
PWS-4500은 4K/HD 멀티 AV서버/스토리지로서 XAVC인트라 코덱의 4K/HDR을 다루며, 8배속의 HD와 4K의 2배속 슬로모션을 지원하며 동시에 4K와 HD를 기록하며 스토리지는 110시간 HD와 하루분의 4K를 저장할 수 있다. 또한, Media Gateway를 이용해 Avid와 Evs와 결합해 쓸 수 있는 장점이 있다. PWS-100 PR1은 제작 제어장치로서 playlist와 clip 관리를 하며 clip을 EVS로 보내준다. PWS-110 MG1 은 Media Gateway로 Media transcoding과 clip을 검색해 주는 기능이 있다.
제작 스위처(VMU)는 우리가 쓰고 있는 MVS-8000 시리즈부터 XVS6000/7000/8000/9000까지 발전했다. XVS-8000은 8ME에 160개의 Input과 48개의 Output의 스펙에 4K와 IP를 할 수 있는 기종이다. 인터페이스는 현재와 거의 비슷하므로 기술감독이 별도로 다시 공부할 필요가 없다고 한다. 각 패널이 CPU로 분리가 돼 스튜디오 두 곳에서 운용할 때 편리하게 사용이 가능하고 아이패드를 통해서 원격으로 제어가 가능하다. 하지만, 현장에서는 굳이 그렇게 쓸 이유가 없는 듯 했다.
세계 최초의 4K Shoulder Camcoder는 두 차례의 업데이트가 이뤄져 4K HDR과 4K SDR를 동시 녹화 가능하다고 한다. Venice Cinema Camera는 8개의 ND Filter System을 갖춘 6K High Resolution이 가능한 제품이다.
이후 기술할 내용은 소니측에서 설명한 HDR 이론 부분과 HLG-Live에 관한 설명 부분이다. HDR은 High Dynamic Range로서 보다 넓어진 밝은 부분 표현과 묻혀서 구분이 어려웠던 어두운 영역까지 잘 표시하는 것으로 실제 비주얼/현실과 근접한 테크닉이라 할 수 있다. 예전에는 카메라 성능이 발전하더라도 디스플레이에서 표현해 줄 수 있는 한계가 있었으나, HDR 디스플레이 기술이 발전함에 따라 카메라에서 구현하는 다이내믹 레인지를 시청할 수 있게 됐다.
예전의 HD Camera의 색 범위인 Rec709은 입력 레벨의 100프로를 디스플레이의 최대 루미넌스 레벨과 동일하게 설계했다. 카메라의 성능이 발전함에 따라 더 많은 빛을 캡처할 수 있게 됐고 Rec709보다 확장된 로그 커브가 필요하게 됐다. 여기서 나온 표준이 HLG(Hybrid Log Gamma)뿐 아니라 PQ(Perceptual Quantinizer)와 소니의 S-Log3커브도 있다. 현재의 상황은 HLG가 HDR뿐 아니라 SDR의 동시 제작의 문제를 해결하는 표준으로 방송사(BBC, NHK)는 도입했다. HLG 개발의 목표 중 하나가 기존의 SDR TV시청자를 위한 호환성 유지다. HLG는 100% 이하 영역의 출력 레벨을 반으로 낮춰서 넓어진 입력 신호의 다이내믹 레인지에 대응하도록 한 감마다.
소니의 S-Log3 또한 제작 단계에서 동일한 영상을 유지하면서 요구되는 다양한 포맷(4K HDR/SDR, HD SDR, BT709)으로 서비스가 가능했으나 모니터의 정합성 및 송출단에서 포맷 컨버팅 부분에서 고민이 필요했고 HLG 기반은 어두운 밝기하에서 HD와 S-Log3보다 어두워지는 단점이 있어 HLG-Live라는 개선된 모드를 개발하게 된다. 촬영 단계에선 HLG Live모드를 이용해 촬영한 후 제작 마스터 포맷은 4K HLG모드를 활용한다. 현업에서는 총괄마스터가 HLG로 모니터 된 부분을 보고 오퍼레이팅은 HD SDR 모니터를 보면서 제작하면 되는 장점이 있다고 한다.
위의 부분을 소니측에서 설명하고 일부 시연도 했으나 체화하기는 어려웠다. 귀국 후에 관련 서적이나 자료를 더 찾아보고 정리해야 겠다는 생각이 들었다.
교육 둘째날 Sony의 VIP센터를 방문했는데 센터 안에 들어서니 소니의 주요 제품에 대한 전시장이 눈에 확 들어와 소니의 기술력을 엿볼 수 있었다. Visual Security Camera 전시물에선 인천공항에 이미 소니의 제품이 들어가 있다고 했다. 어두운 곳에서 찍은 사물도 식별이 가능할 정도로 해상도가 상당히 뛰어났다.
Life Space에서 시연한 제품은 정말 신기했다. TV속 여러 사람이 등장하는 화면에서 말하는 사람의 부분을 찾아다니며 오디오가 나오는 기술, 스피커와 조명이 함께 합친 제품(이 제품은 젊은 층에게서 인기가 있을 것 같았다.) 등 한번쯤은 이런 제품이 나왔으면 좋겠다 싶은 상상 속 제품이 현실화된 것 같았다. VR 게임룸에서 게임 시연도 하는 즐거운 시간도 가졌다. 니텐도로 시작된 게임 시장이 VR로 넘어선 지금, 시장은 점점 커질 것인데 선제적 제품 개발이 인상적이었다. 마지막으로 영화 <쥬만지> 예고편을 시청하는 것으로 소니센터 방문을 마무리 지었다.