VR 연구는 어떻게 시작하게 되었는지,
지금 딥러닝 공부는 왜 하고 있는지,
가끔 묻는 이가 있어
글로 정리해 보았습니다.
원래 VR과 딥러닝의 연계 방안에 대해 글을 쓰려다가,
너무 예전 이야기까지 꺼내버리게 되었네요.
그래서 제목과는 다소 먼 이야기부터 시작합니다.
1. 건조환경과 인간행태 연구의 어려움: “너도 있고, 나도 있는 연구자료들...”
과거 내가 주로 했던 연구 방식은 공간자료를 활용해 물리적 환경을 측정하고, 사회조사 자료에서 도출한 어떠한 정보를 종속변수로 삼아 그 둘의 관계를 정량적으로 분석하는 것이었다. 예를 들자면, 가구통행실태조사 자료를 활용해 물리적 환경과 통행행태의 관계를 분석하는 식인데, 이런 형태의 연구는 당시 나처럼 도시설계를 공부하고 계량분석을 주요 연구방법론으로 택한 대부분의 연구자들이 취했던 방식이었다.
그런데 공간자료나 사회조사 자료 모두 조금의 노력만 하면 누구나 쉽게 구하고 처리할 수 있는 자료였기에, 이로부터 차별성을 만들어 내기란 쉽지 않았다. 그러다 보니 늘 새로운 자료를 누구보다 빨리 구득하고 모아두어야 한다는 강박관념이 생겼다. 지금은 정부에서 깔끔하게 정리해서 제공해주는 여러 공간자료들을 직접 크롤링하거나 담당자에 부탁을 하거나 돈을 내고 구입하는 등 여러 방식을 통해 수집해 나갔다. OPINET에서는 주유소 위치와 가격 정보를, 각 시도의 교통정보 사이트에서는 지하철역과 버스정류장 위치 정보를 수집했다(당시엔 각 광역지자체마다 관리주체가 달랐고 심지어 공식 웹사이트가 없는 자치단체도 있었다). 지금은 대중교통 정류장 공간정보가 없다는 것을 상상할 수 없을 정도로 자료 공개가 잘 되어 있지만(박근혜 정부의 몇 안 되는 성과이다!?), 당시에는 크롤링을 하지 못하면 좌표 정보를 알아낼 방법이 없었다. 아 TAAS 교통사고분석시스템이 처음 생겼을 때 사고 지점 정보를 수집했던 기억도 난다(TAAS는 지금도 접근 권한 제한이 있어서 크롤링이 필요하다). 행정구역 경계자료와 집계구 자료도 서비스가 처음 생겼을 때부터 매년 차곡차곡 수집해 나갔다. 덕분에 지금은 통계청 지리정보서비스에서 더 이상 제공하지 않는 특별한 경계자료도 보관하고 있다. 통학구 경계지도도 지금은 누구나 완성된 형태로 다운받을 수 있지만, 내가 처음 이 자료를 접했을 때는 서울의 몇 개 구만 시범적으로 완성된 상태였다. 당시 담당자와 통화를 해서 받았던 자료를 아직도 보관하고 있다. 2006년에서 2010년 사이쯤 진행되었던 서울시 행정동 통폐합 전후의 ‘통’ 경계 정보를 가지고 있는 사람은 아마 전국에서 나뿐이지 않을까 싶다. ‘동’이 아니라 ‘통’ 경계 정보인데, 이건 당시 기준 동사무소에서 개별적으로 관리하고 있던 자료인데다 변경될 때마다 과거 기록을 남기지 않고 덮어쓰는 방식이었기에 당시 자료가 지금까지 남아 있기가 힘들다. 근데 이걸 내가 어떻게 가지고 있느냐고? 서울시의 행정구역 개편 전후로 서울, 인천, 경기 전체 시군구에 정보공개청구를 해서(일부는 유료로 구매) 직접 구득했다. 정확히는 가구통행실태조사 자료와 연계, 활용하기 위해 조사 직전 시점에 정보공개 청구를 했던 것으로 기억한다. 많은 사람들이 잘 모르는 사실인데, 가구통행실태조사 자료를 잘 뜯어보면 통 코드가 별도로 존재한다. 아마도 이런 짓(?)을 한 사람이 전국에 나 말고 또 있긴 어려울 테니(당시 수도권 전체 시군구 담당자로부터 전화 폭탄을 받는 바람에 수업을 못 들을 정도였다...), 아마 이 자료를 가지고 있는 이도 나뿐이지 않을까 싶다. 물론 이 자료의 관리 형식이 각 동사무소마다 달랐기에 GIS 공간자료 형태로 디지타이징 하지는 못했다(아마 지금 기술이라면 가능할 것도 같은데, 이젠 너무 옛날 자료라...).
돌이켜보니 내가 좀 유별났던거 같긴한데, 다행인지 불행인지 이런 시절이 그리 오래가진 않았다. “새로운 자료가 등장하면 꼭 그 자료를 이용해 남들보다 빨리 논문을 써야하는 건가?”라는 의문도 들었고, 자료 습득이 대체로 남들보다 빨랐지만 그 속도에 맞춰 논문이 자동으로 써지는건 아니었기에 눈에 보이는 성과가 많진 않았다. 그리고 언젠가부터 모든 분야의 연구자료가 전면적으로 개방되면서 속도적인 측면에서 일개 개인 연구자가 우위에 설 수 있는 기간도 점점 0에 가깝게 수렴해 갔는데, 아마도 그 무렵부터 이런 방식의 연구에 흥미를 잃어가기 시작했던 것 같다. 아니 좀 더 솔직하게 이야기하면 그런 작업들을 지나치게 반복적으로 하다 보니(특히 GIS를 이용해서 물리적 환경 변수를 만들어내는 작업들..), 그냥 지겨워졌던 거다.
2. 8년간의 VR 연구: “VR 실험연구의 가장 큰 장점은 남들이 가지지 못한 데이터를 직접 생산해낼 수 있다는 점이다.”
그러다 2016년에 VR 연구를 시작하게 된다. 당시 건축공간연구원에서 “영상정보를 활용한 가로환경 평가 체계 연구: 360도 동영상과 VR기기의 활용을 중심으로”라는 제목의 기본과제를 수행하였는데, 사실 2015년에 제출했던 최초 제안서는 바로 2년 전 발간된 Measuring Urban Design(Ewing & Clemente, 2013)에서 착안한 것으로 VR과 관련된 언급은 전혀 없었다. 그러다 2016년 초 기억나지 않는 모종의 이유로(아마 단순히 더 최신 기술을 적용하기 위한 목적이었을 것이다) ‘영상정보’의 유형이 ‘일반 동영상’에서 ‘360도 VR 동영상’으로 바뀌게 되었는데, 이것이 (좋은 쪽으로든 나쁜 쪽으로든) 내 연구 인생에 있어 크나큰 전환점이 되었다.
VR 연구를 하면서 개인적으로 얻은 성취에 대해서는 페북을 통해 꾸준히 자랑(?)했던 것 같으니, 여기서는 생략하기로 하고. VR 실험연구 그 자체로서의 장점을 하나만 꼽자면, 무엇보다 남들이 가지지 못한 데이터를 직접 생산해낼 수 있다는 점이 아닌가 싶다. 앞서 얘기했던 ‘남들 다 있는 자료 가지고 지지고 볶는 작업’을 더 이상 하지 않아도 된다는 점이 무엇보다 큰 매력이었다(물론 그 외의 장점도 많긴 하지만).
이렇게 VR 연구에 매료된 채 8년의 시간을 보냈다.
그동안 도시연구 분야에 많은 변화가 있었지만 나는 변하지 않았다/못했다.
빅데이터 시대가 도래했을 때도 나는 큰 흥미가 없었다. 자료의 크기만 커졌을 뿐 연구하는 방식은 이전과 다름이 없었기 때문이다. 공간자료를 분석하고 정량화해서 무언가와의 관계를 분석하는 일은 자료가 바뀌었다 한들 여전히 지루해 보였다. 엑셀이나 GIS 같은 상용화된 프로그램에서 처리할 수 있고 없고의 차이가 나에겐 그다지 큰 차이로 인식되지 않았다. 코딩이 필요한 것과 그렇지 않은 것도 마찬가지였다. 코딩이 필요하면 간단히 하면 그만이라는 생각이 컸지, 이걸 배워야겠다는 생각은 별로 없었다(이건 지금도 마찬가지다. 나름 초딩때 잠깐이나마 코딩 영재교육을 받았던지라 그 지식으로 대학 때 컴퓨터 한번 안 켜보고 정보처리기사 자격증도 따고, 지금까지 시스템 트레이딩도 잘하고 있다ㅎㅎ).
3. 딥러닝의 시대
하지만 딥러닝의 시대는 좀 달랐다.
단순히 큰 자료를 처리하고 분석하는 일은 초딩 때 익힌 지식과 약간의 임기응변만으로도 충분히 가능했다. 하지만 완전히 새로운 분석 도구를 컴퓨터 언어로 구현하는 일은 전혀 다른 영역의 일이었다. 10여 년 전 배워둔(?) 파이썬은 기억 속에서 사라진지 오래였고, 딥러닝의 발전 속도는 너무도 빨랐다. 많은 변화가 있었지만 나는 변하지 못했다.
그래서 그냥 이렇게 또 몇 시즌을 흘려보내야 하는가?
그러기에 (빅데이터 분석과 달리) 딥러닝은 기존의 연구방식과 충분히 달라 보였고, 또 충분히 재미있어 보였다. 그래서 아주 오랜만에 의무감이 아닌 흥미에 이끌려 공부라는걸 하고 있다.
딥러닝 공부를 시작한 건 벌써 몇 년이 되었지만, 본격적인 관심은 작년부터였고(연구년 동안 강의자료를 만들기 위하여), 파이참을 다시 설치한 것은 보름 정도 된 것 같다.
짧은 공부 기간 동안의 감상을 적어보자면:
(1) 책을 읽으면 흥미는 생기지만, 정작 연구에 써먹을 만한 내용을 찾긴 힘들다. 최신 논문을 보고 따라 하는게 더 빠르고 효율적이다. 어차피 책에 있는 예전 모델들은 논문에서 받아들여지지 않는다. 처음부터 차근차근 공부할 필요가 없는 분야다. 바로 목표를 향해 달려도 결코 빠르지 않다.
(2) 역시나 코딩이 문제인데, 이 또한 굳이 기초 문법부터 공부할 필요는 없어 보인다. 하면서 익히면 된다. 지금은 GPT가 많은 문제를 해결해준다.
(3) 모델이 아무리 최신이어도 결국 사용하는 자료가 똑같으면 역시 그 나물에 그 밥이다. 모델 자체의 성능을 개선하는 것이 우리의 연구 목표는 아니기 때문이다. 결국 비슷한 관심사를 가진 사람들은 결국 내가 예전에 겪었던 것과 같이 “같은 자료로 지지고 볶는” 동일한 문제를 겪을 가능성이 크다. 그럼 또다시 지루한 연구가 반복될 것이다.
(3)번의 문제로 인해 난 처음부터 남들과 같은 자료를 사용해서는 승부도 안 되고 흥미도 지속될 리 없다고 생각했다. 그래서 어떠한 방식으로든 내가 8년간 연구해온 VR 실험과 딥러닝을 연계해야겠다고 생각했다. 역시나 남들이 가지지 못한 자료를 대량으로 생산해 내기에 VR 실험만큼 좋은 방법은 없었다. 크게 보면 세 가지 정도의 아이디어를 시도 중인데, 여기서는 그중 한 가지를 이야기해 보고자 한다.
//오해의 소지가 있어 몇 가지 추가하자면:
(1)번은 지극히 연구의 관점에서 이야기한거다. 교육의 관점에서 보면 ABC부터 차근차근 공부할 필요가 있다.
(2)번 역시 마찬가지다. 코딩 지식은 당연히 필요하고, 이것을 익히는데는 상당히 많은 노력과 시간이 필요하다. 지금까지 노력한 분들을 폄훼하고 싶은 마음은 없다.
4. VR과 딥러닝의 연계 활용에 관하여
원하는 물리적 환경이나 조건을 가상현실로 구현하고, 이를 인간 참여자가 직접 경험하고 상호작용하면서 다량의 데이터를 생산해내는 것이 바로 VR 실험이다. VR 실험을 통해 얻을 수 있는 데이터의 형태는 통상 다음과 같이 구분된다.
(1) 실험참여자들의 주관적 인식이나 감정: 해당 환경이나 조건에 대해 얼마나 만족하는지, 얼마나 안전하다고 느끼는지, 얼마나 쾌적하다고 느끼는지 등을 주로 설문조사를 통해 측정
(2) 실험참여자들의 객관적인 행동/행태: 해당 환경이나 조건에서 행한 모든 행동들에 대한 객관적인 기록 - 보행속도, 보행경로(궤적), 눈의 움직임과 시야(FoV) 등
(3) 실험참여자들의 생체 반응에 대한 객관적인 기록: 뇌파, 맥박, 피부전도도 등
D&A 연구실에서는 이 세 가지 방식을 모두 취하고 있는데, 안타깝게도 이 모든 방식은 근본적인 한계를 지닌다. 바로 그 결과가 누구나 이해할 수 있는 일상적인 언어나 숫자, 혹은 이미지로 치환되기 어렵다는 점이다. 예를 들어, 어떤 가로환경을 체험한 실험참여자들의 평균 Perceived Safety 레벨이 7점 만점 중 5점일 경우 대체 어느 정도나 안전한 환경이냐고 누군가 묻는다면 딱히 답할 방법이 없다는 것이다. 물론 5점 정도로 측정된 가상환경의 모습을 이미지나 동영상으로 보여주거나 혹은 심지어 직접 체험할 수 있도록 하는 것도 가능하다. 하지만, 대부분의 VR 실험 환경은 실제 공간을 모티브로 하되 실제로는 존재하지 않는 환경이기에 설령 이를 체험하더라도 익히 알고 있던 도시공간의 모습으로 치환하는 것이 결코 쉽지 않다.
이에 반해, Street view image (편의상 SVI로 칭함)를 활용하는 그 흔한 연구들의 경우 자신의 딥러닝 모델에서 Perceived Safety 레벨이 5점으로 예측된 가로의 모습을 우리가 익히 아는 가로의 모습 그대로 치환하여 보여줄 수 있다. 누구에게나 익숙한 SVI를 활용해 마치 일상의 언어로 의사소통할 수 있는 효과를 얻을 수 있다는 것이다.
이는 VR실험에 활용되는 가상환경의 현실성(level of presence)이 SVI와 같은 다른 유형의 영상자료에 비해 떨어진다는 얘기가 아니다. VR 환경은 거의 모든 측면에서 SVI가 갖는 장점을 뛰어넘는다. 현실성이나 공간감은 말할 것도 없고, 체험이나 상호작용 가능성 측면에도 큰 차이가 있다. 무엇보다 SVI 기반의 연구들은 해당 공간을 어떤 사람이 이용할 때 실제로 봤을지 안 봤을지도 모르는 Scene을 대상으로 연구를 하는 반면, VR 실험연구의 경우 실제로 해당 공간을 경험하면서 실제 눈으로 본 Scene에 대한 이미지를 분석자료로 활용한다는 점에서 매우 큰 차이가 있다. 내가 말하고 싶은 것은 VR 실험의 현실성이 떨어진다는 것이 아니라, 그 결과가 상대적으로 transferable하지 않다는 것이다. 많은 장점에도 불구하고 말이다.
하지만, VR 실험연구에 딥러닝을 접목함으로써 이러한 한계를 개선할 수 있다. SVI에 적용되는 컴퓨터 비전 기술을 VR 실험결과(정확히는 실험참여자가 바라본 가상환경을 2D 이미지로 정사투영한 것으로, 편의상 VR 이미지라 칭함)에 적용하는 것이다. 예를 들어, VR 이미지도 SVI와 같이 ViT(vision transformer) 등과 같은 딥러닝 모델로 학습할 수 있다면(두 유형의 이미지를 함께 넣어 학습하더라도 모델 성능이 떨어지지 않는다면), 그리고 그 모델을 활용해 VR 이미지에서 보이는 환경을 정량적으로 평가할 수 있다면, 그 결과는 SVI를 활용해 도출한 결과와 마찬가지로 충분히 transferable할 수 있다는 것이다. 더 구체적인 예로, 가상현실로 구축한 환경의 점수가 SVI와 딥러닝을 접목한 연구에서 흔히 쓰이는 Q-score 같은 개념으로 예측될 수 있다면, 계획안을 가상환경으로 만들어 미리 보여주고 체험할 수 있도록 하는 것을 넘어 그와 유사한 수준의 실제 환경 이미지를 예시로 제공함으로써(사전, 사후를 비교하여 보여주는 것도 가능) 그 결과를 말 그대로 일상의 언어/수치/매체를 통해 전달하는 것이 가능해진다는 것이다. 이 글을 읽는 이들은 이게 무슨 의미가 있나 싶겠지만, 8년간 VR을 연구한 사람으로서 이것이 실로 어마어마한 차이를 만들어 낼 것임을 확신한다.
그래서 나는 요즘 VR 이미지에 딥러닝을 접목하는 방법을 연구하고 있다. 언제쯤 가시적인 성과가 나올지는 모르겠지만 말이다.
5. VR과 딥러닝의 접목을 위한 간단한 테스트들
아래의 테스트 결과는 전혀 계획된 것이 아니었다. 딥러닝을 공부하다 우연히 발견한 결과에 가깝다. 몇 가지 결과를 살펴보자.
1) VR 이미지를 Segmentation한 결과
딥러닝 기반의 이미지 Segmentation은 다양한 유형이 있다. Instance, semantic, panoptic 등등. 여기에 활용되는 딥러닝 모형은 다 헤아릴 수 없을 정도로 많다. 그런데 나는 아래의 결과를 도출할 때 사용한 방법을 설명할 수 없다(정확히는 설명할 필요가 없다). 딥러닝을 활용하지 않았기 때문이다.
이런 작업을 조금이라도 해본 사람이라면 사실 바로 눈치를 챘을 것이다. 딥러닝 기반의 이미지 segmentation 결과라고 하기엔 지나치게 그 결과가 정교하기 때문이다. 이렇게 정교한 Segmentation이 가능한 이유는 이 이미지의 기반이 되는 가상환경을 직접 제작했기 때문이다(정확히는 제작을 의뢰한 것). 쉽게 얘기하면 이미지에 등장한 모든 객체에 대한 Label 정보를 가지고 있기 때문에 컴퓨터에게 일일이 그 객체의 유형을 파악하도록 시킬 필요가 없다는 것이다. 단순히 3차원 공간에서 실험참여자가 눈으로 본 Scene을 2D 이미지로 정사투영・변환한 후, 그것을 아래와 같이 분할하고 각각의 면적만 산정하면 된다. 이 부분은 설명하기 조금 까다로운데, 좀 더 정확히 설명하면: 분할을 했다기보단 ‘①이미 모든 벡터 정보를 알고 있는 ②개별적으로 분할된 ③3차원의 객체들’을 2D 평면으로 찍었을 때 그 면적이 어떻게 되는지를 컴퓨터를 이용해 계산한 것이라고 보면 된다.
이렇게 하면 세상 그 어떤 딥러닝 모델보다 Segmentation 성능이 좋을 수밖에 없다. 나무와 신호등의 Segmentation 결과를 보라! (이것이 어떤 의미가 있는지, 어떻게 활용될 수 있는지는 또 전혀 다른 차원의 문제라 여기서는 다루지 않도록 하겠다. 아, 이를 통해 딥러닝 모델의 무용함이나 가상환경 연구의 장점을 어필하려는 것은 절대 아니다).
하지만 이 작업은 생각보다 많은 시간이 소요된다. 정확하지는 않지만 약 40~50만 장 정도의 이미지를 Segementation하는데 대략 한 달 정도 걸린 것 같다. 물론 나중에 이 작업을 수행한 윤현성 박사과정생에게 물어보니 시간은 훨씬 단축시킬 수 있다고 한다. 하지만 처음에 난 그 사실을 전혀 몰랐고, 이 작업이 지나치게 많은 시간과 리소스를 필요로 한다고 생각했다.
그래서 VR 이미지에 딥러닝 기반의 Segmentation을 적용하는 실험을 하게 된다.
2) Detectron2를 활용해 SVI를 Segmentation한 결과(panoptic segmentation 적용)
우선, SVI를 panoptic segmentation한 결과를 살펴보자. 이는 이미 너무나도 많은 논문에서 활용되는 방법이니 생소하지는 않을 것이다. Detectron2를 활용해 약 11만 장 정도 되는 Place pulse 2.0 dataset의 이미지를 segmentation하는데 대략 5~7시간 정도 걸렸다. 물론 VR 이미지의 수가 4배나 많았고 이미지 사이즈도 더 컸지만, 그런 점을 감안하더라도 딥러닝 모델의 연산속도가 월등히 빠르다고 생각했다.
3) Detectron2를 활용해 VR 이미지를 Segmentation한 결과(panoptic segmentation 적용)
다음으로 VR 이미지를 panoptic segmentation한 결과를 살펴보자. 첫 번째 이미지를 보면 그래도 나름 처리가 잘 된 것처럼 보이지만... 나머지 이미지들을 보면 사용할 수 있는 수준이 아님을 알 수 있다. 차량, 주변 건물, 나무, 하늘, 가로시설물들에 대한 인식은 비교적 정확한 편인데 유난히도 바닥 재질에 대한 인식률이 크게 떨어지는 것으로 나타났다. 마치 흰 도화지에 팔레트를 뒤집어엎은 듯한 모습이다.
재미 삼아 시도해본 것이라 원인은 잘 모르겠으나, 아무래도 가상환경 설계 시 사용하는 바닥 포장 패턴이나, 그림자 모델들이 SVI에서 보여지는 모습에 비해 지나치게 선명하거나 정교하기 때문이 아닌가 싶다. 예를 들어, 아스팔트 포장의 경우 SVI에서는 어느 정도 사용감이 있는 회색조의 모습으로 보인다면, VR 이미지에서는 방금 막 포장을 마친 듯한 선명한 아스팔트 색상(거의 검은색에 가까운)으로 표현된다.
4) 터널 내부에서 찍힌 SVI를 Segmentation한 결과(panoptic segmentation 적용)
그런데 우연히 다음과 같은 panoptic segmentation 결과를 발견한다(11만 장의 이미지 중 정말 우연히도). 이는 터널 내부에서 찍힌 SVI를 Segmentation한 결과인데, 위에서 본 VR 이미지 panoptic segmentation 결과와 비슷한 양상을 보인다. 아무래도 똑같은 도로라도 조도나 색상에 따른 영향을 크게 받는 것 같다.
5) Detectron2를 활용해 VR 이미지를 Segmentation한 결과(panoptic segmentation 적용) - 언리얼 기반
여기서 포기하고 바로 ViT로 넘어가려다, 조금 전 매우 고무적인 결과를 얻었다. 혹시나 하는 마음에 다른 VR 환경에서 추출한 이미지를 활용했더니 panoptic segmentation 결과가 SVI를 활용한 것과 큰 차이를 보이지 않는 것이다. 앞서 3)에서 활용한 이미지는 유니티 기반, 5)에서 활용한 이미지는 언리얼 엔진 기반이라는 차이점이 있는데, 이것이 미친 영향은 더 확인해볼 필요가 있을 것 같다.
6. 실험은 계속될 것이다.
VR 실험(experiment)도, 딥러닝 접목을 위한 실험(test)도 계속될 것이다. 지금까지 시행한 다수의 Simulated VR 실험들로부터 딥러닝 모델 학습에 활용가능한 수준의 이미지를 대량 생산해낼 수 있고, Recorded VR 영상에서는 더 많은 현실 이미지도 생산해낼 수 있다. 이를 통해 조금은 지루해져 가고 있는 SVI 기반 컴퓨터 비전 연구에 1g 정도의 변화를 만들어 낼 수 있지 않을까 싶다. VR 연구를 하며 많은 것을 얻고, 또 많은 기회를 놓쳤지만, 이제 다시금 좋은 쪽으로 바람이 불어줄 시기가 온 것 같다. 순풍에 돛을 달고 먼바다로 나아가보자.
7. 연구하는 학생들을 위하여
사실 이글은 우리 연구실 학생들을 위해 쓴 글이다. 사실 매주 연구미팅을 하면서도 지도교수가 무슨 생각을 하며 사는지 정확히 전달하기는 쉽지 않다. 이 글을 통해 내가 나아가려는 방향을 이해하는 데 조금이나마 도움이 되길 바란다. 아울러 박사과정 학생들에게는 향후 5년, 10년 동안 내가 무엇을 연구해야 할지 늘 고민하고 탐색해야 한다는 말을 해주고 싶다. 자신의 선택이 늘 좋은 결과로 이어지는 것은 아니지만, 자신이 어떤 길을 걷고 있는지를 모르면 길을 잃어도 헤어나지 못한다.
8. 글을 짧고 간결하게 쓰는 재주가 없다. 읽는 이가 알아서 참고 끝까지 읽어주길 바랄뿐이다.
Kommentare