먼저 FOV에 대해서 좀 더 살펴보면,
NbyN SLM의 pixel 사이즈(즉 resolution)를 dx라고 하면
초점거리 f인 렌즈에 의해 이 SLM(파장:lambda)이 푸리에 변환되어
생성된 광파의 angular-spectrum의 wavevector component kx
의 범위는
( kx_min=-pi*N*dx/(lambda*f) )< kx <(kx_max=pi*N*dx/(lambda*f))
kx=2*pi/lambda*sinΘ) 이므로
( kx_min=-N*dx/(2f) )< sin(Θ) <(kx_max=N*dx/(2f))
FOV는 다음과 같습니다.
-asin( N*dx/(2f)) ) < Θ < asin( N*dx/(2f)) )
이미지 plane에서의 이미지 사이즈는
lambda*f/dx
이니
이미지사이즈*FOV=2*asin( N*dx/(2f)) )*lambda*f/dx
=2*asin( N*dx/(2f)) )*lambda*f/dx
=N -> SLM 정보량 (under the paraxial approximation)
그런데, 이미지플레인 에서의 이미지 resolution과 FOV는
동일한 정보입니다. FOV가 클수록 resolution은 증가
(즉, pixel size가 감소)
따라서, 이미지사이즈(1배)*FOV(4배)=4배증가 CASE1의 결과는 당연.
한편, CASE 2는 이미지 plane 이 가로 2배 세로2배 4배 증가 된 반면,
FOV는 1배 동일, 즉 resolution도 1배 증가했을 뿐,
따라서, 이미지사이즈(4배)*FOV(1배)=4배증가
CASE2의 결과도 당연. CASE 2에서는 이미지 resolution
은 늘어나지 않습니다.
FOV와 이미지resolution은 동일한 정보임을 생각하면
이므로, CASE1 과 CASE 2에서
이미지사이즈*FOV=정보량
이 만족되어 CASE1, CASE2 모두에서
사라진 정보는 없습니다.
>홀로그램 이미지상의 정보는 어떻게 분포될까.
>
>case1)
>SLM이 nxn pixel로 이루어 졌는데 4개를 이어 붙여서 2nx2n이 되었다고 하자.
>그러면 이미지의 planer size는 동일하고 resolution은 2nx2n으로 늘어나고
>FOV는 ΘxΘ에서 2Θx2Θ로 늘어나게 된다.
>그렇다면 SLM 정보량은 4배 늘었지만 표현할 수있는 3차원 정보는 planer 4배 angular 4배 늘어나게 된다.
>얼마나 놀라운 결과인가.... ^^;;;
>
>case2)
>nxn pixel SLM을 4개 붙이는데 이번에는 4개를 각각 별도의 렌즈를 사용해서 이미징을 해보자
>그러면 이미지의 planer size는 4배 늘어나고 resolution은 2nx2n으로 늘어나고
>FOV는 ΘxΘ로 동일하다.
>그러면 SLM의 정보량은 4배 늘고 3차원 정보는 planer 4배 angular 1배 늘어나게 된다.
>당연하다.
>
>case3)
>nxn pixel SLM으로 초점거리 f를 사용해서 이미징을 할때
>이미지 사이즈를 dxd라고 하고 FOV를 ΘxΘ라고 하자.
>그러면 f를 2f로 바꾸면
>이미지 사이즈는 2dx2d, FOV는 Θ/2 x Θ/2가 된다.
>물론 둘다 resolution은 nxn으로 동일하다.
>그러면 (이미지 사이즈)x(FOV)는 conservation 할까??
>
>=============================================
>|| (이미지 사이즈)x(FOV)=(정보량) ||
>=============================================
>
>그러면 다시 돌아가서 case1)의 문제에서 찜찜한 부분이 생긴다.
>없어진 정보는 어디로 간 것일까?
>Angular resolution은 어떻게 define될 것인가?
>