Winner-take-all Learning에서 weight vector를 조절하는 node를 찾을 때 사용하는 공식이 이해가 안가네요
Winner-take-all Learning에서 weight vector를 조절하는 node를 찾을 때 사용하는 공식이 이해가 안갑니다.
Luger씨가 쓴 Artificial Intelligence Structures and Strategies For Complex Problem Solving 책에 따르면
input이 x1, x2, x3, ..., xm 으로 들어올 때 노드 i의 activation level은 (Wi)X 라고 쓰여져있습니다. 그러니까 노드 i의 weight vector와 input vector X의 곱이네요.
그리고 weight vector를 조절하는 노드를 결정할 때 activation level을 직접 구할 필요없이 weight vector와 input vector의 유사성을 보면 된다고 나와있습니다. 즉, 두 벡터의 Euclidean distance가 가장 작을 때 (Wi)X의 값이 가장 크다는 이유입니다.
하지만 반례가 있지 않나요?
예를 들어 input vector가 (1,1,1,1,1)이고 노드 1의 weight vector가 (2,2,2,2,2)이고 노드 2의 weight vector가 (3,3,3,3,3)입니다.
그러면 input vector와 노드 1과의 거리가 가장 가까운 반면 input vector와 노드 2의 곱이 노드 1과의 곱보다 더 크지 않나요?
아니면 제가 책의 내용을 잘 못해석한 결과일까요?
책에는 다음과 같이 쓰여있었습니다.
----------------------------------------------------------------------------------------------------------------------
| X - Wi | = 루트( (X - Wi)^2 ) = 루트( X^2 - 2XWi + W^2 )
From this equation it can be seen that for a set of normalized weight vectors, the weight vector with the smallest Euclidean distance, | X - W|, will be the weight vector with the maximum activation value, WX.
----------------------------------------------------------------------------------------------------------------------
weight vector를 결정지을 때 사용하는 공식은 Euclidean distance인가요 아니면 activation level인가요?
부디 부족한 저를 도와주십시오..
감사합니다.
for a set of normalized
노말라이즈된 웨이트벡터에 대해서라고 써 있네요..
어디에선가 노말라이즈하는 과정이 있을 듯..
----
일단 게시판을 잘못 찾으신것 같고.. (강좌가 아니라 QnA쪽으로.. )
그리고 사이트도 잘못 찾으신 것 같고..
댓글 달기