loss function

손실함수?

내 모델을 통해 생성된 결과 값과 실제로 발생하기를 원했던 값간의 차이를 계산하는 함수. 목적에 따라 여러 종류의 함수가 존재할 수 있다.

1. Mean Squared Error

(관찰되지 않은 양을 추정하기 위한 절차에 대한) mean squred error(MSE) 또는 mean squared deviation(MSD)는 오류 또는 편차의 제곱의 평균을 측정한다.
즉, 추정한 값과 기대했던 값간의 차이를 측정한다. MSE는 리스크 함수이며, 제곱된 에러 값 또는 이차 손실에 대응된다.
차이는 임의성 또는 측정기가 좀더 정확하게 측정하지 못해서 발생한 정보의 누락에 의해 발생한다.

\operatorname {MSE}={\frac {1}{n}}\sum _{{i=1}}^{n}({\hat {Y_{i}}}-Y_{i})^{2}

값이 적을 수록 원본과 추측한 값의 차이가 적어지는 것으로
추측한 정확성이 높아 지는 것을 의미한다.
MAE 에 비해 제곱값이므로 차이에 따는 값 변화가 커서 눈에 잘 띄는 점이 좋을 것 같음.

 

2. Mean Absolute Error

통계에서 mean absoulte error(MAE)는 결과값과 예측값이 얼마나 비슷한지를 평가하는 함수이다.
mean absolute error의 식은 다음과 같다.

{\mathrm {MAE}}={\frac {1}{n}}\sum _{{i=1}}^{n}\left|f_{i}-y_{i}\right|={\frac {1}{n}}\sum _{{i=1}}^{n}\left|e_{i}\right|.

3. Mean Absolute Percentage Error

mean absoulte percentage error(MAPE) 또는 mean absoulte percentage deviation(MAPD)는 통계에서 예측치의 정확성의 측정법이다.
정확도는 보통 퍼센트로 표현되고 다음과 같은 식으로 표현된다.

{\displaystyle {\mbox{M}}={\frac {100}{n}}\sum _{t=1}^{n}\left|{\frac {A_{t}-F_{t}}{A_{t}}}\right|,}

4. Mean Squared Logarithmic Error

 

5. Hinge

V(f({\vec {x}}),y)=\max(0,1-yf({\vec {x}}))=|1-yf({\vec {x}})|_{{+}}.

6. Categorical Cross Entropy

카테고리 문제에서 자주 사용하는 로스 함수로, 실제 라벨과 예측 라벨의 두 확률 분포 사이 유사성을 측정합니다. 여기서 예측 라벨은 보통 소프트맥스 방법으로 계산합니다.
Also known as multiclass logloss. Note: using this objective requires that your labels are binary arrays of shape (nb_samples, nb_classes).

7. Sparse Categorical Cross Entropy

As above but accepts sparse labels. Note: this objective still requires that your labels have the same number of dimensions as your outputs; you may need to add a length-1 dimension to the shape of your labels, e.g with np.expand_dims(y, -1).

8. Binary Categorical Cross Entropy

Also known as logloss.

9. Kullback Leibler Divergence

쿨백-라이블러 발산(Kullback–Leibler divergence, KLD)은 두 확률분포의 차이를 계산하는 데에 사용하는 함수로, 어떤 이상적인 분포에 대해, 그 분포를 근사하는 다른 분포를 사용해 샘플링을 한다면 발생할 수 있는 정보 엔트로피 차이를 계산한다. 상대 엔트로피(relative entropy), 정보 획득량(information gain), 인포메이션 다이버전스(information divergence)라고도 한다. 정보이론에서는 상대 엔트로피, 기계학습의 결정 트리에서는 정보 획득량을 주로 사용한다.

쿨백-라이블러 발산은 비대칭으로, 두 값의 위치를 바꾸면 함수값도 달라진다. 따라서 이 함수는 거리 함수는 아니다.

두 확률변수에 대한 확률분포 {\displaystyle P,Q}P,Q가 있을 때, 두 분포의 쿨백-라이블러 발산은 다음과 같이 정의된다.

  • 이산확률변수의 경우
    D_{{{\mathrm {KL}}}}(P\|Q)=\sum _{i}P(i)\log {\frac {P(i)}{Q(i)}}
  • 연속확률변수의 경우
    D_{{{\mathrm {KL}}}}(P\|Q)=\int _{{-\infty }}^{\infty }p(x)\log {\frac {p(x)}{q(x)}}dx
  • 여기에서 p,q는 두 확률분포의 확률 밀도 함수를 의미한다.

10. Poisson Loss

Mean of (predictions – targets * log(predictions))

 

11. Cosine Proximity

The opposite (negative) of the mean cosine proximity between predictions and targets.

 

 

map의 스크롤 이벤트 처리

다음 지도를 이용하여 화면에 지도를 띄워줬는데,  지도를 확대하기 위해 스크롤 하면 화면 전체가 스크롤되는 문제가 있다. javascript에 문외한이기 때문에 마음의 준비를 했다. 한참 헤매겠구나…

그런데 의외로 간단히 해결됨. event의  propagation을 차단하면 된다.

 

지도 api사용하기

다음 지도와 네이버 지도는 좌표계가 다르다.

다음지도는 키워드 검색이 가능

네이버는 길찾기 활용이 가능j, 다음도 길찾기는 활용 가능

다음지도 검색이 데이터가 더 풍부하게 나오니 선택.

뭐 나중에 필요하면 둘다 해야할 것 같으니 일단은 다음을 1순위로 개발하도록 하자.