-
์ผ๋จ ์์ํ๊ธฐ ์ ์ Windows ํ๊ฒฝ์ ๊ฐ์ ํฉ๋๋ค. Github ๊ณ์ ์ด ์์ด์ผ ํ๋ค. Git์ด ์ค์น๋์ด ์์ด์ผ ํ๋ค. Hugo๋ฅผ ์ค์นํด์ผ ํ๋ค. Hugo๋ฅผ ์ค์นํ๋ ๋ฐฉ๋ฒ์ ๋ค์๊ณผ ๊ฐ๋ค. https://github.com/gohugoio/hugo/releases ์ ์ ์ํ์ฌ ์๋ ์คํฌ๋ฆฐ์ท์ ๋ณด์ด๋ Assets์ ์ฐพ๋๋ค. ์์ ์ ์ปดํจํฐ์ ๋ง๋ (๋ค์ด๋ก๋ ๋ฐ์ theme์ด ์ง์ํ๋) ํ์ผ(ex. ugo_extended_0.109.0_windows-amd64.zip)์ ๋ค์ด๋ก๋ ๋ฐ๊ณ ์์ถ์ ํผ๋ค. Hugo.exe ํ์ผ์ด ์๋ ์์น๋ฅผ ํ๊ฒฝ๋ณ์ path์ ์ ์ฅํ๋ค. โฆ
Read More -
๊ตฌ๊ฐ๋ฒ (Braketing method) ์ฐ์ํจ์ $f(x)$ ์ ๊ฐ์ด ๊ตฌ๊ฐ์ ์ ๋ $a \leq x \leq b$ ์์ ์กฐ๊ฑด $f(a)f(b)<0$ $[f(a)$์ ๊ฐ๊ณผ $f(b)$์ ๊ฐ์ ๋ถํธ๊ฐ ์๋ก ๋ค๋ฅด๋ค$]$์ ๋ง์กฑํ๋ฉด ๊ตฌ๊ฐ ๋ด๋ถ์ $f(x)=0$์ ๋ง์กฑํ๋ $x$๊ฐ ์ ์ด๋ ํ ๊ฐ๊ฐ ์กด์ฌํ๋ค. ์ด๋ ๊ฒ ๊ทผ์ด ์กด์ฌํ๋ ๊ตฌ๊ฐ์ ์ ๋๋ ์ด๋ถ๋ฒ(bisection), ๊ฐ์์น๋ฒ(False-position method), ์์ ๊ฐ์์น๋ฒ(modified false-position method) ๊ณผ ๊ฐ์ ๊ตฌ๊ฐ๋ฒ์ ์ ์ฉํด์ ๋ฐฉ์ ์์ ๊ทผ(ํด)๋ฅผ ๊ตฌํ ์ ์๋ค. โฆ
Read More -
Data์ ์ฃผ์ ๊ฒฝํฅ์ฑ์ ๋ํ๋ด๋ equation์ ์ฐพ์ ๋ ๊ฐ๊ฐ์ ๋ฐ์ดํฐ์ ์ฐ๋ฆฌ๊ฐ ๊ฐ์ ํ linear equation๊ฐ์ ๊ฑฐ๋ฆฌ์ ์ ๊ณฑ์ ์ต์ํํ๋ ๋ฐฉ๋ฒ์ด ๊ฐ์ฅ ์ผ๋ฐ์ ์ธ๋ค. ์ฐ์ํจ์์์ ์ต์ํํ๋ค๋ ๊ฒ์ derivative = 0 ์ด ๋๋ ๊ฐ์ ์ฐพ๋ ๊ฒ์ด๋ค. ๋ฐ์ดํฐ๊ฐ $\vec{x} = {x_1, x_2, \dots x_n}$, $\vec{y} = {y_1, y_2, \dots y_n}$ ์ผ ๋ Linear regression์์๋ ์ด ๋ฐ์ดํฐ๋ฅผ $a \mathbf{x}+b= \mathbf{y}$ ๋ก ๊ทผ์ฌํ๋ค. ๊ทธ๋ผ ์ฌ๊ธฐ์ unknown์ธ a์ b๋ฅผ ์ฐพ์๋ณด์. ${a โฆ
Read More -
์ํธ๋กํผ์ ๋ํด์ ๋งํ๊ธฐ ์ ์ surprise์ ๋ํด์ ๋จผ์ ์์์ผ ํ๋ค. surprise๋ ์ฝ๊ฒ ๋งํด์ ํ๋ฅ ์ ๋ฐ๋์ธ๋ฐ, ์๋ฅผ ๋ค์ด์ ๋์ ์ ์๋ฉด์ด ๋์ฌ ํ๋ฅ ์ด 1์ธ ๊ฒฝ์ฐ์ ์๋ฉด์ด ๋์ฌ surprise๋ 0๊ฐ ๋๋ค. (๋์ ์๋ฉด์ด ๋์ฌ ํ๋ฅ ์ด 1์ด๋ผ๋ ๊ฒ์ ์ธ์ ๋ ๋์ ์๋ฉด์ด ๋์จ๋ค๋ ๊ฑด๋ฐ ๊ทธ๋ผ ๋์ ์๋ฉด์ด ๋์์ ๋ ๋๋ผ๋ ์ ๋?๋ 0์ด๋ผ๋ ์๋ฏธ์) ๊ทผ๋ฐ ์ด suprise๋ something์ด ์๋ ํ๋ฅ ๊ณผ๋ ๋ค๋ฅธ ๊ฐ๋ ์ด๋ฏ๋ก 1-something ์ผ๋ก ์ ์๋๋ ๊ฒ์ด ์๋๋ผ 1/(somthing) ์ผ๋ก ์ ์๋๋ค. ๊ทธ๋ ์ง๋ง ์ฌ๊ธฐ์๋ ๋ฌธ์ ๊ฐ ๋ฐ์ํ๋๊ฒ, $1/1=1$์ด โฆ
Read More -
๊ธฐ๋๊ฐ์ ์ฌ๊ฑด์ด ์ผ์ด๋์ ์ป๋ ๊ฐ๊ณผ ๊ทธ ์ฌ๊ฑด์ด ์ผ์ด๋ ํ๋ฅ ์ ๊ณฑํ๊ฒ์ ๋ชจ๋ ํฉํ ๊ฐ์ด๋ค. ์๋ฅผ ๋ค์ด์ StatLand์์ Troll 2์ ๋ํด์ ๋ค์ด๋ณธ ์ฌ๋ ์์ ๋ค์ด๋ณด์ง ๋ชปํ ์ฌ๋์ ์๊ฐ ์๋์ ํ์ ๊ฐ๋ค๊ณ ์๊ฐํด ๋ณด์. Heard of Troll 2 Never heard of Troll 2 Total # 37 176 213 Probability 0.17 0.83 1 Outcome -1 1 ์ด๋ฐ ์ํฉ์์ ์ฐ๋ฆฌ๊ฐ ์ง๋๊ฐ๋ ์ฌ๋๋ค์๊ฒ "troll 2"์ ๋ํด์ ๋ค์ด๋ดค๋์ง ์๋์ง์ ๋ํด์ ๋ฌผ์ด๋ณด๋ betting์ ํ๋ค๊ณ ๊ฐ์ ํด ๋ณด์. โฆ
Read More -
์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด ํ๋์ target(๋นจ๊ฐ ์ )์ ๋ง์ถ๋ ๋ฌธ์ ๋ฅผ ๋ณด์. Bias๊ฐ ๋๋ค๋ ๊ฒ์ ์ฐ๋ฆฌ์ prediction์ด taget ์ ๊ณผ ๋ฉ๋ฆฌ ๋จ์ด์ ธ ์๋ค๋ ๊ฒ์ด๋ค. prediction error๊ฐ ๋๋ค๋ ๊ฒ Variance๋ taget point์์์ error sum์ด ๋ฎ์ ์ ์์ง๋ง prediction์ด ์ ํํ์ง ์์ ๊ฒ์ด๋ค. ๋ฐ์ดํฐ์ noise pattern๊น์ง ๋ชจ๋ธ์ด ๋ค capture ํด ๋ฒ๋ ค์ prediction ๊ฒฐ๊ณผ๊ฐ ์ ํํด์ง์ง ์๋ ๊ฒ Source: โฆ
Read More -
Sensitivity๋ actual condition์ด positive ์ธ ๊ฒ์ด prediction์ผ๋ก ์ผ๋ง๋ ์ ํํ ๋ฐํ์ก๋์ง๋ฅผ ๋งํด ์ค๋ค. ์ค์ ๋ก positive์ธ ์ฌ๋๋ค ์ ์ฒด ์ค์ prediction์ด positive๋ก ์ถ์ ํ ์ ๋ $$\text{Sensitivity} = \frac{\text{True positives}}{ \text{True positives + False negatives}}$$ Specificity ๋ ์ค์ ๋ก negarive์ธ ๊ฒ์ด prediction์ผ๋ก ์ผ๋ง๋ ์ ํํ ๋ฐํ์ก๋์ง๋ฅผ ๋งํด ์ค๋ค. ์ค์ ๋ก negative โฆ
Read More -
Confusion matrix์ ๋ด๊ฐ ์ ํํ machine learning algorithm์ด ๋ญ ์ predictionํ๊ณ ์ด๋ค ๊ฑธ ์ predictionํ์ง ๋ชปํ๋์ง ์๋ ค์ค๋ค. ์ด confusion matirix๋ฅผ ๋น๊ตํจ์ผ๋ก์จ ์ฌ๋ฌ ๊ฐ์ง machine learning methods (Logistic regression, Support Vector machine learning, K-nearest, etc.) ์ค์ ์ด๋ค ๊ฒ์ ์ ํํ๋ ๊ฒ์ด ๊ฐ์ฅ ์ข์ ๊ฒฐ๊ณผ๋ฅผ ์ฃผ๋์ง๋ ์ ์ ์๋ค. Predicted condition Positive (PP) Negative (PN) โฆ
Read More -
๋ณดํต 100% ์ํ ์ค์์ Train (75%) Test (25%) ๋ก ๋๋ ์ ์ฌ์ฉํ๋ค. ๊ทผ๋ฐ ์ฌ๊ธฐ์ 75%์ 25%๋ฅผ ๋๋๋๋ ์ด ๋ฐ์ดํฐ์์ ์ด๋ค ๋ถ๋ถ์์ ์ ํํ ๊ฒ์ธ์ง๋ ์ค์ํจ ๋ฐ์ดํฐ๋ฅผ ๋ธ๋ก ๋จ์๋ก ๋๋๊ณ (์ฌ๊ธฐ์ ์๋ฅผ ๋ค์ด A, B, C, D 4๊ฐ๋ก ๋๋ด๋ค๊ณ ํ์) 4๊ฐ ์ค์์ A๋ฅผ test data๋ก ์ ์ ํ๊ณ ๋๋จธ์ง๋ฅผ training data๋ก ๋๊ณ machine learning algorithm์ ๋๋ฆฐ๋ค. ๊ทธ ๋ค์์๋ B๋ฅผ test data๋ก ์ ์ ํ๊ณ ๋๋จธ์ง๋ฅผ training data๋ก ๋๊ณ ๋ค์ ์๊ณ ๋ฆฌ์ฆ ๋๋ฆฐ๋ค. ์ด๋ฐ์์ผ๋ก ๋ฐ๋ณตํ๋๊ฒ cross โฆ
Read More -
Gradient-Free Optimization ์ด๊ฑด ์ธ์ ์ฌ์ฉํ๋ ๊ฑฐ๋? gradient๊ฐ ๊ณ์ฐํ๊ธฐ ๋ณต์กํ๊ฑฐ๋ ๊ณ์ฐ์ ํ ์ ์๋ ๊ฒฝ์ฐ(function evaluation ๊ฐ์ด noisyํ๊ฑฐ๋ ์๋๋ฉด ๋ชฉ์ ํจ์๊ฐ continuous ํ์ง ์๊ฑฐ๋, ๋ธ๋๋ฐ์ค๋ก ์ธ์ฌ์๋ legacy ์ฝ๋๋ผ ๊ณ ์น ์๊ฐ ์๋๋ฐ noisyํ๊ฑฐ๋ ์ด๋ค ๊ฐ์ด ๋์ค๋์ง ์ ์ ์์ ๊ฒฝ์ฐ๊ฑฐ๋, ์ด๋ค ๊ฒฝ์ฐ์ ์์ ์๋ฌ๊ฐ ๋์ค๋๋ฐ ์ต์ ํ๋ฅผ ์ํํด์ผ ํ ๋)์ gradient-free optimization์ด ์ ์ฉํ๊ฒ ์ฌ์ฉ๋ ์ ์๋ค. multi-modal function โฆ
Read More