일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 양성평등
- 파이썬과 케라스로 배우는 강화학습
- 독서
- 폴댄스
- 파이썬
- 벨만 방정식
- 페미니즘
- cost function
- 딥러닝
- 행복
- MDP
- ai
- 취미
- Linear Regression
- Gradient descent
- tensorflow
- 다이내믹 프로그래밍
- 딥뉴럴넷
- Richard Socher
- 강화학습
- NLP
- 리처드소처
- model free
- kbpf
- 자연어처리
- CS224N
- MB
- 머신러닝
- 인공지능
- 애쉬브라운
- Today
- Total
목록Study/ML 실습 - Python 기초 (3)
Ordinary day
gradient descent를 사용하여 cost function 값을 최소화 해보자 gradient descent를 사용해서 가중치w 값을 업데이트 할 수 있다. w := w + ∆w 여기서 w의 변화량(∆w)은 (-) 기울기 값에 learning rate η을 곱한 값으로 정의된다. ∆w = −η∆J(w) cost function의 기울기를 계산하려면 각각의 w와 관련하여 cost function의 편미분을 계산해야한다. 그리고 w 업데이트 값 wj을 아래와 같은 수식으로 나타낼 수 있다. 모든 w를 동시에 업데이트하기 때문에 Adaline learning rule은 다음과 같다. w := w + ∆w 파이썬으로 Adaptive Linear Neuron 구현하기 퍼셉트론과 Adaline은 매우 유사하..
파이썬에서 perceptron learning algorithm 구현 import numpy as np class Perceptron(object): """Perceptron classifier. Parameters ------------ eta : float Learning rate (between 0.0 and 1.0) n_iter : int Passes over the training dataset. Attributes ----------- w_ : 1d-array Weights after fitting. errors_ : list Number of misclassifications (updates) in each epoch. """ def __init__(self, eta=0.01, n_iter=..
Training Machine Learning Algorithms for Classification perceptron 과 adaptive linear 사용해서 classification 구현해보자. 이 장의 주제는 다음과 같다. - 머신러닝 알고리즘을 위한 직관 설계 - NumPy 같은 관련 라이브러리 사용 - 파이썬으로 linear classification algorithms 구현 인공 뉴런 (Artificial Neurons) - 기계 학습의 초기 역사 Warren McCullock 과 Walter Pitts 1943년에 MCP뉴런이라는 단순한 뇌세포의 개념을 처음으로 발표했다. McCullock 과 Pitts는 그런 신경 세포를 두개의 출력을 가진 단순한 논리 게이트로 설명했다. 여러 신호가 수..