목록분류 전체보기 (96)
노는게 제일 좋습니다.
어떤 온라인 지인과 스터디를 하기로 했다.교재는 아주 오래된 것이긴 하지만, 무료로 공개되어있고 유명하기에 택했다. 32bit컴퓨터가 주를 이룰 때 쓰여진 것이니.. 대충 감안하고 보기로 했다.혼자하면 책을 사서 하겠지만 같이 하면 비용 문제도 고려해야하기 때문이다. 남들이 C할 때 여유롭게 물리와 수학을 해서 과탑을 할 수 있기를.
https://blog.metaflow.fr/shapes-and-dynamic-dimensions-in-tensorflow-7b1fe79be363#.wfb3r2721 쉐이프는 정적 쉐이프, 동적 쉐이프 두 가지로 나뉜다. 정적 쉐이프는 텐서를 만들 때 우리가 제공 받는 쉐이프이다. 혹은 우리가 새로운 텐서를 정의할 때 텐서플로에 의해 추론되는 쉐이프이다. 동적 쉐이프는 텐서플로에서 그래프를 실행할 때 사용되는 실제의 쉐이프로, 원본 쉐이프를 나타낸다.동적 쉐이프는 그 자체로 텐서이기도 하다.
https://youtu.be/MFAnsx1y9ZI이 강의를 보고 공부한 후 정리한 내용임. tensorflow 7 글에서는 데이터를 두 개로 나누는 방법을 공부했다.Multinomial Logistic Regression 은.. 번역하면 뭐라하는지 모르겠지만, 여러개로 딱딱 나누는 방법이다.( 예 : 학점을 A, B, C, F로 나누기 ) 데이터의 종류가 동그라미,세모,네모 세 가지가 있다고 하자.그렇다면 세 개의 선으로 구간을 나누어줄수 있다. (동그라미인가 아닌가, 세모인가 아닌가, 네모인가 아닌가.)이 각각의 선을 구해서 같이 잘 쓰면 데이터를 세 가지로 분류할 수 있다. 아, 그 각각의 선이라 함은, 이미 알고있는 바이너리 클래시피케이션(Binary classification)이다. 그럼 이제 ..
1.Binary 이진Logistic 논리의classification 분류데이터를 받아서 0,1로 인코딩하는 방식이다. 2.Linear Regression과 같은 방식으로 hypothesis를 세울 때 발생하는 문제(1) 0보다 작거나 1보다 큰 값을 뱉어낼 수가 있다.(2) hypothesis를 얼마나 기울여야 할지 알 수 없다.즉, 기존과 같은 가설(hypothesis)을 기반으로 하되, 이를 압축해서 0과 1로 만들어줄 새로운 함수가 필요하다. 3. H(x)=Wx+b=z라 하자. 그리고 다음과 같은 어떤 함수 g(z)에 대입하면 두 번째 줄과 같은 결과가 나온다.** W의 윗첨자 T는 행렬에서의 transpose를 나타낸다. 이 함수 g(z)를 logistic function 또는 sigmoid fu..
https://www.youtube.com/watch?v=UYWJkyYln2s&feature=youtu.behttps://www.inflearn.com/course-status-2/이곳을 보고 공부하고, 이해한 내용을 바탕으로 정리한 것 multi : 여러개variable(또는 feature) : 변수(특징) --- x값을 말합니다.Linear Regression : 우리가 아는 그 리니어 리그레션 multi-variable Linear Regression : 여러 개의 입력을 받는 리그레션 1.기존에 사용하던 hypothesis(가설)은 H(x) = Wx+b와 같은 형태였다.그런데, 여기서 x1,x2와 같이 여러 개의 변수를 둘 수도 있다. 그 예는 다음과 같다.특징(feature) x가 늘어나면 그에..
https://www.inflearn.com/course-status-2/이 주소에 있는 강의를 기반으로 공부하고 정리한 자료. Gradient 경사Descent 감소Gradient Descent Algorithm : 경사(기울기)가 줄어드는 쪽으로 가는 알고리즘 그래프 그리는 사이트 https://www.desmos.com/calculator 위와 같은 그래프에서 최저점을 찾고 싶다고 하자.아무 점이나 잡아서 기울기가 줄어드는 방향으로 이동하면된다.\ 예를 들자면 이렇다. 오른쪽 위에서 시작해서, 기울기가 줄어드는 방향으로 가다보니 최저점이 나왔다.사실 이 그래프의 세로축은 cost(W,b)의 값, 가로축은 W의 값이다.training set이 x=[1,2,3] y=[1,2,3] 일때 이런 개형의 그래..
https://www.inflearn.com/course-status-2/이곳을 보고 공부했다. 쉽게 설명해주셔서 초심자도 이렇게 공부노트를 적고있다. 그려놓은 그림과 코드 모두 이 주소를 참고해서 .. 뇌속에 복사했다 손으로 붙여넣기 했다. linear regression일차함수로 학습시키는 리그레션(regression).트레이닝 셋을 평면좌표에 나타냈다. 검은 점이 트레이닝 셋의 실제 데이터들이다.Linear Hypothesis(이하 선형 가설)란, 가장 적절한 선을 찾는 것이다.이 선들은 H(x) = Wx + b 와 같이 나타낼 수 있다.가장 적절한 선이란, 실제 데이터들의 점을 가장 가까이 지나는 선이라고 할 수 있다. 즉, 다음과 같이 하나의 선형가설과 트레이닝셋 데이터들의 거리를 비교한다.각각..
Dataflow Graph : 텐서플로우 에서 그리는 그래프.1. Node : mathmatical operation2. Edge : multidimensional data array ( = tensor ) communicated between them (뭔소린지 모르겠음) 헬로우월드 코드.import tensorflow as tfhello = tf.constant('안녕 이 빌어먹을 세상아')sess = tf.Session()print(sess.run(hello)) 텐서플로우에서는 모든게 operation이다. 예를 들어.. hello를 출력해보면 '안녕 이 빌어먹을 세상아'가 안나온다.tensor라고 나온다. 이런 변태같은..