본문 바로가기

딥러닝11

데이터 유사성 분석? 이번 과제에서 데이터간 유사성을 찾고 어떤 유사성 방법을 적용했는지 알아보는 과제를 맡았습니다.그래서 저는 유사도에 대해 공부를 하면서 적용하려고 이 포스트를 만들게 되었습니다.🌱 Similarity유사도(Smiliarity)는 두 객체가 얼마나 비슷한지를 나타내는 척도를 말합니다. 그렇다면 유사도를 측정하기 위해 어떤 것들이 우선이 되어야 할까요? 유사도를 측정하는 객체의 특징이 어떤 것이냐에 따라 다르기 때문에 객체의 특징과 다양한 유사도의 방법을 생각해야합니다. A라는 차와 B라는 차의 유사도를 측정할 때 속도를 기준으로 보는지 아니면 디자인을 기준으로 보는지 다르기 때문입니다.🍀 How to measure Similarity그럼 어떻게 유사도를 측정할까요?유사도를 측정하는 기준으로 다양합니다... 2024. 5. 26.
자주 이용하는 Latex 문법 정리 논문 리뷰를 하거나 관련 논문 혹은 수식을 정리하다보면 Latex 문법을 사용할 때가 많습니다.그래서 여기저기에서 Latex 문법을 찾아보곤 하는데 자주 사용하는 문법들은 따로 저장해놓는 게 좋겠더라구요. 일반적으로 수식을 입력하기 전에 `$`를 전 후로 붙여주면 됩니다. 하지만 어떤 경우에는 `$$`를 붙여주는 경우도 있습니다. 문법 정리벡터, 스칼라, 집합 표기`\mathbf{x}`  : 스칼라`\vec{v}` : 벡터`R` : 집합`\in` : 포함한다.`\begin{bmatrix} x_1 & x_2 \\ x_3 & x_4 \\ \end{bmatrix}` : 행렬`\vdots` : 세로 점`\cdots` : 가로 점`\ddots` : 대각선 점`\;` : 한칸 띄기미적분, 사칙연산 관련`\int_a.. 2024. 5. 26.
[딥러닝] 12. 과대적합 보호되어 있는 글 입니다. 2020. 11. 9.
[딥러닝] 10. 뉴스 기사 분류 : 다중 분류 보호되어 있는 글 입니다. 2020. 11. 2.
[딥러닝] 11. 주택가격 예측 문제 보호되어 있는 글 입니다. 2020. 10. 28.
[딥러닝] 09. 영화 리뷰 분류; 이진 분류 예제 보호되어 있는 글 입니다. 2020. 10. 19.
[PyTorch] Tensor Manipulation 🌱 TensorTensor(텐서)는 Ndarray와 유사하게 행렬이나 배열로 나타낼 수 있는 데이터의 표현 방법입니다. Tensor(텐서)에서 차원(Dimension, D)의 개수를 랭크(Rank)라고 합니다.import torchimport numpy as npdata = [[1,2,4],[3,5,9]]x_data = torch.tensor(data, dtype=torch.int64)print(x_data.dim(), x_data.shape, x_data.size())# 2 torch.Size([2, 3]) torch.Size([2, 3]) torch.LongTensorTensor는 기본적으로 데이터 타입과 크기를 지정할 수 있습니다. 여기서는 `LongTypeTensor`입니다.위 그림과 같이 Te.. 2020. 10. 7.
[CS231N] Convolution Neural Network(CNN) Convolution Neural Network(CNN)CNN은 사람의 시신경👁️을 모방한 딥러닝 구조로 2012년 이미지넷 분류 경진대회에서 AlexNet 덕분에 주목을 받기 시작했습니다.  AlexNet 논문을 자세히 보면  CNN의 특징으로 Stationarity of Statistics와 Locality of pixel dependencies가 짧게 언급됩니다.  여기서, Stationarity는 위치가 상관 없이 반복되는 특징을 말합니다. 시계열 데이터에서 시간 관계 없이 변하지 않는 특성을 말하기도 합니다. Stationarity가 왜 중요한 특징을 가지게 되냐면, 사진에서 같은 특징의 객체를 뽑아낸다고 하면 위치와 상관없이 같은 특징을 뽑아내야할 것입니다. 이때 모두 다른 특징이라고 인식해.. 2020. 9. 29.
[CS231n] Loss Functions and Optimization loss function(손실 함수) : 딥러닝을 통해 최적의 오차를 찾아야 하는데 손실함수는 예측값과 실체 레이블과의 차이를 구하는 함수입니다. 손실함수를 최소화하는 방향으로 Weight를 계산합니다.Optimizer :  손실함수를 최소화 시킬 수 있는 파라미터를 찾는 방법이다. 손실함수의 간격을 Optimizer를 통해 줄일 수 있습니다.Weight의 수정 방향을 결정하는 것을 말합니다.딥러닝에서는 Loss Function을 최소화하기 위해 Loss function을 미분하여 Gradient을 구하고 경사 하강 방향으로 파라미터 값을 찾기 위해 사용합니다.Loss Function이전, 사전적 정의에서도 보았듯이, Loss function(손실 함수)는 W값에 대해 좋은지 나쁜지를 정량화할 수 있는 .. 2020. 9. 8.