전체 글 30

[Paper Review] Time Series Anomaly Detection using Temporal Hierarchical One-Class (THOC) Network

Time Series Anomaly Detection using Temporal Hierarchical One-Class (THOC) Network Abstract: https://proceedings.neurips.cc/paper/2020/hash/97e401a02082021fd24957f852e0e475-Abstract.html Summary dilated recurrent neural network (RNN)을 사용하며, multiple time scale temporal feature들을 timeseries에서 extract한다. 다음으로, THOC는 모든 layer의 feature들을 fuse 한다. 각 resolution에서의 정상 데이터는 multiple hypersphere들로 표현된다. ..

[Python] Deep SVDD DataLoader on Time Series Data

Paper Review: https://emptydb.tistory.com/3 새로운 시계열 데이터셋 다섯개를 Deep SVDD 모델에 돌리기 위해 data loader 파일을 새로 만들고, network layer들의 파라미터도 변경했다. DataLoader는 아예 start from scratch이고, autoencoder와 encoder 부분은 데이터의 dimension과 size에 따라 바꿔주었다. 아쉬운 점: 하루만에 100줄 조금 넘는 코드를 짰다... 사실 처음 보는 arff 형 파일 때문에 이미 지칠 때로 지쳤던 상태라 모듈을 사용할 생각은 하지 못했다. 다른 dataset은 그냥 복사 붙여 넣기로 코드를 수정해서 새로운 data loader를 만들었다. 다음에 이런 식으로 data loa..

[Paper Review] DROCC: Deep Robust One-Class Classification

DROCC: Deep Robust One-Class Classification link to abstract: https://arxiv.org/abs/2002.12718 link to Github repo: https://github.com/microsoft/EdgeML/tree/master/examples/pytorch/DROCC Anomaly Detection이란? 비정상 탐지, 말 그대로 비정상적인 수치를 탐지한다. 이의 목적은 outlier를 찾는 것이다. 즉, 전형적인 데이터와 다른 포인트를 찾는 것. Classical AD는 간단한 함수와 입력된 정상 데이터를 모델링 시키는 것 방법이다. 반면에 deep-learning-based AD는 데이터의 feature들을 자동적으로 학습시키는 방법이다..

(수정중) [Paper Review] NeuTraL AD

Neural Transformation Learning for Anomaly Detection Beyond Images link to abstract: https://arxiv.org/abs/2103.16440 1. Introduction Deep 비정상 탐지를 위한 neural transformation 학습이며 자기지도 학습 방법이다. Key Idea: Transformation을 거친 데이터를 semantic space로 임베딩 시킨다. Transform 된 데이터는 원본 데이터와 비슷함과 동시에 각 transformation들은 매우 달라 특이점으로 구분 가능하다. 이 모델의 2개의 구성 요소: 1) 정해진 갯수의 학습 가능한 transformation들, 그리고 2) encoder 모델. 2. ..

[Deep Learning] 용어 및 개념 정리

Deep learning 공부하면서 용어를 정리해봅니다. Aanomaly mapsin unsupervised learning for anomaly detection, by using the self-organizing map method, anomalies are mapped to produce low-dimensional representation Ccontrastive learningjust as the name suggests, this method learns the contrasting differences of the inputs; comparing the similarities and dissimilarities of input features; subset of self-supervised..

Deep Learning/Misc. 2022.01.23

[Anaconda/torch] AttributeError: module 'torch.jit' has no attribute 'unused'

Environment: Anaconda 가상환경 python version 3.7.11 CUDA 11.2 에러 해결 성공한 방법: pip uninstall torchvision pip install torchvision==0.4.0 삽질과..실패 과정들: conda uninstall torchvision conda install torchvision==0.4.0 문제의 토치비젼을 다시 install 해도 같은 에러가 떴다... conda update pytorch torchvision 업데이트를 해도 똑같았다... pip update pytorch torchvision pip command를 잘 모르는데...(install 할 때만 씀) 업데이트 command가 없다는걸 처음 알았다... 역시 사람은 공..

[Paper Review] Deep SVDD (Deep One-Class Classification)

논문 링크: http://proceedings.mlr.press/v80/ruff18a.html Deep One-Class Classification Despite the great advances made by deep learning in many machine learning problems, there is a relative dearth of deep learning approaches for anomaly detection. Those approaches which do exist inv... proceedings.mlr.press Github 링크: https://github.com/lukasruff/Deep-SVDD-PyTorch GitHub - lukasruff/Deep-SVDD-PyTor..

[백준/C++/Queue] 1158 - 요세푸스 문제

1. 문제 링크 https://www.acmicpc.net/problem/1158 1158번: 요세푸스 문제 첫째 줄에 N과 K가 빈 칸을 사이에 두고 순서대로 주어진다. (1 ≤ K ≤ N ≤ 5,000) www.acmicpc.net 2. 문제 해석 input: n, k output: n개의 element가 있는 요세푸스 순열 원으로 둘러앉아 하나씩 제거 예제 입력 1: 7 3 입력 i = 0 -> 3 push i = 1 -> 3 + 3 = 6 push i = 2 -> 6 + 3 - 7 = 2 push i = 3 -> 2 + 3 = 5 push i = 4 -> 5 + 3 - 7 = 1 push i = 5 -> 1 + 3 = 4 push i = 6 -> 4 + 3 = 7 push 3. 발생한 문제 및 문..

[백준/C++/Stack] 1874 - 스택 수열

1. 문제 링크 https://www.acmicpc.net/problem/1874 1874번: 스택 수열 1부터 n까지에 수에 대해 차례로 [push, push, push, push, pop, pop, push, push, pop, push, push, pop, pop, pop, pop, pop] 연산을 수행하면 수열 [4, 3, 6, 8, 7, 5, 2, 1]을 얻을 수 있다. www.acmicpc.net 2. 문제 해석 input: 숫자 n, 그리고 n개의 숫자 (즉, 수열) output: push 일 때 '+', pop 일 때 '-', 불가능일때 'NO' LIFO 특성을 가진 stack 사용 stack에 1부터 n까지 숫자가 있음. last in이 n. pop()된 숫자들은 max보다 이전에 입력으..