본문 바로가기

Tech/파이썬

Pytorch #1

[Pytorch] nn.Module & super().__init__()

 

[Pytorch] nn.Module & super().__init__()

우리는 pytorch에서 각자 레이어 혹은 모델을 구성할 때, nn.Module을 상속받는다. 왜 상속을 받을까? 또 상속받을 때, super().__init__()은 왜 해주는 것일까? 해당 코드를 작성함으로써 어떤 속성을 갖게

daebaq27.tistory.com

 

 

 

[Deep Learning] Pytorch의 nn.Module 이해하기

 

[Deep Learning] Pytorch의 nn.Module 이해하기

nn.Module을 상속받는 클래스에서의 forward() 함수 토치에서 모델을 만들 때, 다음과 같은 형태로 모델을 만든다. PyTorch 내장 모델과 사용자 정의 모델 모두 이 형태로 만들어야 한다. 1. torch.nn.Module

seungseop.tistory.com

 

 

 

36.4 메서드 오버라이딩 사용하기

 

파이썬 코딩 도장: 36.4 메서드 오버라이딩 사용하기

이번에는 파생 클래스에서 기반 클래스의 메서드를 새로 정의하는 메서드 오버라이딩에 대해 알아보겠습니다. 다음과 같이 Person의 greeting 메서드가 있는 상태에서 Student에도 greeting 메서드를 만

dojang.io

 

 

 

TORCH.NN 이 실제로 무엇인가요?

https://tutorials.pytorch.kr/beginner/nn_tutorial.html

 

 

 

 

[파이썬] 클래스와 객체, 인스턴스를 이해해보자 (예시를 통한 설명)

 

[파이썬] 클래스와 객체, 인스턴스를 이해해보자 (예시를 통한 설명)

파이썬의 클래스(class)와 객체(object), 인스턴스(instance)에 대해 정리해보겠습니다. 클래스(class), 객체(object), 인스턴스(instance)를 구분해보자. 클래스(class)는 주로 어떤 틀에 비유됩니다. 즉, 똑같

kingnamji.tistory.com

 

 

 

[파이토치 기초] model.zero_grad() , optimizer.zero_grad() 쓰는 이유?

 

 

[파이토치 기초] model.zero_grad() , optimizer.zero_grad() 쓰는 이유?

파이토치 초보자들이 자주 만나게 되는 zero_grad()! 검색을 하다보면 그레디언트를 0으로 초기화시키려는 목적이라고 하는데, 구체적으로 이게 무슨일까요? (참고로 model.zero_grad(), optimizer.zero_grad()

yeko90.tistory.com

 

 

 

nn.Linear에 대하여

 

nn.Linear에 대하여

Linear : 선형, 일차형 벡터는 길이를 변경해주고 스칼라는 차원을 변경해준다. 자주 사용되는 기본적인 ...

blog.naver.com

 

 

 

[PyTorch] squeeze, unsqueeze함수와 주의점

 

[PyTorch] squeeze, unsqueeze함수와 주의점

squeeze함수 squeeze함수는 차원이 1인 차원을 제거해준다. 따로 차원을 설정하지 않으면 1인 차원을 모두 제거한다. 그리고 차원을 설정해주면 그 차원만 제거한다. Python 코드 import torch x = torch.rand(3

sanghyu.tistory.com

 

 

 

[NLP] 레스토랑 리뷰 감성 분류하기 (2) (feat.파이토치로 배우는 자연어 처리) - 데이터 처리를 위한 클래스 살펴보기

 

[NLP] 레스토랑 리뷰 감성 분류하기 (2) (feat.파이토치로 배우는 자연어 처리) - 데이터 처리를 위한

-- 본 포스팅은 파이토치로 배우는 자연어 처리 (한빛미디어) 책을 참고해서 작성된 글입니다. -- 소스코드 ) https://github.com/rickiepark/nlp-with-pytorch rickiepark/nlp-with-pytorch (한빛미디어, 2021)의 소스 코

didu-story.tistory.com

 

 

 

[PyTorch] PyTorch가 제공하는 Learning rate scheduler 정리

 

[PyTorch] PyTorch가 제공하는 Learning rate scheduler 정리

(여기 내용을 많이 참고하여 작성하였습니다.) (** learning rate와 lr이라는 용어를 혼용해서 작성하였습니다.) learning rate는 gradient의 보폭을 말한다. learning rate는 성능에 꽤나 영향을 주는 요소(learni

sanghyu.tistory.com

 

 

 

Guide to Pytorch Learning Rate Scheduling

 

Guide to Pytorch Learning Rate Scheduling

Explore and run machine learning code with Kaggle Notebooks | Using data from No attached data sources

www.kaggle.com

 

 

 

Tensorflow 콜백함수: ReduceLROnPlateau

 

Tensorflow 콜백함수: ReduceLROnPlateau

Tensorflow, 케라스 콜백함수 ReduceLROnPlateau 모델의 개선이 없을 경우, Learning Rate를 조절해 모델의 개선을 유도하는 콜백함수입니다. www.tensorflow.org/api_docs/python/tf/keras/callbacks/ReduceLROnPlateau tf.keras.call

deep-deep-deep.tistory.com

 

 

 

[DL, PyTorch] 차원 재구성 - view(), reshape()

 

[DL, PyTorch] 차원 재구성 - view(), reshape()

파이토치의 reshape()과 view()는 둘 다 텐서의 모양을 변경하는 데에 사용될 수 있다. 그러나 둘 사이에 약간의 차이가 존재한다. - reshape(): reshape은 가능하면 input의 view를 반환하고, 안되면 contiguous

anweh.tistory.com

 

 

 

[Pytorch] Tensor에서 혼동되는 여러 메서드와 함수
pytorch reference 문서를 다 외우면 얼마나 편할까!! (2)

 

[Pytorch] Tensor에서 혼동되는 여러 메서드와 함수

pytorch reference 문서를 다 외우면 얼마나 편할까!! (2)

subinium.github.io

 

 

 

[DL, PyTorch] 신경망 모델 정의하기 -- Class, nn.Module

 

[DL, PyTorch] 신경망 모델 정의하기 -- Class, nn.Module

PyTorch로 신경망 모델을 설계할 때, 크게 다음과 같은 세 가지 스텝을 따르면 된다. Design your model using class with Variables Construct loss and optim Train cycle (forward, backward, update) 이 포스팅에선 첫번째 단계

anweh.tistory.com

 

 

 

[PYTORCH] torch.max 함수 설명

 

[PYTORCH] torch.max 함수 설명

torch.max torch.max(input) -> Tensor torch.max(input, dim, keepdim=False, *, out=None) -> tuple (max, max_indices) torch.max 함수는 텐서에서 최대값을 구하는 함수이다. import torch import torch.nn as nn data = torch.randn((5, 5)) print(dat

paintycode.tistory.com

 

 

 

pytorch 예측 값에서 top-k개의 결과를 받고 싶을 때

 

pytorch 예측 값에서 top-k개의 결과를 받고 싶을 때

예측 값에서 argmax가 아닌 top-k에 대한 결과 값을 받고 싶을 때 torch.topk를 사용해 받을 수 있다. 더 자세한 사용 예는 References를 참고.https://www.programcreek.com/python/example/101209

velog.io

 

 

 

[PyTorch] tensor.detach()의 기능과 예시 코드

 

[PyTorch] tensor.detach()의 기능과 예시 코드

PyTorch tensor에 사용할 수 있는 detach() method는 gradient의 전파를 멈추는 역할을 한다. https://pytorch.org/docs/stable/generated/torch.Tensor.detach.html torch.Tensor.detach — PyTorch 1.13 documentation Shortcuts pytorch.org 다음

bo-10000.tistory.com

 

 

 

파이썬의 Asterisk(*) 이해하기

 

파이썬의 Asterisk(*) 이해하기

파이썬은 타 언어에 비해 비교적 연산자 및 연산의 종류가 풍부한 편이다. 특히 파이썬이 지원하는 많은 연산자중 하나인 **Asterisk(*)**는 단순히 곱셈

mingrammer.com

 

 

 

파이썬의 키워드 인자 (keyword parameter)

 

파이썬의 키워드 인자 (keyword parameter)

키워드 인자(keyword parameter)는 함수를 호출할 때 인자의 값 뿐만 아니라 그 이름까지 명시적으로 지정해서 전달하는 방법이다. 만약 기본 인자가 세 개인 다음과 같은 간단한 함수가 있다고 가정

studymake.tistory.com

 

 

 

annoy 라이브러리 소개 (nearest neighbor search, 벡터 유사도 검색)

 

annoy 라이브러리 소개 (nearest neighbor search, 벡터 유사도 검색)

오늘은 annoy라는 라이브러리를 소개해볼까 합니다. annoy는 딥러닝을 직접적으로 활용하지는 않지만, 딥러닝을 활용함에 있어서 벡터 유사도 검색에 매우 유용한 라이브러리 입니다. 개발자에 의

seokhyun2.tistory.com

 

 

 

[annoy] annoy 사용방법: 추천시스템에서 유사 아이템 찾기

 

[annoy] annoy 사용방법: 추천시스템에서 유사 아이템 찾기

annoy: Approximate Nearest Neighbors annoy는 스포티파이에서 개발한 라이브러리로, 벡터들 간의 거리를 계산하여 빠르게 유사한 벡터들을 찾아주는 라이브러리이다. Approximate Nearest Neighbors Oh Yeah의 줄임

abluesnake.tistory.com

 

 

 

Nearest neighbor search

 

Nearest neighbor search - Wikipedia

From Wikipedia, the free encyclopedia Optimization problem in computer science Nearest neighbor search (NNS), as a form of proximity search, is the optimization problem of finding the point in a given set that is closest (or most similar) to a given point.

en.wikipedia.org

 

 

 

[Python] pytorch 모델 저장하기 - state_dict()

 

[Python] pytorch 모델 저장하기 - state_dict()

평소에 파이토치에서 모델을 저장할 때 torch.save(모델명, 모델 경로)만 사용해서 pickle 파일로 저장을 했었다. 이번에 딥러닝을 배우면서 state_dict 함수란것을 배웠고, 그것이 뭔지 좀 더 자세히 기

everywhere-data.tistory.com

 

 

 

[PyTorch] 알아두면 유용한 함수 모음 - 비교(comparison) 함수

 

[PyTorch] 알아두면 유용한 함수 모음 - 비교(comparison) 함수

비교(comparison)를 위한 함수element-wise로 비교하는 함수로는 torch.eq(같은지) torch.ne(다른지) torch.ge(크거나 같은지) torch.le(작거나 같은지)등이 있고, 텐서 차원에서 비교하는 함수로는 torch.equal, torch.

doheejin.github.io

 

 

 

torch의 데이터 분산 연산(DP 와 DDP)

 

torch의 데이터 분산 연산(DP 와 DDP)

torch parallelism Pytorch 를 사용해 모델을 학습하다 보면 여러가지 병렬화를 사용합니다. 병렬화를 사용하는 이유는 크게 2가지로 나눠볼 수 있습니다. 학습을 더 빨리 끝내기 위해 모델이 너무 커서

algopoolja.tistory.com

 

 

 

[Pytorch] 텐서 쌓기 함수 torch.cat(), torch.stack() 비교

 

[Pytorch] 텐서 쌓기 함수 torch.cat(), torch.stack() 비교

torch cat vs stack 함수 차이 이번 글에서는 파이토치에서 텐서를 쌓는 경우 사용하게 되는 cat과 stack 함수의 차이와 사용 방법에 대해서 살펴보도록 하겠습니다. 먼저, 다음과 같이 간단한 (2, 3) shape

jimmy-ai.tistory.com

 

 

 

09-07 파이토치(PyTorch)의 nn.Embedding()
https://wikidocs.net/64779

 

 

[Pytorch] contiguous 원리와 의미

 

[Pytorch] contiguous 원리와 의미

torch의 contiguous에 대해서 안녕하세요. 이번 시간에는 파이토치에서 메모리 내에서의 자료형 저장 상태로 등장하는 contiguous의 원리와 의미에 대해서 간단히 살펴보도록 하겠습니다. contiguous 여부

jimmy-ai.tistory.com

 

 

 

[Pytorch] pytorch Contiguous

 

[Pytorch] pytorch Contiguous

Contiguous Contiguous(인접한, 근접한)는 단어의 뜻처럼 Tensor의 각 값들이 메모리에도 순차적으로 저장되어 있는지 여부를 의미한다. [0, 1, 2, 3, 4]라는 Tensor 가 있을 때, 메모리에 저장된 모양이 이와

ebbnflow.tistory.com

 

 

 

[PyTorch] view, reshape, transpose, permute함수의 차이와 contiguous의 의미

 

[PyTorch] view, reshape, transpose, permute함수의 차이와 contiguous의 의미

(본 포스팅은 이 글 번역 + 마지막에 제 생각을 덧붙였습니다.) PyTorch는 tensor의 type(형)변환을 위한 다양한 방법들을 제공하고 있다. 몇몇의 방법들은 초심자들에게 헷갈릴 수 있다. 그래서 view() v

sanghyu.tistory.com

 

'Tech > 파이썬' 카테고리의 다른 글

OOP #1  (0) 2023.06.16
Numpy #1  (0) 2023.06.16
Multiprocessing Library: Ray  (0) 2023.05.26
List Comprehension & Generator  (0) 2023.05.26









>