AI13 ModuleNotFoundError: No module named 'custom_st' embeddings_model = HuggingFaceEmbeddings( model_name="jinaai/jina-embeddings-v3", model_kwargs={"device": "cuda"},) jina 임베딩 쓰려는데 갑자기 'ModuleNotFoundError: No module named 'custom_st'' 에러가 뜸.캐시폴더를 확인해봐도 잘 깔려 있는데 왜 그럴까.. 여기저기 알아보니 캐시파일 지우고 다시 해라, trust_remote_code = true하면 된다 등등 많은데 다 안됨. 내가 생각해도 trust_remote_code가 custom_st와 가장 연관이 깊어서 true로 해봤는데 에러가 뜸. 그래서 langchain github 들어가서 community_.. 2024. 11. 29. nn.Paramter() 딥러닝 모델을 설계할 때, 우리는 학습이 필요한 가중치와 편향 같은 파라미터를 정의함.이때 학습시키고 싶은 부분과 아닌 부분을 구분하기 위해 nn.Parameter()을 사용한다고 생각하면 편함 import torchfrom torch import nnclass MyModel(nn.Module): def __init__(self): super().__init__() self.weight = nn.Parameter(torch.randn(3, 3)) # 학습 가능한 파라미터 self.bias = torch.randn(3) # 학습 불가능한 텐서 2024. 11. 18. torch.detach (and clone) torch.detach는 말 그대로 떼어내는 것이다.어떻게 보면 두 가지 기능을 하는건데복제와 연결을 끊는, 뗴어내는(detach)하는 것이다. x = torch.tesnor([1,2,3,4])z = x.clone(), z = x.detach() 같은데detach의 경우에는 계산 그래프에서 떼어내는 역할도 한다.아래의 그림이 이를 잘 표현해서 가져왔다. 이러면 backpropagation할 때 더이상 layer1까지 가지 않는다. 2024. 8. 11. torch.rand() torch.rand함수는 [0,1) 구간에서 균등 분포를 따르는 난수로 채워진 텐서를 반환 parametersize -> 말 그대로 어떤 모양으로 반환할지, 리스트나 튜플로도 가능out: 출력 텐서를 지정여기서 Out이 좀 새로웠는데, 새로운 텐서를 생성하는 것이 아닌 기존에 있는 곳에 보낼 수 있다는 것임예를 들면import torch# 기존 텐서 생성c = torch.empty(3, 4)# 새로운 텐서를 생성하지 않고 c에 결과 저장a = torch.rand(3, 4)torch.add(a, 3, out=c) requires_grad(연산 저장 및 추적)와 pin_memory(DRAM을 거치지 않고 VRAM으로 데이터를 보내는)도 있음. 2024. 8. 11. 계산 그래프 (동적 PyTorch, 정적 TensorFlow) 계산 그래프.. 딥러닝 책을 피면 항상 나올 수밖에 없는 녀석그런데 막상 동적 정적이 바로 이해되지 않아 정리해보려한다. (이미 잘 아시는 분들께서는 다른 글을 읽으시거나 피드백 부탁드립니다.) 계산 그래프 딥러닝책을 보면 반드시 나오는 이녀석이 있다.그냥 쉽게 계산 그래프는 연산 과정을 시각적으로 표현할 수 있고, 컴퓨터가 효율적으로 계산할 수 있도록 그래프 방식으로 표현하는 것또한 그래프 방식을 사용함으로써 전의 값들을 저장할 수 있어 backpropagation이 가능한 것이 중요한 것 같다. 자 그래서 동적, 정적은 뭔 차인데?말 그대로다.동적은 그래프가 바뀔 수도 있는 것이고, 정적은 원모양 그대로 가는 것이다. 정적은 미리 다 정해두고 그거를 반복해서 쓰는 것이고, 동적은 정해두긴 하는데 .. 2024. 8. 11. GPU 활용을 위한 CUDA, cuDNN 다운로드 1. NVIDIA Driver를 설치했으면 이제 아래의 링크를 통해 CUDA를 다운로드 해주자. https://developer.nvidia.com/cuda-downloads* 중요 exe 실행한 후 다운로드 할 때 경로 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v(버전)으로 하고 기억 추가로 visual studio가 안깔려 있는 분들은 아래처럼 뜰텐데 visual studio 깔고 C++로 Desktop Development 체크 후 다운로드 ㄱㄱ 2. 아래의 링크를 통해 cuDNN을 다운로드 하자. (할 때 로그인 필요)https://developer.nvidia.com/rdp/cudnn-archive 3. 설치한 cuDNN 폴더에서 license .. 2024. 7. 24. 이전 1 2 3 다음