校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識(shí)庫 > PyTorch 編寫代碼遇到的問題及解決方案

PyTorch 編寫代碼遇到的問題及解決方案

熱門標(biāo)簽:地圖標(biāo)注面積 所得系統(tǒng)電梯怎樣主板設(shè)置外呼 北瀚ai電銷機(jī)器人官網(wǎng)手機(jī)版 朝陽手機(jī)外呼系統(tǒng) 市場(chǎng)上的電銷機(jī)器人 小蘇云呼電話機(jī)器人 北京電銷外呼系統(tǒng)加盟 儋州電話機(jī)器人 佛山400電話辦理

PyTorch編寫代碼遇到的問題

錯(cuò)誤提示:no module named xxx

xxx為自定義文件夾的名字

因?yàn)樗阉鞑坏剑詫?dāng)前路徑加入到包的搜索目錄

解決方法:

import sys
sys.path.append('..') #將上層目錄加入到搜索路徑中
sys.path.append('/home/xxx') # 絕對(duì)路徑
import os
sys.path.append(os.getcwd()) #  #將當(dāng)前工作路徑加入到搜索路徑中

還可以在當(dāng)前終端的命令行設(shè)置

export PYTHONPATH=$PYTHONPATH:./

錯(cuò)誤提示:AttributeError: ‘NoneType' object has no attribute ‘shape' height, width, channel = img.shape

在Linux系統(tǒng)下img.shape報(bào)錯(cuò)AttributeError: ‘NoneType' object has no attribute ‘shape'

img=cv2.imread(),讀取一張圖片時(shí),img.shape是包含三個(gè)量的元組,分別是:

img.shape[0]:圖像的高度

img.shape[1]:圖像的寬度

img.shape[2]:圖像的通道數(shù)

解決方法:讀的文件出錯(cuò) 或者查看文件路徑是否正確

錯(cuò)誤提示 :TypeError: slice indices must be integers or None or have an index method

cropped_im = img[ny1 : ny2, nx1 : nx2, :]

解決方法:需要將ny1 : ny2, nx1 : nx2轉(zhuǎn)換成int類型

錯(cuò)誤提示 :Input type (torch.cuda.DoubleTensor) and weight type (torch.cuda.FloatTensor) should be the same

以下三小段分別是Data type CPU tensor GPU tensor

32-bit floating point torch.FloatTensor torch.cuda.FloatTensor

64-bit floating point torch.DoubleTensor torch.cuda.DoubleTensor

出錯(cuò)在類型轉(zhuǎn)換

np.float更改為np.float32

import torchvision.transforms as transforms
import numpy as np
transform = transforms.ToTensor()
def convert_image_to_tensor(image):
    """convert an image to pytorch tensor
        image: numpy array , h * w * c
        image_tensor: pytorch.FloatTensor, c * h * w
        """
    image = image.astype(np.float32) 
    return transform(image)

錯(cuò)誤提示:RuntimeError: zero-dimensional tensor (at position 0) cannot be concatenated

版本問題 舊式寫法

import torch
x = torch.tensor(0.1)
y = torch.tensor(0.2)
z = torch.cat((x, y))

改成新式寫法

x = torch.tensor([0.1])
y = torch.tensor([0.2])
z = torch.cat((x, y))
print(z)

結(jié)果

tensor([0.1000, 0.2000])

錯(cuò)誤提示:TypeError: ‘float' object is not subscriptable

多了下標(biāo) a = x.tolist()[0]

去除下標(biāo) a = x.tolist()

錯(cuò)誤提示:argument ‘input' (position 1) must be Tensor, not list

需要將list轉(zhuǎn)換成tensor

假設(shè)a是list

torch.tensor(a)

GPU模型和CPU模型之間的轉(zhuǎn)換

假設(shè)原來保存的是GPU模型,要轉(zhuǎn)換為CPU模型

torch.save(model, os.path.join( "./complete.pth"))
cpu_model = torch.load("./complete.pth", map_location=lambda storage, loc: storage)
dummy_input = torch.randn(1, 3, 224, 224)

假設(shè)原來保存的是CPU模型,要轉(zhuǎn)換為GPU模型

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
torch.save(model, os.path.join( "./complete.pth"))
gpu_model = torch.load("./complete.pth", map_location=lambda storage, loc: storage.cuda)
dummy_input = torch.randn(1, 3, 224, 224)
dummy_input = dummy_input.to(device)

錯(cuò)誤提示 RuntimeError: Subtraction, the - operator, with a bool tensor is not supported. If you are trying to invert a mask, use the ~ or logical_not() operator instead.

原代碼

# Store only unsuppressed boxes for this class
image_boxes.append(class_decoded_locs[1 - suppress])
image_labels.append(torch.LongTensor((1 - suppress).sum().item() * [c]).to(device))
image_scores.append(class_scores[1 - suppress])

更改為

image_boxes.append(class_decoded_locs[~suppress])
image_labels.append(torch.LongTensor((~ suppress).sum().item() * [c]).to(device))
image_scores.append(class_scores[~suppress])

錯(cuò)誤提示 RuntimeError: Expected object of scalar type Byte but got scalar type Bool for argument #2 ‘other' in call to _th_max

原代碼

suppress = torch.zeros((n_above_min_score), dtype=torch.uint8).to(device) 

更改為

suppress = torch.zeros((n_above_min_score), dtype=torch.bool).to(device)  

UserWarning: volatile was removed and now has no effect. Use with torch.no_grad(): instead.

#之前舊版本
...
x = Variable(torch.randn(1), volatile=True)
return x

#新版
with torch.no_grad():
    ...
    x = torch.randn(1)
return x

錯(cuò)誤提示

RuntimeError: Attempting to deserialize object on CUDA device 1 but torch.cuda.device_count() is 1. Please use torch.load with map_location to map your storages to an existing device.

或者是 RuntimeError: expected device cuda:0 but got device cuda:1

錯(cuò)誤原因之一

使用了CUDA 1顯卡訓(xùn)練保存的模型文件,使用CUDA 0驗(yàn)證

代碼中寫了

device = torch.device(“cuda” if torch.cuda.is_available() else “cpu”)

可以在命令行設(shè)置讓哪些GPU可見

export CUDA_VISIBLE_DEVICES=1 #GPU編號(hào)
export CUDA_VISIBLE_DEVICES=0,1,2,3#4張顯卡可見

也可以在代碼里改成

checkpoint = torch.load(checkpoint,map_location=‘cuda:0')

錯(cuò)誤提示

raise ConnectionError(e, request=request)
requests.exceptions.ConnectionError: HTTPConnectionPool(host='localhost', port=8097): Max retries exceeded with url: /update (Caused by NewConnectionError('urllib3.connection.HTTPConnection object at 0x7f3111915e80>: Failed to establish a new connection: [Errno 111] Connection refused',))
Exception in user code:

解決方案

因?yàn)闆]有啟動(dòng)visdom可視化程序,所有報(bào)錯(cuò)

在終端執(zhí)行命令 visdom之后就能看到如下信息

Checking for scripts.
It's Alive!
INFO:root:Application Started
You can navigate to http://localhost:8097

nn.Module.cuda() 和 Tensor.cuda()

無論是對(duì)于模型還是數(shù)據(jù),cuda() 都能實(shí)現(xiàn)從CPU到GPU的內(nèi)存遷移,但是他們的作用效果有所不同。

Model:

model = model.cuda()
model.cuda()

上面兩句能夠達(dá)到一樣的效果,即對(duì)model自身進(jìn)行的內(nèi)存遷移

Tensor:

model = Model()
tensor = torch.zeros([2, 3, 10, 10])
model.cuda()
tensor.cuda()
tensor_cuda = tensor.cuda()
model(tensor) # 會(huì)報(bào)錯(cuò)
model(tensor_cuda) # 正常運(yùn)行

和 nn.Module 不同,調(diào)用 tensor.cuda 只是返回這個(gè) tensor 對(duì)象在 GPU 內(nèi)存上的拷貝,而不會(huì)對(duì)自身進(jìn)行改變。因此必須對(duì) tensor 進(jìn)行重新賦值,即 tensor = tensor.cuda()

PyTorch 0.4 計(jì)算累積損失的不同

以廣泛使用的模式 total_loss += loss.data[0] 為例。Python0.4.0 之前,loss 是一個(gè)封裝了 (1,) 張量的 Variable,但 Python0.4.0 的 loss 現(xiàn)在是一個(gè)零維的標(biāo)量。對(duì)標(biāo)量進(jìn)行 索引是沒有意義的(似乎會(huì)報(bào) invalid index to scalar variable 的錯(cuò)誤)。使用 loss.item() 可以從標(biāo)量中獲取 Python 數(shù)字。所以改為:

total_loss = total_loss + loss.item()

如果在累加損失時(shí)未將其轉(zhuǎn)換為 Python 數(shù)字,則可能出現(xiàn)程序內(nèi)存使用量增加的情況。這是因?yàn)樯厦姹磉_(dá)式的右側(cè)原本是一個(gè) Python 浮點(diǎn)數(shù),而它現(xiàn)在是一個(gè)零維張量。因此,總損失累加了張量和它們的梯度歷史,這可能會(huì)產(chǎn)生很大的 autograd 圖,耗費(fèi)內(nèi)存和計(jì)算資源。

自適應(yīng) CPU 和 GPU設(shè)備的 trick

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = Model().to(device)

total_loss = 0
for input, target in train_loader:
 input, target = input.to(device), target.to(device)
 ...
 total_loss = total_loss + loss.item()

with torch.no_grad():
 for input, target in test_loader:
 ...

torch.Tensor.detach的使用

官方說明:Returns a new Tensor, detached from the current graph,The result will never require gradient

假設(shè)有模型 A 和模型 B,我們需要將 A 的輸出作為 B 的輸入,但訓(xùn)練時(shí)我們只訓(xùn)練模型 B. 那么可以這樣做:

input_B = output_A.detach

它可以使兩個(gè)計(jì)算圖的梯度傳遞斷開,從而實(shí)現(xiàn)我們所需的功能。

pytorch中l(wèi)oss函數(shù)的參數(shù)設(shè)置

以CrossEntropyLoss為例:

CrossEntropyLoss(self, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='elementwise_mean')

若 reduce = False,那么 size_average 參數(shù)失效,直接返回向量形式的 loss,即batch中每個(gè)元素對(duì)應(yīng)的loss.

若 reduce = True,那么 loss 返回的是標(biāo)量:

如果 size_average = True,返回 loss.mean.

如果 size_average = False,返回 loss.sum.

weight : 輸入一個(gè)1D的權(quán)值向量,為各個(gè)類別的loss加權(quán),如下公式所示:

ignore_index : 選擇要忽視的目標(biāo)值,使其對(duì)輸入梯度不作貢獻(xiàn)。如果 size_average = True,那么只計(jì)算不被忽視的目標(biāo)的loss的均值。

reduction : 可選的參數(shù)有:‘none' | ‘elementwise_mean' | ‘sum', 正如參數(shù)的字面意思。

多GPU的處理機(jī)制

使用多GPU時(shí),應(yīng)該記住 PyTorch 的處理邏輯是:

在各個(gè)GPU上初始化模型。

前向傳播時(shí),把batch分配到各個(gè)GPU上進(jìn)行計(jì)算。

得到的輸出在主GPU上進(jìn)行匯總,計(jì)算loss并反向傳播,更新主GPU上的權(quán)值。

把主GPU上的模型復(fù)制到其它GPU上。

訓(xùn)練時(shí)損失出現(xiàn)nan的問題

訓(xùn)練模型時(shí)出現(xiàn)損失為 nan 的情況

可能導(dǎo)致梯度出現(xiàn) nan 的三個(gè)原因:

梯度爆炸。也就是說梯度數(shù)值超出范圍變成 nan. 通常可以調(diào)小學(xué)習(xí)率、加 BN 層或者做梯度裁剪來試試看有沒有解決。

損失函數(shù)或者網(wǎng)絡(luò)設(shè)計(jì)。比方說,出現(xiàn)了除 0,或者出現(xiàn)一些邊界情況導(dǎo)致函數(shù)不可導(dǎo),比方說log(0)、sqrt(0).

臟數(shù)據(jù)。可以事先對(duì)輸入數(shù)據(jù)進(jìn)行判斷看看是否存在 nan.

補(bǔ)充一下nan數(shù)據(jù)的判斷方法:

注意!像 nan 或者 inf 這樣的數(shù)值不能使用 == 或者 is 來判斷!為了安全起見統(tǒng)一使用 math.isnan 或者 numpy.isnan 吧。

import numpy as np
if np.any(np.isnan(input.cpu().numpy())):
 print("Input data has NaN!")
if(np.isnan(loss.item())):
 print("Loss value is NaN!")

pytorch 內(nèi)存泄漏

torch.as_tensor(data, dtype=None,device=None)->Tensor : 為data生成tensor。

如果data已經(jīng)是tensor,且dtype和device與參數(shù)相同,則生成的tensor會(huì)和data共享內(nèi)存。如果data是ndarray,且dtype對(duì)應(yīng),devices為cpu,則同樣共享內(nèi)存。其他情況則不共享內(nèi)存。

import torch
import numpy
a = numpy.array([1, 2, 3])
t = torch.as_tensor(a)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 解決Pytorch中的神坑:關(guān)于model.eval的問題
  • 淺談Pytorch中autograd的若干(踩坑)總結(jié)
  • pytorch掉坑記錄:model.eval的作用說明
  • 解決Numpy與Pytorch彼此轉(zhuǎn)換時(shí)的坑

標(biāo)簽:江蘇 龍巖 商丘 酒泉 金融催收 寧夏 定西 云南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《PyTorch 編寫代碼遇到的問題及解決方案》,本文關(guān)鍵詞  PyTorch,編寫,代碼,遇到,的,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《PyTorch 編寫代碼遇到的問題及解決方案》相關(guān)的同類信息!
  • 本頁收集關(guān)于PyTorch 編寫代碼遇到的問題及解決方案的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    日韩高清电影一区| 久久99国产精品麻豆| 五月天丁香久久| 色999日韩国产欧美一区二区| 亚洲人成网站影音先锋播放| 91看片淫黄大片一级| 亚洲老妇xxxxxx| 欧美日韩精品电影| 精品在线观看免费| 中文字幕高清不卡| 在线亚洲欧美专区二区| 视频一区在线播放| 亚洲国产成人午夜在线一区| av成人动漫在线观看| 一区二区三区不卡在线观看 | 成人免费在线播放视频| 欧美在线一二三| 另类欧美日韩国产在线| 国产欧美精品区一区二区三区| 一本大道久久a久久精二百| 午夜伊人狠狠久久| 国产欧美一区二区三区沐欲| 欧美午夜不卡在线观看免费| 国产乱人伦偷精品视频免下载| 亚洲黄色av一区| 亚洲精品一区二区三区99| 色综合久久久久久久久久久| 精品一区二区三区的国产在线播放| 亚洲日本电影在线| ww亚洲ww在线观看国产| 欧美性极品少妇| 成人一区二区三区| 三级精品在线观看| 亚洲免费在线观看视频| 26uuu国产日韩综合| 欧美福利视频导航| 一本大道久久a久久综合婷婷| 韩国精品久久久| 三级在线观看一区二区| 一区二区三区在线高清| 久久久www成人免费毛片麻豆| 欧美精品在欧美一区二区少妇| 99久久夜色精品国产网站| 国产美女久久久久| 久久精品国产99久久6| 性感美女久久精品| 一级女性全黄久久生活片免费| 国产精品乱人伦| 中文字幕成人网| 欧美国产1区2区| 国产精品网站一区| 国产精品久久久久久久久免费樱桃| 久久九九久久九九| 久久久精品综合| 国产亚洲短视频| 中文字幕av资源一区| 国产精品成人网| 亚洲综合小说图片| 五月婷婷久久丁香| 久久国产乱子精品免费女| 经典三级一区二区| 成人免费视频一区二区| 91麻豆自制传媒国产之光| 91福利视频在线| 8x福利精品第一导航| 欧美日韩日本视频| 91精品国产综合久久精品性色| 欧美一区二区三区视频在线 | 日本vs亚洲vs韩国一区三区 | 精品国产污网站| 欧美中文字幕不卡| caoporen国产精品视频| 国产一区二区看久久| 免费在线观看视频一区| 激情文学综合丁香| 国产一区二区三区香蕉| 国产成人在线看| 高清不卡一区二区| 成人黄色在线网站| 91亚洲精品乱码久久久久久蜜桃| kk眼镜猥琐国模调教系列一区二区| 日韩av网站免费在线| 秋霞午夜av一区二区三区| 美女视频一区二区三区| 狠狠久久亚洲欧美| 成人免费视频视频在线观看免费| 成人国产精品视频| 蜜桃一区二区三区在线观看| 久久一区二区视频| 亚洲国产精品影院| 亚洲成人综合网站| 亚洲精品ww久久久久久p站 | 久久久亚洲精华液精华液精华液| 久久久久久毛片| 日韩美女久久久| 毛片av一区二区| 国产在线精品一区二区| 日本韩国欧美一区二区三区| 欧美丝袜丝nylons| 欧美激情在线一区二区三区| 1000部国产精品成人观看| 蜜臀a∨国产成人精品| 成人小视频免费在线观看| 精品无人码麻豆乱码1区2区 | 亚洲一二三区视频在线观看| 国产一区二区三区久久久| 99国产欧美久久久精品| 欧美不卡一区二区三区| 中文字幕一区二区三区蜜月| 久久成人精品无人区| 91丨九色porny丨蝌蚪| 久久九九99视频| 日韩福利电影在线观看| 一本一道综合狠狠老| 精品成人佐山爱一区二区| 亚洲国产美女搞黄色| 成人午夜又粗又硬又大| 成人午夜激情片| 欧美一区二区三区性视频| 亚洲一区在线观看免费观看电影高清| 男男视频亚洲欧美| 欧美电影一区二区三区| 亚洲另类色综合网站| 风间由美性色一区二区三区| 久久久久亚洲综合| 婷婷六月综合亚洲| 99精品桃花视频在线观看| 欧美mv日韩mv国产| 日韩激情av在线| 色综合夜色一区| 国产精品麻豆久久久| 精品一区二区三区免费视频| 欧美日韩成人激情| 中文字幕一区二区三区在线播放| 久久aⅴ国产欧美74aaa| 91麻豆精品国产自产在线观看一区 | 亚洲一卡二卡三卡四卡 | 免费不卡在线观看| 欧美色网站导航| 国产精品乱人伦中文| 国产999精品久久| 久久久久久麻豆| 黄色日韩网站视频| 欧美三级电影一区| 五月婷婷久久综合| 欧美日韩精品系列| 亚洲一区二区三区四区的| 99久久精品国产网站| 国产精品午夜春色av| 久久国产尿小便嘘嘘| 国产人成一区二区三区影院| 国产伦精品一区二区三区免费| 精品精品国产高清a毛片牛牛| 午夜精品福利视频网站| 欧美日韩一本到| 天天综合天天做天天综合| 欧美日韩高清影院| 精品在线你懂的| 久久亚洲精华国产精华液| 国产精品一区二区果冻传媒| 久久久www免费人成精品| 国产91精品一区二区| 精品成人a区在线观看| 成人av免费网站| 一区二区三区精品在线观看| 一本高清dvd不卡在线观看 | 日韩专区在线视频| 欧美va日韩va| 成人性生交大合| 一区二区视频在线| 欧美色图第一页| 蜜桃视频第一区免费观看| 国产欧美精品一区aⅴ影院| 97久久精品人人澡人人爽| 亚洲va国产天堂va久久en| 91精品国产全国免费观看| 国产在线看一区| 国产精品白丝在线| 欧美日韩dvd在线观看| 国产精品18久久久久久久久久久久 | 一区二区三区精密机械公司| 欧美二区三区91| 韩国一区二区三区| 日韩一区日韩二区| 欧美日韩精品二区第二页| 国产高清视频一区| 亚洲欧洲综合另类在线 | 99精品在线观看视频| 天堂一区二区在线| 国产精品免费丝袜| 欧美日韩国产综合一区二区| 九色porny丨国产精品| 一区二区国产盗摄色噜噜| 久久精品夜夜夜夜久久| 欧美专区亚洲专区| 国产不卡在线播放| 日韩成人一级片| 亚洲视频香蕉人妖| 国产性做久久久久久| 欧美乱妇23p|