App下載
最新 最熱

Pycharm安裝paddleX安裝報(bào)錯(cuò)怎么辦?如何解決?

paddleX作為百度推出的一個(gè)機(jī)器學(xué)習(xí)的框架,是國內(nèi)少有的開源而且比較成熟的框架,所以很多學(xué)習(xí)機(jī)器學(xué)習(xí)的小伙伴可能會(huì)有了解這個(gè)框架的想法。但是在安裝paddleX的時(shí)候可能會(huì)出現(xiàn)一些錯(cuò)誤。那么paddleX安裝報(bào)錯(cuò)有哪些呢?如何解決paddleX安裝報(bào)錯(cuò)呢?接下來這篇文章告訴你。

2021-07-16
6250

pytorch中Schedule與warmup_steps如何使用?

在機(jī)器學(xué)習(xí)中,schedule的使用是相當(dāng)重要的,用來進(jìn)行學(xué)習(xí)率的調(diào)節(jié),而warmup_steps作為耐心系數(shù)也參與了schedule的使用,接下來的這篇文章我們就來了解一下pytorch怎么使用schedule吧。

2021-07-15
8689

python如何讀取文件指定行?三種方法介紹!

文件讀寫這項(xiàng)功能是每個(gè)編程語言基本都會(huì)實(shí)現(xiàn)的一個(gè)重要的基礎(chǔ)功能,python也不例外,今天小編就python如何讀取文件,來向各位介紹python的三種文件讀取方式。

2021-07-15
12229

PyTorch梯度裁剪怎么避免訓(xùn)練loss nan?

不知道小伙伴們在訓(xùn)練檢測網(wǎng)絡(luò)的時(shí)候有沒有出現(xiàn)loss為nan的情況。當(dāng)出現(xiàn)這種情況的時(shí)候需要中斷重新訓(xùn)練,會(huì)很麻煩。接下來小編介紹一種pytorch避免訓(xùn)練loss nan的方法,就是使用pytorch梯度裁剪來進(jìn)行限制,我們可以選擇使用PyTorch提供的梯度裁剪庫來對(duì)模型訓(xùn)練過程中的梯度范圍進(jìn)行限制。修改之后,不再出現(xiàn)loss為nan的情況。

2021-07-15
5934

Python如何讀取Excel文件?python辦公自動(dòng)化介紹!

很多讀者在聽到辦公自動(dòng)化的時(shí)候很難想象到底什么是辦公自動(dòng)化,它能自動(dòng)化到什么地步。其實(shí)辦公自動(dòng)化也就只是幫你進(jìn)行一些重復(fù)的操作罷了,一些關(guān)鍵操作和內(nèi)容產(chǎn)出還是得靠用戶自行處理。以python辦公自動(dòng)化為例,office三大軟件中自動(dòng)化可操作性最高的應(yīng)該是excel了,excel很多情況下操作都是可重復(fù)的,比如批量的數(shù)據(jù)錄入,數(shù)據(jù)的操作等。今天小編就以python操作excel為例,來介紹一下python辦公自動(dòng)化。

2021-07-15
2730

Pytorch半精度網(wǎng)絡(luò)訓(xùn)練需要注意哪些問題?

為了提高pytorch的模型訓(xùn)練的效率,我們有時(shí)候會(huì)選擇放棄部分精度來換取運(yùn)算耗時(shí)的縮減。也就是說,在對(duì)精度要求不是那么高的情況下我們可以使用pytorch半精度網(wǎng)絡(luò)訓(xùn)練。但是在使用pytorch進(jìn)行半精度網(wǎng)絡(luò)訓(xùn)練的時(shí)候可能會(huì)出現(xiàn)一些問題,小編將這些問題進(jìn)行了一個(gè)總結(jié),各位小伙伴可以進(jìn)行參考。

2021-07-15
5167

pytorch怎么部署半精度模型?如何操作?

在進(jìn)行深度學(xué)習(xí)的模型訓(xùn)練的時(shí)候,很多小伙伴的電腦的配置可能不是那么優(yōu)秀,在該階段要花費(fèi)很多的運(yùn)行時(shí)間。但在學(xué)習(xí)深度學(xué)習(xí)的過程中,有時(shí)候我們其實(shí)并不需要模型擁有太高的精度,這時(shí)候我們就可以設(shè)置通過降低精度的方法減少運(yùn)算量,這就是pytorch加速模型訓(xùn)練的辦法,那么pytorch如何設(shè)置精度呢?通過下文的學(xué)習(xí),你將學(xué)會(huì)pytorch怎么部署半精度模型。

2021-07-15
5101

pytorch為什么要使用float64訓(xùn)練?怎么使用?

在神經(jīng)網(wǎng)絡(luò)的推理過程中,我們默認(rèn)是將pytorch的tensor的精度指定為單精度的float32,但是在有些時(shí)候不管是float16還是float32,在訓(xùn)練模型的時(shí)候都會(huì)導(dǎo)致精度丟失,從而引發(fā)訓(xùn)練效果的損失。那么pytorch怎么使用float64訓(xùn)練呢?接下來這篇文章告訴你。

2021-07-15
7312

python如何提高計(jì)算速度?一行代碼解決!

很多小伙伴或多或少都曾經(jīng)聽過這樣的一些言論:python運(yùn)算速度特別慢,java在運(yùn)算數(shù)度上碾壓python等。這令部分小伙伴覺得python既然運(yùn)算速度這么慢,那效率也低,不學(xué)也罷。實(shí)際上從一開始的言論就錯(cuò)了,python的運(yùn)算速度其實(shí)還是很不錯(cuò)的,只不過很多用戶不會(huì)優(yōu)化罷了,那么python如何提高運(yùn)算速度呢?看完這篇文章你會(huì)得到答案。

2021-07-15
7154

pytorch怎么使用amp進(jìn)行混合精度訓(xùn)練

在神經(jīng)網(wǎng)絡(luò)的推理過程中,如果全都默認(rèn)使用相同的一個(gè)比較高的數(shù)據(jù)精度的話,對(duì)于計(jì)算機(jī)硬件的顯存具有一定的要求,運(yùn)算量也會(huì)增大,對(duì)應(yīng)的運(yùn)算時(shí)間就會(huì)降低,宏觀的講就是運(yùn)算速度變慢了。但實(shí)際上,針對(duì)不同的層我們可以采用不同的數(shù)據(jù)精度進(jìn)行計(jì)算以達(dá)到節(jié)省內(nèi)存和加快速度的目的。這種方法叫做自動(dòng)混合精度(amp),那么pytorch怎么使用amp呢?接下來我們就來介紹一下pytorch怎么進(jìn)行混合精度訓(xùn)練吧。

2021-07-15
5980