国产高清吹潮免费视频,老熟女@tubeumtv,粉嫩av一区二区三区免费观看,亚洲国产成人精品青青草原

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁(yè) » 企資頭條 » 專(zhuān)題 » 正文

在昇騰平臺(tái)上對(duì)TensorFlow網(wǎng)絡(luò)進(jìn)行姓能

放大字體  縮小字體 發(fā)布日期:2023-03-19 13:34:53    作者:葉國(guó)慶    瀏覽次數(shù):107
導(dǎo)讀

本文分享自華為云社區(qū)《在昇騰平臺(tái)上對(duì)TensorFlow網(wǎng)絡(luò)進(jìn)行性能調(diào)優(yōu)-云社區(qū)-華為云》,作者:昇騰CANN 。用戶(hù)將TensorFlow訓(xùn)練網(wǎng)絡(luò)遷移到昇騰平臺(tái)后,如果存在性能不達(dá)標(biāo)的問(wèn)題,就需要進(jìn)行調(diào)優(yōu)。本文就帶大家了解在

本文分享自華為云社區(qū)《在昇騰平臺(tái)上對(duì)TensorFlow網(wǎng)絡(luò)進(jìn)行性能調(diào)優(yōu)-云社區(qū)-華為云》,作者:昇騰CANN 。

用戶(hù)將TensorFlow訓(xùn)練網(wǎng)絡(luò)遷移到昇騰平臺(tái)后,如果存在性能不達(dá)標(biāo)的問(wèn)題,就需要進(jìn)行調(diào)優(yōu)。本文就帶大家了解在昇騰平臺(tái)上對(duì)TensorFlow訓(xùn)練網(wǎng)絡(luò)進(jìn)行性能調(diào)優(yōu)的常用手段。

首先了解下性能調(diào)優(yōu)的全流程:

當(dāng)TensorFlow訓(xùn)練網(wǎng)絡(luò)性能不達(dá)標(biāo)時(shí),首先可嘗試昇騰平臺(tái)提供的“三板斧”操作,即上圖中的“基本提升手段”:使能自動(dòng)混合精度 > 進(jìn)行親和接口的替換 > 使能訓(xùn)練迭代循環(huán)下沉 > 使用AOE工具進(jìn)行調(diào)優(yōu)。

基本調(diào)優(yōu)操作完成后,需要再次執(zhí)行模型訓(xùn)練并評(píng)估性能,如果性能達(dá)標(biāo)了,調(diào)優(yōu)即可結(jié)束;如果未達(dá)標(biāo),需要使用Profling工具采集詳細(xì)的性能數(shù)據(jù)進(jìn)一步分析,從而找到性能瓶頸點(diǎn),并進(jìn)一步針對(duì)性的解決,這部分調(diào)優(yōu)操作需要用戶(hù)有一定的經(jīng)驗(yàn),難度相對(duì)較大,我們將這部分調(diào)優(yōu)操作稱(chēng)為進(jìn)階調(diào)優(yōu)。

本文主要帶大家詳細(xì)了解基本調(diào)優(yōu)操作,即上圖中的灰色底紋部分。

使能自動(dòng)混合精度

混合精度是業(yè)內(nèi)通用的性能提升方式,通過(guò)降低部分計(jì)算精度提升數(shù)據(jù)計(jì)算的并行度?;旌嫌?jì)算訓(xùn)練方法通過(guò)混合使用float16和float32數(shù)據(jù)類(lèi)型來(lái)加速深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程,并減少內(nèi)存使用和存取,從而可以提升訓(xùn)練網(wǎng)絡(luò)性能,同時(shí)又能基本保證使用float32訓(xùn)練所能達(dá)到的網(wǎng)絡(luò)精度。

Ascend平臺(tái)提供了“precision_mode”參數(shù)用于配置網(wǎng)絡(luò)的精度模式,用戶(hù)可以在訓(xùn)練腳本的運(yùn)行配置中添加此參數(shù),并將取值配置為“allow_mix_precision”,從而使能自動(dòng)混合精度,下面以手工遷移的訓(xùn)練腳本為例,介紹配置方法。

  • Estimator模式下,在NPURunConfig中添加precision_mode參數(shù)設(shè)置精度模式:npu_config=NPURunConfig( model_dir=FLAGS.model_dir, save_checkpoints_steps=FLAGS.save_checkpoints_steps, session_config=tf.ConfigProto(allow_soft_placement=True,log_device_placement=False), precision_mode="allow_mix_precision" )
  • sess.run模式下,通過(guò)session配置項(xiàng)precision_mode設(shè)置精度模式:config = tf.ConfigProto(allow_soft_placement=True) custom_op = config.graph_options.rewrite_options.custom_optimizers.add() custom_op.name = "NpuOptimizer" custom_op.parameter_map["use_off_line"].b = True custom_op.parameter_map["precision_mode"].s = tf.compat.as_bytes("allow_mix_precision") … with tf.Session(config=config) as sess: print(sess.run(cost))親和接口替換

    針對(duì)TensorFlow訓(xùn)練網(wǎng)絡(luò)中的dropout、gelu接口,Ascend平臺(tái)提供了硬件親和的替換接口,從而使網(wǎng)絡(luò)獲得更優(yōu)性能。

  • 對(duì)于訓(xùn)練腳本中的nn.dropout,建議替換為Ascend對(duì)應(yīng)的API實(shí)現(xiàn),以獲得更優(yōu)性能:layers = npu_ops.dropout()
  • 若訓(xùn)練腳本中存在layers.dropout、tf.layers.Dropout、tf.keras.layers.Dropout、tf.keras.layers.SpatialDropout1D、tf.keras.layers.SpatialDropout2D、tf.keras.layers.SpatialDropout3D接口,建議增加頭文件引用:from npu_bridge.estimator.npu import npu_convert_dropout
  • 對(duì)于訓(xùn)練腳本中的gelu接口,建議替換為Ascend提供的gelu接口,以獲得更優(yōu)性能。

    例如,TensorFlow原始代碼:

    遷移后的代碼:

    from npu_bridge.estimator.npu_unary_ops import npu_unary_opslayers = npu_unary_ops.gelu(x)訓(xùn)練迭代循環(huán)下沉

    訓(xùn)練迭代循環(huán)下沉是指在Host調(diào)用一次,在Device執(zhí)行多次迭代,從而減少Host與Device間的交互次數(shù),縮短訓(xùn)練時(shí)長(zhǎng)。用戶(hù)可通過(guò)iterations_per_loop參數(shù)指定訓(xùn)練迭代的次數(shù),該參數(shù)取值大于1即可使能訓(xùn)練迭代循環(huán)下沉的特性。

    使用該特性時(shí),要求訓(xùn)練腳本使用TF Dataset方式讀數(shù)據(jù),并開(kāi)啟數(shù)據(jù)預(yù)處理下沉,即enable_data_pre_proc開(kāi)關(guān)配置為T(mén)rue,例如sess.run配置示例如下:

    custom_op.parameter_map["enable_data_pre_proc"].b = True

    其他使用約束,用戶(hù)可參見(jiàn)昇騰文檔中心(昇騰社區(qū)-官網(wǎng)丨昇騰萬(wàn)里 讓智能無(wú)所不及)的《TensorFlow模型遷移和訓(xùn)練指南》。

    Estimator模式下,通過(guò)NPURunConfig中的iterations_per_loop參數(shù)配置訓(xùn)練迭代循環(huán)下沉的示例如下:

    session_config=tf.ConfigProto(allow_soft_placement=True)config = NPURunConfig(session_config=session_config, iterations_per_loop=10)AOE自動(dòng)調(diào)優(yōu)

    昇騰平臺(tái)提供了AOE自動(dòng)調(diào)優(yōu)工具,可對(duì)網(wǎng)絡(luò)進(jìn)行子圖調(diào)優(yōu)、算子調(diào)優(yōu)與梯度調(diào)優(yōu),生成最優(yōu)調(diào)度策略,并將最優(yōu)調(diào)度策略固化到知識(shí)庫(kù)。模型再次訓(xùn)練時(shí),無(wú)需開(kāi)啟調(diào)優(yōu),即可享受知識(shí)庫(kù)帶來(lái)的收益。

    建議按照如下順序使用AOE工具進(jìn)行調(diào)優(yōu):

    訓(xùn)練場(chǎng)景下使能AOE調(diào)優(yōu)有兩種方式:

  • 通過(guò)設(shè)置環(huán)境變量啟動(dòng)AOE調(diào)優(yōu)。# 1:子圖調(diào)優(yōu) # 2:算子調(diào)優(yōu) # 4:梯度調(diào)優(yōu) export AOE_MODE=2
  • 修改訓(xùn)練腳本,通過(guò)“aoe_mode”參數(shù)指定調(diào)優(yōu)模式,例如:

    sess.run模式,訓(xùn)練腳本修改方法如下:

    custom_op.parameter_map["aoe_mode"].s = tf.compat.as_bytes("2")

    estimator模式下,訓(xùn)練腳本修改方法如下:

    config = NPURunConfig( session_config=session_config, aoe_mode=2)

    以上就是TensorFlow網(wǎng)絡(luò)在昇騰平臺(tái)上進(jìn)行性能調(diào)優(yōu)的常見(jiàn)手段。關(guān)于更多文檔介紹,可以在昇騰文檔中心查看,您也可在昇騰社區(qū)在線(xiàn)課程板塊(昇騰社區(qū)-官網(wǎng)丨昇騰萬(wàn)里 讓智能無(wú)所不及)學(xué)習(xí)視頻課程,學(xué)習(xí)過(guò)程中的任何疑問(wèn),都可以在昇騰論壇互動(dòng)交流!

    相關(guān)參考:

    [1]昇騰文檔中心

    [2]昇騰社區(qū)在線(xiàn)課程

    [3]昇騰論壇

    關(guān)注#華為云開(kāi)發(fā)者聯(lián)盟#點(diǎn)擊下方,第一時(shí)間了解華為云新鮮技術(shù)~

    華為云博客_大數(shù)據(jù)博客_AI博客_云計(jì)算博客_開(kāi)發(fā)者中心-華為云

  •  
    (文/葉國(guó)慶)
    打賞
    免責(zé)聲明
    本文為葉國(guó)慶推薦作品?作者: 葉國(guó)慶。歡迎轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)注明原文出處:http://biorelated.com/news/show-329629.html 。本文僅代表作者個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,作者需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們郵件:weilaitui@qq.com。
     

    Copyright ? 2016 - 2023 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

    粵ICP備16078936號(hào)

    微信

    關(guān)注
    微信

    微信二維碼

    WAP二維碼

    客服

    聯(lián)系
    客服

    聯(lián)系客服:

    在線(xiàn)QQ: 303377504

    客服電話(huà): 020-82301567

    E_mail郵箱: weilaitui@qq.com

    微信公眾號(hào): weishitui

    客服001 客服002 客服003

    工作時(shí)間:

    周一至周五: 09:00 - 18:00