語系:
繁體中文
English
簡体中文
說明(常見問題)
圖書館個人資料蒐集告知聲明
登入
回首頁
切換:
標籤
|
MARC模式
|
ISBD
跟NVIDIA學深度學習
紀錄類型:
書目-語言資料,印刷品 : 單行本
作者:
艾克曼
其他作者:
哈雷
出版地:
臺北市
出版者:
旗標科技;
出版年:
2024[民113]
版本:
初版
面頁冊數:
1冊圖,表格 : 23公分;
標題:
神經網路 -
標題:
人工智慧 -
標題:
自然語言處理 -
標題:
Python(電腦程式語言) -
附註:
封面副題名:從基本神經網路到 CNN.RNN.LSTM.Seq2Seq.Transformer.GPT.BERT 紮穩機器視覺與大型語言模型(LLM)的建模基礎
ISBN:
978-986-312-776-5
跟NVIDIA學深度學習
艾克曼
跟NVIDIA學深度學習
/ Magnus Ekman著 ; 哈雷譯 - 初版. - 臺北市 : 旗標科技, 2024[民113]. - 1冊 ; 圖,表格 ; 23公分.
封面副題名:從基本神經網路到 CNN.RNN.LSTM.Seq2Seq.Transformer.GPT.BERT 紮穩機器視覺與大型語言模型(LLM)的建模基礎附錄:延伸學習(一):多模態、多任務...等模型建構相關主題等5種.
ISBN 978-986-312-776-5
神經網路人工智慧自然語言處理Python(電腦程式語言)
哈雷
跟NVIDIA學深度學習
LDR
:01043nam0 2200217 4500
001
403662
009
0000432
010
0
$a
978-986-312-776-5
$b
平裝
$d
新台幣880元
100
$a
20240721d2024 m y0chiy50 e
101
1
$a
chi
$c
eng
102
$a
tw
105
$a
ak z 000yd
200
1
$a
跟NVIDIA學深度學習
$f
Magnus Ekman著
$g
哈雷譯
205
$a
初版
210
$a
臺北市
$c
旗標科技
$d
2024[民113]
215
0
$a
1冊
$c
圖,表格
$d
23公分
300
$a
封面副題名:從基本神經網路到 CNN.RNN.LSTM.Seq2Seq.Transformer.GPT.BERT 紮穩機器視覺與大型語言模型(LLM)的建模基礎
300
$a
附錄:延伸學習(一):多模態、多任務...等模型建構相關主題等5種
517
1 1
$a
從基本神經網路到CNN RNN LSTM Seq2Seq Transformer GPT BERT紮穩機器視覺與大型語言模型LLM的建模基礎
$z
chi
527
1 1
$a
Learning deep learning
$e
theory and practice of neural networks, computer vision, natural language processing, and transformers using TensorFlow.
$z
eng
606
1
$a
神經網路
$2
cst
$3
246179
606
1
$a
人工智慧
$2
cst
$3
246178
606
1
$a
自然語言處理
$2
cst
$3
276579
606
1
$a
Python(電腦程式語言)
$2
cst
$3
260145
681
$a
312.83
$b
8858
700
1
$a
艾克曼
$c
(Ekman, Magnus)
$4
著
$3
398195
702
0
$a
哈雷
$4
譯
$3
389734
750
1
$a
Ekman
$b
Magnus.
$3
398196
801
0
$a
tw
$b
CTU
$c
20240721
$g
CCR
筆 0 讀者評論
館藏地:
全部
四樓中文書庫區
出版年:
卷號:
館藏
期刊年代月份卷期操作說明(Help)
1 筆 • 頁數 1 •
1
條碼號
典藏地名稱
館藏流通類別
資料類型
索書號
使用類型
借閱狀態
預約人數
期刊出刊日期 / 原館藏地 / 其他備註
附件
410604
四樓中文書庫區
圖書流通(BOOK_CIR)
BOOK
312.83/8858
一般使用(Normal)
書架上
0
1 筆 • 頁數 1 •
1
評論
新增評論
分享你的心得
建立或儲存個人書籤
書目轉出
取書館別
處理中
...
變更密碼
登入