題目 |
題目類型 |
操作 |
關(guān)于多層前向BP網(wǎng)絡(luò)的特點(diǎn),不正確的是? |
普通選擇題 |
去答題
|
關(guān)于深度學(xué)習(xí)的說法中,下面說法正確的是: |
普通選擇題 |
去答題
|
關(guān)于深度學(xué)習(xí)模型訓(xùn)練,以下說法錯(cuò)誤的是: |
普通選擇題 |
去答題
|
關(guān)于深度學(xué)習(xí)模型訓(xùn)練,以下說法錯(cuò)誤的是: |
普通選擇題 |
去答題
|
關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中正確的是: |
普通選擇題 |
去答題
|
關(guān)于神經(jīng)網(wǎng)絡(luò)的相關(guān)概念,以下說法正確的是: |
普通選擇題 |
去答題
|
檢索式模型和生成式模型是建立聊天機(jī)器人的兩個(gè)主流方式,下面那個(gè)選項(xiàng)分別包含檢索式模型和生成式模型例子 |
普通選擇題 |
去答題
|
卷積神經(jīng)網(wǎng)絡(luò)(CNN)中Dropout層的作用是? |
普通選擇題 |
去答題
|
如何以類神經(jīng)網(wǎng)絡(luò)仿真羅吉斯回歸(Logistic Regression)? |
普通選擇題 |
去答題
|
如何以類神經(jīng)網(wǎng)絡(luò)仿真邏輯回歸(Logistic Regression)? |
普通選擇題 |
去答題
|
神經(jīng)網(wǎng)絡(luò)是由很多個(gè)什么組合而成的? |
普通選擇題 |
去答題
|
神經(jīng)網(wǎng)絡(luò)通過什么方式來實(shí)現(xiàn)非線性關(guān)系的劃分? |
普通選擇題 |
去答題
|
生成式對(duì)抗網(wǎng)絡(luò)中兩個(gè)模型的關(guān)系可以比喻為下列何者? |
普通選擇題 |
去答題
|
文本挖掘是哪種技術(shù)的整合? |
普通選擇題 |
去答題
|
下面不屬于自然語言處理發(fā)展歷程的是( ) |
普通選擇題 |
去答題
|
下面不屬于自然語言處理核心技術(shù)的是() |
普通選擇題 |
去答題
|
下面不屬于自然語言處理基礎(chǔ)技術(shù)的是( ) |
普通選擇題 |
去答題
|
下面不屬于自然語言處理應(yīng)用實(shí)踐的是( ) |
普通選擇題 |
去答題
|
下面關(guān)于CNN的描述中,錯(cuò)誤的是: |
普通選擇題 |
去答題
|
下面關(guān)于LSTM的描述中,錯(cuò)誤的是: |
普通選擇題 |
去答題
|