人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共50題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.pad_sequences的作用是A)獨熱處理B)embedding處理C)模型代價函數(shù)D)使用0補全時間步答案:D解析:[單選題]2.在Keras中,fit函數(shù)的參數(shù):verbose:日志顯示,0為()A)輸出進度條記錄B)保存日志信息C)不在標準輸出流輸出日志信息D)每個epoch輸出一行記錄答案:C解析:在Keras中,fit函數(shù)的參數(shù):verbose:日志顯示,0為不在標準輸出流輸出日志信息,1為輸出進度條記錄,2為每個epoch輸出一行記錄[單選題]3.程序設(shè)計中,tf.argmax返回了最大的那個數(shù)值的()或下標后,接下來通常使用tf.equal()進行邏輯判斷A)上標B)索引號C)坐標D)內(nèi)積答案:B解析:[單選題]4.函數(shù)tf.constant()不正確的用法是那一個選項?A)tensor=tf.constant(1)B)tensor=tf.constant([1,2])C)tensor=tf.constant(-1,shape=[2,3])D)a=tf.constant([1.0,2.0],name="a)答案:D解析:[單選題]5.關(guān)于面向?qū)ο蟮睦^承,以下選項中描述正確的是()A)繼承是指一組對象所具有的相似性質(zhì)B)繼承是指類之間共享屬性和操作的機制C)繼承是指各對象之間的共同性質(zhì)D)繼承是指一個對象具有另一個對象的性質(zhì)答案:B解析:難易程度:易題型:[單選題]6.什么是TensorFlow的核心的基本數(shù)據(jù)單元?A)張量B)向量C)純量D)以上都不是答案:A解析:[單選題]7.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A)[10.,11.]B)[10.,10.]C)[11.,11.]D)[11.,10.]答案:D解析:[單選題]8.初始化時通常使用()隨機數(shù)給各權(quán)值和閾值賦初值。A)偏導(dǎo)數(shù)B)大的C)小的D)均方根答案:C解析:[單選題]9.?@tf.function?裝飾器的作用是A)開啟會話B)創(chuàng)建函數(shù)C)在tensorflow中應(yīng)用函數(shù)D)匿名處理函數(shù)答案:A解析:[單選題]10.通常歐幾里得距離,也叫A)非負距離B)平面距離C)絕對值距離D)平方范數(shù)距離答案:D解析:[單選題]11.深度學(xué)習(xí)領(lǐng)域中,通常通過什么方式來選擇參數(shù)A)通過常識選擇B)隨機選擇點來試驗超參數(shù)效果C)選擇輸入的參數(shù)即可D)取離散參數(shù)的平均值答案:B解析:[單選題]12.對于多變量線性模型,對變量需要進行操作:A)特征縮放B)獨熱C)激活D)池化答案:A解析:[單選題]13.Tensorflow中,tf.argmax()返回最大數(shù)值的(),通常和tf.equal()一起使用,計算模型準確度A)上標B)下標C)坐標D)內(nèi)積答案:B解析:[單選題]14.表示關(guān)系表中的每一橫行的是()。A)碼B)列C)屬性D)元組答案:D解析:難易程度:易題型:[單選題]15.繪制直方圖的命令是()。A)plt.bar()B)plt.histC)plt.pieD)plt.scatter答案:A解析:難易程度:易題型:[單選題]16.keras.layers.Dense就是常用的()A)全連接層B)半連接層C)直接連接D)嵌入連接答案:A解析:[單選題]17.Tf定義一個標量變量X,其語句是A)X=tf.variable(2.0,shape=[1,2])B)X=tf.Variable(2.0,dtype=tf.float32)C)X=tf.variable(2.0,shape=[1,2])D)X=tf.constant(2.0,btype=tf.float32)答案:B解析:[單選題]18.在28x28的圖像上使用3x3的過濾器后,輸出將是多少?A)31x31B)25x25C)28x28D)26x26答案:D解析:[單選題]19.能消除overfitting過擬合的方法是那一個?A)線性化B)非線性化C)歸一化D)定義dropout答案:D解析:[單選題]20.什么是池化?A)隔離圖像特征的技術(shù)B)一種在保持特征的同時減少圖像信息的技術(shù)C)一種使圖像更清晰的技術(shù)D)組合圖片的技術(shù)答案:B解析:[單選題]21.科學(xué)計算包PyTorch是由()公司主持開發(fā)的。A)百度B)FacebookC)AmazonD)Google答案:B解析:[單選題]22.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識別)上訓(xùn)練好了一個卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對嗎?()A)對的B)不知道C)看情況D)不對答案:D解析:[單選題]23.關(guān)于Python語言和人工智能,以下哪個說法不正確?()。A)人工智能算法在計算機底層的并行和加速都采用Python語言實現(xiàn)B)人工智能(機器學(xué)習(xí)和深度學(xué)習(xí))框架基本都采用Python語言開發(fā)C)掌握"人工智能應(yīng)用"能力,必須學(xué)習(xí)并掌握Python語言D)Python是支撐"人工智能應(yīng)用"的主流語言答案:A解析:難易程度:易題型:[單選題]24.如果使用的學(xué)習(xí)率太大,會導(dǎo)致A)網(wǎng)絡(luò)收斂的快B)網(wǎng)絡(luò)收斂的慢C)網(wǎng)絡(luò)無法收斂D)不確定答案:C解析:[單選題]25.對于批量梯度下降,使用優(yōu)化算法是為了在迭代過程中():A)增大損失值B)使學(xué)習(xí)率衰減C)降低損失值D)提升正則項范圍答案:B解析:[單選題]26.LeNet-5神經(jīng)網(wǎng)絡(luò)是YannLeCun在1998年設(shè)計的用于手寫數(shù)字識別的卷積神經(jīng)網(wǎng)絡(luò),當年美國大多數(shù)銀行就是用它來識別()上面的手寫數(shù)字的,它是早期卷積神經(jīng)網(wǎng)絡(luò)中最有代表性的實驗系統(tǒng)之一A)支票B)錢幣C)人臉D)汽車答案:A解析:[單選題]27.一個數(shù)據(jù)集中有3萬條數(shù)據(jù),關(guān)于數(shù)據(jù)集分配哪一項說法正確:A)訓(xùn)練集數(shù)據(jù)可以分配1萬條B)測試集數(shù)據(jù)可以分配1000條C)可以不設(shè)置訓(xùn)練集D)可以不設(shè)置驗證集答案:D解析:[單選題]28.relu()的結(jié)果是多少A)0B)0.5563543C)10D)1答案:C解析:[單選題]29.為什么會有10個輸出神經(jīng)元?A)純粹隨意B)有10個不同的標簽C)使訓(xùn)練速度提高10倍D)使分類速度提高10倍答案:B解析:[單選題]30.關(guān)于Series索引方式錯誤的是()。A)s[0:2]B)s[2]C)s[s>2]D)s[s=2]答案:D解析:難易程度:中題型:[單選題]31.當前時間步是否參與此次運算的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:C解析:[單選題]32.下面哪個選項可以直接讀取一副灰度圖像()A)cv2.imread(path)B)cv2.imread(path,0)C)cv2.imread(path,1)D)cv2.imread(path,-1)答案:B解析:cv2.imread(filename,flags)參數(shù):filepath:讀入imge的完整路徑flags:標志位,{cv2.IMREAD_COLOR,cv2.IMREAD_GRAYSCALE,cv2.IMREAD_UNCHANGED}cv2.IMREAD_COLOR:默認參數(shù),讀入一副彩色圖片,忽略alpha通道,可用1作為實參替代cv2.IMREAD_GRAYSCALE:讀入灰度圖片,可用0作為實參替代cv2.IMREAD_UNCHANGED:顧名思義,讀入完整圖片,包括alpha通道,可用-1作為實參替代PS:alpha通道,又稱A通道,是一個8位的灰度通道,該通道用256級灰度來記錄圖像中的透明度復(fù)信息,定義透明、不透明和半透明區(qū)域,其中黑表示全透明,白表示不透明,灰表示半透明[單選題]33.循環(huán)神經(jīng)網(wǎng)絡(luò)比較擅長()A)列相關(guān)問題。B)圖像分類。C)圖像檢索。D)圖像去燥。答案:A解析:[單選題]34.Keras中進行獨熱處理的代碼是A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:A解析:[單選題]35.pytorch中用于網(wǎng)絡(luò)層連接使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:A解析:[單選題]36.在輸出層不能使用以下哪種激活函數(shù)來分類圖像?CA)sigmoidB)TanhC)ReLUD)If(x>5,1,0)答案:C解析:[單選題]37.Linux繼承了()以網(wǎng)絡(luò)為核心的設(shè)計思想,是一個性能穩(wěn)定的多用戶網(wǎng)絡(luò)操作系統(tǒng)。A)windowsB)ubuntuC)UnixD)redhat答案:C解析:Linux繼承了Unix以網(wǎng)絡(luò)為核心的設(shè)計思想,是一個性能穩(wěn)定的多用戶網(wǎng)絡(luò)操作系統(tǒng)。[單選題]38.假設(shè)下方是傳入最大池化層的一個輸入,該層中神經(jīng)元的池化大小為(3,3)。那么,該池化層的輸出是多少?A)3B)7C)5D)5.5答案:B解析:[單選題]39.一類包含卷積或相關(guān)計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetworks)也稱為()A)機器學(xué)習(xí)B)數(shù)據(jù)挖掘C)CNN卷積神經(jīng)網(wǎng)絡(luò)D)MATLAB答案:C解析:[單選題]40.如圖所示,當開始訓(xùn)練時,誤差一直很高,這是因為神經(jīng)網(wǎng)絡(luò)在往全局最小值前進之前一直被卡在局部最小值里。為了避免這種情況,我們可以采取下面哪種策略?A)一開始將學(xué)習(xí)速率減小10倍,然后用動量項(momentum)B)增加參數(shù)數(shù)目,這樣神經(jīng)網(wǎng)絡(luò)就不會卡在局部最優(yōu)處C)改變學(xué)習(xí)速率,比如一開始的幾個訓(xùn)練周期不斷更改學(xué)習(xí)率速率D)以上都不對答案:D解析:[單選題]41.關(guān)于Python的全局變量和局部變量,以下選項中描述錯誤的是()。A)局部變量指在函數(shù)內(nèi)部使用的變量,當函數(shù)退出時,變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B)全局變量指在函數(shù)之外定義的變量,-般沒有縮進,在程序執(zhí)行全過程有效C)使用global保留字聲明簡單數(shù)據(jù)類型變量后,該變量作為全局變量使用D)簡單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放答案:A解析:難易程度:易題型:[單選題]42.繪圖時多個坐標系顯示的命令是()。A)plt.subplotsB)plt.titleC)plt.gridD)plt.lable答案:D解析:難易程度:易題型:[單選題]43.下面哪個命令是Linux下?更改文件權(quán)限?命令?A)chmodu+xB)rm-frdirC)passwdD)cp-Rdir答案:A解析:chmodu+x:更改文件權(quán)限[單選題]44.在Keras中,fit函數(shù)的參數(shù):validation_split:0~1之間的浮點數(shù),用來指定訓(xùn)練集的一定比例數(shù)據(jù)作為驗證集。驗證集將不參與訓(xùn)練,并在每個epoch結(jié)束后測試的模型的指標,如損失函數(shù)、精確度等。其不指定時默認值是()A)1B)0.5C)0.2D)0答案:D解析:在Keras中,fit函數(shù)的參數(shù):validation_split:0~1之間的浮點數(shù),用來指定訓(xùn)練集的一定比例數(shù)據(jù)作為驗證集。驗證集將不參與訓(xùn)練,并在每個epoch結(jié)束后測試的模型的指標,如損失函數(shù)、精確度等。其不指定時默認值是0[單選題]45.以下選項中,不是Pyhon深度學(xué)習(xí)方向的第三方庫是()。A)PyTorchB)PandleC)SeabornD)Neon答案:C解析:難易程度:易題型:[單選題]46.人工智能是()的一個分支,它企圖了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機器A)生物醫(yī)學(xué)B)計算機科學(xué)C)數(shù)學(xué)D)文學(xué)答案:B解析:人工智能是計算機科學(xué)的一個分支,它企圖了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機器[單選題]47.關(guān)于降維算法,下列說法錯誤的是()。A)PCA是有監(jiān)督學(xué)習(xí)算法B)ICA能夠使數(shù)據(jù)中的的分量最大化獨立,而PCA不能C)LDA是有監(jiān)督學(xué)習(xí)算法D)LDA降維后,同類別的數(shù)據(jù)分布更為密集答案:A解析:難易程度:中題型:第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.關(guān)于歸一化描述正確的是:A)歸一化可以預(yù)防過擬合B)歸一化沒有實質(zhì)作用C)歸一化將所有數(shù)據(jù)樣本值縮放到0-1之間D)歸一化是一種激活函數(shù)答案:AC解析:[多選題]49.長短期記憶中的門是A)輸入門B)更新門C)遺忘門D)輸出門答案:ACD解析:[多選題]50.對于卷積層網(wǎng)絡(luò)的tf.nn.dropout,以下說法正確的是?A)在全連接層B)停止一些節(jié)點更新C)防止過擬合D)訓(xùn)練初給出答案:ABCD解析:[多選題]51.可以用于卷積網(wǎng)絡(luò)處理分類的是A)最大池化B)平均池化C)全連接D)卷積答案:BC解析:[多選題]52.手寫體識別程序經(jīng)常調(diào)用的四個數(shù)據(jù)集包括以下選項中那幾個?()A)train-images.idx3-ubyteB)train-labels-idx1-ubyteC)t10k-images.idx3-ubyteD)t10k-labels-idx1-ubyte答案:ABCD解析:[多選題]53.語句tf.variables_initializer語句可以A)初始化一個變量B)初始化多個變量C)初始化全部變量D)初始化常量答案:ABC解析:[多選題]54.可用于創(chuàng)建獨熱編碼的函數(shù)有:(不限框架)A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:ABC解析:np.eye()也可以進行獨熱[多選題]55.以下屬于梯度下降的有A)BGDB)SGDC)Mini-BatchD)dropout答案:ABC解析:[多選題]56.以下可以處理Mnist數(shù)據(jù)集的分類算法有A)KNNB)邏輯回歸C)卷積神經(jīng)網(wǎng)絡(luò)D)k-mean答案:ABC解析:[多選題]57.二分類邊界線描述正確的是A)正類別概率為0.5B)z=0C)正類別概率為0D)z=1答案:AB解析:[多選題]58.LSTM中擁有的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:ABC解析:[多選題]59.邏輯回歸S型曲線描述正確的是:A)輸出結(jié)果是-1~+1B)0.5是分類的閾值C)輸出的結(jié)果為正類別概率D)導(dǎo)數(shù)范圍為0~0.25答案:BCD解析:[多選題]60.可以解決梯度消失的神經(jīng)單元有A)RNNB)LSTMC)GRUD)BRNN答案:BC解析:[多選題]61.在圖像處理中,在顏色RGB建立三維向量的距離空間,能A)實現(xiàn)顏色分類B)計算兩種顏色的差別C)計算兩個圖像差別D)與圖像內(nèi)容有關(guān)答案:ABC解析:[多選題]62.對于矩陣A可以求逆,那么A必須A)是方陣B)行列式不為零C)任意矩陣D)行列式為1答案:AB解析:第3部分:判斷題,共19題,請判斷題目是否正確。[判斷題]63.信息量就是信息熵。A)正確B)錯誤答案:錯解析:[判斷題]64.cifar100和一個100小分類和10大分類A)正確B)錯誤答案:對解析:[判斷題]65.無監(jiān)督學(xué)習(xí)是指利用一組已知類別的樣本調(diào)整分類器的參數(shù),使其達到所要求性能的過程,也稱為監(jiān)督訓(xùn)練或有教師學(xué)習(xí)。A)正確B)錯誤答案:錯解析:監(jiān)督學(xué)習(xí)(SupervisedLearning)是指利用一組已知類別的樣本調(diào)整分類器的參數(shù),使其達到所要求性能的過程,也稱為監(jiān)督訓(xùn)練或有教師學(xué)習(xí)。[判斷題]66.損失函數(shù)反映的是,標簽集合與訓(xùn)練集合變換后結(jié)果的總體差別。A)正確B)錯誤答案:對解析:[判斷題]67.交叉熵(crossentropy)描述的是兩個概率分布之間的距離,距離越小表示這兩個概率越相近,越大表示兩個概率差異越大。A)正確B)錯誤答案:對解析:[判斷題]68.對于非規(guī)范的兩個序列,比較相似度,可以用內(nèi)積的原理。A)正確B)錯誤答案:對解析:[判斷題]69.卷積神經(jīng)網(wǎng)絡(luò)的tensorflow框架中,tf.nn.avg_pool()可實現(xiàn)平均池化操作。A)正確B)錯誤答案:對解析:[判斷題]70.Alexnet網(wǎng)絡(luò)最早使用一塊GPU完成運算A)正確B)錯誤答案:錯解析:[判斷題]71.假設(shè)有一個如下定義的神經(jīng)網(wǎng)絡(luò);如果我們?nèi)サ鬜eLU層,這個神經(jīng)網(wǎng)絡(luò)仍能夠處理非線性函數(shù),這種說法是;BA)正確的B)錯誤的答案:錯解析:[判斷題]72.訓(xùn)練集和測試集準確率偏差越高越好A)正確B)錯誤答案:錯解析:[判斷題]73.在尋優(yōu)的迭代過程中,損失函數(shù)的運算結(jié)果,從趨勢上是逐步降低的。A)正確B)錯誤答案:對解析:[判斷題]74.分類類型的代價函數(shù)相同A)正確B)錯誤答案:錯解析:[判斷題]75.在實際項目中,不一定需要驗證集A)正確B)錯誤答案:對解析:[判斷題]76.使用梯度裁剪有助于減緩梯度爆炸問題。A)正確B)錯誤答案:對解析:[判斷題]77.T_scope()的含義是在另外一個命名空間來定義變量A)正確B)錯誤答案:對解析:[判斷題]78.卷積可以縮小圖像尺寸A)正確B)錯誤答案:對解析:[判斷題]79.最大池化可以應(yīng)用到多分類前進行處理A)正確B)錯誤答案:錯解析:[判斷題]80.騰訊云提供兩種加密登錄方式:密碼登錄和SSH密鑰登錄。用戶可以自由選擇兩種方式安全的與云服務(wù)器進行連接。Windows系統(tǒng)實例不支持密鑰登錄。A)正確B)錯誤答案:錯解析:騰訊云提供兩種加密登錄方式:密碼登錄和SSH密鑰登錄。用戶可以自由選擇兩種方式安全的與云服務(wù)器進行連接。Windows系統(tǒng)實例不支持SSH密鑰登錄。[判斷題]81.局部連接使網(wǎng)絡(luò)可以提取數(shù)據(jù)的局部特征。A)正確B)錯誤答案:對解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.w是控制輸入信號的_______的參數(shù)答案:重要性解析:[問答題]83.dropout=tf.nn.dropout(result,0.5,noise_shape=[4,1]),該程序中,隱藏層節(jié)點按____丟棄。答案:行;解析:[問答題]84.FCN是全部由_______構(gòu)成的網(wǎng)絡(luò)答案:卷積層解析:[問答題]85.編程:使用relu激活函數(shù),實現(xiàn)對負值的忽略,并將映射結(jié)果輸出。答案:ImporttensorflowastfInput=tf.constant([-10,0,4,8],dtype=tf.float32)Output=tf.nn.relu(input)Withtf.Session()assess:Print(sess.run(output))解析:[問答題]86.加深層可以_______地傳遞信息答案:分層次解析:[問答題]87.編程:使用Tensorflow定義變量+常量,實現(xiàn)輸出計數(shù)功能。答案:ImporttensorflowastfState=tf.Variable(0,name='Parameter_name_counter')#print()One=tf.constant(1)New_value=tf.add(state,one)Update=tf.assign(state,new_value)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)for_inrange(8):sess.run(update)print(sess.run(state))解析:[問答題]88.訓(xùn)練集樣本的形狀為_____。答案:(55000,784);解析:[問答題]89.尋找最優(yōu)參數(shù)問題的結(jié)果過程稱為_______答案:最優(yōu)化解析:[問答題]90.什么樣的數(shù)據(jù)集不適合深度學(xué)習(xí)?答案:1數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學(xué)習(xí)相對其它機器學(xué)習(xí)算法,沒有明顯優(yōu)勢。2數(shù)據(jù)集沒有局部相關(guān)特性,目前深度學(xué)習(xí)表現(xiàn)比較好的領(lǐng)域主要是圖像/語音/自然語言處理等領(lǐng)域,這些領(lǐng)域的一個共性是局部相關(guān)性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數(shù)據(jù)中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時也被改變。對于沒有這樣的局部相關(guān)性的數(shù)據(jù)集,不適于使用深度學(xué)習(xí)算法進行處理。解析:[問答題]91.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層數(shù)越高,學(xué)到的特征就越_______。答案:全局化;解析:[問答題]92.編程:將數(shù)組轉(zhuǎn)換為初始值為常量value的tensor對象,通過tf.get_variable初始化變量。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論