第兩千四百二十章 部署算法模型
喜歡讀書是好事兒,但是小說也讀得那么認真,不停問問題,就有點過份了。
尤其是《蘇廚》這種古代知識滿滿的小說,很多東西都在麥小苗認知范圍以外,逮到了原創作者就在身邊,好奇寶寶的問題簡直就是一直不斷。
比如第一章里周至寫了眉山城門口的小橋叫做“通津橋”,說明這個橋過去不遠就是碼頭,大家可以在那里坐船去往上下游城市。然后麥小苗就問其余地方如文廟,學署,書院,文昌宮的區別;又比如為什么叫附廓縣,為什么附廓縣就會存在州府縣府兩個衙門;火神廟是祭祀誰的,玉清觀是祭祀誰的,東岳廟是祭祀誰的等等……
實話實說,就連最鐵的書友也問不到這么細致的地方來,或者說許多對于國人來講本身就屬于常識,不過對于麥小苗這種中國歷史文化“人菜癮大”的讀者來說,那就啥都想問了。
關鍵是有些問題還十分復雜,比如要講玉清觀就要講到道教三清中的玉、上、太三清,然后講玉清元始天尊在道教中的地位和宋代對道教的推崇,以及道教在蜀中的影響力等等,國學是可以從一個點扯出一張網的學問,因此“玉清觀是祭祀誰的”這個問題,本身就是一個大題目。
周至本來是要改一改自己拉下的功課的,現在有了數字圖書館搜索引擎后,師祖祖的論文當中留下的許多讓周至疑惑,或者周至自己所欠缺的知識點,就可以通過搜索相關內容解惑補齊鞏固,結果遇到一個需要科普的小朋友,這就專心不起來了。
“小苗要不這樣。”周至想了想:“小說帖子本身就有留言功能,你將問題留在章節里,等書友們來回答好不好?”
“可以。”麥小苗倒是從善如流,然后又問出一個問題:“可是我現在是看的存稿,還沒有發布啊?”
“啊這……”周至想了想,打開文學論壇女生言情板塊:“這幾本小說熱度都挺高的,要不你看這種吧,好多女生都喜歡看。”
“不看!”
“為什么?”
“看她們的書哭得稀里嘩啦的,衛生紙不夠用!”
“呃……”周至猶豫了一下,一咬牙:“我還有一本小說,暫時還沒準備發出去,寫的是一個大學生回到家鄉建設農村的,你看不看?”
“是聯和鄉這樣的農村嗎?你還真會就地取材。”
“呃……倒也不是,背景是我的老家,蠻州市夾川縣。”
“你家鄉?”
“對!”
“好啊好啊,你給我看看!”
《山溝》這本書就好多了,麥小苗終于不再發問,還不時給書里的內容逗得咯咯直笑,看來頗為喜歡其中的內容。
兩人就這樣度過了一個晚上,偶爾喝點果干煮米酒,吃點堅果,然后一人看小說,一人看論文,要不是周至催麥小苗去刷牙洗臉,這妞還不想休息。
周至不由得搖頭,網絡文學后勁大啊……
但是第二天報應就來了,四葉草集團動作很快第一批資源已經到位組網,包括算力與存儲空間。
于是情況就來了一個顛倒,麥小苗在部署她帶回來的算法程序的時候,周至就變成了昨晚麥小苗聽周至科普時候的那個樣子。
對于四葉草集團接包的VC程序開發,周至也是管理了的,甚至還參與了一些編寫方案的討論,對于編程,甚至編寫工具類程序,他也并不是完全的門外漢,這是周至穿越到這一世以來頗為得意的一點,就是自己上一世的專業不但沒有荒廢,反而更上了層樓。
但是他上的這層樓和麥小苗腳下起步的臺階相比,相差得也有些遠,這不是變成能力上的限制,而是數學理論上的鴻溝。
“設神經元的輸入向量和參數向量分別為集合A和集合B,這兩個集合又可被稱為權重,它們之間存在這樣一個非線性函數關系,這樣的函數關系是輸入向量與參數向量作用之后,得到了一個輸出向量C,這個C被我們稱為激活值,而這個非線性函數則被稱為激活函數。”麥小苗倒是講得十分認真:“這里的A(0)=1是個偏置單元,與線性回歸中的零次項一致;”
“激活函數可以用Logistic/Sigmoid函數、tanh函數、ReLU函數等,用到激活函數的原因是如果不用的話,那么線性成分的疊加還是線性成分,整個神經網絡依然是線性的,無法擬合非線性假設。”
“我們給每個神經元都套上非線性函數,就能夠讓網絡真正的擬活,注意是擬活而不是激活,也就是說,現在我們構造的這個激活函數,其實是通過給線性單元套上非線性函數,用來擬合非常復雜的非線性運算的情況,也就是神經化。”
“于是機器就能夠通過深度學習,識別出‘莫聽穿林打葉聲,何妨吟嘯且徐行’;‘大明湖,明湖大,明湖上面有荷花,荷花上面有蛤蟆,一戳一蹦跶’,孰優孰劣了。”周至也學得十分認真。
“哈哈哈哈……”麥小苗不由得大笑了起來:“后面這首是誰寫的?太有意思了……”
“一個軍閥,山東王張宗昌,魯迅先生曾經給他取過一個外號,叫‘三不知將軍’,即不知道自己有多少兵,不知道自己有多少錢,不知道自己有多少姨太太。”
“哈哈哈……”麥小苗又被逗得忍不住笑了,按著自己的小肚子艱難地想憋笑:“要讓機器達到這個水平還有點難,不過幫助我們的圖形識別系統尋找匹配的邊緣,應該比現在的程序效率……要高一些吧……”
“小苗你不用跟我打埋伏。”周至說道:“能提高多少效率其實我并沒有抱多大的希望,就算資源多浪費一倍,效率減緩一倍,我們都可以接受,只要新的算法能夠成功就行,因為這是思路的勝利,我們先解決可行不可行的問題,再解決效率提升的問題。”
麥小苗笑了,說回了模型上來:“我們接受輸入的第一層為輸入層,提供輸出的最后一層為輸出層,中間所有的層為隱藏層。”
“隱藏層越多、隱藏層神經元越多,神經網絡就能擬合更復雜的情況,但是也更難訓練。”(本章完)
(https://www.dzxsw.cc/book/20803929/820843825.html)
1秒記住大眾小說網:www.dzxsw.cc。手機版閱讀網址:m.dzxsw.cc