喜欢读书是好事儿,但是也读得那么认真,不停问问题,就有点过份了。
尤其是《苏厨》这种古代知识满满的,很多东西都在麦小苗认知范围以外,逮到了原创作者就在身边,好奇宝宝的问题简直就是一直不断。
比如第一章里周至写了眉山城门口的小桥叫做“通津桥”,说明这个桥过去不远就是码头,大家可以在那里坐船去往上下游城市。然后麦小苗就问其余地方如文庙,学署,书院,文昌宫的区别;又比如为什么叫附廓县,为什么附廓县就会存在州府县府两个衙门;火神庙是祭祀谁的,玉清观是祭祀谁的,东岳庙是祭祀谁的等等……
实话实说,就连最铁的书友也问不到这么细致的地方来,或者说许多对于国人来讲本身就属于常识,不过对于麦小苗这种中国历史文化“人菜瘾大”的读者来说,那就啥都想问了。
关键是有些问题还十分复杂,比如要讲玉清观就要讲到道教三清中的玉、上、太三清,然后讲玉清元始天尊在道教中的地位和宋代对道教的推崇,以及道教在蜀中的影响力等等,国学是可以从一个点扯出一张网的学问,因此“玉清观是祭祀谁的”这个问题,本身就是一个大题目。
周至本来是要改一改自己拉下的功课的,现在有了数字图书馆搜索引擎后,师祖祖的论文当中留下的许多让周至疑惑,或者周至自己所欠缺的知识点,就可以通过搜索相关内容解惑补齐巩固,结果遇到一个需要科普的小朋友,这就专心不起来了。
“小苗要不这样。”周至想了想:“帖子本身就有留言功能,你将问题留在章节里,等书友们来回答好不好”
“可以。”麦小苗倒是从善如流,然后又问出一个问题:“可是我现在是看的存稿,还没有发布啊”
“啊这……”周至想了想,打开文学论坛女生言情板块:“这几本热度都挺高的,要不你看这种吧,好多女生都喜欢看。”
“不看!”
“为什么”
“看她们的书哭得稀里哗啦的,卫生纸不够用!”
“呃……”周至犹豫了一下,一咬牙:“我还有一本,暂时还没准备发出去,写的是一个大学生回到家乡建设农村的,你看不看”
“是联和乡这样的农村吗你还真会就地取材。”
“呃……倒也不是,背景是我的老家,蛮州市夹川县。”
“你家乡”
“对!”
“好啊好啊,你给我看看!”
《山沟》这本书就好多了,麦小苗终于不再发问,还不时给书里的内容逗得咯咯直笑,看来颇为喜欢其中的内容。
两人就这样度过了一个晚上,偶尔喝点果干煮米酒,吃点坚果,然后一人,一人看论文,要不是周至催麦小苗去刷牙洗脸,这妞还不想休息。
周至不由得摇头,网络文学后劲大啊……
但是第二天报应就来了,四叶草集团动作很快第一批资源已经到位组网,包括算力与存储空间。
于是情况就来了一个颠倒,麦小苗在部署她带回来的算法程序的时候,周至就变成了昨晚麦小苗听周至科普时候的那个样子。
对于四叶草集团接包的vc程序开发,周至也是管理了的,甚至还参与了一些编写方案的讨论,对于编程,甚至编写工具类程序,他也并不是完全的门外汉,这是周至穿越到这一世以来颇为得意的一点,就是自己上一世的专业不但没有荒废,反而更上了层楼。
但是他上的这层楼和麦小苗脚下起步的台阶相比,相差得也有些远,这不是变成能力上的限制,而是数学理论上的鸿沟。
“设神经元的输入向量和参数向量分别为集合a和集合b,这两个集合又可被称为权重,它们之间存在这样一个非线性函数关系,这样的函数关系是输入向量与参数向量作用之后,得到了一个输出向量c,这个c被我们称为激活值,而这个非线性函数则被称为激活函数。”麦小苗倒是讲得十分认真:“这里的a(0)=1是个偏置单元,与线性回归中的零次项一致;”
“激活函数可以用logistic/sigmoid函数、tanh函数、relu函数等,用到激活函数的原因是如果不用的话,那么线性成分的叠加还是线性成分,整个神经网络依然是线性的,无法拟合非线性假设。”
“我们给每个神经元都套上非线性函数,就能够让网络真正的拟活,注意是拟活而不是激活,也就是说,现在我们构造的这个激活函数,其实是通过给线性单元套上非线性函数,用来拟合非常复杂的非线性运算的情况,也就是神经化。”
“于是机器就能够通过深度学习,识别出‘莫听穿林打叶声,何妨吟啸且徐行’;‘大明湖,明湖大,明湖上面有荷花,荷花上面有蛤蟆,一戳一蹦跶’,孰优孰劣了。”周至也学得十分认真。
“哈哈哈哈……”麦小苗不由得大笑了起来:“后面这首是谁写的太有意思了……”
“一个军阀,山东王张宗昌,鲁迅先生曾经给他取过一个外号,叫‘三不知将军’,即不知道自己有多少兵,不知道自己有多少钱,不知道自己有多少姨太太。”
“哈哈哈……”麦小苗又被逗得忍不住笑了,按着自己的小肚子艰难地想憋笑:“要让机器达到这个水平还有点难,不过帮助我们的图形识别系统寻找匹配的边缘,应该比现在的程序效率……要高一些吧……”
“小苗你不用跟我打埋伏。”周至说道:“能提高多少效率其实我并没有抱多大的希望,就算资源多浪费一倍,效率减缓一倍,我们都可以接受,只要新的算法能够成功就行,因为这是思路的胜利,我们先解决可行不可行的问题,再解决效率提升的问题。”
麦小苗笑了,说回了模型上来:“我们接受输入的第一层为输入层,提供输出的最后一层为输出层,中间所有的层为隐藏层。”
“隐藏层越多、隐藏层神经元越多,神经网络就能拟合更复杂的情况,但是也更难训练。”