从人工神经网络受到启发,思考了一下关于理论的理论。
1、理论可以用数学上的很多模型来描述,比如信息流,图,函数等等。但是不论用哪个模型描述,理论都可以分为输入端,处理端和输出端三个部分。
2、给定输入端的信息,输出端的信息有以下两种可能:确定的,不确定但概率分布可描述。
3、给定相同的输入,在不改变模型的情况下,输出相同。
4、经过理论处理的信息,信息熵增大。也就是信息的可用度减少。
这里考察一个人工神经网络,用大量数据训练好的人工神经网络可以看作一个近似理论的模型。这里我猜想这个网络与这个网络所近似的理论之间存在某种联系。拓扑结构上的?信息熵的改变量之间的?尚不清楚。也有可能不存在。
假如二者存在某种联系,是不是可以互相推导或者相互启发了?
还有一个问题是,真正合理的理论,在拓扑结构上有什么共性?信息的传递上有什么共性?假如存在这些共性并证明了,应该可以用来鉴别理论的真伪了。
本人才疏学浅,在这里抛砖引玉,相信各位民科吧的看官都是有一定学识的,不妨回去想想,当然你要骂我我也不阻止你,但毕竟我没有声称推翻某个板上钉钉的定理,所以还是请口下留情。
对了,我也是985学校毕业,因为爱好科学才在毕业后自己研究。如果你有好的想法我们可以交流。
1、理论可以用数学上的很多模型来描述,比如信息流,图,函数等等。但是不论用哪个模型描述,理论都可以分为输入端,处理端和输出端三个部分。
2、给定输入端的信息,输出端的信息有以下两种可能:确定的,不确定但概率分布可描述。
3、给定相同的输入,在不改变模型的情况下,输出相同。
4、经过理论处理的信息,信息熵增大。也就是信息的可用度减少。
这里考察一个人工神经网络,用大量数据训练好的人工神经网络可以看作一个近似理论的模型。这里我猜想这个网络与这个网络所近似的理论之间存在某种联系。拓扑结构上的?信息熵的改变量之间的?尚不清楚。也有可能不存在。
假如二者存在某种联系,是不是可以互相推导或者相互启发了?
还有一个问题是,真正合理的理论,在拓扑结构上有什么共性?信息的传递上有什么共性?假如存在这些共性并证明了,应该可以用来鉴别理论的真伪了。
本人才疏学浅,在这里抛砖引玉,相信各位民科吧的看官都是有一定学识的,不妨回去想想,当然你要骂我我也不阻止你,但毕竟我没有声称推翻某个板上钉钉的定理,所以还是请口下留情。
对了,我也是985学校毕业,因为爱好科学才在毕业后自己研究。如果你有好的想法我们可以交流。