送交者: scott 于 2020-04-17, 13:32:19:
回答: 语言、逻辑、更高规律、和不变性 由 scott 于 2020-04-17, 13:01:29:
在严肃杂志上的论文中用superhuman这种词,很容易误导。
Technological Singularity不但含义模糊,观点也错误。A meta solution to any problem这句话,倒是很正经、严肃、清晰,但观点也错误。
哥德尔定理证明了逻辑和数学都有明确上限。计算机,包括量子计算机,更缺乏人类的语言和抽象思维的进化能力。
这些是不同的语言问题和错误,需要不同对待。
对智力需要结构性、系统性研究。对语言的发展和规范,也需要作结构性研究,不同范畴用语的要求不同。
科学语言,更不同于普通语言,有不同的发展规律。这方面现在特别缺乏研究和教育。
闲聊时说“打嘴炮”这种话,生动活泼些,讨论学术时要慎用。
2003年SARS消失的原因,为什么没有好好研究?这种研究不能当商品来卖,只是些原理性研究。提出这种研究的人,是研究未知的问题,事先不可能有什么结果,研究计划被当作打嘴炮而否决,也很正常。
冠状病毒的研究很早就开始了。但HCoV-229E、HCoV-OC43、HCoV-NL63、HCoV-HKU1的毒性不大。而2003年的SARS死了几百人。然后很长时间平安无事。九年后,2012年开始的中东呼吸系统综合症也只死了几百人。然后2019年的新冠病毒,现在已经死了十几万人了。
所以我说模式的不稳定演变,会使小概率问题变成大概率问题。这种不稳定演变,不做结构性研究,靠deep-learning能行吗?
好几年前,就听说对driverless car的宣传,说The technologies are already ready, just the laws are behind。这是真的吗?
我是提醒过,driverless car的很多问题,要大规模应用很多年后,跟人的智力长时间密切交互后,才会暴露。
看看新冠病毒的灾难,推广driverless car造成的潜在问题,会使经济受到毁灭性打击,也不难理解。
所以,我提出通过测试AlphaGo Zero来研究一些人工智能技术的问题,可以避免大规模应用driverless car的灾难,就能发现一些问题。
我提出研究人工智能和deep-learning的问题,能用“打嘴炮”来判断吗?
科学起源于自然哲学。自然哲学不就是“打嘴炮”吗?中国为什么没有产生科学?不“打嘴炮”,能产生科学吗?
蒙古军队学了回回砲技术,就是重力抛石器,把襄阳的城防打破了。但没去学海什木“打嘴炮”的思想。
所以,用“打嘴炮”这种语言来判断科学研究,会把科学和文明引入歧途。