答的速度会非常快,而且准确度极高;如果用中文、日文、韩文、法文、德文等其他语言来提问,反应速度就会很慢,给出的答案也会错误百出。
因为其他语言的数据量太小了,训练出的模型就不够智能。
只有英文版最智能。
文心一言想要表达得智能一些,就不能对接中文的语料,要去对接英文的训练数据才行,然后背后再增加一套翻译算法和内容审查算法。
所以,想做出一款伟大的AI产品,除了在人工智能领域的顶尖算法之外,还有很重要的一个因素,就是训练AI模型的数据。
这些数据里,有些是开源的公共数据,全世界都可以用。有一些是私有数据,只有自己可以用。
像微软、谷歌、Facebook这种硅谷的巨头公司,除了可以使用庞大的公有数据外,还有庞大的有价值的英文私有数据可以使用,他们做出来的AI模型就会比只根据公有数据训练的AI模型要更加强大。
所以,周不器对内容很重要,尤其是海外的英文内容。
这些都是私有数据,都有可能成为紫微星在未来世界竞争中最宝贵的资产。
如果拉里·佩奇说的这款Knol真的是对标维基百科的产品,那就太有意义了。维基百科是公有数据,Knol就是私有数据。
“维基百科更像是一个词典,内容都比较基础,是偏大众的产品。Knol是由一部分有能力的权威用户来共同协作,用来解释一件事物的是什么、怎么做、起因经过结果及其周边事物,并且注明作者的真实资料,从而让内容更加地精准、权威。”
拉里·佩奇做了一个简单的比较。
周不器一下就听明白了Knol这款产品失败的原因。
信息的准确性、真实性,其实一点都不重要,大众根本不在乎真相,只在乎表象。这就会形成一种“越大众,越普及”、“越权威,越小众”的现象。
谷歌想把Knol打造